Ingeniero/a de Datos (Data Engineer) - AWS | Integración y Pipelines - Universidad San Sebastián
Fecha: 22 abr. 2026
Ubicación: USS Santa Clara, Metropolitana de Santiago, CL
Empresa: Universidad San Sebastian (USS)
Descripción
En Universidad San Sebastián nos encontramos en búsqueda de un/a Ingeniero/a de Datos para integrarse al equipo de Gobierno de Datos, con base en Ciudad Empresarial, Huechuraba, en modalidad presencial.
Objetivo del Cargo
Diseñar, desarrollar y mantener pipelines y soluciones de integración de datos en el ecosistema analítico institucional sobre AWS, asegurando la disponibilidad, calidad y trazabilidad de la información mediante procesos eficientes, escalables y alineados a los estándares técnicos definidos.
Principales Funciones
Ingeniería de Datos & Pipelines – 50%
- Diseñar, desarrollar y mantener pipelines de datos utilizando Python/PySpark y servicios AWS (Glue, Lambda, Step Functions, SNS).
- Integrar datos desde sistemas institucionales (académicos, administrativos u otros).
- Implementar procesos de ingesta, transformación y almacenamiento de datos.
Modelamiento & Arquitectura de Datos – 20%
- Diseñar y optimizar estructuras de datos relacionales y no relacionales.
- Asegurar modelos consistentes, escalables y eficientes para analítica.
Calidad, Automatización y Gobierno – 20%
- Desarrollar procesos automatizados de validación, monitoreo y control de calidad de datos (Python/SQL).
- Aplicar buenas prácticas de versionamiento, trazabilidad y calidad de código (Git, CI/CD, SonarQube, entre otros).
Analítica y Trabajo Colaborativo – 10%
- Apoyar soluciones analíticas (Power BI, Athena).
- Coordinar con equipos técnicos (infraestructura, seguridad, BI y desarrollo) para asegurar la correcta operación de las soluciones de datos.
Requisitos
Formación:
- Ingeniería Civil Industrial, Ingeniería en Informática, Ingeniería en Computación o carrera afín.
- Deseable certificaciones o especialización en AWS, ingeniería de datos o arquitectura cloud.
Experiencia:
- Al menos 5 años en roles de ingeniería de datos.
- Experiencia en desarrollo de pipelines y procesamiento de grandes volúmenes de datos.
Conocimientos técnicos:
- Python avanzado (ideal PySpark) y SQL avanzado.
- Servicios AWS: S3, Glue, Athena, Lambda, Step Functions, SNS, CloudWatch.
- Modelamiento de datos y bases de datos relacionales y no relacionales.
- Manejo de formatos de datos (Parquet, JSON).
Deseables:
- Terraform.
- Redshift, Iceberg, Scala.
- Integración de datos desde sistemas como ERP, LMS u otros.
- Experiencia en educación superior (no excluyente).