Ingeniero/a de Datos (Data Engineer) - AWS | Integración y Pipelines - Universidad San Sebastián

Fecha: 22 abr. 2026

Ubicación: USS Santa Clara, Metropolitana de Santiago, CL

Empresa: Universidad San Sebastian (USS)

Descripción

En Universidad San Sebastián nos encontramos en búsqueda de un/a Ingeniero/a de Datos para integrarse al equipo de Gobierno de Datos, con base en Ciudad Empresarial, Huechuraba, en modalidad presencial.

 

Objetivo del Cargo

Diseñar, desarrollar y mantener pipelines y soluciones de integración de datos en el ecosistema analítico institucional sobre AWS, asegurando la disponibilidad, calidad y trazabilidad de la información mediante procesos eficientes, escalables y alineados a los estándares técnicos definidos.

 

Principales Funciones

Ingeniería de Datos & Pipelines – 50%

  • Diseñar, desarrollar y mantener pipelines de datos utilizando Python/PySpark y servicios AWS (Glue, Lambda, Step Functions, SNS).
  • Integrar datos desde sistemas institucionales (académicos, administrativos u otros).
  • Implementar procesos de ingesta, transformación y almacenamiento de datos.

Modelamiento & Arquitectura de Datos – 20%

  • Diseñar y optimizar estructuras de datos relacionales y no relacionales.
  • Asegurar modelos consistentes, escalables y eficientes para analítica.

Calidad, Automatización y Gobierno – 20%

  • Desarrollar procesos automatizados de validación, monitoreo y control de calidad de datos (Python/SQL).
  • Aplicar buenas prácticas de versionamiento, trazabilidad y calidad de código (Git, CI/CD, SonarQube, entre otros).

Analítica y Trabajo Colaborativo – 10%

  • Apoyar soluciones analíticas (Power BI, Athena).
  • Coordinar con equipos técnicos (infraestructura, seguridad, BI y desarrollo) para asegurar la correcta operación de las soluciones de datos.

 

Requisitos

Formación:

  • Ingeniería Civil Industrial, Ingeniería en Informática, Ingeniería en Computación o carrera afín.
  • Deseable certificaciones o especialización en AWS, ingeniería de datos o arquitectura cloud.

Experiencia:

  • Al menos 5 años en roles de ingeniería de datos.
  • Experiencia en desarrollo de pipelines y procesamiento de grandes volúmenes de datos.

Conocimientos técnicos:

  • Python avanzado (ideal PySpark) y SQL avanzado.
  • Servicios AWS: S3, Glue, Athena, Lambda, Step Functions, SNS, CloudWatch.
  • Modelamiento de datos y bases de datos relacionales y no relacionales.
  • Manejo de formatos de datos (Parquet, JSON).

Deseables:

  • Terraform.
  • Redshift, Iceberg, Scala.
  • Integración de datos desde sistemas como ERP, LMS u otros.
  • Experiencia en educación superior (no excluyente).