Sobre Puntos Colombia: En Puntos Colombia tenemos la ambición de seguir siendo el programa de lealtad más grande del país y estamos convencidos que eso se logra construyendo una cultura genial, donde las personas de nuestro equipo de trabajo tengan una remuneración competitiva, beneficios extralegales que reconozcan su compromiso y puedan ser aprovechados por su grupo familiar. Si te gustan los retos, desarrollar tu potencial en un entorno de aprendizaje y bienestar,compartir con personas excepcionales y hacer parte de una cultura innovadora, ágil, diversa e incluyente, Puntos Colombia es el lugar para ti. Sobre la posición: Estamos buscando un Genio que emprenda con nosotros el desafío de entregar experiencias únicas y personalizadas, únete a nuestro equipo genial comoIngeniero de Datos BI, si cumples con las siguientes competencias: Experiencia de más de 2 años trabajando como ETL Developer en nube. Profesional en Ingeniería de Sistemas, Electrónica/Telecomunicaciones, Economía, Administración o afines a desarrollo de código. Experiencia en lenguajes: SQL, Python, Git, DBT Experiencia con ecosistema de nube AWS: Lambda, Glue, Step Functions, Cloudwatch, S3, Athena, Redshift, EC2, Dynamo. Habilidades analíticas y de resolución de problemas. Capacidad para trabajar en equipo, comunicación y manejo de usuarios Certificaciones deseables: AWS Cloud Practitioner (Fundational), AWS Data Engineer (Associate) Responsabilidades: Desarrollar y mantener procesos ETL para la extracción, transformación y carga de datos desde múltiples fuentes hacia sistemas de destino. Optimizar los procesos de ETL para mejorar la eficiencia, la velocidad y la escalabilidad. Monitorear y solucionar problemas relacionados con la integridad y la calidad de los datos durante todo el ciclo de vida del proceso ETL. Aplicar buenas prácticas de desarrollo en los pipelines de datos y programación orientada a objetos (POO). Documentar en detalle los procesos ETL, incluidos los flujos de datos, las transformaciones y los procedimientos de carga. Identificar, diseñar e implementar mejoras de procesos internos: automatizar procesos manuales, optimizar la entrega de datos. Desarrollar quality-checks en los flujos de datos. Asegurar una disponibilidad del dato para que pueda ser correctamente consumido. Diseñar y desarrollar los pipelines de datos desde producción & BBDD operacionales a capas de la plataforma de datos. Entendimiento y construcción de los modelos analíticos que permitan generar valor a los usuarios. #J-18808-Ljbffr