¡Únete a nuestro equipo como Ingeniero de Datos y lleva tu carrera al siguiente nivel!
Buscamos un profesional apasionado por los datos y con habilidades avanzadas en SQL y programación en Java o Python.
Ofrecemos un ambiente dinámico y retador donde podrás desarrollar todo tu potencial.
Responsabilidades: DIseñar, implementar y optimizar procesos ETL/ELT y pipelines de datos.
Análisis y manejo avanzado de bases de datos SQL y NoSQL.
Desarrollo de scripts en Python o Java para la extracción de datos.
Colaborar con equipos multidisciplinarios (científicos de datos, analistas, ingenieros de software) para implementar soluciones escalables de procesamiento y análisis de datos.
Diseñar, implementar y gestionar pipelines de datos para procesar grandes volúmenes de información en entornos distribuidos.
Implementación y mantenimiento de soluciones de datos en plataformas de nube como Google Cloud, AWS y Azure.
Asegurar la calidad, integridad y disponibilidad de los datos para la toma de decisiones estratégicas.
Monitorear y optimizar el rendimiento de los sistemas de datos para garantizar alta disponibilidad y eficiencia.
Requerimientos: Formación académica en Telecomunicaciones Sistemas Desarrollo de Software o afines a TICS.
Experiencia comprobable en manejo avanzado de SQL.
Conocimientos avanzados en lenguajes de programación Java o Python enfocados en extracción de datos.
Experiencia en diseño y optimización de procesos ETL/ELT y pipelines de datos.
Conocimiento y experiencia en plataformas de cloud computing como Google Cloud, AWS, Azure, con especial atención a servicios de datos (BigQuery, Redshift, Databricks, etc.).
Familiaridad con herramientas de orquestación como Apache Airflow, Luigi o similares.
Conocimiento en infraestructura de datos: data lakes, data warehouses y arquitecturas modernas de datos Contenerización de aplicaciones y entornos de datos (ejm docker).
Control de versiones y colaboración en equipo a través de Git y herramientas de repositorio como GitHub, GitLab o Bitbucket.
Deseable: Conocimiento de tecnologías de procesamiento de datos en tiempo real como Kafka, Flink o Spark Streaming.
Experiencia con modelado de datos y diseño de bases de datos escalables.
Certificaciones en nube (AWS Certified Data Engineer - Associate, Google Professional Data Engineer, etc.).
Habilidades en Git y Docker, preferentemente con experiencia en implementaciones CI/CD (integración y despliegue continuo).
Habilidades en visualización de datos o experiencia trabajando con equipos de analistas y científicos de datos.
#J-18808-Ljbffr