¡Únete a nuestro equipo como Ingeniero de Datos y lleva tu carrera al siguiente nivel! Buscamos un profesional apasionado por los datos y con habilidades avanzadas en SQL y programación en Java o Python. Ofrecemos un ambiente dinámico y retador donde podrás desarrollar todo tu potencial. Responsabilidades: DIseñar, implementar y optimizar procesos ETL/ELT y pipelines de datos. Análisis y manejo avanzado de bases de datos SQL y NoSQL. Desarrollo de scripts en Python o Java para la extracción de datos. Colaborar con equipos multidisciplinarios (científicos de datos, analistas, ingenieros de software) para implementar soluciones escalables de procesamiento y análisis de datos. Diseñar, implementar y gestionar pipelines de datos para procesar grandes volúmenes de información en entornos distribuidos. Implementación y mantenimiento de soluciones de datos en plataformas de nube como Google Cloud, AWS y Azure. Asegurar la calidad, integridad y disponibilidad de los datos para la toma de decisiones estratégicas. Monitorear y optimizar el rendimiento de los sistemas de datos para garantizar alta disponibilidad y eficiencia. Requerimientos: Formación académica en Telecomunicaciones Sistemas Desarrollo de Software o afines a TICS. Experiencia comprobable en manejo avanzado de SQL. Conocimientos avanzados en lenguajes de programación Java o Python enfocados en extracción de datos. Experiencia en diseño y optimización de procesos ETL/ELT y pipelines de datos. Conocimiento y experiencia en plataformas de cloud computing como Google Cloud, AWS, Azure, con especial atención a servicios de datos (BigQuery, Redshift, Databricks, etc.). Familiaridad con herramientas de orquestación como Apache Airflow, Luigi o similares. Conocimiento en infraestructura de datos: data lakes, data warehouses y arquitecturas modernas de datos Contenerización de aplicaciones y entornos de datos (ejm docker). Control de versiones y colaboración en equipo a través de Git y herramientas de repositorio como GitHub, GitLab o Bitbucket. Deseable: Conocimiento de tecnologías de procesamiento de datos en tiempo real como Kafka, Flink o Spark Streaming. Experiencia con modelado de datos y diseño de bases de datos escalables. Certificaciones en nube (AWS Certified Data Engineer - Associate, Google Professional Data Engineer, etc.). Habilidades en Git y Docker, preferentemente con experiencia en implementaciones CI/CD (integración y despliegue continuo). Habilidades en visualización de datos o experiencia trabajando con equipos de analistas y científicos de datos. #J-18808-Ljbffr