Sobre nosotros: En ORBIDI buscamos a apasionados por la tecnología y el marketing para unirse a nuestro equipo y ayudar a las pequeñas empresas a crecer y mantenerse competitivas en el mercado. Utilizamos inteligencia artificial, modelos predictivos y tecnologías avanzadas para ayudar a las PYMEs a digitalizarse y mejorar sus resultados. ¡Únete a nuestra misión de ayudar a las empresas a impulsar el éxito! El rol: Diseñar, construir y mantener infraestructuras de datos escalables y robustas. Trabajar de cerca con equipos de ciencia de datos e ingeniería para integrar sistemas complejos y garantizar la calidad y eficiencia de los datos. Suobjetivo será permitir el análisis avanzado y la toma de decisiones basada en datos, asegurando que la información sea accesible, fiable y manejable. Además de aportar innovación técnica y una fuerte habilidad para resolver problemas en un entorno dinámico y colaborativo. ¿Qué harás con nosotros? Diseñar, construir y gestionar pipelines de datos utilizando tecnologías como DBT, Snowflake y AWS(EKS, Lambda, S3, AWSBatch). Implementar y optimizar procesos de orquestación de datos con herramientas como Airflow o Dagster. Asegurar la disponibilidad, integridad y precisión de las fuentes de datos para las partes interesadas. Proponer e implementar nuevas metodologías para la orquestación y observabilidad de datos, optimizando los pipelines existentes. Trabajar de forma autónoma en la toma de decisiones técnicas y de arquitectura, sin la necesidad de supervisión directa. Proporcionar liderazgo técnico, proponiendo nuevas ideas y estrategias para mejorar la eficiencia y efectividad de los procesos de datos. Priorizar tareas y proyectos de forma autónoma, comunicando proactivamente el progreso y los desafíos a las partes interesadas. Adaptarse cómodamente a los cambios de prioridades en un entorno dinámico y de rápido movimiento. Fomentar un ambiente de colaboración, trabajando en equipo y proporcionando mentoría a otros miembros del equipo en mejores prácticas de gestión de datos. Lo que te hará triunfar: Título en Ciencias de la Computación, Ingeniería de Sistemas, o experiencia previa relacionada. Fuerte conocimiento en SQL. Conocimientos en herramientas de CI/CD, git, github. Modelado y transformación de datos con SQL. Fuerte conocimiento en Python. Experiencia comprobable en arquitectura de datos Batch. Diseño, implementación y orquestación de Pipelines y proceso de ELT, ETL. Se valorará positivamente: Experiencia previa en startups. Conocimientos en Visualización de Datos con Power BI. Buenas habilidades de comunicación, tanto escrita como verbal. Experiencia en transferencia de datos Streaming #J-18808-Ljbffr