**Descripción**:
**Misión**:
Administrar, optimizar, supervisar y monitorear la recuperación, el almacenamiento y la distribución de datos en todos los sistemas involucrados, extrayendo información desde las bases de datos de producción o bases de datos externas y cargando dicha información en sistemas de análisis usados por el equipo de data science bien sea para procesos orquestados o en streaming, para así reportar resultados a clientes internos o externos.
**Responsabilidades**:
- Obtener datos, teniendo en cuenta bases de datos transaccionales, desde streamings, desde APIS externos, desde sistemas de archivos en la nube, para enriquecer bases de datos transaccionales o para procesos en los que se relicen modelos predictivos o de inteligencia de negocio.
- Desarrollar los procesos establecidos de data, construyendo, probando y manteniendo diferentes arquitecturas, usando herramientas en la nube tales como Cassandra, Hadoop, Spark, Flink y lenguajes de programación, utilizando grandes conjuntos de datos e identificando formas de mejorar la confiabilidad, eficiencia y calidad de los datos, para preservar la integridad de la información.
- Diseñar y mantener una bodega de datos para la organización, Llevando a cabo investigaciones para cuestiones del negocio y de la industria que parten de los lineamientos de Producto y modelando cada uno de los segmentos establecidos por producto y definiendo los patrones que se llevarán en la bodega de datos, creando un modelo de entidad-relación en su gran mayoría definido por el star pattern, para facilitar el entendimiento de segmentos del negocio de los stakeholders y analistas de datos.
- Implementar programas de análisis sofisticados y métodos estadísticos, de acuerdo con los requerimientos del Data Scientist o del analista de datos, hacer tratamientos estadísticos de los datos y darles visibilidad en la bodega de datos, para facilitar el entendimiento de segmentos del negocio de los stakeholders y analistas de datos.
- Administrar cronjobs, de acuerdo con los requerimientos de los stakeholders, las necesidades del negocio, haciendo uso de herramientas como airflow y programando flujos de automatización por medio de Python, para descubrir tareas que puedan automatizarse que permitan reducir el porcentaje de error y la carga operativa.
**Requisitos**:
**Formación**:Ingeniería de Sistemas, ciencias de la computación, sistemas de información, matemáticas o afines.
**Conocimientos**:
- Conocimiento en construcción y mantenimiento de sistemas de base de datos.
- Conocimientos básicos en lenguajes de programación como SQL, Python o R.
- Conocimiento de búsqueda de soluciones de almacenamiento y en el uso de herramientas -ETL (Extracción, Transferencia, Carga).
- Deseable:_
- Conocimiento de algoritmos y estructuras de datos.
- Conocimiento básico de aprendizaje automático y algoritmos.
- Conocimiento básico en metodologías ágiles.
**Habilidades**:
Inglés A2
**Experiência**:+ 3 años de experiência como ingeniero de datos o funciones similares.
**Competencias**:
- Comunicación Asertiva
- Trabajo Colaborativo
- Orientación al logro
- Competencia Técnica