




Resumen: Buscamos un Ingeniero de Datos para evolucionar la infraestructura de datos, optimizar los flujos de datos y garantizar la disponibilidad y calidad de los datos mediante la colaboración con científicos de datos y analistas. Aspectos destacados: 1. Diseñar, construir, probar y mantener sistemas de gestión de datos altamente escalables 2. Colaborar con arquitectos de datos, modeladores y equipos de TI 3. Oportunidad de evolucionar y optimizar la infraestructura de datos Buscamos un Ingeniero de Datos para evolucionar nuestra infraestructura de datos, optimizar los flujos de datos y garantizar la disponibilidad y calidad de los datos. Trabajarás en estrecha colaboración con científicos de datos y analistas para mantener una arquitectura coherente y escalable de entrega de datos en todos los proyectos en curso. **Responsabilidades** * Diseñar, construir, instalar, probar y mantener sistemas de gestión de datos altamente escalables. * Asegurar que las soluciones cumplan con los requisitos empresariales y las mejores prácticas del sector. * Integrar/re\-ingenierizar tecnologías emergentes de gestión de datos e ingeniería de software en las pilas de datos existentes. * Definir y documentar procesos estandarizados para minería de datos, modelado de datos y producción de datos. * Utilizar diversos lenguajes y herramientas para integrar sistemas (por ejemplo, Python, SQL). * Recomendar mejoras para incrementar la fiabilidad, eficiencia y calidad de los datos. * Colaborar con arquitectos de datos, modeladores y equipos de TI para alinear objetivos del proyecto. **Requisitos** * Título universitario (Licenciatura/Maestría) en Ciencias de la Computación, Ingeniería o campo relacionado, o experiencia demostrada equivalente como Ingeniero de Datos, Desarrollador de Software o rol similar. * Conocimientos sólidos del ecosistema Apache (Parquet, Hadoop, Spark, Kafka, Airflow). * Experiencia práctica avanzada con servicios de datos de AWS (Amazon Redshift, Kinesis, Glue, S3\). * Experiencia comprobada en la construcción y optimización de pipelines de big data, arquitecturas y conjuntos de datos. * Excelentes habilidades analíticas al trabajar con conjuntos de datos no estructurados. * Experiencia con bases de datos relacionales SQL y NoSQL, preferiblemente Snowflake y/o Databricks. * Conocimiento de herramientas de orquestación de pipelines y flujos de trabajo de datos. * Excelentes habilidades de gestión de proyectos y organización. * Excelentes habilidades comunicativas escritas y verbales. * Conocimientos de Snaplogic son un plus. * Competencia en lenguajes de scripting como Python o Scala. * Familiaridad con herramientas de visualización de datos (por ejemplo, Tableau, Power BI, QuickSight). * Certificaciones AWS Cloud Practitioner, Architecture, Big Data. \#IamBoehringerIngelheim porque… Trabajamos continuamente para diseñar la mejor experiencia para ti. Aquí tienes algunos ejemplos de cómo nos ocuparemos de ti: * Condiciones laborales flexibles * Seguro de vida y accidentes * Seguro médico a un precio competitivo * Inversión en tu aprendizaje y desarrollo * Descuentos en membresías de gimnasio Si has leído hasta aquí, ¿qué estás esperando para aplicar? ¡Queremos saber más sobre ti!


