




Resumen: Buscamos un Ingeniero Senior de Datos en Snowflake altamente cualificado para diseñar, construir y optimizar tuberías de datos escalables y soluciones basadas en la nube en AWS, Azure y GCP para una destacada empresa farmacéutica. Aspectos destacados: 1. Diseñar y optimizar tuberías de datos escalables y soluciones en la nube 2. Modernizar la infraestructura de datos con Snowflake para soluciones avanzadas de inteligencia artificial 3. Colaborar con equipos multifuncionales y partes interesadas del negocio ##### **Descripción del proyecto** El proyecto corresponde a una de las empresas más reconocidas del mundo en ciencia y tecnología dentro del sector farmacéutico, apoyando iniciativas en AWS, inteligencia artificial e ingeniería de datos, con planes de lanzar más de 20 iniciativas adicionales en el futuro. La modernización de la infraestructura de datos mediante la migración a Snowflake constituye una prioridad, ya que potenciará las capacidades para implementar soluciones avanzadas de inteligencia artificial y desbloqueará numerosas oportunidades de innovación y crecimiento. Buscamos un Ingeniero de Datos en Snowflake altamente cualificado para diseñar, construir y optimizar tuberías de datos escalables y soluciones basadas en la nube en AWS, Azure y GCP. El candidato ideal contará con sólida experiencia en Snowflake, herramientas ETL como DBT, Python, herramientas de visualización como Tableau y prácticas modernas de CI/CD, además de un profundo conocimiento de gobernanza de datos, seguridad y control de acceso basado en roles (RBAC). Es indispensable contar con conocimientos sobre metodologías de modelado de datos (OLTP, OLAP, Data Vault 2.0), marcos de calidad de datos, desarrollo de aplicaciones Streamlit, integración con SAP e infraestructura como código con Terraform. Se valora muy positivamente la experiencia trabajando con distintos formatos de archivo como JSON, Parquet, CSV y XML. ##### **Responsabilidades** Diseñar y desarrollar tuberías de datos utilizando Snowflake y Snowpipe para ingesta en tiempo real y por lotes. Implementar tuberías de CI/CD en Azure DevOps para una implementación fluida de soluciones de datos. Automatizar trabajos de DBT para agilizar transformaciones y garantizar flujos de trabajo de datos fiables. Aplicar técnicas de modelado de datos, incluidas las metodologías OLTP, OLAP y Data Vault 2.0, para diseñar arquitecturas escalables. Documentar claramente los modelos de datos, procesos y flujos de trabajo para futuras referencias y compartición de conocimientos. Desarrollar pruebas de datos, pruebas unitarias y marcos de datos simulados para validar y mantener la fiabilidad de las soluciones de datos. Desarrollar aplicaciones Streamlit integradas con Snowflake para ofrecer paneles interactivos y análisis autoservicio. Integrar fuentes de datos SAP en las tuberías de Snowflake para informes y análisis empresariales. Aprovechar la experiencia en SQL para consultas complejas, transformaciones y optimización del rendimiento. Integrar servicios en la nube en AWS, Azure y GCP para respaldar estrategias de datos multi-nube. Desarrollar scripts en Python para procesos ETL/ELT, automatización y verificaciones de calidad de datos. Implementar soluciones de infraestructura como código mediante Terraform para despliegues en la nube escalables y automatizados. Gestionar el control de acceso basado en roles (RBAC) y aplicar políticas de gobernanza de datos para garantizar el cumplimiento normativo y un acceso seguro a los datos. Colaborar con equipos multifuncionales, incluidos analistas comerciales y partes interesadas del negocio, para entregar soluciones de datos fiables. ##### **Habilidades** Imprescindibles Conocimiento sólido de Snowflake (Snowpipe, RBAC, ajuste de rendimiento). Experiencia práctica con Python, SQL, Jinja y JavaScript para tareas de ingeniería de datos. Experiencia en CI/CD con Azure DevOps (compilación, liberación, control de versiones). Experiencia automatizando trabajos de DBT para transformaciones de datos. Experiencia desarrollando aplicaciones Streamlit con integración en Snowflake. Conocimiento de servicios en la nube en AWS (S3, Lambda, Glue), Azure (Data Factory, Synapse) y GCP (BigQuery, Pub/Sub). Deseable Certificaciones en la nube son un plus. ##### **Otros** Idiomas Inglés: B2 Intermedio Alto Nivel de experiencia Senior Teletrabajo en España, España Req. VR-120562 Desarrollo de almacenes de datos (DWH) Industria HLS y de consumo 30/01/2026 Req. VR-120562


