




Resumen: Buscamos un Arquitecto Senior de Datos con experiencia en Azure y Databricks para diseñar arquitecturas de datos escalables y garantizar la gobernanza, la seguridad y el cumplimiento normativo en iniciativas estratégicas de datos y análisis. Aspectos destacados: 1. Diseñar una arquitectura de datos empresarial escalable utilizando Azure y Databricks 2. Definir y mantener estándares de modelado de datos y la arquitectura en capas (medallion architecture) 3. Garantizar la gobernanza de los datos, la seguridad y el cumplimiento del Reglamento General de Protección de Datos (RGPD) Arquitecto Senior de Datos (Azure \+ Databricks) Buscamos un Arquitecto Senior de Datos con amplia experiencia en plataformas de datos Azure y Databricks para apoyar iniciativas estratégicas de datos y análisis en un entorno empresarial con sede en Barcelona (modelo híbrido). El candidato será responsable de diseñar arquitecturas de datos escalables, definir estándares de modelado de datos y garantizar la gobernanza, la seguridad y el cumplimiento normativo en toda la plataforma de datos. **Cualificaciones requeridas:** Título universitario en Informática, Matemáticas o una disciplina técnica relacionada. **Experiencia profesional:** Mínimo 6 años de experiencia en puestos de arquitectura de datos o ingeniería de datos trabajando con entornos en la nube de Azure y plataformas Databricks. **Principales responsabilidades:** Diseñar e implementar una arquitectura de datos empresarial escalable utilizando Azure y Databricks. Definir y mantener estándares de modelado de datos y marcos de arquitectura en capas (medallion architecture). Garantizar la gobernanza de los datos, las mejores prácticas de seguridad en redes y el cumplimiento del Reglamento General de Protección de Datos (RGPD) en toda la plataforma de datos. Optimizar trabajos y clústeres de Apache Spark en entornos Databricks. Colaborar con equipos de análisis e ingeniería para apoyar soluciones empresariales de datos. Proporcionar liderazgo técnico y orientación arquitectónica. **Tecnologías requeridas:** Azure Storage, Azure Data Factory, Databricks, Apache Spark, Unity Catalog, Delta Lake, Power BI, modelado de datos, Captura de cambios de datos (CDC). **Tecnologías deseables:** Python, PySpark, Scala, SQL, AWS, GCP, Infraestructura como código (plantillas Bicep o ARM), Microsoft Azure Fabric. **Idiomas:** Nivel experto en inglés requerido. **Habilidades del candidato:** Fuerte sentido de propiedad, atención a la calidad de los datos, actitud proactiva, capacidad para trabajar de forma autónoma, excelentes habilidades para la resolución de problemas, capacidad de trabajo en equipo y liderazgo, y habilidad para redactar soluciones técnicas limpias y bien documentadas. Azure Storage, Azure Data Factory, Databricks, Apache Spark, Unity Catalog, Delta Lake, Power BI


