




**Estamos contratando: Ingeniero de Datos (Azure y Databricks)** Estamos buscando un **Ingeniero de Datos de nivel intermedio a sénior** con experiencia práctica en **Azure Databricks** y prácticas modernas de ingeniería de datos para unirse a nuestro equipo de datos en crecimiento y ayudarnos a construir nuestra plataforma de datos de próxima generación. Si tienes entre 5 y 6 años de experiencia relevante desarrollando canalizaciones ETL/ELT y trabajando con la pila de datos de Azure, este podría ser un excelente ajuste. **Descripción del puesto** En este puesto, trabajarás en el diseño y desarrollo de canalizaciones de datos escalables utilizando **Databricks (PySpark/Spark SQL)** y servicios en la nube de Azure. Apoyarás a los equipos de análisis, BI y producto entregando conjuntos de datos limpios y confiables, así como modelos de datos bien estructurados. Conocimientos de **Power BI y Fabric** son altamente valorados. **Responsabilidades principales** * Desarrollar y mantener **canalizaciones de datos ETL/ELT** usando Azure Databricks (PySpark, Spark SQL). * Trabajar con **Delta Lake** (capas Bronze/Silver/Gold) para transformaciones de datos escalables. * Integrar y procesar datos procedentes de múltiples fuentes (APIs, bases de datos, almacenamiento). * Colaborar en la orquestación de canalizaciones mediante **Azure Data Factory** o Synapse. * Trabajar con ADLS Gen2, One Lake, Azure SQL, Key Vault, Event Hub y otros recursos de Azure. * Implementar controles de calidad de datos, documentación y mejores prácticas. * Optimizar el uso de clústeres, rendimiento de trabajos y tiempos de ejecución de canalizaciones. * Apoyar a los equipos de BI, análisis y producto entregando conjuntos de datos limpios que puedan usarse para informes, análisis autoservicio, entrenamiento de modelos de aprendizaje automático o mejorar productos de IA como chatbots con conocimiento específico del cliente. **Competencias requeridas** * 5\-6 años de experiencia práctica como **Ingeniero de Datos**. * Experiencia demostrada con **Azure Databricks** (PySpark/Spark SQL). * Sólido conocimiento de **Delta Lake** y conceptos de data lakehouse. * Experiencia con **Azure Data Factory**, ADLS Gen2, Azure SQL y servicios relacionados de Azure. * Buen manejo de SQL y conocimiento de procesos ETL/ELT. * Experiencia usando Git, Terraform y mejores prácticas DevOps. **Valorable** * Conocimientos de **Power BI** (modelado de datos, DAX, Power Query). * Experiencia con MLflow y Microsoft Fabric - One Lake. * Familiaridad con metodologías ágiles de trabajo. * Experiencia preparando datos que puedan conectarse a sistemas LLM en un entorno tipo RAG. **Ubicación** Noruega (Oslo), España (Málaga o Madrid) **Sobre el proceso de selección** Realizaremos contrataciones progresivamente, por lo que no dudes en postularte enviando tu CV en inglés. Se solicitará una verificación de antecedentes penales al candidato seleccionado. ***¿Listo para marcar la diferencia?*** *Descubre lo que nuestros empleados en Tecnología dicen sobre la cultura en Sector Alarm:*


