




Resumen del Puesto: Calsina Carré busca un/a Data Engineer para diseñar y construir el modelo de datos corporativo dentro de una arquitectura medallion en Databricks, asegurando calidad y rendimiento. Puntos Destacados: 1. Participa en la construcción de la plataforma de datos corporativa. 2. Forma parte de un proyecto estable en una compañía líder. 3. Colabora con equipos de BI y negocio para definir KPIs. **Descripción:** ---------------- ¿Tienes experiencia consolidada en ingeniería de datos y quieres participar en la construcción de una arquitectura moderna en un entorno empresarial en transformación? En Calsina Carré, multinacional líder en el sector logístico, buscamos un/a Data Engineer para reforzar el equipo de Data \& Analytics dentro del área de IT. **Quiénes somos** Calsina Carré es una compañía con más de 50 años en el sector logístico, con sede en Pont de Molins (Figueres, Girona) y presencia internacional en Europa y el norte de África. Estamos inmersos en un proceso de transformación digital y de modernización de nuestra plataforma de datos. **¿Qué harás?** Reportando al Responsable de Data, tu misión será diseñar y construir el modelo de datos corporativo, dentro de una arquitectura medallion en Databricks, asegurando calidad, rendimiento y consistencia. Tus principales responsabilidades serán: **Modelado de datos** * Definir y mantener modelos OLTP y OLAP. * Modelado relacional y dimensional (normalización, estrella, copo de nieve). * Asegurar que el modelo soporta las necesidades de reporting, analítica y operación. **Arquitectura Medallion en Databricks** * Diseñar las capas Bronze, Silver y Gold siguiendo buenas prácticas. * Implementar tablas Delta Lake, particiones, optimizaciones e historificación. * Estandarizar patrones de ingestión y publicación. **Procesos ETL/ELT** * Diseñar, desarrollar y mantener pipelines de integración. * Automatizar cargas, transformaciones y validaciones. * Monitorizar ejecuciones y asegurar disponibilidad y puntualidad del dato. **Calidad y gobierno del dato** * Definir reglas de calidad y validar su cumplimiento. * Documentar modelos, linaje y catálogo de datos. * Garantizar fiabilidad, trazabilidad y consistencia de la información. **Rendimiento, seguridad y costes** * Optimizar consultas y jobs (SQL tuning, particiones, cachés). * Colaborar en mecanismos de seguridad y control de acceso. * Considerar el impacto en costes de la arquitectura y los recursos. **Colaboración con BI y negocio** * Trabajar con el equipo de Power BI para exponer modelos gobernados. * Dar soporte en la definición de entidades y KPIs. * Traducir necesidades empresariales en requisitos de datos claros. **Buenas prácticas y mejora continua** * Aplicar principios DataOps/DevOps: Git, versionado, entornos, despliegues. * Proponer mejoras en arquitectura, herramientas y procesos. * Mantener y documentar modelos y pipelines existentes. La posición permite trabajo en remoto, valorando desplazamientos periódicos a Pont de Molins. **¿Qué ofrecemos?** * Proyecto estable en una compañía en crecimiento y referente en el sector logístico. * Participar directamente en la construcción de la plataforma de datos corporativa. * Posibilidad de trabajo en remoto. * Retribución competitiva según experiencia y encaje con el puesto. * Contrato indefinido. **Requisitos:** --------------- **¿Qué buscamos?** Experiencia imprescindible (mín. 5 años) * SQL avanzado: consultas complejas, joins, funciones de ventana, modelado relacional/analítico. * Modelado de datos OLTP/OLAP (estrella, copo de nieve, normalización/desnormalización). * Experiencia sólida en Azure (Databricks, Data Factory, Synapse, Fabric o similar). * Desarrollo en PySpark o Spark SQL. * Conocimiento de arquitectura Medallion y Delta Lake. * Diseño y operación de procesos ETL/ELT end\-to\-end. * Experiencia con bases de datos SQL Server, Azure SQL u otras relacionales. * Conocimiento de Data Warehouse, Data Lake y arquitectura moderna de datos. * Experiencia integrando con herramientas de BI (idealmente Power BI). * Uso de Git y pipelines de CI/CD. **Valorable** * Experiencia con metodologías ágiles. * Participación en proyectos de datos a escala empresarial. **Competencias clave** * Capacidad analítica y pensamiento estructurado. * Orientación a calidad y rigor técnico. * Autonomía para gestionar backlog y tomar decisiones fundamentadas. * Trabajo en equipo con perfiles técnicos y de negocio. * Comunicación clara y capacidad de explicar conceptos complejos. * Proactividad, documentación y mejora continua. * Comodidad en entornos híbridos/remotos.


