




Diseñar, desplegar y operar plataformas de datos escalables y seguras (Data Warehouse/ Data Lake/ Lakehouse), con pipelines batch y streaming, orquestación, repositorio de código y gestión de secretos y ejeccuón de contenedores. Tareas 1\\. Arquitectura y construcción de infraestructura de datos * Definir y desplegar Data Lake / Data Warehouse / Lakehouse (por ejemplo: S3, Redshift/BigQuery/ClickHouse) * Modelado de datos 2\\. Más allá del ETL/DAG * Entender y configurar los sistemas de ejecucción detrás de Airflow * Integración con Data Lake/DWH, orquestador, repositorio Git, gestión de secretos (AWS Secrets Manager) 3\\. Despliegue de infraestructura (DevOps) * Infra as Code (CI/CD) 4\\. Contenedores y ejeccución * Dockerización de jobs/algoritmos (Docker Executor o KubernetesExecutor con Airflow) Requisitos * Experiencia trabajando con DWH y modelado de datos * Experiencia con proyectos completos de analítica de datos * CI/CD Beneficios * Modalidad de trabajo híbrido * Planes de carrera y formaciones en habilidades técnicas y blandas * Sistema de retribución flexible (tickets restaurante y transporte) * Horas semanales dedicadas al aprendizaje y discusión de tecnologías innovadoras * Posibilidad de formar parte a una starup innovadora de ciencias de datos con proyectos increibles en marcha * Actividades extralaborales: paintball, afterworks, lase tag, voley playa y mucho más


