




Resumen del Puesto: El Specialist Data Engineer mantendrá y mejorará el entorno de Google Cloud Platform para asegurar el funcionamiento de los procesos CORE de la compañía, colaborando con equipos de negocio y BI. Puntos Destacados: 1. Mantenimiento y optimización de procesos ETL/ELT en GCP 2. Colaboración con analistas de negocio y stakeholders 3. Implementación de buenas prácticas de calidad y seguridad de datos **Sobre la posición:** El **Specialist Data Engineer** formará parte del equipo de Business Intelligence, manteniendo el entorno de **Google Cloud Platform (GCP)**, para asegurar el funcionamiento correcto de los **procesos CORE de actividad** de la compañía. El mantenimiento implica, organización del composer, creación de procesos nuevos, reingenierías de los mismos y mantenimiento, para asegurar la disponibilidad de la información en tiempo y en calidad. **Responsabilidades Principales** * Mantener y mejorar los **procesos ETL/ELT** existentes en GCP. * Monitorizar la **ejecución de pipelines** y resolver incidencias en tiempo y forma. * **Optimizar costes** y rendimiento en servicios de GCP (BigQuery, Cloud Storage, Dataflow, Composer…). * Gestionar y **evolucionar modelos de datos** y estructuras de almacenamiento. * **Colaborar con analistas** de negocio, BI developers y stakeholders para entender necesidades y traducirlas en soluciones técnicas. * Desplegar buenas prácticas de **calidad, seguridad y versionado de datos**. * **Automatizar procesos** y tareas operativas siempre que sea posible. * Implementar **alertas, métricas y herramientas** de observabilidad * **Ingeniería de datos** + Utilización de **herramientas y plataformas cloud, especialmente GCP** (**BigQuery, Cloud Storage, Looker Studio**, etc.) + Uso de **lenguajes de programación** para manipular datos. * Business Partnering: **Trabajar mano a mano con la unidad de empresa** para entender sus necesidades, priorizar entregables y traducir requerimientos en modelos de datos. **¿Qué necesitamos?** * Experiencia en **GCP**, especialmente: + **BigQuery** + **Cloud Composer / Airflow** + **Dataflow / Apache Beam** + **Cloud Storage** * **Sólidos conocimientos de SQL** (tunning, modelado, queries complejas). * Experiencia en **procesos ETL/ELT** y manejo de grandes volúmenes de datos. * **Conocimientos de Python** aplicados al tratamiento de datos. * Control de versiones (**Github**). * **Grado** en Ingeniería, Matemáticas, Estadística, Economía, Ciencia de Datos o similar. * **Formación complementaria** en análisis de datos o cloud computing es un plus. **¿Qué te ofrecemos?** Trabajo flexible: 60% desde casa y 40% desde la oficina, ¡con horario flexible! 20 días adicionales de teletrabajo: Trabaja desde cualquier punto de España. ️ 25 días de vacaciones: Además, disfruta de los días 24 y 31 de diciembre libres, y tienes la opción de comprar hasta 10 días adicionales. ️ Tickets restaurante: Adicionales a la retribución fija y plan de remuneración flexible. Seguro de salud gratuito: Cobertura con Adeslas, seguro de vida y un programa integral de gestión de cuidado de la salud y bienestar, tanto físico como mental. Opción de plan de pensiones. Asegura tu futuro con nuestras opciones de plan de pensiones. ❤️ 3 día de voluntariado al año: Dedica tiempo a proyectos de voluntariado con estos días adicionales. Desarrollo de carrera y formación: Acceso a una plataforma de desarrollo de habilidades basada en Inteligencia Artificial y contenidos de aprendizaje de Skillsoft, MIT Horizon, Harvard y más. App para la gestión digital. Organiza tu día a día en la oficina de manera sencilla con nuestra app. Si quieres conocernos mejor, entra en nuestra web y descubre cómo sería la vida trabajando en Vodafone: https://www.vodafone.es/c/conocenos/es/vodafone\-espana/trabaja\-con\-nosotros/


