




Resumen del Puesto: Buscamos un Ingeniero/a de Datos para diseñar, construir y optimizar soluciones de procesamiento de datos a gran escala en proyectos de la Administración Pública, aportando solidez técnica y visión analítica. Puntos Destacados: 1. Diseño y desarrollo de sistemas de procesamiento de datos y pipelines ETL 2. Administración y optimización de entornos y plataformas de datos 3. Participación en proyectos innovadores en tecnología y transformación digital Buscamos un/a **Ingeniero/a de Datos** con capacidad para diseñar, construir y optimizar soluciones de procesamiento de datos a gran escala, aportando solidez técnica y visión analítica en proyectos orientados a la Administración Pública. La persona seleccionada se incorporará a un **proyecto temporal de 4 meses**, participando en el desarrollo de arquitecturas y procesos de datos en un entorno tecnológico exigente y colaborativo. **Responsabilidades principales:** * **Diseño y desarrollo de sistemas de procesamiento de datos**, incluyendo pipelines ETL para grandes volúmenes de información. * **Procesamiento, integración y transformación de datos** mediante lenguajes como Python, R o Scala y uso de APIs. * **Administración y optimización de entornos y plataformas de datos**, especialmente bases de datos SQL/NoSQL y ecosistemas Big Data (Hadoop, Cloudera). * **Desarrollo y automatización de procesos de análisis y procesamiento distribuido**. * **Aplicación de medidas de seguridad y gobierno del dato**, incluyendo control de acceso basado en roles, trazabilidad y cumplimiento normativo. * **Gestión de repositorios y control de versiones** mediante herramientas como Git y GitLab. * **Elaboración de documentación técnica y reporting** para los distintos stakeholders del proyecto. **Requisitos mínimos:** * **Titulación universitaria STEM**, reconocida en España (Informática, Matemáticas o equivalente). * **Experiencia mínima de 8 años en proyectos TI**. * Experiencia de **al menos 5 años en diseño y desarrollo de sistemas de procesamiento de datos**, creación y mantenimiento de procesos ETL. * Dominio de **modelado de datos, programación e integración** usando Python, R o Scala y componentes API. * Experiencia en **seguridad y buenas prácticas**, incluyendo control de acceso basado en roles. * Uso avanzado de **Git, GitLab y repositorios de código**. **Requisitos valorables:** * Experiencia bajo **ecosistema Cloudera**. \[ibm.com] * Experiencia en **tecnologías Hadoop** (NiFi, Sqoop, Kafka, Spark, Oozie, Airflow, Hive, Kudu, Knox, Impala, HBase o Arcadia Data). **Competencias personales:** * **Pensamiento analítico y enfoque estructurado** para resolver problemas complejos. * **Capacidad de comunicación** clara con equipos técnicos y funcionales. * **Orientación a resultados y atención al detalle,** especialmente en entornos de datos críticos. * **Proactividad, autonomía técnica y compromiso** con la mejora continua. * **Capacidad para trabajar en equipo** en entornos multidisciplinares **Qué ofrecemos:** * **Participación en un proyecto de 4 meses** dentro de un entorno tecnológico de alto impacto. * Ambiente de trabajo **dinámico y colaborativo**. * Oportunidades de **crecimiento profesional, formación y desarrollo** durante el proyecto. * Participación en **proyectos innovadores** en tecnología y transformación digital. * Organización comprometida con el **bienestar y la satisfacción** de las personas. * Acceso a **retribución flexible** según políticas internas. Si quieres formar parte de un equipo donde **tu talento cuenta, tus ideas importan y tu desarrollo profesional es prioritario**, envía tu CV y una carta de presentación indicando tu experiencia en licitaciones y proyectos relevantes.


