




Resumen: Únase a un equipo diverso como ingeniero/a de datos para traducir la investigación aplicada en productos y prototipos tangibles dentro de proyectos europeos de investigación. Aspectos destacados: 1. Contribuir a proyectos europeos de investigación de vanguardia 2. Desarrollar y mantener tuberías de datos robustas 3. Colaborar en despliegues multi-nube y locales **EURECAT** ----------- Eurecat es la segunda Organización de Investigación y Tecnología de España y una de las mayores organizaciones de investigación aplicada y transferencia tecnológica del sur de Europa. Reúne la experiencia de más de 800 profesionales que generan una facturación anual de 69 millones de euros y prestan servicios a más de 2.000 empresas. Eurecat integra capacidades digitales avanzadas y experiencia en biotecnología, industria y sostenibilidad, y colabora con el sector industrial en actividades y proyectos de I\+D\+I, ofreciendo servicios científicos y tecnológicos avanzados y conocimientos especializados para responder eficazmente a las necesidades tecnológicas de sectores empresariales muy diversos, acelerando la innovación y reduciendo tanto los riesgos como los gastos en infraestructuras científicas y tecnológicas. El centro tecnológico participa en más de 200 grandes proyectos nacionales e internacionales de consorcios de alta estrategia en I\&I, posee 230 patentes y 10 spin\-offs. Eurecat cuenta con once centros en Cataluña y presencia en Madrid, Málaga y Chile. **Descripción del puesto** ------------------- Se incorporará a la unidad de Big Data y Ciencia de Datos, un equipo diverso que abarca áreas tan variadas como la Ciencia Social Computacional, la Neurociencia Cognitiva y la Inteligencia Artificial Confiable. Buscamos un/a ingeniero/a de datos inteligente y curioso/a que nos ayude a traducir la investigación aplicada en productos y prototipos tangibles, trabajando en proyectos reales de investigación europea junto con investigadores/as, ingenieros/as de software y gestores/as de proyectos. **FUNCIONES Y RESPONSABILIDADES DEL PUESTO:** * Diseñar, construir y mantener tuberías de datos (por lotes y en tiempo real) que ingieran datos desde fuentes heterogéneas hacia lagos y almacenes de datos, incluyendo el seguimiento de metadatos y trazabilidad. * Contribuir al desarrollo de sistemas federados de consulta y descubrimiento sobre conjuntos de datos distribuidos (UNCAN.eu), trabajando con motores como Trino e integrando optimizadores de consultas compatibles con los requisitos de privacidad. * Contribuir al despliegue de espacios europeos de datos (DeployEMDS) mediante bloques constructivos estándar de IDSA, Gaia\-X y FIWARE, incluyendo catálogos de datos, brokers y conectores. * Construir y mantener flujos de trabajo de orquestación mediante Airflow o Dagster, siguiendo las mejores prácticas de ingeniería de software (pruebas, revisiones de código, CI/CD). * Empaquetar y desplegar servicios mediante Docker y Docker Compose o similares. * Apoyar proyectos de Machine Learning con infraestructura para almacenamiento, servicio y versionado de datos (almacenamiento de objetos, bases de datos SQL/NoSQL, feature stores). * Colaborar en despliegues multi\-nube y locales (p. ej., Hetzner, Azure, servidores físicos) y contribuir a las prácticas de infraestructura como código. * Apoyar la elaboración de secciones técnicas en propuestas de proyectos financiados por la UE (Horizon Europe y similares), y contribuir a la difusión científica (artículos, prototipos, demostraciones). **Requisitos** ---------------- **Estudios** Máster en Ciencias de la Computación, Ingeniería de Datos, Matemáticas, Física o campo técnico relacionado. Un doctorado o un máster especializado serán muy valorados. **Experiencia** Al menos 2 años de experiencia profesional como ingeniero/a de datos o en un puesto estrechamente relacionado. **Competencias técnicas** * Dominio sólido de Python, incluyendo herramientas modernas para código limpio (indicaciones de tipos, linters/formatters como Ruff, pruebas con pytest). * Conocimientos sólidos de SQL y experiencia con bases de datos relacionales (PostgreSQL, MySQL). * Experiencia con al menos una base de datos NoSQL o de documentos (Redis, Elasticsearch o similar). * Experiencia en la construcción de tuberías de datos ETL/ELT (Airflow, Dagster o similares). * Conocimientos prácticos de almacenamiento de objetos (S3, MinIO) y formatos comunes de serialización (Parquet, JSONL, Avro, BSON). * Capacidad para trabajar en entornos Linux y con la línea de comandos. * Docker y Docker Compose para empaquetado y desarrollo local. * Git y flujos de CI/CD (GitHub Actions, GitLab CI o similares). * Comprensión de los paradigmas por lotes frente a transmisión en tiempo real y de las arquitecturas impulsadas por eventos. * Comprensión de las diferencias entre las arquitecturas de Data Lake y Data Warehouse, y cuándo utilizar cada una. **Idiomas** * Excelente dominio escrito y hablado del inglés. * El conocimiento del catalán y/o español es un valor añadido. **Deseable** * Experiencia con motores de consulta distribuida (Trino, Presto, Dremio) y el concepto de consultas federadas sobre fuentes de datos heterogéneas. * Familiaridad con iniciativas europeas de espacios de datos: IDSA, Gaia\-X, FIWARE, DSSC, Eclipse Dataspace Components; catálogos de datos (CKAN), brokers y conectores. * Ecosistema Big Data: Apache Spark, Flink, Kafka, RabbitMQ, Hadoop. * Kubernetes y Helm para despliegues en producción. * Infraestructura como código con Terraform, Ansible o similares. * Pilas de observabilidad: OpenTelemetry, Prometheus \+ Grafana, Loki o equivalentes. * Experiencia con proveedores cloud (Azure, AWS, GCP, Hetzner): funciones sin servidor, almacenamiento gestionado, IAM. * Bases de datos gráficas (Neo4j) o bases de datos de series temporales. * Fundamentos de Machine Learning y familiaridad con herramientas del ciclo de vida de ML (MLflow, feature stores, versionado de modelos). * Conocimientos de concurrencia y backend: programación asíncrona, multihilo, modelo actor, sistemas basados en mensajes. * Otros lenguajes de programación: Java, Scala, Go o Rust. * Participación en proyectos de investigación financiados por la UE (Horizon Europe, Digital Europe) o publicaciones científicas / presentaciones en conferencias. * Certificaciones relevantes (proveedores cloud, Kubernetes CKA/CKAD, plataformas de datos). **¿QUÉ LE OFRECE EURECAT?** * Contrato indefinido. * Trabajo híbrido (teletrabajo/presencial en la oficina). * Horario flexible. * Jornada laboral reducida los viernes y horario de verano. * Paquete retributivo flexible (seguro médico, transporte, comida, estudios \- formación y guardería). * Los empleados/as de Eurecat pueden acceder a los cursos de la Academia Eurecat. * Cursos de idiomas (inglés, catalán y español). **Puesto:** Investigador/a**Departamento:** Ciencia de Datos y Analítica de Big Data**Ubicación:** Barcelona (España)**Sector:** Internet y tecnología**Vacantes:** 1**Disciplina:** I\&D**Modalidad de trabajo:** Híbrida


