





Edelman es una voz sinónimo de confianza, reimaginando un futuro en el que la moneda de la comunicación sea la acción. Nuestra cultura florece gracias a tres promesas: la audacia es posibilidad, la empatía es progreso y la curiosidad es impulso. En Edelman entendemos que la diversidad, la equidad, la inclusión y la pertenencia (DEIB) transforman a nuestros colegas, a nuestra empresa, a nuestros clientes y a nuestras comunidades. Buscamos incansablemente un entorno laboral equitativo e inspirador, respetuoso con todos, que refleje y represente al mundo en el que vivimos y que fomente la confianza, la colaboración y la pertenencia. Actualmente buscamos un Ingeniero Senior de MLOps con más de 5 años de experiencia relevante para liderar el diseño, la implementación y la optimización de pipelines escalables de aprendizaje automático, centrándose en la inteligencia artificial generativa (IA generativa) y los modelos de lenguaje grande (LLM). Colaborará con diversos equipos para agilizar flujos de trabajo, garantizar la fiabilidad de los sistemas e integrar las últimas herramientas y prácticas de MLOps. Por qué le encantará trabajar con nosotros Nos encontramos en un momento emocionante de nuestro recorrido, aprovechando la **inteligencia artificial generativa (GenAI)**, los **modelos de lenguaje grande (LLM)** y técnicas avanzadas de **generación aumentada por recuperación (RAG)** para construir sistemas inteligentes basados en datos que ofrecen potentes perspectivas en relaciones públicas. También trabajará en el desarrollo de **flujos de trabajo basados en agentes** que orquesten tareas de forma autónoma, permitiendo soluciones escalables y dinámicas. Nuestra pila de datos es moderna y eficiente, diseñada para procesar información a gran escala, automatizar pipelines de análisis e integrarse perfectamente con flujos de trabajo impulsados por IA. Esta es una excelente oportunidad para tener un impacto significativo en proyectos que amplían los límites de las percepciones y la automatización impulsadas por IA. Si está apasionado por construir sistemas de datos de alto rendimiento, trabajar con marcos de IA de vanguardia y resolver desafíos complejos en un entorno solidario y visionario, ¡aquí prosperará! Responsabilidades: * Desarrollar y mantener pipelines escalables de MLOps para aplicaciones de IA generativa. * Implementar y optimizar modelos de IA generativa, incluidos modelos de lenguaje grande (LLM), como GPT y arquitecturas similares, en entornos productivos. * Desarrollar soluciones que aprovechen técnicas tradicionales de IA, como árboles de decisión, agrupamiento y análisis de regresión, para complementar flujos de trabajo avanzados de IA. * Implementar y gestionar pipelines de CI/CD para flujos de trabajo de ML, incluyendo pruebas, validación e implementación. * Optimizar la infraestructura en la nube para el entrenamiento y la prestación de servicios de modelos de IA generativa y LLM con una relación costo-eficiencia óptima. * Definir y hacer cumplir las mejores prácticas en materia de versionado de modelos, reproducibilidad y gobernanza. * Supervisar y solucionar incidencias en sistemas productivos para minimizar tiempos de inactividad. * Utilizar Databricks para construir y gestionar pipelines de datos y de ML integrados con flujos de trabajo de IA generativa y LLM. * Evaluar e integrar herramientas y marcos de MLOps de última generación para LLM y otros modelos de IA generativa. * Mantenerse actualizado sobre los avances en tecnologías de IA generativa, incluida la afinación y la prestación de servicios de LLM, y contribuir a iniciativas estratégicas. Requisitos: * Título universitario (Licenciatura o Máster) en Ciencias de la Computación, Ingeniería o campo afín. * Más de 5 años de experiencia en MLOps, DevOps o funciones relacionadas, centrados en ML e IA. * Experiencia demostrada en la implementación y gestión de modelos de IA generativa (por ejemplo, GPT, Stable Diffusion, BERT). * Conocimientos sólidos de Python y bibliotecas de ML como TensorFlow, PyTorch o Hugging Face. * Competencia en plataformas en la nube (AWS, GCP, Azure) y servicios gestionados de IA/ML. * Experiencia práctica con Docker, Kubernetes y orquestación de contenedores. * Experticia en Databricks, incluyendo flujos de trabajo de ML y gestión de pipelines de datos. * Conocimiento de herramientas como MLflow, DVC, Prometheus y Grafana para versionado y supervisión. * Experiencia en la aplicación de estándares de seguridad y cumplimiento para sistemas de IA. * Excelentes habilidades de resolución de problemas y comunicación, con mentalidad colaborativa. * Experiencia en el apoyo y orientación de miembros junior del equipo. * Dominio fluido del inglés escrito y hablado. Cualificaciones deseables: * Experiencia en entrenamiento distribuido a gran escala y afinación de modelos de IA generativa. * Conocimiento de ingeniería de indicaciones (prompt engineering) y técnicas de optimización de modelos. * Contribuciones a proyectos de código abierto en el ámbito de MLOps o IA generativa. * Conocimiento de PySpark para el procesamiento distribuido de datos. Entre 65 000 € y 82 000 € anuales en España; entre 55 000 £ y 62 000 £ anuales en el Reino Unido #LI-RT9 Estamos comprometidos con la construcción de un lugar de trabajo diverso, inclusivo y auténtico; por tanto, si este puesto le entusiasma pero su experiencia no coincide perfectamente con todos los requisitos, ¡no dude en presentar su candidatura! Es posible que sea precisamente el candidato adecuado para este u otros puestos.


