Categorías
···
Entrar / Registro
Ingeniero Senior de MLOps – Infraestructura de LLM e Ingeniería de Rendimiento
Indeed
Tiempo completo
Presencial
Sin requisito de experiencia
Sin requisito de título
Okendo Kalea, 1, 20004 Donostia / San Sebastián, Gipuzkoa, España
Favoritos
Compartir
Parte del contenido se ha traducido automáticamenteVer original
Descripción

Resumen: Este ingeniero senior de MLOps asumirá la responsabilidad de la infraestructura que impulsa el entrenamiento y la inferencia de LLM a gran escala, centrándose en el rendimiento, la escalabilidad y la eficiencia. Aspectos destacados: 1. Trabajar en infraestructura de LLM a gran escala, no en problemas triviales 2. Impacto directo en sistemas de IA de producción del mundo real 3. Entorno altamente técnico con ingenieros de primer nivel Ingeniero Senior de MLOps – Infraestructura de LLM \& Ingeniería de Rendimiento San Sebastián (España) \| Híbrido Acerca de la oportunidad Estamos colaborando con una empresa de deep tech de rápido crecimiento que opera en la intersección de sistemas de IA a gran escala, computación de alto rendimiento y optimización de modelos de próxima generación. El equipo se centra en construir infraestructura de grado productivo para modelos avanzados de IA, resolviendo desafíos reales del mundo donde el rendimiento, la escalabilidad y la eficiencia son críticos. Se trata de un entorno altamente técnico, ideal para ingenieros que desean operar cerca de los límites de los sistemas modernos de GPU y las cargas de trabajo de ML a gran escala. Misión del puesto Usted asumirá la responsabilidad de la capa de infraestructura que impulsa el entrenamiento y la inferencia de LLM a gran escala, garantizando que los modelos no solo sean punteros, sino también eficientes, escalables y listos para producción. Este puesto se sitúa en la intersección entre la ingeniería de sistemas y el aprendizaje automático, con un fuerte énfasis en la optimización del rendimiento y los sistemas distribuidos. Qué hará Diseñar y escalar canalizaciones de entrenamiento distribuido para modelos de lenguaje grande. Optimizar la utilización de GPU, el uso de memoria y la eficiencia del entrenamiento. Construir y mejorar sistemas de inferencia de alto rendimiento para la prestación de LLM. Implementar técnicas avanzadas para reducir la latencia y maximizar el rendimiento. Orquestar cargas de trabajo en entornos cloud y locales. Definir buenas prácticas para el ciclo de vida del modelo (entrenamiento, despliegue, supervisión). Realizar análisis profundos de rendimiento en toda la pila (desde niveles bajos de GPU hasta la capa de aplicación). Impulsar estándares de ingeniería, orientar a los miembros del equipo y contribuir a las decisiones técnicas. Qué buscamos 5\+ años de experiencia en MLOps, DevOps o ingeniería backend/sistemas. Experiencia demostrable trabajando con infraestructura de LLM o sistemas de ML a gran escala. Amplia experiencia en: Ecosistema PyTorch Computación GPU (CUDA, entrenamiento distribuido) Experiencia con herramientas modernas para LLM (entrenamiento o inferencia). Sólida formación en sistemas distribuidos y optimización de rendimiento. Fuertes habilidades de programación en Python (C\+\+/Rust es un plus). Experiencia desplegando sistemas en entornos cloud o híbridos. Inglés fluido. Un fuerte valor añadido si tiene Experiencia con: Sistemas de inferencia de alto rendimiento Optimización de modelos (cuantización, destilación, compresión) Entornos HPC o clústeres a gran escala Familiaridad con herramientas de orquestación (Ray, SLURM, etc.) Experiencia con Kubernetes y cargas de trabajo contenerizadas Contribuciones a infraestructura de ML de código abierto Experiencia con sistemas de observabilidad y supervisión Competencias clave Pensamiento sistémico y mentalidad orientada al rendimiento Capacidad sólida para resolver problemas en entornos complejos Sentido de propiedad y autonomía Capacidad para trabajar en equipos de alto rendimiento Curiosidad por la infraestructura de IA de vanguardia Por qué este puesto destaca Trabajar en infraestructura de LLM a escala, no en problemas triviales Impacto directo en sistemas de IA del mundo real utilizados en producción Entorno altamente técnico con ingenieros de primer nivel Responsabilidad sobre sistemas críticos y decisiones arquitectónicas Entorno dinámico y de rápido crecimiento en el ámbito de la deep tech Reubicación \& estilo de vida La empresa le apoyará plenamente en todos los procesos administrativos, legales y logísticos para garantizar una reubicación sin contratiempos a San Sebastián. Se ofrecerá apoyo inicial para el alojamiento, incluyendo alojamiento temporal y asistencia en la búsqueda de vivienda. Una oportunidad única para establecerse en una de las ciudades más deseables para vivir en España —con una calidad de vida excepcional, playas, gastronomía de clase mundial, surf y una vibrante escena cultural.

Fuentea:  indeed Ver publicación original
David Muñoz
Indeed · HR

Compañía

Indeed
David Muñoz
Indeed · HR
Empleos similares

Cookie
Configuración de cookies
Nuestras aplicaciones
Download
Descargar en
APP Store
Download
Consíguelo en
Google Play
© 2025 Servanan International Pte. Ltd.