




Resumen: Buscamos un Ingeniero de Plataforma de Inferencia con experiencia en LLM y Kubernetes para asumir la integración de la API de inferencia, sus operaciones y la fiabilidad de la plataforma en sistemas de IA productivos. Aspectos destacados: 1. Dirigir las operaciones de los servicios de inferencia de modelos de lenguaje de gran tamaño (LLM) con un enfoque en la fiabilidad de la plataforma 2. Diseñar y mantener el manejo de conversaciones multi-turno y la orquestación de indicaciones (prompts) 3. Colaborar con equipos de ingeniería multifuncionales en sistemas de inteligencia artificial de vanguardia Unión Europea **Tipo de trabajo:** Presencial/Remoto **Nivel técnico:** Senior **Categoría del puesto:** Desarrollo de software **Proyecto:** N\-iX es una empresa global de soluciones de software y servicios de ingeniería N\-iX es una empresa global de servicios de desarrollo de software que ayuda a empresas de todo el mundo a crear productos de software de próxima generación. Fundada en 2002, reunimos a más de 2.400 profesionales tecnológicos en más de 40 países, trabajando en proyectos de impacto para líderes industriales y empresas de la lista Fortune 500. Nuestra experiencia abarca nube, datos, IA/ML, software embebido, IoT, entre otros, impulsando la transformación digital en sectores como finanzas, manufactura, telecomunicaciones, salud y otros. Únete a N\-iX y forma parte de un equipo donde tus ideas tienen un impacto real. Estamos buscando un Ingeniero de Plataforma de Inferencia (LLM \& Kubernetes) para unirse a nuestro equipo. Nuestro cliente es una destacada empresa europea de inteligencia artificial que desarrolla modelos de lenguaje de gran tamaño y plataformas generativas para clientes empresariales y gubernamentales. Sus productos combinan tecnologías de alto rendimiento, transparencia, accesibilidad y seguridad de los datos, totalmente alineadas con las normativas y estándares éticos europeos. Como Ingeniero de Plataforma de Inferencia (LLM \& Kubernetes), asumirás la responsabilidad de la integración de la API de inferencia, sus operaciones y la fiabilidad a largo plazo de la plataforma en sistemas de IA productivos. Este puesto está diseñado para ser cubierto por 1–2 FTE repartidos entre varios especialistas senior, garantizando la continuidad de los servicios de inferencia y la cobertura completa durante ausencias planificadas y no planificadas, ya que asumimos la responsabilidad integral de la inferencia de LLM. **Responsabilidades:** Asumir la responsabilidad de la integración de la API de inferencia, su orquestación y la fiabilidad a largo plazo de la plataforma Dirigir las operaciones de los servicios de inferencia de LLM conforme pasan bajo propiedad interna Garantizar la disponibilidad, latencia y rendimiento de la API de inferencia en entornos productivos Diseñar y mantener el manejo de conversaciones multi-turno, plantillas de chat y la orquestación de indicaciones (prompts) Supervisar proactivamente, solucionar y resolver incidencias, registros (logs) y errores de la plataforma de inferencia Administrar despliegues en Kubernetes, gráficos Helm y flujos de trabajo de ArgoCD para los servicios de inferencia Garantizar la seguridad de la plataforma, la supervisión de vulnerabilidades CVE y el cumplimiento de los estándares internos y regulatorios Colaborar estrechamente con los equipos de backend, plataforma e infraestructura Mantener documentación operativa clara para apoyar la propiedad compartida entre múltiples FTE **Requisitos:** 5\+ años de experiencia en programación con Python Amplia experiencia con Kubernetes (k8s), incluyendo despliegue, escalado y monitorización Experiencia en el manejo de registros (logs), monitorización y observabilidad a gran escala en entornos productivos Conocimientos básicos sobre los fundamentos de los modelos de lenguaje de gran tamaño (LLM) y el sector circundante (p. ej., qué tipos de modelos existen, cómo genera un LLM su salida) Experiencia desde el lado del usuario desarrollando contra una API de inferencia (p. ej., OpenAI, Anthropic, OpenRouter, etc.) y comprensión de su estructura (será un valor añadido contar con experiencia propia en la provisión o despliegue de una API similar) Capacidad para asumir de forma independiente la responsabilidad y operación de los servicios de inferencia en un modelo de responsabilidad compartida (1–2 FTE repartidos entre varios especialistas) Excelentes habilidades comunicativas y experiencia trabajando con equipos de ingeniería multifuncionales Conocimientos sólidos de Linux **Valorable:** Experiencia práctica con gráficos Helm, ArgoCD y CI/CD para servicios de IA Interés por trabajar parcialmente con Rust Experiencia senior en inferencia de LLM en producción o en operaciones de plataformas de IA Experiencia en el desarrollo u operación de sistemas de IA conversacionales multi-turno Familiaridad con la orquestación en tiempo real de APIs o cargas de trabajo de inferencia en streaming Antecedentes en MLOps, ingeniería de plataformas de IA o SRE Experiencia en despliegues de inferencia basados en la nube y su escalado Conocimientos sobre seguridad, análisis de vulnerabilidades CVE y mejores prácticas operativas **Stack tecnológico:** **Inferencia:** OpenAI, Anthropic u otras APIs de inferencia de LLM **Áreas de enfoque:** Integración de APIs, orquestación de conversaciones multi-turno, invocación de herramientas (tool calling), fiabilidad de la plataforma **Infraestructura:** Kubernetes, Helm, ArgoCD, entornos en la nube o híbridos **Monitorización:** Registros (logs), métricas, herramientas de observabilidad para sistemas de inferencia **Flujo de trabajo:** Git, pipelines de CI/CD, documentación, manuales operativos (runbooks), gestión de incidencias **Estándares:** Fiabilidad, latencia, rendimiento, seguridad, mantenibilidad **Ofrecemos\*:** Formato laboral flexible: remoto, presencial o mixto Un salario competitivo y un buen paquete de compensación Crecimiento profesional personalizado Herramientas para el desarrollo profesional (programa de mentoría, charlas técnicas y capacitaciones, centros de excelencia, entre otros) Comunidades tecnológicas activas con intercambio regular de conocimientos Reembolso de gastos educativos Regalos memorables por aniversarios Eventos corporativos y actividades de team building Otros beneficios específicos según ubicación * no aplicable a freelancers


