




Resumen: Buscamos un Ingeniero de Plataforma de Inferencia (LLM y Kubernetes) para liderar la integración de la API de inferencia, las operaciones y garantizar la fiabilidad de la plataforma en sistemas de IA de producción. Aspectos destacados: 1. Responsabilidad de la integración de la API de inferencia, la orquestación y la fiabilidad de la plataforma 2. Liderazgo de las operaciones de los servicios de inferencia de modelos de lenguaje grande (LLM) bajo propiedad interna 3. Colaboración estrecha con los equipos de backend, plataforma e infraestructura BONO POR REFERENCIA $1000 Unión Europea **Tipo de trabajo:** Presencial/Remoto **Nivel técnico:** Senior **Categoría laboral:** Desarrollo de software **Proyecto:** N\-iX es una empresa global de soluciones y servicios de ingeniería de software N\-iX es una empresa global de servicios de desarrollo de software que ayuda a empresas de todo el mundo a crear productos de software de nueva generación. Fundada en 2002, reunimos a más de 2.400 profesionales tecnológicos en más de 40 países, trabajando en proyectos de impacto para líderes industriales y empresas de la lista Fortune 500. Nuestra experiencia abarca nube, datos, inteligencia artificial/aprendizaje automático (IA/ML), software embebido, Internet de las Cosas (IoT), entre otros, impulsando la transformación digital en sectores como finanzas, manufactura, telecomunicaciones, salud y otros. Únete a N\-iX y forma parte de un equipo donde tus ideas generan un impacto real. Estamos buscando un Ingeniero de Plataforma de Inferencia (LLM \& Kubernetes) para unirse a nuestro equipo. Nuestro cliente es una destacada empresa europea de IA que desarrolla modelos de lenguaje grande y plataformas generativas para clientes empresariales y gubernamentales. Sus productos combinan tecnologías de alto rendimiento, transparencia, accesibilidad y seguridad de los datos, plenamente alineados con los estándares regulatorios y éticos europeos. Como Ingeniero de Plataforma de Inferencia (LLM \& Kubernetes), asumirás la responsabilidad de la integración de la API de inferencia, las operaciones y la fiabilidad de la plataforma en los sistemas de IA de producción. Este puesto está diseñado para ser cubierto por 1–2 equivalentes a tiempo completo (FTE), distribuidos entre varios especialistas senior, asegurando así la continuidad de los servicios de inferencia y una cobertura total durante ausencias planificadas o imprevistas, mientras asumimos la responsabilidad integral de la inferencia de modelos de lenguaje grande (LLM). **Responsabilidades:** Asumir la responsabilidad de la integración de la API de inferencia, la orquestación y la fiabilidad a largo plazo de la plataforma Liderar las operaciones de los servicios de inferencia de modelos de lenguaje grande (LLM) conforme pasan a estar bajo propiedad interna Garantizar la disponibilidad, latencia y rendimiento de la API de inferencia en entornos de producción Diseñar y mantener el manejo de conversaciones multi-turno, plantillas de chat y orquestación de indicaciones (prompts) Supervisar, solucionar problemas y resolver proactivamente incidencias, registros (logs) y errores de la plataforma de inferencia Gestionar despliegues en Kubernetes, gráficos Helm y flujos de trabajo de ArgoCD para los servicios de inferencia Garantizar la seguridad de la plataforma, la supervisión de vulnerabilidades (CVE) y el cumplimiento de los estándares internos y regulatorios Colaborar estrechamente con los equipos de backend, plataforma e infraestructura Mantener documentación operativa clara para apoyar la propiedad compartida entre múltiples FTE **Requisitos:** 5\+ años de experiencia en programación con Python Amplia experiencia con Kubernetes (k8s), incluyendo despliegue, escalado y supervisión Experiencia gestionando registros (logs), supervisión y observabilidad a gran escala en entornos de producción Conocimientos básicos sobre los fundamentos de los modelos de lenguaje grande (LLM) y del sector (por ejemplo, qué tipos de modelos existen, cómo genera un LLM su salida) Experiencia desde el lado del usuario desarrollando contra una API de inferencia (por ejemplo, OpenAI, Anthropic, OpenRouter, etc.) y comprensión de su estructura (será un gran valor añadido haber proporcionado o desplegado una API similar) Capacidad para asumir y operar de forma independiente los servicios de inferencia en un modelo de responsabilidad compartida (1–2 FTE distribuidos entre varios especialistas) Excelentes habilidades comunicativas y experiencia trabajando con equipos de ingeniería multifuncionales Conocimientos sólidos de los fundamentos de Linux **Valorable:** Experiencia práctica con gráficos Helm, ArgoCD y CI/CD para servicios de IA Interés por trabajar parcialmente con Rust Experiencia senior en inferencia de modelos de lenguaje grande (LLM) en producción o en operaciones de plataformas de IA Experiencia desarrollando u operando sistemas de IA conversacionales multi-turno Familiaridad con la orquestación en tiempo real de APIs o cargas de trabajo de inferencia en streaming Antecedentes en MLOps, ingeniería de plataformas de IA o SRE Experiencia en despliegues de inferencia basados en la nube y su escalado Conocimientos sobre seguridad, escaneo de CVE y mejores prácticas operativas **Stack tecnológico:** **Inferencia:** OpenAI, Anthropic u otras APIs de inferencia de modelos de lenguaje grande (LLM) **Áreas de enfoque:** Integración de APIs, orquestación de conversaciones multi-turno, llamadas a herramientas (tool calling), fiabilidad de la plataforma **Infraestructura:** Kubernetes, Helm, ArgoCD, entornos en la nube o híbridos **Supervisión:** Registros (logs), métricas y herramientas de observabilidad para sistemas de inferencia **Flujo de trabajo:** Git, pipelines de CI/CD, documentación, manuales operativos (runbooks) y gestión de incidencias **Estándares:** Fiabilidad, latencia, rendimiento, seguridad y mantenibilidad **Ofrecemos\*:** Formato laboral flexible: remoto, presencial o mixto Un salario competitivo y un buen paquete de compensación Desarrollo profesional personalizado Herramientas para desarrollo profesional (programa de mentoría, charlas técnicas y capacitaciones, centros de excelencia, entre otros) Comunidades tecnológicas activas con intercambio regular de conocimientos Reembolso de gastos educativos Regalos memorables por aniversarios Eventos corporativos y actividades de team building Otros beneficios específicos según ubicación * no aplicable para freelancers


