




Accenture, reconocida como Great Place To Work®, una compañía líder mundial en servicios profesionales que ayuda a las principales empresas, administraciones públicas y otras organizaciones del mundo a desarrollar su core digital, optimizar sus operaciones, acelerar el crecimiento de sus ingresos y mejorar los servicios para los ciudadanos, creando valor tangible a velocidad y escala. Buscamos un/a especialista en RAI Red Teaming / Confiabilidad de IA que “rompa” sistemas de IA de forma segura, incluida la IA agéntica. Convertirás amenazas emergentes en pruebas adversarias concretas, traduciendo los hallazgos en soluciones prácticas y colaborando con investigación, ingeniería, producto, legal y cumplimiento para endurecer LLMs, sistemas RAG y agentes de IA. Te entusiasma la experimentación práctica, la iteración rápida y la IA Funciones:* Planificar y ejecutar evaluaciones de RAI Red Teaming de extremo a extremo: alcance, hipótesis de ataque, ejecución, evidencias y debriefs * Emular amenazas reales: inyección de prompts, jailbreaks, exfiltración de datos, secuestro de modelos, abuso de agentes/herramientas, colusión multiagente, envenenamiento de memoria * Construir y mantener conjuntos de datos de prompts adversarios y suites de evaluación * Desarrollar pipelines de evaluación automatizados (CI/CD) que rastreen la tasa de éxito de ataques, severidad, cobertura, regresiones y KPIs de seguridad de agentes * Realizar modelado de amenazas específico de IA (catálogos de ataques a LLM/ML, OWASP Top 10 para LLMs, árboles de amenazas agénticas) y proponer mitigaciones priorizadas * Validar guardrails, políticas, moderación de contenido, sandboxing, permissioning de herramientas/APIs y controles con humano en el circuito * Ejecutar pruebas éticas y auditorías de equidad/sesgo; evaluar alucinaciones, seguridad, privacidad, toxicidad y fuga de PI * Cocrear programas de formación en RAI Red Teaming y mejores prácticas de seguridad de agentes Formación sugerida:* Ingeniería Informática, Matemáticas, Física, Telecomunicaciones, Ciberseguridad, Inteligencia Artificial, Estadística, o similares * Máster o doctorado en áreas técnicas relacionadas con IA, ML, NLP o seguridad informática * Certificaciones valorables: OWASP GenAI Red Teaming, NIST AI RMF, ISO/IEC 42001, CSA Agentic AI Red Teaming Idiomas:* Imprescindible manejarse con fluidez en español, tanto oral como escrito, para colaborar con equipos locales y comprender documentación técnica y legal * Valorable buen nivel de inglés para interactuar con equipos internacionales, participar en formaciones y acceder a documentación especializada Experiencia valorable:* Se valoran perfiles desde 3 años en red teaming, al menos 1 en IA generativa) y perfilele con 5 años de experiencia, incluyendo liderazgo técnico o de equipo en proyectos de seguridad de IA * Se valorará experiencia previa en sistemas agénticos El puesto se desempeña en Madrid o Barcelona, valorándose también localizaciones como Málaga o Zaragoza, en un modelo de trabajo híbrido realizando algunos días desde tu casa y otros en la oficina donde podrás crear interesantes sinergias con el resto de tu equipo. Es imprescindible residir en España y tener permiso laboral en España En Accenture, compañía reconocida como Great Place To Work®, apostamos por un modelo de híbrido de trabajo que, gracias a la tecnología y a nuestras instalaciones, nos permiten mantener la conexión humana esencial para trabajar con nuestros equipos y clientes. Una conexión que nos permite mantener nuestra cultura de inclusión y diversidad y ser, según Refinitiv, la empresa más diversa del mundo. Además, te ofrecemos otros beneficios como:* Seguro médico, de Vida y accidentes * Servicio médico y programas de bienestar * Programa de retribución flexible y compra de acciones * Programas de flexibilidad (horaria, de días libres, vacaciones...) * Itinerario formativo individualizado * Programas de sostenibilidad y Fundación Accenture * Red de empleados por la diversidad * Otros beneficios: Oficina Bankinter con condiciones especiales y reparto de beneficios


