




DESCRIPCIóN **Funciones principales:** * Diseño, desarrollo y optimización de *data pipelines* utilizando SQL y Databricks. * Implementación de flujos de ingestión y transformación de datos mediante Spark en entornos distribuidos. * Garantizar la gobernanza, trazabilidad e integridad de los datos en todas las etapas de la arquitectura de datos. * Colaborar con equipos de Ingeniería de Datos, Riesgos, Tecnología y Negocio para ofrecer soluciones de datos integradas. * Contribuir a la automatización de procesos manuales y a la modernización de herramientas de reporte heredadas mediante código escalable. REQUISITOS **Experiencia requerida:** * Mínimo 5 años de experiencia práctica en ingeniería o gestión de datos dentro del sector financiero o en entornos de *big data*. * Sólida experiencia en desarrollo SQL, incluyendo consultas complejas, optimización, CTEs y funciones de ventana. * Experiencia práctica con Databricks, Spark u otras plataformas distribuidas de datos. **Formación académica:** * Titulación universitaria en áreas STEM (Ingeniería, Informática, Matemáticas, etc.) con enfoque en datos y analítica. * Se valorará formación complementaria o certificaciones en plataformas de datos o herramientas *cloud\-based*. **Idiomas:** * Nivel alto de inglés. **Conocimientos y habilidades técnicas:** * Dominio avanzado de desarrollo SQL (requisito indispensable). * Experiencia en el uso de Databricks, Spark y ecosistemas de datos en la nube. * Conocimiento sólido de modelado de datos, normalización y prácticas de calidad de datos. * Manejo avanzado de Excel, VBA y del paquete Microsoft Office.


