




Resumen: Buscamos un/a ingeniero/a de datos altamente cualificado/a para diseñar, gestionar y optimizar canalizaciones de datos mediante Apache Airflow, Snowflake y Apache Kafka, garantizando soluciones de datos robustas y escalables. Puntos destacados: 1. Desarrollar e implementar modelos de datos para el rendimiento y la escalabilidad 2. Diseñar y mantener canalizaciones de datos escalables utilizando Apache Airflow 3. Implementar canalizaciones de datos en streaming basadas en Kafka para el procesamiento en tiempo real Ingeniero/a de Datos BrainRocket es una empresa global que crea productos tecnológicos de extremo a extremo para clientes de los sectores Fintech, iGaming y Marketing. Jóvenes, ambiciosos e imparables, ya hemos conquistado Chipre, Malta, Portugal, Polonia y Serbia. Nuestro equipo BRO está formado por 1.300 mentes brillantes que generan ideas y productos innovadores. No seguimos formatos. Los creamos. Construimos lo que funciona, lo lanzamos rápidamente y nos aseguramos de que tenga impacto. !Tenga en cuenta que este puesto es presencial en Valencia, España (Carrer de Catarroja, 13, 46940 Manises). !Podemos ofrecer asistencia para la reubicación si se encuentra fuera de la ciudad o del país. Buscamos un/a ingeniero/a de datos altamente cualificado/a con experiencia en la gestión, diseño y optimización de canalizaciones de datos mediante Apache Airflow, Snowflake y Apache Kafka. Esta persona desempeñará un papel fundamental al diseñar soluciones de datos robustas, escalables y eficientes, garantizando la integridad, fiabilidad y accesibilidad de nuestra infraestructura de datos. **Responsabilidades:** * Desarrollar e implementar modelos de datos para satisfacer los requisitos empresariales, optimizando el rendimiento y la escalabilidad * Diseñar, construir y mantener canalizaciones de datos escalables mediante Apache Airflow * Implementar y mantener canalizaciones de datos en streaming basadas en Kafka para el procesamiento en tiempo real de datos y su integración con diversos sistemas * Integración con bases de datos y APIs de terceros * Establecer procedimientos de supervisión, alertas y mantenimiento para garantizar la salud y fiabilidad de las canalizaciones de datos * Colaborar con equipos multifuncionales, incluidos científicos de datos, analistas y partes interesadas, para comprender los requisitos de datos. **Requisitos:** * Competencia en Python, SQL y experiencia en manipulación y transformación de datos * Técnicas de almacenamiento de datos y modelado de datos * Experiencia en el diseño, construcción y mantenimiento de canalizaciones de datos complejas mediante Airflow * Trayectoria demostrada en puestos de ingeniería de datos, con énfasis en el diseño e implementación de soluciones de datos escalables mediante Snowflake o Redshift * Conocimiento profundo y experiencia práctica en la implementación de arquitecturas de streaming basadas en Kafka para el procesamiento de datos en tiempo real. **Ofrecemos excelentes beneficios, entre otros:** Seis días adicionales de baja médica no documentada Seguro médico Celebraciones de cumpleaños, hitos y aniversarios laborales Oficinas modernas con snacks y todos los elementos esenciales Club social y más de 50 eventos al año Cobertura parcial de desayunos y almuerzos Oportunidades de aprendizaje y desarrollo, así como tareas interesantes y desafiantes Paquete de reubicación (billetes, estancia en hotel durante hasta 2 semanas y apoyo para la obtención de visados de reubicación para nuestros empleados y sus familiares) Oportunidad de desarrollar habilidades lingüísticas, con compensación parcial del costo de cursos de inglés Remuneración competitiva con revisión anual Actividades de teambuilding. Los movimientos audaces comienzan aquí. Haga el suyo. ¡Postúlese hoy! Al enviar su solicitud, acepta nuestra Política de Privacidad. Airflow, Snowflake, Kafka


