Categorías
···
Entrar / Registro
Ingeniero Senior de DataOps
Indeed
Tiempo completo
Presencial
Sin requisito de experiencia
Sin requisito de título
Puerta del Sol, 4, Centro, 28013 Madrid, España
Favoritos
Compartir
Parte del contenido se ha traducido automáticamenteVer original
Descripción

Resumen: Como Ingeniero Senior de DataOps, serás un profesional estratégico que moldea nuestra plataforma de datos mediante el diseño de infraestructura escalable, la operación de Databricks y la garantía de la gobernanza y fiabilidad de los datos. Aspectos destacados: 1. Construir la base de una plataforma de datos para empresas globales. 2. Trabajar con tecnologías de vanguardia como Kubernetes y Databricks. 3. Formar parte de un increíble equipo global que impacta a millones de personas. ¿Por qué unirte a dLocal? dLocal permite que las mayores empresas del mundo cobren pagos en 40 países de mercados emergentes. Las marcas globales confían en nosotros para aumentar las tasas de conversión y simplificar sin esfuerzo la expansión de pagos. Al actuar tanto como procesador de pagos como como comerciante registrado (merchant of record) en las regiones donde operamos, hacemos posible que nuestros comerciantes ingresen en los mercados emergentes de más rápido\-crecimiento del mundo. Al unirte a nosotros, formarás parte de un increíble equipo global que lo hace todo posible. Ser parte de dLocal significa trabajar con más de 1000 compañeros de más de 30 nacionalidades distintas y desarrollar una carrera internacional que impacta diariamente la vida de millones de personas. Somos constructores, nunca huimos de un desafío, somos centrados en el cliente y, si esto suena como tú, sabemos que prosperarás en nuestro equipo. **¿Cuál es la oportunidad?** Como Ingeniero Senior de DataOps, serás un profesional estratégico que moldea la base de nuestra plataforma de datos. Diseñarás y evolucionarás infraestructura escalable sobre Kubernetes, operarás Databricks como nuestra plataforma principal de datos, habilitarás la gobernanza y fiabilidad de los datos a escala y garantizarás que nuestros activos de datos sean limpios, observables y accesibles. ### **¿Qué haré?** * Arquitecturar y evolucionar **infraestructura escalable** para ingerir, procesar y servir grandes volúmenes de datos de forma eficiente, utilizando **Kubernetes** y **Databricks** como bloques fundamentales. * Diseñar, construir y mantener **infraestructura basada en Kubernetes**, asumiendo la responsabilidad de la implementación, escalado y fiabilidad de las cargas de trabajo de datos que se ejecutan en nuestros clústeres. * Operar **Databricks como nuestra plataforma principal de datos**, incluida la configuración del entorno de trabajo y de los clústeres, la orquestación de trabajos y la integración con el ecosistema de datos más amplio. * Trabajar en mejoras de **marcos y pipelines existentes** para garantizar el rendimiento, la fiabilidad y la eficiencia de costos en cargas de trabajo por lotes y en tiempo real. * Construir y mantener **pipelines de CI/CD** para aplicaciones de datos (DAGs, trabajos, bibliotecas, contenedores), automatizando pruebas, despliegues y retrocesos. * Implementar **estrategias de lanzamiento** (por ejemplo, blue/green, canary, banderas de funciones) cuando sea relevante para servicios de datos y cambios en la plataforma. * Establecer y mantener **prácticas sólidas de gobernanza de datos** (por ejemplo, contratos, catálogos, controles de acceso, verificaciones de calidad) que permitan a equipos multifuncionales acceder a los datos y confiar en ellos. * Construir un marco para trasladar conjuntos de datos crudos a **activos limpios, fiables y bien modelados**, destinados al análisis, la modelización y la generación de informes, en colaboración con los equipos de Ingeniería de Datos y BI. * Definir y supervisar **SLIs/SLOs** para servicios críticos de datos (actualidad, latencia, disponibilidad, indicadores de calidad de datos). * Implementar y gestionar **monitoreo, registro, trazado y alertas** para cargas de trabajo de datos y componentes de la plataforma, mejorando progresivamente la observabilidad. * Liderar y participar en la **rotación de guardias (on\-call)** para plataformas de datos, gestionar incidentes y llevar a cabo **análisis postmortem estructurados** para impulsar la mejora continua. * Investigar y resolver **problemas complejos relacionados con los datos y la plataforma**, asegurando la exactitud de los datos, la resiliencia del sistema y un claro análisis de la causa raíz. * Mantener altos estándares de **calidad del código, pruebas y documentación**, con especial énfasis en la **reproducibilidad y la observabilidad**. * Trabajar estrechamente con el **equipo de Capacitación en Datos, BI y partes interesadas en ML**, para evolucionar continuamente la plataforma de datos según sus necesidades y comentarios. * Mantenerse actualizado sobre las **tendencias del sector y las tecnologías emergentes** en DataOps, DevOps y plataformas de datos, elevando constantemente el nivel de nuestras prácticas de ingeniería. ### **¿Qué habilidades necesito?** * Licenciatura en **Ingeniería Informática, Ingeniería de Datos, Ciencias de la Computación**, o campo técnico afín (o experiencia práctica equivalente). * Experiencia comprobada en **ingeniería de datos, ingeniería de plataformas o desarrollo de software backend**, preferiblemente en **entornos nativos de la nube**. * Conocimientos profundos en **Python y/o SQL**, con sólidas habilidades para construir herramientas de datos o plataformas. * Amplia experiencia con **marcos de procesamiento distribuido de datos**, como **Apache Spark** (se prefiere fuertemente experiencia con Databricks). * Comprensión sólida de **plataformas en la nube**, especialmente **AWS** y/o **GCP**. * Experiencia práctica con **contenerización y orquestación**: Docker, Kubernetes / EKS / GKE / AKS (o equivalente). * Competencia en **Infraestructura como Código (Infrastructure\-as\-Code)** (por ejemplo, **Terraform**, Pulumi, CloudFormation) para gestionar componentes de datos y plataformas. * Experiencia implementando **pipelines de CI/CD** (por ejemplo, GitHub Actions, GitLab CI, Jenkins, CircleCI, ArgoCD, Flux) para cargas de trabajo y servicios de datos. * Experiencia en **monitoreo y observabilidad** (métricas, registros, trazado) usando herramientas como Prometheus, Grafana, Datadog, CloudWatch u otras similares. * Experiencia en **gestión de incidentes**: participación o liderazgo en rotaciones de guardias (on\-call). * Gestión de incidentes y realización de análisis postmortem. * Creación de automatizaciones y salvaguardas para prevenir regresiones. * Fuertes capacidades de **pensamiento analítico y resolución de problemas**, cómodo depurando en capas de infraestructura, red y aplicación. * Capacidad para trabajar de forma **autónoma y colaborativa**. Deseable: * Experiencia diseñando y manteniendo **DAGs con Apache Airflow** u otras herramientas de orquestación similares (Dagster, Prefect, Argo Workflows). * Familiaridad con formatos modernos de datos y formatos de tablas (por ejemplo, **Parquet, Delta Lake, Iceberg**). * Experiencia actuando como **administrador/desarrollador de Databricks**, gestionando entornos de trabajo, clústeres, políticas de cómputo y trabajos para múltiples equipos. * Exposición a **herramientas y prácticas de calidad de datos, contratos de datos u observabilidad de datos**. ¿Qué ofrecemos? Además de los beneficios personalizados que tenemos para cada país, dLocal te ayudará a prosperar y dar ese paso extra ofreciéndote: * Flexibilidad: contamos con horarios flexibles y nos guiamos por el rendimiento. * Industria Fintech: trabaja en un entorno dinámico y en constante evolución, con mucho por construir y potenciar tu creatividad. \- Programa de bonos por referidos: nuestros talentos internos son los mejores reclutadores \- refiere a alguien ideal para un puesto y obtén una recompensa. * Presupuesto social: recibirás un presupuesto mensual para relajarte con tu equipo (presencial o remoto) y fortalecer tus vínculos. * Casas dLocal: ¿quieres alquilar una casa para pasar una semana en cualquier lugar del mundo, trabajando junto con tu equipo? ¡Te respaldamos! **Flexibilidad en la forma de trabajar:** Nos enfocamos en el impacto y la productividad, no en horas fijas. Esto significa que nuestros equipos tienen horarios flexibles y, dependiendo de tu rol y ubicación, combinarás tiempos de enfoque autogestionados con momentos de conexión presencial en nuestros centros de colaboración. ¿Qué ocurre después de postular? Nuestro equipo de Adquisición de Talento está comprometido con brindar la mejor experiencia posible al candidato, así que no te preocupes: definitivamente recibirás noticias nuestras. Revisaremos tu currículum y te mantendremos informado por correo electrónico en cada etapa del proceso. También puedes visitar nuestra página web, LinkedIn y YouTube para conocer más sobre dLocal. Podemos utilizar herramientas de inteligencia artificial (IA) para apoyar partes del proceso de contratación, como la revisión de solicitudes, el análisis de currículums o la evaluación de respuestas. Estas herramientas asisten a nuestro equipo de reclutamiento, pero no sustituyen el juicio humano. Las decisiones finales de contratación siempre las toman personas. Si deseas más información sobre cómo se procesan tus datos, contáctanos.

Fuentea:  indeed Ver publicación original
David Muñoz
Indeed · HR

Compañía

Indeed
David Muñoz
Indeed · HR
Empleos similares

Cookie
Configuración de cookies
Nuestras aplicaciones
Download
Descargar en
APP Store
Download
Consíguelo en
Google Play
© 2025 Servanan International Pte. Ltd.