




Resumen: Como Ingeniero Senior de DataOps, darás forma a la plataforma de datos de dLocal, diseñarás una infraestructura escalable sobre Kubernetes, operarás Databricks y garantizarás la gobernanza y confiabilidad de los datos. Aspectos destacados: 1. Dar forma a la base de la plataforma de datos de dLocal como profesional estratégico. 2. Diseñar y evolucionar una infraestructura escalable utilizando Kubernetes y Databricks. 3. Habilitar la gobernanza de datos, la confiabilidad y la observabilidad a escala. ¿Por qué unirte a dLocal? dLocal permite a las empresas más grandes del mundo cobrar pagos en 40 países de mercados emergentes. Marcas globales confían en nosotros para aumentar las tasas de conversión y simplificar sin esfuerzo la expansión de pagos. Como procesador de pagos y como comerciante registrado donde operamos, hacemos posible que nuestros comerciantes ingresen a los mercados emergentes de más rápido crecimiento del mundo. Al unirte a nosotros, formarás parte de un increíble equipo global que lo hace posible, en una cultura dinámica flexible y centrada en el trabajo remoto, con beneficios relacionados con viajes, salud y formación, entre otros. Ser parte de dLocal significa trabajar con más de 1000 compañeros de más de 30 nacionalidades distintas y desarrollar una carrera internacional que impacta diariamente la vida de millones de personas. Somos constructores, nunca huimos de un desafío, somos centrados en el cliente y, si esto suena como tú, sabemos que prosperarás en nuestro equipo. **¿Cuál es la oportunidad?** Como Ingeniero Senior de DataOps, serás un profesional estratégico que dará forma a la base de nuestra plataforma de datos. Diseñarás y evolucionarás una infraestructura escalable sobre Kubernetes, operarás Databricks como nuestra plataforma principal de datos, habilitarás la gobernanza y confiabilidad de los datos a escala y garantizarás que nuestros activos de datos sean limpios, observables y accesibles. ### **¿Qué haré?** * Arquitecturar y evolucionar **infraestructura escalable** para ingerir, procesar y servir eficientemente grandes volúmenes de datos, utilizando **Kubernetes** y **Databricks** como bloques fundamentales. * Diseñar, construir y mantener **infraestructura basada en Kubernetes**, asumiendo la responsabilidad de la implementación, escalado y confiabilidad de las cargas de trabajo de datos que se ejecutan en nuestros clústeres. * Operar **Databricks como nuestra plataforma principal de datos**, incluyendo la configuración del área de trabajo y los clústeres, la orquestación de trabajos y la integración con el ecosistema de datos más amplio. * Trabajar en mejoras de **marcos y pipelines existentes** para garantizar el rendimiento, la confiabilidad y la eficiencia de costos en cargas de trabajo por lotes y en tiempo real. * Construir y mantener **pipelines de CI/CD** para aplicaciones de datos (DAGs, trabajos, bibliotecas, contenedores), automatizando pruebas, implementaciones y reversión. * Implementar **estrategias de lanzamiento** (por ejemplo, blue/green, canary, banderas de características) cuando sean relevantes para servicios de datos y cambios en la plataforma. * Establecer y mantener **prácticas sólidas de gobernanza de datos** (por ejemplo, contratos, catálogos, controles de acceso, verificaciones de calidad) que permitan a equipos multifuncionales acceder a los datos y confiar en ellos. * Construir un marco para trasladar conjuntos de datos crudos a **activos limpios, confiables y bien modelados**, destinados al análisis, modelado e informes, en colaboración con los equipos de Ingeniería de Datos y BI. * Definir y supervisar **SLIs/SLOs** para servicios críticos de datos (actualidad, latencia, disponibilidad, señales de calidad de datos). * Implementar y gestionar **monitoreo, registro, trazado y alertas** para cargas de trabajo de datos y componentes de la plataforma, mejorando progresivamente la observabilidad. * Liderar y participar en la **rotación de guardia** para plataformas de datos, gestionar incidentes y llevar a cabo **análisis posteriores estructurados** para impulsar la mejora continua. * Investigar y resolver **problemas complejos de datos y plataforma**, asegurando la precisión de los datos, la resiliencia del sistema y un claro análisis de la causa raíz. * Mantener altos estándares de **calidad de código, pruebas y documentación**, con especial énfasis en la **reproducibilidad y observabilidad**. * Trabajar estrechamente con el **equipo de Capacitación en Datos, BI y partes interesadas de ML**, para evolucionar continuamente la plataforma de datos según sus necesidades y retroalimentación. * Mantenerse actualizado sobre **tendencias del sector y tecnologías emergentes** en DataOps, DevOps y plataformas de datos, para elevar continuamente el nivel de nuestras prácticas de ingeniería. ### **¿Qué habilidades necesito?** * Título universitario en **Ingeniería Informática, Ingeniería de Datos, Ciencias de la Computación**, o un campo técnico relacionado (o experiencia práctica equivalente). * Experiencia comprobada en **ingeniería de datos, ingeniería de plataformas o desarrollo de software backend**, preferiblemente en **entornos nativos de la nube**. * Conocimientos profundos en **Python y/o SQL**, con sólidas habilidades para construir herramientas de datos o plataformas. * Amplia experiencia con **marcos de procesamiento distribuido de datos**, como **Apache Spark** (se prefiere experiencia con Databricks). * Comprensión sólida de **plataformas en la nube**, especialmente **AWS** y/o **GCP**. * Experiencia práctica con **contenerización y orquestación**: Docker, Kubernetes / EKS / GKE / AKS (o equivalentes). * Competencia en **Infraestructura como Código** (por ejemplo, Terraform, Pulumi, CloudFormation) para gestionar componentes de datos y plataformas. * Experiencia implementando **pipelines de CI/CD** (por ejemplo, GitHub Actions, GitLab CI, Jenkins, CircleCI, ArgoCD, Flux) para cargas de trabajo y servicios de datos. * Experiencia en **monitoreo y observabilidad** (métricas, registros, trazado) mediante herramientas como Prometheus, Grafana, Datadog, CloudWatch o similares. * Experiencia en **gestión de incidentes**: participación o liderazgo en rotaciones de guardia. * Gestión de incidentes y realización de análisis posteriores. * Creación de automatizaciones y salvaguardas para prevenir regresiones. * Fuertes habilidades de **pensamiento analítico y resolución de problemas**, cómodo depurando en capas de infraestructura, red y aplicación. * Capacidad para trabajar **de forma autónoma y colaborativa.** Deseable: * Experiencia diseñando y manteniendo **DAGs con Apache Airflow** u otras herramientas de orquestación similares (Dagster, Prefect, Argo Workflows). * Familiaridad con formatos modernos de datos y formatos de tablas (por ejemplo, **Parquet, Delta Lake, Iceberg**). * Experiencia actuando como **administrador/desarrollador de Databricks**, gestionando áreas de trabajo, clústeres, políticas de cómputo y trabajos para múltiples equipos. * Exposición a **herramientas y prácticas de calidad de datos, contratos de datos u observabilidad de datos**. ¿Qué ofrecemos? Además de los beneficios personalizados que tenemos para cada país, dLocal te ayudará a prosperar y dar ese paso extra ofreciéndote: * Flexibilidad: contamos con horarios flexibles y nos guiamos por el rendimiento. * Industria Fintech: trabaja en un entorno dinámico y en constante evolución, con mucho por construir y que estimulará tu creatividad. - Programa de bonos por referidos: nuestros talentos internos son los mejores reclutadores; refiere a alguien ideal para un puesto y recibe una recompensa. * Formación y desarrollo: obtén acceso a una suscripción Premium a Coursera. * Clases de idiomas: ofrecemos clases gratuitas de inglés, español o portugués. * Presupuesto social: recibirás un presupuesto mensual para relajarte con tu equipo (presencial o remotamente) y fortalecer vuestros vínculos. * Casas dLocal: ¿quieres alquilar una casa para pasar una semana en cualquier lugar del mundo trabajando junto a tu equipo? ¡Te apoyamos! ¿Qué ocurre después de postularte? Nuestro equipo de Adquisición de Talento está comprometido con crear la mejor experiencia posible para los candidatos, así que no te preocupes: definitivamente te contactaremos. Revisaremos tu CV y te mantendremos informado por correo electrónico en cada etapa del proceso. También puedes consultar nuestra página web, LinkedIn, Instagram y YouTube para obtener más información sobre dLocal. Podemos utilizar herramientas de inteligencia artificial (IA) para apoyar partes del proceso de contratación, como la revisión de solicitudes, el análisis de currículums o la evaluación de respuestas. Estas herramientas asisten a nuestro equipo de reclutamiento, pero no sustituyen el juicio humano. Las decisiones finales de contratación siempre las toman personas. Si deseas más información sobre cómo se procesan tus datos, contáctanos.


