




Resumen: Como Ingeniero Senior de DataOps, serás un profesional estratégico que moldea los cimientos de nuestra plataforma de datos mediante el diseño de una infraestructura escalable y garantizando la fiabilidad de los datos. Aspectos destacados: 1. Diseñar la plataforma de datos, creando una infraestructura escalable sobre Kubernetes. 2. Operar Databricks como plataforma principal de datos. 3. Implementar una gobernanza de datos sólida y una observabilidad robusta para garantizar la fiabilidad de los datos. ¿Por qué unirte a dLocal? dLocal permite a las mayores empresas del mundo cobrar pagos en 40 países de mercados emergentes. Las marcas globales confían en nosotros para aumentar las tasas de conversión y simplificar sin esfuerzo la expansión de pagos. Al actuar tanto como procesador de pagos como como comerciante registrado donde operamos, hacemos posible que nuestros comerciantes ingresen en los mercados emergentes de más rápido\-crecimiento del mundo. Al unirte a nosotros, formarás parte de un increíble equipo global que lo hace todo posible. Ser parte de dLocal significa trabajar con más de 1000 compañeros de más de 30 nacionalidades distintas y desarrollar una carrera internacional que impacta diariamente en la vida de millones de personas. Somos constructores, nunca huimos de un desafío, somos centrados en el cliente y, si esto suena como tú, sabemos que prosperarás en nuestro equipo. **¿Cuál es la oportunidad?** Como Ingeniero Senior de DataOps, serás un profesional estratégico que moldea los cimientos de nuestra plataforma de datos. Diseñarás y evolucionarás una infraestructura escalable sobre Kubernetes, operarás Databricks como nuestra plataforma principal de datos, habilitarás la gobernanza y la fiabilidad de los datos a escala, y garantizarás que nuestros activos de datos sean limpios, observables y accesibles. ### **¿Qué haré?** * Arquitecturar y evolucionar una **infraestructura escalable** para ingerir, procesar y servir eficientemente grandes volúmenes de datos, utilizando **Kubernetes** y **Databricks** como bloques fundamentales. * Diseñar, construir y mantener una **infraestructura basada en Kubernetes**, asumiendo la responsabilidad de la implementación, escalado y fiabilidad de las cargas de trabajo de datos que se ejecutan en nuestros clústeres. * Operar **Databricks como nuestra plataforma principal de datos**, incluyendo la configuración del área de trabajo y de los clústeres, la orquestación de trabajos y la integración con el ecosistema más amplio de datos. * Trabajar en mejoras de los **marcos y pipelines existentes** para garantizar el rendimiento, la fiabilidad y la eficiencia de costos en cargas de trabajo por lotes y en tiempo real. * Construir y mantener **pipelines de CI/CD** para aplicaciones de datos (DAGs, trabajos, bibliotecas, contenedores), automatizando pruebas, despliegues y reversión. * Implementar **estrategias de lanzamiento** (por ejemplo, blue/green, canary, banderas de características) cuando sea relevante para servicios de datos y cambios en la plataforma. * Establecer y mantener **prácticas sólidas de gobernanza de datos** (por ejemplo, contratos, catálogos, controles de acceso, verificaciones de calidad) que permitan a equipos multifuncionales acceder a los datos y confiar en ellos. * Construir un marco para transformar conjuntos de datos crudos en **activos limpios, fiables y bien modelados**, destinados al análisis, la modelización y los informes, en colaboración con los equipos de Ingeniería de Datos y BI. * Definir y supervisar **SLIs/SLOs** para servicios críticos de datos (actualidad, latencia, disponibilidad, señales de calidad de datos). * Implementar y gestionar **monitorización, registro, trazabilidad y alertas** para cargas de trabajo de datos y componentes de la plataforma, mejorando progresivamente la observabilidad. * Liderar y participar en la **rotación de guardia** para plataformas de datos, gestionar incidentes y llevar a cabo **análisis postmortem estructurados** para impulsar la mejora continua. * Investigar y resolver **problemas complejos de datos y plataforma**, asegurando la precisión de los datos, la resiliencia del sistema y un claro análisis de la causa raíz. * Mantener altos estándares de **calidad del código, pruebas y documentación**, con especial énfasis en la **reproducibilidad y la observabilidad**. * Colaborar estrechamente con el **equipo de Habilitación de Datos, BI y partes interesadas de ML**, para evolucionar continuamente la plataforma de datos según sus necesidades y comentarios. * Mantenerse actualizado sobre las **tendencias industriales y tecnologías emergentes** en DataOps, DevOps y plataformas de datos, elevando constantemente el nivel de nuestras prácticas de ingeniería. ### **¿Qué habilidades necesito?** * Título universitario en **Ingeniería Informática, Ingeniería de Datos, Ciencias de la Computación**, o campo técnico relacionado (o experiencia práctica equivalente). * Experiencia demostrable en **ingeniería de datos, ingeniería de plataformas o desarrollo de software backend**, preferiblemente en **entornos nativos de la nube**. * Conocimientos profundos en **Python y/o SQL**, con sólidas habilidades para construir herramientas de datos o plataformas. * Amplia experiencia con **marcos de procesamiento distribuido de datos**, tales como **Apache Spark** (se prefiere experiencia con Databricks). * Comprensión sólida de **plataformas en la nube**, especialmente **AWS** y/o **GCP**. * Experiencia práctica con **contenerización y orquestación**: Docker, Kubernetes / EKS / GKE / AKS (o equivalente). * Competencia en **Infraestructura como Código** (por ejemplo, **Terraform**, Pulumi, CloudFormation) para gestionar componentes de datos y plataformas. * Experiencia implementando **pipelines de CI/CD** (por ejemplo, GitHub Actions, GitLab CI, Jenkins, CircleCI, ArgoCD, Flux) para cargas de trabajo y servicios de datos. * Experiencia en **monitorización y observabilidad** (métricas, registros, trazas) usando herramientas como Prometheus, Grafana, Datadog, CloudWatch u otras similares. * Experiencia en **gestión de incidentes**: participación en rotaciones de guardia o liderazgo de las mismas. * Gestión de incidentes y realización de análisis postmortem. * Creación de automatizaciones y salvaguardas para prevenir regresiones. * Fuertes capacidades de **pensamiento analítico y resolución de problemas**, cómodo depurando en capas de infraestructura, red y aplicación. * Capacidad para trabajar de forma **autónoma y colaborativa**. Deseable: * Experiencia diseñando y manteniendo **DAGs con Apache Airflow** u otras herramientas de orquestación similares (Dagster, Prefect, Argo Workflows). * Familiaridad con formatos modernos de datos y formatos de tablas (por ejemplo, **Parquet, Delta Lake, Iceberg**). * Experiencia actuando como **administrador/desarrollador de Databricks**, gestionando áreas de trabajo, clústeres, políticas de cómputo y trabajos para múltiples equipos. * Conocimiento de herramientas y prácticas relacionadas con la **calidad de los datos, contratos de datos u observabilidad de los datos**. ¿Qué ofrecemos? Además de los beneficios personalizados que tenemos para cada país, dLocal te ayudará a prosperar y dar ese paso extra ofreciéndote: * Flexibilidad: contamos con horarios flexibles y estamos guiados por el rendimiento. * Industria Fintech: trabaja en un entorno dinámico y en constante evolución, con mucho por construir y potenciar tu creatividad. \- Programa de bonificación por referidos: nuestros talentos internos son los mejores reclutadores \- refiere a alguien ideal para un puesto y recibe una recompensa. * Presupuesto social: recibirás un presupuesto mensual para relajarte con tu equipo (presencial o remoto) y fortalecer tus vínculos. * Casas dLocal: ¿quieres alquilar una casa para pasar una semana en cualquier lugar del mundo trabajando junto a tu equipo? ¡Te apoyamos! **Flexibilidad en cómo trabajas:** Nos centramos en el impacto y la productividad, no en horas fijas. Esto significa que nuestros equipos tienen horarios flexibles y, dependiendo de tu rol y ubicación, combinarás momentos de concentración autogestionada con encuentros presenciales en nuestros centros de colaboración. ¿Qué ocurre tras tu solicitud? Nuestro equipo de Adquisición de Talento está comprometido con brindar la mejor experiencia posible al candidato, así que no te preocupes: definitivamente recibirás noticias nuestras. Revisaremos tu currículum y te mantendremos informado por correo electrónico en cada etapa del proceso. Además, puedes consultar nuestra página web, LinkedIn y YouTube para obtener más información sobre dLocal. Podemos utilizar herramientas de inteligencia artificial (IA) para apoyar partes del proceso de contratación, como la revisión de solicitudes, el análisis de currículos o la evaluación de respuestas. Estas herramientas asisten a nuestro equipo de reclutamiento, pero no sustituyen el juicio humano. Las decisiones finales de contratación siempre las toman personas. Si deseas más información sobre cómo se procesan tus datos, contáctanos.


