Categorías
···
Entrar / Registro
Ingeniero Senior de DataOps
Indeed
Tiempo completo
Presencial
Sin requisito de experiencia
Sin requisito de título
79Q22222+22
Favoritos
Compartir
Parte del contenido se ha traducido automáticamenteVer original
Descripción

Resumen: Como Ingeniero Senior de DataOps, usted dará forma a la plataforma de datos de dLocal, diseñando una infraestructura escalable sobre Kubernetes, operando Databricks y garantizando la gobernanza y confiabilidad de los datos. Aspectos destacados: 1. Dar forma a la plataforma de datos de dLocal y desarrollar una infraestructura escalable 2. Habilitar la gobernanza de datos y la confiabilidad a gran escala 3. Colaborar globalmente en una cultura dinámica, flexible y centrada en el trabajo remoto ¿Por qué debería unirse a dLocal? dLocal permite que las empresas más grandes del mundo cobren pagos en 40 países de mercados emergentes. Las marcas globales confían en nosotros para aumentar las tasas de conversión y simplificar sin esfuerzo la expansión de pagos. Al actuar tanto como procesador de pagos como como comerciante registrado en las regiones donde operamos, hacemos posible que nuestros comerciantes ingresen a los mercados emergentes de más rápido crecimiento del mundo. Al unirse a nosotros, formará parte de un increíble equipo global que hace todo esto posible, en una cultura dinámica, flexible y centrada en el trabajo remoto, con beneficios relacionados con viajes, salud y formación, entre otros. Ser parte de dLocal significa trabajar con más de 1000 compañeros de más de 30 nacionalidades distintas y desarrollar una carrera internacional que impacta diariamente la vida de millones de personas. Somos constructores, nunca huimos de un desafío, somos centrados en el cliente y, si esto le suena familiar, sabemos que prosperará en nuestro equipo. **¿Cuál es la oportunidad?** Como Ingeniero Senior de DataOps, será un profesional estratégico que moldeará los cimientos de nuestra plataforma de datos. Diseñará y desarrollará una infraestructura escalable sobre Kubernetes, operará Databricks como nuestra plataforma principal de datos, habilitará la gobernanza y confiabilidad de los datos a gran escala y garantizará que nuestros activos de datos sean limpios, observables y accesibles. ### **¿Qué haré?** * Arquitecturar y desarrollar **infraestructura escalable** para ingerir, procesar y servir eficientemente grandes volúmenes de datos, utilizando **Kubernetes** y **Databricks** como bloques fundamentales. * Diseñar, construir y mantener **infraestructura basada en Kubernetes**, asumiendo la responsabilidad de la implementación, escalabilidad y confiabilidad de las cargas de trabajo de datos que se ejecutan en nuestros clústeres. * Operar **Databricks como nuestra plataforma principal de datos**, incluida la configuración del área de trabajo y de los clústeres, la orquestación de trabajos y la integración con el ecosistema de datos más amplio. * Trabajar en mejoras de **marcos y pipelines existentes** para garantizar rendimiento, confiabilidad y eficiencia de costos en cargas de trabajo por lotes y en tiempo real. * Construir y mantener **pipelines de CI/CD** para aplicaciones de datos (DAGs, trabajos, bibliotecas, contenedores), automatizando pruebas, implementaciones y reversión. * Implementar **estrategias de lanzamiento** (por ejemplo, blue/green, canary, banderas de funciones) cuando sea relevante para servicios de datos y cambios en la plataforma. * Establecer y mantener **prácticas sólidas de gobernanza de datos** (por ejemplo, contratos, catálogos, controles de acceso, verificaciones de calidad) que permitan a equipos multifuncionales acceder a los datos y confiar en ellos. * Construir un marco para trasladar conjuntos de datos crudos a **activos limpios, fiables y bien modelados**, destinados al análisis, la modelización y los informes, en colaboración con los equipos de Ingeniería de Datos y BI. * Definir y supervisar **SLIs/SLOs** para servicios críticos de datos (actualidad, latencia, disponibilidad, indicadores de calidad de datos). * Implementar y gestionar **monitoreo, registro, trazado y alertas** para cargas de trabajo de datos y componentes de la plataforma, mejorando progresivamente la observabilidad. * Liderar y participar en la **rotación de guardia** para plataformas de datos, gestionar incidentes y llevar a cabo **análisis posteriores estructurados** para impulsar la mejora continua. * Investigar y resolver **problemas complejos de datos y plataforma**, asegurando la precisión de los datos, la resiliencia del sistema y un claro análisis de la causa raíz. * Mantener altos estándares de **calidad del código, pruebas y documentación**, con un fuerte enfoque en la **reproducibilidad y la observabilidad**. * Trabajar estrechamente con el **equipo de Habilitación de Datos, BI y partes interesadas de ML**, para evolucionar continuamente la plataforma de datos según sus necesidades y retroalimentación. * Mantenerse actualizado sobre **tendencias del sector y tecnologías emergentes** en DataOps, DevOps y plataformas de datos, elevando continuamente el nivel de nuestras prácticas de ingeniería. ### **¿Qué habilidades necesito?** * Título universitario en **Ingeniería Informática, Ingeniería de Datos, Ciencias de la Computación**, o campo técnico afín (o experiencia práctica equivalente). * Experiencia comprobada en **ingeniería de datos, ingeniería de plataformas o desarrollo de software backend**, preferiblemente en **entornos nativos de la nube**. * Conocimientos profundos en **Python y/o SQL**, con sólidas habilidades para construir herramientas de datos o plataformas. * Amplia experiencia con **marcos de procesamiento distribuido de datos**, tales como **Apache Spark** (se prefiere experiencia con Databricks). * Comprensión sólida de **plataformas en la nube**, especialmente **AWS** y/o **GCP**. * Experiencia práctica con **contenerización y orquestación**: Docker, Kubernetes / EKS / GKE / AKS (o equivalente). * Competencia en **Infraestructura como Código** (por ejemplo, Terraform, Pulumi, CloudFormation) para gestionar componentes de datos y plataformas. * Experiencia implementando **pipelines de CI/CD** (por ejemplo, GitHub Actions, GitLab CI, Jenkins, CircleCI, ArgoCD, Flux) para cargas de trabajo y servicios de datos. * Experiencia en **monitoreo y observabilidad** (métricas, registros, trazado) mediante herramientas como Prometheus, Grafana, Datadog, CloudWatch o similares. * Experiencia en **gestión de incidentes**: participación en rotaciones de guardia o liderazgo de las mismas. * Gestión de incidentes y realización de análisis posteriores. * Creación de automatizaciones y salvaguardas para prevenir regresiones. * Fuertes habilidades de **pensamiento analítico y resolución de problemas**, cómodo depurando en capas de infraestructura, red y aplicación. * Capacidad para trabajar **de forma autónoma y colaborativa**. Deseable: * Experiencia diseñando y manteniendo **DAGs con Apache Airflow** u otras herramientas de orquestación similares (Dagster, Prefect, Argo Workflows). * Familiaridad con formatos modernos de datos y formatos de tabla (por ejemplo, **Parquet, Delta Lake, Iceberg**). * Experiencia actuando como **administrador/desarrollador de Databricks**, gestionando áreas de trabajo, clústeres, políticas de cómputo y trabajos para múltiples equipos. * Conocimiento de **herramientas y prácticas de calidad de datos, contratos de datos u observabilidad de datos**. ¿Qué ofrecemos? Además de los beneficios personalizados que tenemos para cada país, dLocal lo ayudará a prosperar y dar ese paso extra ofreciéndole: * Flexibilidad: contamos con horarios flexibles y nos guiamos por el desempeño. * Industria fintech: trabaje en un entorno dinámico y en constante evolución, con mucho por construir y potenciar su creatividad. - Programa de bonos por referidos: nuestros talentos internos son los mejores reclutadores; refiera a alguien ideal para un puesto y reciba una recompensa. * Formación y desarrollo: obtenga acceso a una suscripción Premium a Coursera. * Clases de idiomas: ofrecemos clases gratuitas de inglés, español o portugués. * Presupuesto social: recibirá un presupuesto mensual para relajarse con su equipo (presencial o remotamente) y fortalecer sus vínculos. * Casas dLocal: ¿quiere alquilar una casa para pasar una semana en cualquier lugar del mundo trabajando junto con su equipo? ¡Contamos con usted! ¿Qué ocurre después de postularse? Nuestro equipo de Adquisición de Talento está comprometido con crear la mejor experiencia posible para los candidatos, así que no se preocupe: definitivamente tendrá noticias nuestras. Revisaremos su currículum y le mantendremos informado por correo electrónico en cada etapa del proceso. Además, puede visitar nuestra página web, LinkedIn, Instagram y YouTube para obtener más información sobre dLocal. Podemos utilizar herramientas de inteligencia artificial (IA) para apoyar partes del proceso de contratación, como la revisión de solicitudes, el análisis de currículums o la evaluación de respuestas. Estas herramientas asisten a nuestro equipo de reclutamiento, pero no sustituyen el juicio humano. Las decisiones finales de contratación son tomadas exclusivamente por personas. Si desea más información sobre cómo se procesan sus datos, contáctenos.

Fuentea:  indeed Ver publicación original
David Muñoz
Indeed · HR

Compañía

Indeed
Cookie
Configuración de cookies
Nuestras aplicaciones
Download
Descargar en
APP Store
Download
Consíguelo en
Google Play
© 2025 Servanan International Pte. Ltd.