Navegar
···
Entrar / Registrar
Engenheiro Senior de DataOps
Indeed
Tempo Integral
Presencial
Sem Limite de Experiência
Sem Limite de Formação
Praça do Patriarca, 62 - Centro Histórico de São Paulo, São Paulo - SP, 01002-010, Brasil
Favoritos
Compartilhar
Alguns conteúdos foram traduzidos automaticamente pelo sistemaVer original
Descrição

Resumo: Como Engenheiro Sênior de DataOps, você será um profissional estratégico que molda nossa plataforma de dados, projetando e evoluindo infraestrutura escalável, operando o Databricks e garantindo governança e confiabilidade dos dados. Pontos principais: 1. Projetar e evoluir infraestrutura escalável utilizando Kubernetes e Databricks. 2. Estabelecer e manter práticas robustas de governança de dados. 3. Trabalhar com uma incrível equipe global composta por mais de 30 nacionalidades diferentes. Por que você deveria se juntar à dLocal? A dLocal permite que as maiores empresas do mundo recebam pagamentos em 40 países de mercados emergentes. Marcas globais confiam em nós para aumentar as taxas de conversão e simplificar, sem esforço, a expansão de pagamentos. Como processadora de pagamentos e como comerciante de registro onde operamos, possibilitamos que nossos comerciantes conquistem os mercados emergentes de mais rápido crescimento do mundo. Ao se juntar a nós, você fará parte de uma incrível equipe global que torna tudo isso possível. Fazer parte da dLocal significa trabalhar com mais de 1000 colegas de mais de 30 nacionalidades diferentes e desenvolver uma carreira internacional que impacta diariamente a vida de milhões de pessoas. Somos construtores, nunca fugimos de um desafio, somos centrados no cliente e, se isso soa como você, sabemos que você prosperará em nossa equipe. **Qual é a oportunidade?** Como Engenheiro Sênior de DataOps, você será um profissional estratégico que molda a base de nossa plataforma de dados. Você projetará e evoluirá infraestrutura escalável no Kubernetes, operará o Databricks como nossa principal plataforma de dados, viabilizará governança e confiabilidade de dados em escala e garantirá que nossos ativos de dados sejam limpos, observáveis e acessíveis. ### **O que eu farei?** * Projetar e evoluir **infraestrutura escalável** para ingestão, processamento e disponibilização eficiente de grandes volumes de dados, utilizando **Kubernetes** e **Databricks** como blocos fundamentais. * Projetar, construir e manter **infraestrutura baseada em Kubernetes**, assumindo a responsabilidade pela implantação, dimensionamento e confiabilidade das cargas de trabalho de dados executadas em nossos clusters. * Operar o **Databricks como nossa principal plataforma de dados**, incluindo configuração de ambientes de trabalho e clusters, orquestração de jobs e integração com o ecossistema de dados mais amplo. * Trabalhar em melhorias nos **frameworks e pipelines existentes** para garantir desempenho, confiabilidade e eficiência de custos em cargas de trabalho em lote e em tempo real. * Construir e manter **pipelines de CI/CD** para aplicações de dados (DAGs, jobs, bibliotecas, contêineres), automatizando testes, implantação e reversão. * Implementar **estratégias de lançamento** (por exemplo, blue/green, canary, feature flags) sempre que relevantes para serviços de dados e alterações na plataforma. * Estabelecer e manter **práticas robustas de governança de dados** (por exemplo, contratos, catálogos, controles de acesso, verificações de qualidade) que capacitem equipes multifuncionais a acessar e confiar nos dados. * Construir um framework para transformar conjuntos de dados brutos em **ativos limpos, confiáveis e bem modelados**, destinados à análise, modelagem e relatórios, em parceria com as equipes de Engenharia de Dados e BI. * Definir e acompanhar **SLIs/SLOs** para serviços críticos de dados (atualidade, latência, disponibilidade, indicadores de qualidade dos dados). * Implementar e gerenciar **monitoramento, registro de logs, rastreamento e alertas** para cargas de trabalho de dados e componentes da plataforma, melhorando progressivamente a observabilidade. * Liderar e participar da **rotação de plantão** para plataformas de dados, gerenciar incidentes e conduzir **análises pós-mortem estruturadas** para impulsionar melhorias contínuas. * Investigar e resolver **problemas complexos de dados e plataforma**, garantindo precisão dos dados, resiliência do sistema e clara análise da causa-raiz. * Manter altos padrões de **qualidade de código, testes e documentação**, com forte foco em **reprodutibilidade e observabilidade**. * Trabalhar em estreita colaboração com a **equipe de Capacitação em Dados, BI e partes interessadas de ML**, para evoluir continuamente a plataforma de dados com base em suas necessidades e feedback. * Manter-se atualizado sobre **tendências do setor e tecnologias emergentes** em DataOps, DevOps e plataformas de dados, elevando continuamente o nível de nossas práticas de engenharia. ### **Quais habilidades são necessárias?** * Graduação em **Engenharia de Computação, Engenharia de Dados, Ciência da Computação**, ou área técnica relacionada (ou experiência prática equivalente). * Experiência comprovada em **engenharia de dados, engenharia de plataformas ou desenvolvimento de software backend**, idealmente em **ambientes nativos de nuvem**. * Conhecimento aprofundado em **Python e/ou SQL**, com sólidas habilidades na construção de ferramentas de dados ou plataformas. * Experiência sólida com **frameworks de processamento distribuído de dados**, como **Apache Spark** (experiência com Databricks fortemente preferida). * Compreensão sólida de **plataformas em nuvem**, especialmente **AWS** e/ou **GCP**. * Experiência prática com **contêineres e orquestração**: Docker, Kubernetes / EKS / GKE / AKS (ou equivalente) * Proficiência em **Infraestrutura como Código** (por exemplo, Terraform, Pulumi, CloudFormation) para gerenciar componentes de dados e plataformas. * Experiência na implementação de **pipelines de CI/CD** (por exemplo, GitHub Actions, GitLab CI, Jenkins, CircleCI, ArgoCD, Flux) para cargas de trabalho e serviços de dados. * Experiência em **monitoramento e observabilidade** (métricas, logs, rastreamento) usando ferramentas como Prometheus, Grafana, Datadog, CloudWatch ou similares. * Experiência em **gestão de incidentes**: participação ou liderança em rotações de plantão. * Lidar com incidentes e conduzir análises pós-mortem * Criar automações e salvaguardas para prevenir regressões * Fortes habilidades de **raciocínio analítico e resolução de problemas**, confortável ao depurar em camadas de infraestrutura, rede e aplicação. * Capacidade de trabalhar **de forma autônoma e colaborativa.** Desejável: Experiência em projetar e manter **DAGs com Apache Airflow** ou ferramentas de orquestração similares (Dagster, Prefect, Argo Workflows). * Familiaridade com formatos modernos de dados e formatos de tabelas (por exemplo, **Parquet, Delta Lake, Iceberg**). * Experiência atuando como **administrador/desenvolvedor Databricks**, gerenciando ambientes de trabalho, clusters, políticas de computação e jobs para múltiplas equipes. * Exposição a ferramentas e práticas de **qualidade de dados, contratos de dados ou observabilidade de dados**. O que oferecemos? Além dos benefícios personalizados que temos para cada país, a dLocal o ajudará a prosperar e ir além, oferecendo-lhe:* Flexibilidade: temos horários flexíveis e somos guiados pelo desempenho. * Setor de fintech: trabalhe em um ambiente dinâmico e em constante evolução, com muito a construir e estimular sua criatividade. \- Programa de bônus por indicação: nossos talentos internos são os melhores recrutadores \- indique alguém ideal para uma vaga e seja recompensado.* Aprendizado e desenvolvimento: obtenha acesso a uma assinatura Premium do Coursera. * Aulas de idiomas: oferecemos aulas gratuitas de inglês, espanhol ou português. * Orçamento social: você receberá um orçamento mensal para relaxar com sua equipe (presencialmente ou remotamente) e fortalecer seus vínculos! * Casas dLocal: quer alugar uma casa para passar uma semana em qualquer lugar do mundo, trabalhando junto com sua equipe? Contamos com você! **Flexibilidade na forma de trabalhar:** Focamos no impacto e na produtividade, não em horários fixos. Isso significa que nossas equipes têm horários flexíveis e, dependendo do seu cargo e localização, você combinará momentos de foco autogerido com encontros presenciais em nossos hubs de colaboração. O que acontece após sua inscrição? Nossa equipe de Aquisição de Talentos está comprometida em proporcionar a melhor experiência possível aos candidatos, portanto, não se preocupe: certamente entraremos em contato com você. Analisaremos seu currículo e mantê-lo-emos informado por e-mail em cada etapa do processo! Além disso, você pode conferir nosso site, LinkedIn e YouTube para saber mais sobre a dLocal! Podemos utilizar ferramentas de inteligência artificial (IA) para apoiar partes do processo de contratação, como análise de inscrições, avaliação de currículos ou análise de respostas. Essas ferramentas auxiliam nossa equipe de recrutamento, mas não substituem o julgamento humano. As decisões finais de contratação são sempre tomadas por humanos. Se desejar mais informações sobre como seus dados são processados, entre em contato conosco.

Fonte da Informação:  indeed Ver publicação original
João Silva
Indeed · HR

Empresa

Indeed
Cookie
Configurações de cookie
Nosso aplicativo
Download
Baixado no
APP Store
Download
Ir para baixar
Google Play
© 2025 Servanan International Pte. Ltd., Todos os direitos reservados. support@ok.com