




Descrição: Candidate\-se rapidamente pelo email: Requisitos e qualificações: Requisitos e qualificações * Experiência prática com pipelines de dados, ferramentas ETL/ELT e orquestração * Domínio de SQL e Python * Conhecimento em Spark, PySpark, Databricks e arquitetura Data Lake / Lakehouse * Prática com versionamento de código (Git) e boas práticas de desenvolvimento * Capacidade de comunicação clara e colaboração com áreas técnicas e de negócio * Desejável: experiência com monitoramento de pipelines e testes automatizados Responsabilidades e atribuições: Responsabilidades e atribuições * Desenvolver e manter pipelines de dados (ETL/ELT) com foco em escalabilidade e performance * Criar e otimizar automações de dados * Contribuir na evolução da arquitetura de dados, aplicando boas práticas * Trabalhar com tecnologias em nuvem, especialmente Google Cloud Platform (GCP) e Databricks * Atuar com integração de APIs, centralizando dados de diferentes fontes no Databricks * Participar da documentação técnica e padronização de processos * Colaborar com áreas de negócio e BI para garantir alinhamento nas entregas Benefícios: Vale alimentação com desconto de R$1,00 de R$ 260,00, Plano de saúde, Assistência odontológica, Day\-off no seu aniversário, Premiação Trimestral, Premiação Anual , TotalPass Jornada de trabalho: Segunda à sexta\-feira das 07h30 às 17h18\.Home Office Conhecimentos: Escolaridade: Graduação \- ANÁLISE E DESENVOLVIMENTO DE SISTEMAS,Engenharia,Engenharia da computação,Tecnologia da Informação \- Completo 2512030202191843593


