




Descrição: O que será necessário para o nosso match perfeito: * Ensino superior completo na área de TI ou em qualquer área com pós\-graduação em TI; * Experiência mínima de 4 anos em Desenvolvimento de Software, Engenharia de Dados e/ou Administração de Dados; * Experiência prática em Databricks (clusters, notebooks, Delta Lake, DLT); * Conhecimento em Big Data e processamento distribuído; * Conhecimento sólido em PySpark; * Proficiência em SQL; * Experiência com ferramentas de versionamento (Git); * Modelagem lógica e física em ambiente Lakehouse; * Documentação e manutenção de metadados; * Experiência na ingestão de dados a partir de SGBDs, APIs e Cloud Storage; * Aplicação de regras de segurança e políticas de governança; * Implementação de Data Quality Gates; * Gestão de acessos no Databricks Workspace. No seu dia a dia esperamos que você toque os seguintes processos: * Construir, testar e manter pipelines (ETL/ELT) de ingestão e transformação; * Utilizar Databricks com foco em PySpark e SQL; * Garantir escalabilidade e robustez para o time de BI; * Otimizar execução de pipelines; * Realizar tuning de queries; * Ajustar clusters e tabelas Delta para maximizar performance e reduzir custos; * Aplicar políticas de segurança e qualidade nas pipelines; * Implementar governança desde Bronze Silver Gold; * Garantir qualidade e rastreabilidade das transformações; * Criar conexões e ingestões de dados provenientes de sistemas diversos; * Assegurar que as integrações sejam confiáveis e performáticas; * Implementar regras automáticas de qualidade; * Desenvolver gates no Databricks / Delta Live Tables (DLT); * Garantir que só dados qualificados cheguem à camada de consumo; * Modelar estruturas no Lakehouse; * Documentar e atualizar repositórios de metadados e modelos; * Apoiar na administração do workspace Databricks; * Gerenciar acessos e aplicar boas práticas de segurança da informação. 2512290202491476014


