




Descrição: * Capacidade de estimar prazos e apoiar na construção de planejamentos, trazendo visão técnica para dimensionamento das tarefas; * Habilidade para transformar necessidades de negócio em modelos de dados eficientes e aderentes aos objetivos estratégicos. * Experiência com bancos de dados relacionais (SQL) e não relacionais/colunares; * Domínio de linguagens como Python, Java ou Scala para processamento distribuído; * Conhecimento em modelagem de dados (Star Schema); * Experiência em processos ETL e orquestração de jobs no Databricks; * Vivência em tratamento e integração de dados (APIs, bancos, arquivos, cloud storages), utilizando ferramentas como pandas, PySpark, SparkR ou PL/SQL; * Experiência em projetos de Data Lake; * Desenvolver e manter pipelines de dados (ETL) robustos e escaláveis, seguindo as melhores práticas de engenharia e modelagem de dados; * Construir e sustentar bases de dados para atender objetivos de negócio e requisitos regulatórios; * Criar e manter processos de monitoramento contínuo da qualidade dos dados, implementando validações automáticas e sistemas de alertas para identificar e notificar inconsistências, anomalias ou falhas nos pipelines; * Conduzir a migração de dados legados para o Databricks, garantindo integridade, performance e governança; * Colaborar com analistas e áreas parceiras para garantir entendimento das regras de negócio e consistência dos dados. * Apoiar na evolução da arquitetura de dados, avaliando e implementando novas ferramentas e processos; 2512210202551931486


