




Descrição: * Experiência prévia em Engenharia de Dados (proporcional à senioridade da vaga), atuando na construção de pipelines de dados e processos de integração em ambientes de produção. * Domínio de ferramentas de ETL e integração de dados, em especial experiência com Pentaho Data Integration, para desenvolver jobs de extração, transformação e carga de dados. * Proficiência em programação, especialmente em Python, para manipulação de dados e automação de fluxos. * Sólidos conhecimentos de SQL e experiência com bancos de dados relacionais (design de consultas complexas, otimização de queries, modelagem de dados). * Vivência com ambientes de dados em nuvem (Cloud Computing), por exemplo, experiência com plataformas e serviços de dados na AWS, Azure ou GCP, incluindo armazenamento e processamento de dados na nuvem. * Conhecimento em arquitetura de dados e Data Warehousing, incluindo modelagem dimensional e conceitual, compreensão de processos ETL/ELT e melhores práticas para construção de data pipelines confiáveis. * Habilidade em resolução de problemas e análise de causas raiz em pipelines de dados, com capacidade de depurar falhas em jobs, tratar exceções nos processos de ETL e garantir a integridade dos dados entregues. * Desenvolver e manter pipelines de dados escaláveis de ETL/ELT, realizando a extração, transformação e carga de dados a partir de múltiplas fontes, utilizando Pentaho Data Integration como principal plataforma. * Integrar novas fontes de dados aos sistemas existentes, garantindo a qualidade, consistência e disponibilidade dos dados para uso pelas equipes de análise e negócios (por exemplo, para dashboards no Power BI). * Otimizar e monitorar o desempenho dos processos de dados, realizando tuning e ajustes necessários para assegurar pipelines eficientes, confiáveis e com baixa latência. * Colaborar com o Arquiteto de Automação e times de BI/Analytics, entendendo requisitos de dados dos projetos de automação e de relatórios, para entregar soluções alinhadas a essas necessidades. * Implementar práticas de governança, segurança e compliance de dados, assegurando que os pipelines atendam às políticas de proteção de dados e que a qualidade dos dados seja continuamente verificada (monitoramento de falhas, dados faltantes, etc.). * Documentar os processos e fluxos de dados desenvolvidos, mantendo registros claros das transformações, configurações de pipeline e arquitetura, facilitando a manutenção e futuras evoluções. 2512190202551809507


