




Somos inspired by tech powered by people. Por isso, precisamos de pessoas apaixonados por desafios e com sede de aprendizado contínuo. Buscamos por novos makers para sonharem com a gente, que enxerguem além do óbvio e que estejam prontos para se juntar a nós nessa jornada de transformação e crescimento. Estamos expandindo nossos horizontes e buscamos pessoas que compartilhem dessa mesma paixão pela tecnologia e pelo aprendizado contínuo. Se você se encaixa nesse perfil, venha fazer parte do nosso time! ### **RESPONSABILIDADES E ATRIBUIÇÕES** * Projetar, desenvolver e sustentar pipelines de dados escaláveis, resilientes e de alta performance, garantindo confiabilidade ponta a ponta; * Orquestrar, monitorar e otimizar fluxos de dados com Apache Airflow, assegurando disponibilidade, rastreabilidade, qualidade e observabilidade; * Estruturar, manter e evoluir ambientes de Data Lake e Data Warehouse, aplicando boas práticas de arquitetura, governança, segurança e padronização de dados; * Desenvolver, automatizar e otimizar processos de ingestão, transformação e carga de dados (ETL/ELT), com foco em eficiência e escalabilidade; * Realizar modelagem de dados para diferentes camadas analíticas, utilizando modelagem relacional (3NF) e dimensional (Star Schema), alinhadas às necessidades do negócio; * Desenvolver e otimizar consultas, procedures, views e rotinas de performance em Microsoft SQL Server; * Garantir a disponibilidade, integridade e consistência dos dados para consumo em ferramentas de BI e Analytics, como Apache Superset e Power BI; * Monitorar, documentar e promover a melhoria contínua dos pipelines e ambientes de dados, atuando de forma proativa na resolução de incidentes; * Atuar em parceria com times de BI, Analytics e áreas de negócio para levantamento de requisitos e entrega de soluções orientadas a dados; * Aplicar boas práticas de versionamento de código, testes, segurança da informação e documentação técnica. ### **REQUISITOS E QUALIFICAÇÕES** * Experiência comprovada como Engenheiro(a) de Dados ou em funções correlatas, atuando no desenvolvimento e sustentação de soluções de dados; * Conhecimento sólido em Python aplicado à automação, tratamento, transformação e integração de dados; * Experiência prática com Apache Airflow para orquestração, agendamento e monitoramento de pipelines de dados; * Conhecimentos sólidos em arquiteturas de Data Lake e Data Warehouse, incluindo conceitos de governança e boas práticas; * Experiência com Microsoft SQL Server, com forte domínio na escrita, análise e otimização de consultas complexas; * Domínio de modelagem de dados relacional (3ª Forma Normal – 3NF), garantindo consistência e integridade das informações; * Experiência com modelagem dimensional (Star Schema) voltada para ambientes analíticos e de Business Intelligence; * Vivência em ambientes Linux, com uso frequente de linha de comando e scripts de automação; * Experiência no preparo, disponibilização e validação de dados para consumo em ferramentas de BI, como Power BI e Apache Superset; * Conhecimento aprofundado em bancos de dados relacionais, incluindo conceitos de performance, integridade, indexação e otimização. **Desejável:** * Certificação na área de Dados, Engenharia de Software, Cloud ou áreas correlatas; * Experiência com serviços e plataformas de dados em nuvem, como AWS, Azure ou GCP; * Conhecimento prático em ferramentas de versionamento de código, especialmente Git; * Experiência com práticas de CI/CD aplicadas a pipelines e soluções de dados; * Vivência no uso de contêineres com Docker e/ou orquestração com Kubernetes; * Conhecimento em boas práticas de governança de dados, incluindo catalogação, qualidade e linhagem; * Experiência de trabalho com metodologias ágeis, como Scrum e Kanban; * Vivência em ambientes de grande volume e variedade de dados (Big Data); * Conhecimento prévio em ferramentas de observabilidade, monitoramento e alertas para pipelines de dados.


