




Descrição: * Graduação em Engenharia da Computação, Ciência da Computação, Sistemas de Informação ou áreas correlatas; * Experiência sólida com Spark, Databricks ou engine distribuída equivalente; * Conhecimento em: * SQL avançado; * Python avançado (pandas, pyspark); * Cloud (GCP, Azure ou AWS); * Orquestração: Airflow, Databricks Jobs, Workflows, n8n; * Pipelines complexos em batch e streaming; * Git, CI/CD e versionamento. * Projetar, desenvolver e manter pipelines de dados robustos e escaláveis (batch e streaming); * Estruturar, otimizar e monitorar data lakes e data warehouses em ambientes cloud; * Definir e implementar boas práticas de engenharia de dados, incluindo versionamento, CI/CD, observabilidade, governança e segurança; * Garantir qualidade dos dados por meio de testes automatizados, validações e monitoramento contínuo; * Modelar dados (dimensional, Data Vault) para consumo por analistas, cientistas de dados e produtos de dados; * Apoiar times de BI, Analytics e Produto na disponibilização de datasets confiáveis e bem documentados; * Avaliar e implementar novas tecnologias, ferramentas e padrões arquiteturais; * Colaborar com equipes de TI, Engenharia, Produto e Negócio, promovendo cultura de dados e boas práticas. 2512210202551931389


