




Estamos em busca de um(a) **Engenheiro(a) de Dados Sênior especializado(a) em Google Cloud Platform (GCP)** para atuar em um projeto estratégico de **estruturação e evolução do nosso Lakehouse**, fortalecendo governança, arquitetura, pipelines e boas práticas de engenharia. Se você deseja atuar em um ambiente que está acelerando sua maturidade de dados, com autonomia técnica e oportunidade real de influenciar decisões de arquitetura, essa posição pode ser ideal para você. **Responsabilidades** * Desenvolver, manter e otimizar pipelines de dados (batch e streaming) utilizando **Dataflow, Pub/Sub, BigQuery, Cloud Storage e Composer/Airflow**. * Atuar na organização e estruturação das zonas de dados (bronze, prata e ouro), apoiando a evolução para arquitetura **Lakehouse / medalhão**. * Suportar iniciativas de governança, catálogo de dados, segurança, IAM e boas práticas com as ferramentas nativas da GCP. * Contribuir para definições de arquitetura, padronização de modelos e melhorias de performance e custos. * Trabalhar em parceria com times de Analytics, Negócios e Engenharia para garantir qualidade, confiabilidade e escalabilidade dos dados. * Automatizar processos e apoiar integrações com sistemas internos e externos (APIs). **Requisitos Técnicos** * Experiência sólida em **GCP** com foco em: * **BigQuery** (modelagem, particionamento, clusterização, otimização) * **Dataflow / Apache Beam** * **Cloud Storage** * **Cloud Composer / Airflow** * **Pub/Sub** * Domínio em **Python** (Pandas, manipulação de dados, integração com APIs, Parquet). * Experiência com **pipelines ETL/ELT**, governança de dados, metadados e segurança/IAM. * Vivência na estruturação ou sustentação de **Data Lakes** ou **arquitetura em medalhão**. * Conhecimento em boas práticas de performance e otimização de custos na GCP. **Diferenciais (não eliminatórios)** * Experiência com **Dataplex**, Data Catalog ou governança avançada. * Participação em projetos de arquitetura ou implantação do zero. * Certificações GCP (Data Engineer, Cloud Architect etc.). * Experiência com Databricks / PySpark. Tipo de vaga: Autônomo / PJ Pagamento: R$14\.000,00 \- R$16\.000,00 por mês


