




Resumo da Vaga: Profissional para atuar na construção e manutenção de governança de dados, modelagem, pipelines e segurança, zelando pela qualidade e otimização. Principais Destaques: 1. Construção e manutenção de ações de governança de dados 2. Domínio de SQL avançado e experiência com Google BigQuery 3. Colaboração com equipes multidisciplinares e foco em resolução de problemas **No seu dia a dia de trabalho você terá atividades como:** \- Construção e manutenção de ações de governança de dados (desenvolver e implementar políticas e garantir a adesão às práticas de governança em projetos). \- Projetar modelos e arquiteturas de dados de complexidade moderada e colaborar com a equipe para desenvolver arquiteturas de dados eficientes. \- Construção, sustentação e sugestão de pipelines e aplicações de dados com soluções robustas (desenvolver e manter pipelines de dados complexos e implementar soluções para melhorar a eficiência) \- Zelar pela qualidade e disponibilidade dos dados (implementar práticas de qualidade e realizar auditorias regulares, solucionando problemas de qualidade e garantindo a alta disponibilidade) \- Responsável pela aplicação de boas práticas em relação a segurança dos dados (executar e monitorar práticas de segurança de dados e realizar auditorias de segurança recomendando melhorias.) \- Criar e manter documentações das atividades (documentar detalhadamente as soluções e processos e manter a documentação atualizada e acessível para a equipe) \- Monitorar as soluções de dados adotadas pela empresa, buscando otimizações de performance e custo (analisar o desempenho das soluções de dados e implementar otimizações e propor soluções para redução de custos e melhoria de performance). **O Que Precisamos:** * Graduação completa em Ciências da computação, Ciência de dados, Engenharia de produção e afins; * Experiência sólida em Google BigQuery (consultas, performance, segurança e otimização de custos). * Domínio de SQL avançado (Window Functions, UDFs, STRUCTs e ARRAYs). * Vivência com Cloud Storage (Data Lake, staging e controle de acesso). * Experiência em orquestração de dados com Cloud Composer (Airflow). * Conhecimento em processamento batch e streaming (Cloud Dataflow / Pub/Sub). * Proficiência em Python (pipelines ETL/ELT, Pandas, automação e APIs GCP). * Experiência com ferramentas de transformação e versionamento (Dataform/dbt, Git, CI/CD). * Sólida base em modelagem de dados (Star/Snowflake Schema). * Ótima comunicação, colaboração com equipes multidisciplinares e foco em resolução de problemas e otimização de custos. Diferenciais: Conhecimento em BigQuery ML e Vertex AI. Experiência com Feature Stores, Cloud Logging/Monitoring, segurança e compliance. **O que tem de bom pra quem entra nessa?** Modelo de trabalho: Remoto; Jornada flexível; TotalPass: programa de academias e de cuidado com a saúde mental; Auxílio Educação; DAY OFF; Plano de Saúde; Plano Odontológico; Seguro de Vida; Cartão VR Flex; Auxílio Creche (crianças até 60 meses) Tipo de vaga: Tempo integral, Efetivo CLT Pagamento: R$8\.000,00 \- R$12\.000,00 por mês Benefícios: * Assistência médica * Assistência odontológica * Auxílio\-creche * Auxílio\-educação * Seguro de vida * Vale\-alimentação * Vale\-refeição


