




**Responsabilidades e atribuições** Coletar, processar e gerenciar grandes conjuntos de dados de diversas fontes, garantindo a qualidade e integridade dos mesmos. Criar modelagem de novas soluções de arquitetura de dados seguras, confiáveis, disponíveis e escaláveis. Planejar e executar as modelagens de repositórios de dados tais como: Data Lake, Data Warehouse, bases relacionais e não relacionais, suportando as necessidades transacionais e analíticas da empresa. Criar e manter pipelines de dados eficientes, escaláveis e seguros, utilizando ferramentas e tecnologias de Big Data como Hadoop, Spark, Hive, etc. Colaborar com as equipes de análise de dados e desenvolvimento de software para fornecer dados precisos, atualizados e confiáveis. Desenvolver e manter documentação técnica, incluindo diagramas de arquitetura e fluxos de dados. Estruturar e gerenciar ambiente de dados em Cloud. Coordenar chamados, incidentes, problemas e apresentar indicadores de performance. **Requisitos e qualificações** Graduação em Ciência da Computação, Engenharia da Computação, Sistemas de Informação ou áreas afins. Pós\-graduação em andamento em áreas afins. Experiência anterior de 3 a 5 anos em desenvolvimento de soluções de Big Data, incluindo armazenamento, processamento e análise de dados. Desejável conhecimento em SQL Server, Analysis Services, Reporting Services e Integration Services. Experiência anterior de pelo menos 3 anos com a Stack Azure (DataFactory, DataBricks, Synapse, Purview) e Microsoft Power BI. Experiência em linguagens de programação como Python, Java ou Scala. Conhecimento de bancos de dados relacionais e não\-relacionais, como MySQL, PostgreSQL, MongoDB, etc. Conhecimento em plataforma de Streaming de Dados Desejável conhecimento avançado em inglês ;


