




**Resumo do Cargo** Profissional responsável por projetar, desenvolver, otimizar e manter pipelines de ETL/ELT em ambientes corporativos de dados, assegurando qualidade, integridade, desempenho e governança das informações ao longo de todo o ciclo de ingestão, transformação e disponibilização dos dados para consumo analítico e estratégico. **Responsabilidades Principais** * Desenhar, implementar e manter pipelines de ETL/ELT robustos, escaláveis e eficientes. * Integrar dados provenientes de múltiplas fontes, estruturadas e não estruturadas. * Modelar e transformar dados para suportar análises, dashboards, relatórios e produtos de dados. * Monitorar, otimizar e realizar tuning de jobs, fluxos, consultas e cargas de dados. * Garantir a qualidade e confiabilidade dos dados por meio de validações, regras de negócio e automações. * Documentar processos, fluxos e modelos de dados de forma clara, padronizada e atualizada. * Atuar na resolução de incidentes e problemas relacionados a pipelines de dados, realizando análise de causa raiz. * Colaborar com squads de Analytics, Engenharia e Negócio para atender requisitos técnicos e funcionais. * Assegurar conformidade com práticas de segurança e governança de dados, incluindo versionamento, controle de acesso e padrões corporativos. **Competências Técnicas Essenciais** **Linguagens e Transformações** * SQL avançado (CTEs, funções de janela, tuning e modelagem). * Python para automações, transformações e orquestração de dados. * Conhecimento em Shell Script para ambientes Linux. **Ferramentas ETL/ELT** * Ferramentas tradicionais de mercado: Informatica PowerCenter, Talend, SSIS, DataStage, Pentaho. * Frameworks e soluções modernas: dbt, Apache Airflow, AWS Glue, Azure Data Factory, GCP Dataflow. **Armazenamento e Bancos de Dados** * Data Warehouses: Snowflake, Amazon Redshift, BigQuery, Azure Synapse. * Bancos de dados relacionais: Oracle, SQL Server, PostgreSQL, MySQL. * Data Lakes: Amazon S3, Azure Data Lake Storage (ADLS), Google Cloud Storage (GCS). **Arquitetura e Modelagem** * Modelagem dimensional (Kimball). * Modelagem relacional e normalização. * Boas práticas de DataOps e observabilidade (logs, métricas, alertas). **Orquestração e DevOps** * Ferramentas de orquestração: Airflow, Prefect, Dagster ou similares. * Controle de versão com Git e pipelines de CI/CD. * Uso de contêineres (Docker) e ambientes distribuídos. **Benefícios MJV:** TotalPass\\Wellhub; Seguro de vida em grupo; Vale Refeição/ Alimentação; Plano de saúde e odontológico \- Bradesco; Ações de treinamento: palestras, fóruns, trocas e conversas de conhecimentos relativos ao nosso negócio. Estamos em constante conexão para aprender mais e juntos; Programa \+MJVer: programa interno de indicação onde você indica um colega para trabalhar conosco e se esse relacionamento der match, você ganha um prêmio. Parcerias: quer desconto? Temos um grupo no Workplace onde divulgamos parcerias com instituições de ensino, escolas de idiomas, academias, restaurantes, produtos e outros serviços;


