**DESCRIÇÃO DO CARGO: Requisitos**:
- Formação acadêmica em Estatística, Ciências da computação ou áreas afins;
- Conhecimento prático em Oracle Database e Google BigQuery;
- Experiência com Google Cloud Platform (GCP), incluindo ambientes de Data Lake e Data Warehouse;
- Familiaridade com ferramentas de versionamento de código, especialmente GitLab;
- Conhecimento em Apache Hop para ETL e orquestração de dados;
- Habilidade para criar fluxogramas e diagramas técnicos no Draw.io;
- Experiência ou interesse em ferramentas de visualização de dados como Looker e Power BI;Desejável conhecimento em Python ou SQL para análise e manipulação de dados.
**Atividades**:
- Criar, manter e otimizar pipelines de dados em ambiente de Data Lake (Google Cloud Storage);
- Desenvolver e gerenciar estruturas de Data Warehouse (Google BigQuery);
- Trabalhar com visualização de dados e geração de relatórios interativos no Looker e Power BI;
- Colaborar na modelagem de dados e construção de scripts para análise de dados;
- Versionar e documentar scripts desenvolvidos no GitLab, garantindo controle e rastreabilidade;
- Utilizar ferramentas como Apache Hop para orquestração e integração de dados;
- Desenvolver fluxogramas e diagramas técnicos no Draw.io para planejamento e documentação;
- Atuar em conjunto com a TI Holding e outros stakeholders para garantir conformidade e acesso seguro aos dados.