Para exercer bem o cargo, você precisa ter:
Graduação completa em Administração, Engenharia da Computação, Ciências da Computação, Estatística, Tecnologia da Informação ou áreas afins.
Requisitos complementares
* Pós-graduação ou especialização em Ciência de Dados (desejável).
* Domínio do pacote Office em Excel e Power BI.
Competências técnicas necessárias:
* Conhecimento em DevOps/DataOps para automação e integração contínua de pipelines de dados.
* Familiaridade com bancos de dados como SQL, Oracle e SAP.
* Domínio em: Python, R, SQL, NoSQL, Scala e lógica de programação.
* Conhecimento com ferramentas de dados da AWS (Amazon Redshift, AWS Glue, Amazon S3, AWS Lake Formation, entre outras) - Diferencial.
Local de atuação:
Belo Horizonte/MG (disponibilidade para atuar presencialmente).
Suas responsabilidades
1. Definir e implementar estratégias de coleta, transformação, armazenamento e segurança de dados, alinhadas às operações da empresa.
2. Contribuir para o desenvolvimento, desenho e execução de toda a arquitetura necessária para modelos de engenharia de dados, alinhando as melhores práticas de mercado com as necessidades da empresa.
3. Utilizar linguagens de programação como Python, R e SQL para processamento e análise de dados.
4. Desenvolver pipelines de ETL (Extract, Transform, Load) para mover e integrar dados entre diferentes sistemas de armazenamento.
5. Garantir a governança e qualidade dos dados, utilizando ferramentas como Amazon S3, Amazon Glue, Amazon Redshift, e implementando processos de validação e monitoramento.
6. Implementar pipelines de dados automatizados com ferramentas de orquestração como Apache Airflow ou AWS Step Functions.
7. Identificar oportunidades de melhoria em processos de negócios e implementar soluções para otimização.
8. Colaborar com equipes multidisciplinares, comunicando requisitos técnicos de forma clara para stakeholders de diferentes áreas.
9. Assegurar conformidade com regulamentações de proteção de dados, como LGPD e GDPR.