Responsabilidades:
1. Contribuir para o projeto de implementação de Sistemas escaláveis de ETL e processamento de dados para entrar em nosso ecossistema;
2. Construir e escalar a plataforma de análise, relatórios e decisões internas juntamente com o arquiteto de engenharia e infraestrutura;
3. Desenvolver melhorias na estratégia de dados, qualidade e governança;
4. Colaborar com os arquitetos, time DEV e engenheiros de teste no que tange toda parte de dados;
5. Implementar processos de transformação de dados, usando tecnologias Cloud como Lambda, Python, Pentaho, e outras tecnologias;
6. Fazer modelagem de dados dos projetos que têm essa necessidade;
7. Buscar continuamente implementar o que há de mais moderno e robusto relacionado à parte de Dados nos projetos em curso ou futuros.
Requisitos:
1. Experiência anterior em projetos complexos de dados, envolvendo análise de demanda, estruturação de dados e desenvolvimento de ETLs;
2. Conhecimento avançado em desenvolvimento de ETLs, preferencialmente PENTAHO;
3. Conhecimento avançado em banco de dados, incluindo arquitetura e modelagem (Tecnologias: MongoDB, Postgres, DocumentDB, Oracle, etc.);
4. Conhecimento em Python;
5. Conhecimento avançado em AWS Lambda;
6. Conhecimento em ferramentas de Dado / Datalake em Cloud - Preferencialmente AWS (Tecnologias: Athena, EMR, Redshift, Kinesis, Elasticsearch, etc.);
7. Conhecimento em Rancher;
8. Conhecimento em Gitlab.
Diferencial:
Conhecimento em Data Visualization (usando preferencialmente Spotfire).
#J-18808-Ljbffr