Responsabilidades: Contribuir para o projeto de implementação de Sistemas escaláveis de ETL e processamento de dados para entrar em nosso ecossistema; Construir e escalar a plataforma de análise, relatórios e decisões internas juntamente com o arquiteto de engenharia e infraestrutura; Desenvolver melhorias na estratégia de dados, qualidade e governança; Colaborar com os arquitetos, time DEV e engenheiros de teste no que tange toda parte de dados; Implementar processos de transformação de dados, usando tecnologias Cloud como Lambda, Python, Pentaho, e outras tecnologias; Fazer modelagem de dados dos projetos que têm essa necessidade; Buscar continuamente implementar o que há de mais moderno e robusto relacionado à parte de Dados nos projetos em curso ou futuros. Requisitos: Experiência anterior em projetos complexos de dados, envolvendo análise de demanda, estruturação de dados e desenvolvimento de ETLs; Conhecimento avançado em desenvolvimento de ETLs, preferencialmente PENTAHO; Conhecimento avançado em banco de dados, incluindo arquitetura e modelagem (Tecnologias: MongoDB, Postgres, DocumentDB, Oracle, etc.); Conhecimento em Python; Conhecimento avançado em AWS Lambda; Conhecimento em ferramentas de Dado / Datalake em Cloud - Preferencialmente AWS (Tecnologias: Athena, EMR, Redshift, Kinesis, Elasticsearch, etc.); Conhecimento em Rancher; Conhecimento em Gitlab. Diferencial: Conhecimento em Data Visualization (usando preferencialmente Spotfire). J-18808-Ljbffr