Responsabilidades:Projetar e implementar pipelines de ETL eficientes para coleta, transformação e carga de dados.Automatizar processos de integração de dados, garantindo a qualidade e consistência.Desenvolver pipelines de ETL (Extração, Transformação e Carga) para limpar, transformar e preparar os dados para análise.Automatizar processos de carga e transformação de dados.Implementar técnicas de tratamento de dados, como normalização, enriquecimento e agregação.Projetar e implementar sistemas de armazenamento de dados, como bancos de dados relacionais, data lakes e data warehouses.Garantir a qualidade e integridade dos dados armazenados.Colaborar com os analistas de negócios para criar modelos de análise de dados.Desenvolver consultas SQL, scripts ou códigos para extrair insights dos dados.Conhecimentos Necessários:Experiência com ETLPython e SQLData Lake e DWAirflowCloud Computing (Google, AWS)Qualificações:Bacharelado em Ciência da Computação, Engenharia da Computação, Sistemas de Informação ou áreas correlatas.10 anos de experiência comprovada.Habilidades de comunicação e trabalho em equipe.Habilidades analíticas e resolução de problemas.Benefícios:Salário: R$ 3.450,00 a R$ 9.000,00 (a depender do nível)Pacote SodexoPlano de Saúde Unimed (após 90 dias de contratação)