ATIVIDADES: Estruturar, manter e otimizar fluxo de dados no Data Lake. Desenvolver pipelines eficientes, garantir a qualidade e integridade dos dados e dar suporte aos desenvolvedores no consumo das informações. Criar e manter pipelines de dados robustos e escaláveis (ETL/ELT). Garantir a integridade, qualidade e governança dos dados no Data Lake. Suportar os desenvolvedores na integração e consumo de dados. Monitorar e otimizar processos para garantir performance e escalabilidade. Trabalhar com bancos de dados SQL e NoSQL. Automatizar processos para reduzir trabalho manual e aumentar a confiabilidade dos dados.REQUISITOS: Experiência com arquitetura de Data Lake e processamento de dados. Domínio de Python e SQL. Conhecimento em ferramentas de orquestração de dados (Airflow, dbt, etc.). Experiência com bancos de dados relacionais e NoSQL. Conhecimento em Cloud Computing (GCP, AWS ou Azure).DIFERENCIAIS: Experiência com Spark ou Apache Beam. Conhecimento em DataOps e observabilidade de dados. Noções de machine learning e análise de dados.ATUAÇÃO:PresencialLOCAL:Vinhedo/SP ou São Paulo (Cubo Itaú)
#J-18808-Ljbffr