Atividades:Projetar e implementar soluções de dados distribuídas, utilizando tecnologias de Big Data e ferramentas modernas.Desenvolver e otimizar pipelines de ETL para garantir o fluxo eficiente dos dados.Gerenciar grandes volumes de dados utilizando HDInsight, HBase, e Cosmos DB.Projetar e implementar particionamentos eficientes no Cosmos DB para garantir escalabilidade e performance.Implementar soluções de processamento em tempo real com Kafka, Event Hub e Spark.Trabalhar com Databricks para análise e processamento avançado de dados.Colaborar com equipes multidisciplinares para definir e implementar a arquitetura de dados.Requisitos:Experiência comprovada com HDInsight, Kafka, Event Hub, HBase, Cosmos DB (incluindo particionamento), Databricks, ETL e Spark.Conhecimento em arquiteturas distribuídas de dados e melhores práticas de Big Data.Habilidade em projetar e otimizar particionamentos no Cosmos DB para maximizar a performance e a escalabilidade.Experiência em ambientes cloud, obrigatoriamente Azure.Benefícios:Regime CLT;Vale alimentação e refeição (Cartão Flex);Vale combustível (caso seja necessário);Gympass;Assistência médica;Seguro de vida;Day off no mês do aniversário;Auxílio-creche;Reembolso por certificações;Convênio odontológico;
#J-18808-Ljbffr