Atividades:
1. Projetar e implementar soluções de dados distribuídas, utilizando tecnologias de Big Data e ferramentas modernas.
2. Desenvolver e otimizar pipelines de ETL para garantir o fluxo eficiente dos dados.
3. Gerenciar grandes volumes de dados utilizando HDInsight, HBase, e Cosmos DB.
4. Projetar e implementar particionamentos eficientes no Cosmos DB para garantir escalabilidade e performance.
5. Implementar soluções de processamento em tempo real com Kafka, Event Hub e Spark.
6. Trabalhar com Databricks para análise e processamento avançado de dados.
7. Colaborar com equipes multidisciplinares para definir e implementar a arquitetura de dados.
Requisitos:
1. Experiência comprovada com HDInsight, Kafka, Event Hub, HBase, Cosmos DB (incluindo particionamento), Databricks, ETL e Spark.
2. Conhecimento em arquiteturas distribuídas de dados e melhores práticas de Big Data.
3. Habilidade em projetar e otimizar particionamentos no Cosmos DB para maximizar a performance e a escalabilidade.
4. Experiência em ambientes cloud, obrigatoriamente Azure.
Benefícios:
* Regime CLT;
* Vale alimentação e refeição (Cartão Flex);
* Vale combustível (caso seja necessário);
* Gympass;
* Assistência médica;
* Seguro de vida;
* Day off no mês do aniversário;
* Auxílio-creche;
* Reembolso por certificações;
* Convênio odontológico;
#J-18808-Ljbffr