O que esperamos de você: Curso superior completo em Engenharia de Dados, Ciência da Computação, Engenharia de Software, Engenharia de Computação, Análise e Desenvolvimento de Sistemas ou áreas relacionadas à análise de dados e Big Data.Experiência prévia com liderança técnica ou gestão de times de engenharia de dados.Conhecimento avançado em arquitetura de dados, ETL, Big Data e ferramentas de processamento de dados. Será um diferencial se você: Experiência com Apache Spark, Python e SQL.Conhecimento em Databricks, Kafka e Cloud Computing (Microsoft Azure, OCI, Confluent).Experiência com implementação de governança de dados e segurança da informação.Habilidade para lidar com múltiplos projetos e stakeholders, garantindo alinhamento estratégico e eficiência operacional.Como será o dia a dia: Liderar a equipe de engenharia de dados, garantindo a entrega de soluções eficientes, escaláveis e alinhadas às necessidades do negócio.Planejar, analisar e definir arquiteturas e processos de ETL de dados, assegurando boas práticas de engenharia e governança.Supervisionar a criação, gestão e configuração de infraestruturas e ambientes de Big Data, além de ferramentas de ETL em streaming e batch.Garantir o desenvolvimento, automação e revisão de pipelines e workflows de dados, assegurando alto desempenho e confiabilidade.Gerenciar grandes volumes de dados e monitorar o funcionamento dos pipelines e workflows no Lakehouse, buscando melhorias contínuas.Definir estratégias para otimização e escalabilidade do Lakehouse, ferramentas e fluxos de dados.Implementar e garantir boas práticas de versionamento de códigos, assegurando que os fluxos utilizem somente códigos dos repositórios padrões.Atuar na interface entre as áreas estratégicas, como Cientistas de Dados e BI, garantindo que os dados estejam acessíveis e estruturados para análise e modelagem de Machine Learning.Identificar e propor melhorias na confiabilidade, unicidade e qualidade dos dados, bem como nos pipelines e workflows.Implementar medidas de segurança e governança dos dados, garantindo conformidade com normas e políticas de proteção de dados.Monitorar e gerenciar falhas, acessos e performance dos ambientes, ferramentas e fluxos de dados, garantindo alta disponibilidade e eficiência operacional.Apoiar na capacitação da equipe, promovendo boas práticas e desenvolvimento técnico contínuo.