Formação superior em Ciência da Computação, Engenharia de Computação, Sistemas de Informação ou áreas correlatas;Experiência de pelo menos 2 anos atuando com arquitetura de dados e banco de dados; Conhecimento profundo em modelagem de dados e bancos de dados relacionais (SQL) e não relacionais (NoSQL);Forte experiência em arquiteturas de dados distribuídas e escaláveis, especialmente em ambientes de Big Data (Spark, ElasticSearch);Experiência em projetar e otimizar data lakes e data warehouses (ex.: Delta Lake, MinIO);Experiência em integração e transformação de dados em larga escala, incluindo ETL/ELT;Conhecimento em automação de pipelines de dados usando orquestradores (ex.: Airflow);Experiência com sistemas de controle de versão (Git) e práticas de CI/CD para a implementação de pipelines de dados.Experiência em ambientes Linux e habilidades avançadas de Scripting (ex.: Bash).Capacidade de colaborar com times multidisciplinares, incluindo cientistas de dados e analistas de dados.Inglês Técnico.Apoiar iniciativas de modernização da arquitetura de dados, incorporando novas tecnologias e melhores práticas;Projetar e otimizar bancos de dados estruturados e não estruturados para atender a demandas da pesquisa;Documentar arquiteturas, fluxos e estratégias de dados, assegurando a facilidade de manutenção e escalabilidade;Auxiliar na avaliação e implementação de soluções de data lakes e data warehouses;Colaborar com equipes multidisciplinares em projetos que envolvem grande volume de dados, modelagem e integração;Monitorar o desempenho da arquitetura de dados, identificando e solucionando gargalos de performance;Auxiliar na implementação e otimização da arquitetura de dados em ambientes de Big Data, garantindo escalabilidade, performance e segurança;Apoiar o desenvolvimento de pipeline de dados em linguagem adequada;Auxiliar nas atividades de pré-processamento e vinculação de dados e construção de datasets para pesquisa;Gerenciar e otimizar grandes volumes de dados em arquiteturas distribuídas;Participar de reuniões e sessões técnicas para disseminar conhecimento e garantir a eficiência nas operações de dados;Elaborar e apresentar relatórios técnicos periódicos.