Formação:Graduação completa em Ciência da Computação, Engenharia, Estatística ou áreas correlatas;Pós-graduação ou certificações em Engenharia de Dados, Big Data ou similares são um diferencial;Qualificações:Vasta experiência em arquitetura de dados, ETL, pipelines e integração entre sistemas;Experiência com ferramentas como SQL, Python, Databricks, Airflow, dbt, BigQuery, Redshift, Snowflake e ferramentas de transformação e versionamento de dados (Git);Capacidade de organizar e estruturar bases para análise de forma escalável e segura;Desejável experiência em cloud computing (AWS, GCP ou Azure), com foco em soluções escaláveis e de alta disponibilidade;Capacidade de comunicação técnica e alinhamento com diferentes perfis de áreas parceiras;Mentalidade de aprendizado contínuo, padronização e documentação.Responsável por construir e manter pipelines de dados robustos e escaláveis, assegurando a integridade, consistência e governança das informações utilizadas por diversas áreas da empresa;Atuação no desenvolvimento e orquestração de processos de ETL, integrações entre sistemas e estruturação de bases de dados, servindo como elo entre engenharia, BI e ciência de dados;Possuir foco em performance, confiabilidade e segurança dos dados, além de liderar iniciativas de padronização, documentação e automação de fluxos;Participará ativamente da escolha de tecnologias, arquitetura de soluções e suporte técnico a Stakeholders internos.AtribuiçõesResponsável por garantir qualidade, consistência e integridade dos dados desde a origem até o consumo;Atuará como elo entre engenharia, BI e cientistas de dados, promovendo a democratização e governança de dados;Perfil orientado à eficiência, à melhoria contínua e à documentação de processos e fluxos;Abordagem proativa na resolução de problemas estruturais de dados, suporte técnico ao time e liderança em iniciativas de padronização.