Experiencia sólida com as tecnologias; Docker, Airflow, GitHub, Python, SQL, Pentaho Data Integration;Perfil inovador, analítico e comprometido com qualidade;Facilidade para se relacionar com as áreas de negócio;Desejável conhecimento em produtos e serviços financeiros;Trabalhar em equipe e disseminar conhecimento;Conhecimentos que podem fazer a diferença:Experiência em ambientes cloud (Azure, GCP ou AWS);Experiência em plataformas de processamentos de dados voltados para Big Data & Analytics (Databricks, GCP Bigquery, Snowflake);Experiencia em Spark;Implementação de projetos de DW, Data Lake e Data Lakehouse;Desenvolvimento de Pipelines de Dados: Projetar, implementar e manter pipelines de dados eficientes e escaláveis utilizando ambiente cloud e ambiente on-premisse;Integração de Dados: Integrar dados de diversas fontes, garantindo a consistência, integridade e qualidade dos dados, bem como a conformidade com as políticas de segurança e privacidade;Otimização de Desempenho: Realizar ajustes de desempenho nos pipelines de dados, identificando e resolvendo gargalos e otimizando consultas;