Responsabilidades
* Gerenciar e otimizar grandes volumes de dados no PostgreSQL, garantindo performance e confiabilidade.
* Desenvolver ETLs eficientes para integração de diferentes fontes de dados.
* Realizar modelagem de dados relacional e dimensional para apoiar a arquitetura analítica da empresa.
* Implementar boas práticas de governança, qualidade e segurança de dados.
* Analisar e solucionar problemas de performance e tuning do banco de dados.
* Apoiar times de desenvolvimento e infraestrutura na melhoria dos processos de ingestão e manipulação de dados.
* Automatizar processos de análise e carga de dados usando Python, Shell ou outras linguagens de scripting.
* Trabalhar com times multidisciplinares para entender necessidades de dados e implementar soluções personalizadas.
Qualificações
* Experiência sólida com PostgreSQL, incluindo otimização de queries, indexação e tuning de banco de dados.
* Proficiência em SQL avançado, incluindo funções de janela, subqueries e manipulação de grandes datasets.
* Experiência com ETL e pipelines de dados. Familiaridade com ferramentas de BI (Power BI, Metabase, Tableau, etc.).
* Conhecimento em modelagem de dados e estruturação de Data Warehouses.
* Habilidade para lidar com grandes volumes de dados e análises complexas.
* Experiência com automação de processos via Python, Bash, ou outras linguagens.
* Noções de integração de APIs e Web Services para consumo de dados.
* Boas práticas de segurança e governança de dados.
* Experiência com Pentaho Data Integration (PDI).
* Conhecimento em Docker e Kubernetes para deploy de aplicações de dados.
* Experiência com ferramentas de versionamento de banco de dados (Flyway, Liquibase).
* Noções de Big Data e processamento distribuído.
* Conhecimento em Machine Learning e Data Science.
Habilidades técnicas
Graduação em Ciência da Computação, Engenharia da Computação, Sistemas de Informação, Análise e Desenvolvimento de Sistemas ou áreas correlatas.
Habilidades comportamentais
Proatividade, flexibilidade, habilidade de comunicação, trabalho em equipe multidisciplinar, pensamento analítico, gestão do tempo, autodesenvolvimento.
Requisitos obrigatórios
* Experiência sólida em PostgreSQL, incluindo otimização de queries, indexação e tuning de banco de dados.
* Proficiência em SQL avançado (funções de janela, subqueries, CTEs, manipulação de grandes volumes de dados).
* Experiência prática com ETL e pipelines de dados (Pentaho Data Integration ou equivalente).
* Modelagem de dados relacional e dimensional para Data Warehouses.
* Automação de processos de análise e carga de dados usando Python e Shell Script.
* Conhecimento em governança, segurança e qualidade de dados.
* Experiência com ferramentas de BI (Power BI, Tableau, Metabase ou equivalentes).
* Conhecimento em integração de APIs e Web Services para consumo de dados.
#J-18808-Ljbffr