Escolaridade:
Ensino superior completo.
Necessária experiência comprovada em carteira.
Experiência em projetos definindo soluções de arquitetura de dados (em ambientes de BI e Big Data).
Conhecimento com modelos de integração de dados, ambientes complexos de integração de dados (em ambientes de BI e Big Data).
Experiência em projetos como arquiteto de dados, responsável pelo desenho da solução de dados end to end.
Fluida capacidade de programação em linguagens como Python, Scala / Java, Spark, SQL, NoSQL, etc.
Sólidos conhecimentos de soluções de processamento de dados para GCP.
Sólidos conhecimentos em modelagem de dados e conceitos de Lakehouse / Delta Lake.
Sólidos conhecimentos em banco de dados relacional e NoSQL.
Sólidos conhecimentos em tecnologia de nuvem:
CI/CD:
Jenkins, Sonar, Nexus Kubernetes, Suíte Elastic, Kafka, CloudHealth.
GCP:
Storage (repositório de objetos), Composer
(soluções configuradas para uso), Airflow (orquestrador de serviços open source instanciada pelo Composer), Dataflow, Data Fusion, BigQuery (DB Olap), Cloud Functions (API Serverless), Cloud Run (API containers), Cloud Build (pipe de build de código).Atividades:
Desenvolvimento de pipeline de dados para o Data Lake.
Manutenção dos processos para correção de falhas/erros.
Implementação de melhorias.
Atuar como parte da equipe ágil.
Colaborar com outros membros da equipe, Engenheiros, PO, QA, Designers, Scrum Master, Funcional e Tech Leader para resolver os desafios existentes.
Desenvolver, implantar e operar aplicações na cultura DevOps.
Modelagem de Dados Relacional e Dimensional.
BENEFÍCIOS:
Vale Transporte
Vale Refeição
SALÁRIO:
A Combinar
Horário:
Comercial
Regime de Contratação:
Efetivo (CLT)
VAGAS:
1
Cidade:
São Paulo - SP