Somos uma empresa inovadora, tecnológica e premiada.
A Riocard Mais, a maior empresa de bilhetagem eletrônica e digital do país, busca continuamente evoluir para entregar as melhores soluções e facilidades para os nossos clientes.
Com um único cartão a Riocard Mais aumenta a empregabilidade, facilita a viabilização de políticas públicas de mobilidade através de benefícios tarifários como o Bilhete Único Intermunicipal e a Tarifa Social, ajuda o trabalhador a economizar com as integrações, dá muitas vantagens como o cashback do Clube Riocard Mais e, claro, a liberdade para ele chegar aonde quiser com praticidade e tecnologia.
Nosso destino é chegar cada vez mais longe.
Aproveitando, sempre, o caminho ao seu lado.
Ainda bem que tem RioCard!
Objetivo do cargo: Criar e manter a estrutura de um ambiente de exploração de dados (data warehouse / lakehouse) e desenvolver pipelines de ingestão e integração de dados de várias fontes, sejam elas internas ou externas, estruturadas ou não estruturadas, com o objetivo de garantir que os dados da organização sejam coletados, armazenados, processados e disponibilizados de maneira eficiente, segura e com qualidade para analistas de dados, cientista de dados, áreas de negócio, entidades governamentais, empresas e sindicatos.
Necessário: Ensino superior completo em TI e afins Domínio de SQL, NO SQL e de processos ETL/ELT Experiência na criação de pipeline de dados Experiência com documentação do processo de ingestão de dados Modelagem de banco de dados relacional e dimensional Tratamento de dados estruturados e não estruturados Conhecimento de ferramentas de modelagem de banco de dados Experiência com Python Pentaho Data Integration Desejáveis: Experiência em alguma plataformas de nuvem (AWS, Azure, Google Cloud); Experiência em big data e tecnologias relacionadas (Hadoop, Spark); Cursos de especialização em engenharia de dados; LGPD Solução de orquestração de dados (preferencialmente airflow) Governança de dados (dama – dmbok) Apache hop Diferenciais: Pós-graduação em engenharia de dados Experiência com RPA, Crawling e Scraping Kubernetes e Docker