Já pensou em trabalhar em uma das empresas que mais produzem calçados no mundo? E que além de produzir, ainda realiza sonhos? Este é o seu desejo? Então, a Grendene é o seu lugar!
Nossa área de Negócios Digitais está transformando a forma como nos conectamos com nossos consumidores. Se você é apaixonado por tecnologia, inovação e quer fazer parte da transformação digital de uma marca global, venha fazer parte dessa equipe!
Responsabilidades e atribuições
* Desenvolver automações na plataforma de dados, garantindo durabilidade, alto desempenho e usabilidade, em conjunto com a governança e a segurança.
* Manter a camada de dados e seus serviços para assegurar observabilidade, escalabilidade e flexibilidade, atendendo às demandas dos clientes de forma eficiente.
* Impulsionar a eficiência da equipe de engenharia ao desenvolver e implementar frameworks, métodos e padrões que otimizem as atividades do time.
* Orientar e capacitar colegas nas melhores práticas de engenharia de dados para promover escalabilidade e automação na nuvem, colaborando de forma integrada com todos os times.
* Traduzir as necessidades de negócios em soluções de dados viáveis e reutilizáveis, fomentando uma cultura orientada a dados.
* Criar e validar hipóteses, adaptando-se rapidamente a mudanças de prioridades ou cenários.
* Trabalhar com autonomia, sempre apoiando-se na equipe.
* Ser responsável pela plataforma de dados, identificando e implementando requisitos para melhorias, otimizações e mudanças tecnológicas.
* Monitorar a disponibilidade, desempenho, capacidade e uso da plataforma, propondo mudanças táticas ou estratégicas conforme necessário.
* Responsável por projetar, desenvolver e implementar pipelines, ingestões de dados e implementação de infraestrutura necessária para produtos de dados.
* Perfil analítico e hands-on;
Requisitos e qualificações
* Graduação completa em cursos voltados à área de Tecnologia da Informação e áreas afins;
* Conhecimento em Python;
* Experiência em linguagem SQL;
* Experiência em Cloud Computing, preferencialmente GCP;
* Experiência em arquitetura e pipeline de dados para DataLake e Data Warehouse;
* Experiência em Airflow (Composer);
* Entendimento em processos de ETL e ELT;
* Conhecimento em linguagem PySpark;
* Desejável experiência em Informática;
* Desejável experiência em infraestrutura de PowerBI e Qlik.
Informações adicionais
* Modelo de trabalho: híbrido ou remoto;
* Local de trabalho: Farroupilha/RS;
#J-18808-Ljbffr