A AB InBev é a cervejeira líder global e uma das 5 maiores empresas de produtos de consumo do mundo. Com mais de 500 marcas de cerveja, somos a número um ou dois em muitos dos principais mercados de cerveja do mundo, incluindo a América do Norte, América Latina, Europa, Ásia e África.
Criado em 2022, o Growth Group unifica as nossas equipas business-to-business (B2B), direct-to-consumer (DTC), Sales & Distribution e Marketing. Ao reunir funções tecnológicas e comerciais globais, o Growth Group permite-nos tirar o máximo partido dos dados e impulsionar a transformação digital e o crescimento orgânico da AB InBev em todo o mundo.
Como uma célula tecnológica de nossa organização, temos um objetivo simples: crescer. Crescer como pessoas, como profissionais, como empresa. Para alcançar isso, utilizamos a tecnologia para criar soluções digitais que simplificam a vida de nossos clientes, tornam suas decisões mais inteligentes e seus negócios mais lucrativos. Com escritório em São Paulo e Campinas, incentivamos nosso time a participar presencialmente em grandes eventos e reuniões significativas ao longo do ano.
Responsabilidades:
* Implementar soluções ETL/ELT e integração de dados entre vários sistemas e fontes de dados.
* Conceber, implementar e manter pipelines de dados para ingerir, armazenar e processar grandes volumes de dados.
* Colaborar com outras equipes para garantir a segurança e a conformidade dos dados.
* Conceber, desenvolver e implementar soluções para otimizar o desempenho e a escalabilidade dos sistemas de processamento de dados.
Requerimentos e qualificações:
* Licenciatura em Ciências Informáticas, Engenharia Informática, Sistemas de Informação, Análise de Desenvolvimento de Sistemas ou similar;
* Inglês Intermediário;
* Aplicar conhecimentos sobre conceitos e ferramentas de pipeline de dados para implementar tarefas de transformação, limpeza e agregação de dados.
* Utilizar estruturas e bibliotecas de pipeline de dados para automatizar tarefas de processamento de dados e otimizar fluxos de trabalho.
* Seguir as melhores práticas de desenvolvimento de pipelines de dados, incluindo controle de versões, testes e documentação exaustiva.
* Aplicar competências de programação em Python, PySpark, Scala e SQL para manipular e transformar dados de forma eficaz.
* Compreender e utilizar plataformas e serviços de computação em nuvem oferecidos por fornecedores como AWS, Azure e Google Cloud.
* Desenvolver pipelines de dados utilizando estruturas de orquestração (por exemplo, Apache Airflow, Luigi, Mage, Databricks Workflows), integrando com PySpark e/ou Scala, conforme necessário.
* Compreender e aplicar princípios de conceção de software a projectos de engenharia de dados.
* Aplicar técnicas de modelação de dados para conceber modelos de dados eficientes e escaláveis.
* Otimizar o desempenho das consultas PySpark e SQL, tendo em conta o volume de dados, a complexidade das consultas e os recursos do sistema.
* Utilizar ferramentas de dados para ingestão, transformação, análise e visualização.
* Raciocínio lógico e competências analíticas;
* Cumprimento de prazos e qualidade do trabalho;
* Diálogo eficaz e transparente com outras áreas e colegas de trabalho;
* Capacidade de comunicação e relacionamento interpessoal para apresentar casos e discuti-los com outras áreas envolvidas;
Diferenciais:
* Desenvolver e manter APIs para troca de dados entre aplicações.
* Experiência com plataformas de computação em nuvem (AWS, Azure, Google Cloud) e seus serviços.
* Utilizar estruturas de automação usando ferramentas como Azure DevOps, Terraform e Github Actions.
* Bonus baseado no desempenho*
* Bonus de assiduidade*
* Plano de pensão privado
* Auxílio refeição
* Dress code e escritório informal
* Seguro de saúde, dentário e de vida
* Descontos em medicamentos
* Auxílio creche
* Descontos em produtos Ambev*
* Garantia do material escolar
* Plataformas linguísticas e de formação
* Auxílio transporte
#J-18808-Ljbffr