Nascemos há 55 anos para oferecer aos nossos clientes e consumidores experiências únicas e soluções para uma vida cada vez mais prática e muito saborosa .
Nossos alimentos de alta qualidade e valor agregado estão presentes em diversas ocasiões de consumo.
São mais de 800 produtos, como carnes, pescados, embutidos, massas, pratos prontos, pães de queijo, entre outros, que chegam à mesa de milhões de consumidores do Brasil e do mundo.
/n Para mandar bem, você precisa apresentar: Graduação Completa em Administração, Engenharia da Computação, Ciências da Computação, Estatística, Tecnologia da informação ou áreas a fins; Pós-graduação ou Especialização em Ciência de Dados – desejável; Domínio do pacote office em Excel e Power BI; Conhecimento em DevOps/DataOps para automação e integração contínua de pipelines de dados; Familiaridade com bancos de dados como SQL, Oracle, e SAP; Domínio em: Python, R, SQL, NoSQL, Scala e lógica de programação; Conhecimento com ferramentas de dados da AWS (Amazon Redshift, AWS Glue, Amazon S3, AWS Lake Formation, entre outras) - Diferencial; Disponibilidade para atuar presencialmente em Belo Horizonte/MG. /n Olha só como você vai contribuir com o time de Inteligência de Dados e Negócios: Definindo e implementar estratégias de coleta, transformação, armazenamento e segurança de dados, alinhadas às operações da empresa; Contribuindo para o desenvolvimento, desenho e execução de toda a arquitetura necessária para modelos de engenharia de dados, alinhando as melhores práticas de mercado com as necessidades da empresa; Utilizando linguagens de programação como Python, R, e SQL para processamento e análise de dados; Desenvolvendo pipelines de ETL (Extract, Transform, Load) para mover e integrar dados entre diferentes sistemas de armazenamento; Garantindo a governança e qualidade dos dados, utilizando ferramentas como Amazon S3, Amazon Glue, Amazon Redshift, e implementando processos de validação e monitoramento; Implementando pipelines de dados automatizados com ferramentas de orquestração como Apache Airflow ou AWS Step Functions; Identificando oportunidades de melhoria em processos de negócios e implementar soluções para otimização; Colaborando com equipes multidisciplinares, comunicando requisitos técnicos de forma clara para stakeholders de diferentes áreas; Assegurando conformidade com regulamentações de proteção de dados, como LGPD e GDPR.