Atividades:Projetar arquiteturas de dados que suportam o ciclo completo de vida de machine learning, incluindo coleta, processamento, treinamento, implantação, monitoramento e retreinamento de modelos.Estruturar pipelines de dados escaláveis e eficientes para aquisição, transformação e armazenamento de grandes volumes de dados em ambientes on-premise e na nuvem (Azure, AWS, Google Cloud).Desenvolver soluções para integração de modelos de machine learning em sistemas de produção, utilizando práticas e ferramentas de MLOps, como Kubeflow, MLflow ou Vertex AI.Implementar estratégias de versionamento de dados, modelos e código, garantindo rastreabilidade e definição de governança em projetos de aprendizado de máquina.Automatizar processos de treinamento, implantação e monitoramento de modelos com ferramentas de CI/CD e orquestração de workflows, como Jenkins, Airflow ou Argo Workflows.Colaborar com equipes multidisciplinares para garantir a integração entre engenharia de dados, ciência de dados e TI, alinhando soluções técnicas aos objetivos de negócio.Gerir uma infraestrutura de dados e machine learning, garantindo escalabilidade, segurança e alta disponibilidade das soluções.Estabelecer boas práticas de governança de dados, segurança e conformidade, incluindo conformidade com LGPD e GDPR.Pesquisar e implementar tecnologias emergentes em MLOps para manter a Dadoteca na vanguarda do mercado de análise de dados.Requisitos:Formação superior em Ciência da Computação, Engenharia, Sistemas de Informação ou áreas correlatas.Experiência consolidada em arquitetura de dados e operacionalização de modelos de machine learning (MLOps).Conhecimento avançado em ferramentas de MLOps, como MLflow, Kubeflow, TFX, SageMaker ou Vertex AI.Proficiência em linguagens de programação como Python ou Scala, com foco em engenharia de dados e aprendizado de máquina.Experiência com bancos de dados relacionais (PostgreSQL, MySQL) e não relacionais (MongoDB, Cassandra, DynamoDB).Conhecimento em orquestração de fluxos de trabalho (Apache Airflow, Argo) e versionamento de código com Git.Experiência em plataformas de nuvem (Azure, AWS, Google Cloud) e seus serviços relacionados a dados e machine learning.Familiaridade com infraestrutura como código (IaC), como Terraform ou CloudFormation.Noções sólidas de segurança de dados, governança e conformidade regulatória.Competências:Capacidade de alinhar soluções técnicas aos objetivos estratégicos da empresa e dos clientes.Habilidade para orientar equipes multidisciplinares e supervisionar implementações complexas.Proatividade na automação de processos manuais e repetitivos, promovendo eficiência operacional.Abordagem analítica para identificar desafios e propor soluções inovadoras.Competência para explicar conceitos técnicos de maneira acessível a públicos não técnicos.Diferenciais:Certificações em MLOps e nuvem, como AWS Certified Machine Learning, Google Cloud Professional Data Engineer ou Microsoft Certified: Azure AI Engineer Associate.Experiência com monitoramento de modelos em produção, incluindo deriva de dados e modelos.Conhecimento em arquiteturas de microsserviços e implementação de APIs para integração de modelos.Experiência com Big Data e ferramentas como Apache Spark, Databricks ou Hadoop.Familiaridade com frameworks de aprendizado profundo, como TensorFlow e PyTorch.Conheça o Programa + Dadoteca:GympassZenklubBônus anual de renovação contratualIncentivo financeiro para curso de idiomasIncentivo financeiro para certificações Microsoft, Databricks, GCP, AWSIfood benefícios
#J-18808-Ljbffr