O que procuramos?Atribuições principais: Desenvolver e gerenciar pipelines de integração para consumo de modelos de IA generativa usando AWS Bedrock, APIs REST e gateways API. Garantir a implementação de soluções escaláveis e seguras utilizando serviços AWS (Lambda, S3, IAM, DynamoDB, Cognito, BedRock, KENDRA, SageMaker, CloudForm, entre outros). Implementar sistemas de Recuperação Aumentada por IA (RAG) com ferramentas como AWS Kendra e integração com LLMs. Processar dados em diferentes formatos (por exemplo, imagens em base64, parquet, documentos, planilhas, etc) e integrar modelos preexistentes para resultados otimizados. Propor e implementar salvaguardas e governança de dados para garantir segurança e conformidade em todas as etapas dos projetos. Monitorar fluxos de autorização e aplicar rigorosas políticas de controle de acesso baseadas em IAM (Identity and Access Management). Acompanhar e implementar boas práticas de MLOps e DevOps para o ciclo de vida dos modelos (Docker, Kubernetes, CI/CD).Requisitos: Desenvolvimento e integração na nuvem: Experiência avançada com plataformas como AWS e/ou Azure, incluindo serviços de computação sem servidor, armazenamento e gateways API. Expertise em Python: Proficiência no desenvolvimento com bibliotecas relevantes para IA (LangChain, Transformers, etc) e manipulação de dados (pandas, NumPy, etc), além de administrar os desafios de trabalhar com Python em AWS Lamda. Integração de APIs: Experiência sólida com design e consumo de APIs REST, assim como integração de modelos por meio de plataformas como AWS Bedrock. LLMs (Large Language Models): Capacidade de trabalhar com modelos como Claude (Anthropic), incluindo embeddings, vetorização semântica e ajustes (fine-tuning) para personalização. Vetorização e busca semântica: Proficiência em ferramentas como AWS Kendra para implementar bancos de dados vetoriais e sistemas de recuperação. Segurança: Experiência prática em configurar e gerenciar guardrails, salvaguardas, auditoria e governança de segurança para dados e fluxos de trabalho. MLOps: Conhecimento em práticas modernas de MLOps, incluindo containerização (Docker), orquestração (Kubernetes), pipelines CI/CD e monitoramento contínuo. Experiência com fluxos de trabalho de DevOps, gerenciamento de infraestrutura como código (ex.: Terraform). Sólido entendimento de governança de dados, regulamentações e conformidade. Habilidade para solucionar problemas complexos e inovar em um ambiente em rápida evolução. Criatividade e proatividade para propor soluções em IA generativa.Diferenciais: Conhecimento de JIRA.Localidade da posição:Híbrido, com atuações presenciais 3x na semana em São Paulo/SP.Por que construir sua carreira na Meta?Oferecemos autonomia, metas claras e um ambiente dinâmico e desafiador, onde os profissionais têm oportunidade de interagir com diferentes tecnologias, participar de todos os tipos de projetos, trazer novas ideias e trabalhar de qualquer lugar do Brasil e (por que não?) do mundo. Além disso, somos uma das melhores empresas para se trabalhar no Brasil segundo o Great Place to Work e uma das 10 empresas que mais crescem no país há 3 anos consecutivos, segundo o Anuário Informática Hoje.Quais são nossos valores?- Somos pessoas servindo pessoas- Pensamos e agimos como donos- Temos gana por performance- Crescemos e aprendemos juntos- Buscamos excelência e a simplicidade- Temos inovação e criatividade no nosso DNATodas as pessoas são bem-vindas independentemente de sua condição, deficiência, etnia, crença religiosa, orientação sexual, aparência, idade ou afins. Queremos que você cresça conosco em um ambiente acolhedor e repleto de oportunidades.Se identificou? Então, #VemSerMeta!