Experiência acima de 5 anosDominio em : Java (LTS) nas versões 11 e 17, spring boot, MVC e DataAPI Rest, Junit, mockito, APIs restfull e soap, Public cloudBanco de Dados relacional e NoSQL, ferramenta CI/CD (cloudbeeds/Jenkis)Testes unitários e integradosOOP (programação Orientada a ObjetoMicro serviços e metodologia agilArquitetura hexagonal,Ferramentas de build (maven, Grandle)Public Cloud (AWS, Axure, GCP) mensageria (rabit MQ, MQ series)Arquitetura de eventos (Kafka)Implementação de restfull e soapEscalabilidade e performance (caching, load balance e profiling), processamento batch e streaming de dadosConhecimentos em processamento de dados em lotes e streaming (mensageria) com a capacidade de projetar, implementar e manter pipelines de processamento de dados utilizando kubernetesHabilidade em databricks, apache spark e databricks e kedro para criação e otimização de pipeline de dadosPlataforma cloudera ou outras soluções on primeses para big data, incluindo hadoop, Hbase e HiveConhecimento em DevOps, Jenkins)Experiência em Pyspark e Phyton e KedroModelo de Atuação: Híbrido 3x por semana em Interlagos - São Paulo. Diferenciais da vaga:Princípios SOLID e Clean CodeExperiência com AWSVivência em ambiente financeiroConhecimento funcional em processadoras e/ou cartõesDeterminar a viabilidade técnica e operacional avaliando a definição do problema, requisitos e análises.Assegurar a qualidade do produto, aplicando práticas de desenvolvimento ágil (refatoração, code review, código limpo, implementação contínua, testes contínuos, testes unitários...)Solucionar problemas, depurando e atualizando software existente.Realizar os testes necessários para garantir a qualidade do produtoFornecer recomendações para melhoria contínua e aplicando consistentemente as melhores práticas