Modalidade: 100% remota
Modelos de contratação: PJ ou Cooperado
Somos uma equipe excepcional, focada em compreender e atender às necessidades de consumidores e clientes, aproveitando novas tecnologias e escalando oportunidades de crescimento.
O que você fará:
* Ser uma voz de liderança nas discussões e decisões da equipe.
* Propor e desenvolver soluções técnicas.
* Liderar tecnicamente a equipe.
* Avaliar tecnologias e práticas de desenvolvimento.
* Manter documentações, gráficos e diagramas.
* Oferecer orientação técnica à equipe.
Criar arquiteturas de dados abrangentes utilizando recursos do Databricks, como arquitetura Lakehouse, data lakes, data warehouses e pipelines de dados para armazenar, gerenciar e acessar grandes volumes de dados de forma eficiente.
Implementação de Soluções:
Liderar a implementação de soluções Databricks, incluindo ingestão, transformação, processamento e verificações de qualidade de dados, garantindo integração perfeita com sistemas existentes.
Otimização de Performance:
Monitorar e otimizar cargas de trabalho no Databricks para alcançar alto desempenho e escalabilidade, incluindo configuração de clusters e otimização de consultas.
Profundo entendimento das funcionalidades centrais do Databricks, como Spark SQL, Delta Lake e MLflow, e a capacidade de utilizá-las para construir soluções de dados eficientes.
Colaboração:
Trabalhar em estreita colaboração com engenheiros de dados, cientistas de dados e partes interessadas do negócio para traduzir requisitos de dados em arquiteturas e soluções práticas.
Integração com a Nuvem:
Integrar o Databricks com plataformas em nuvem, como Azure, para aproveitar suas capacidades de armazenamento e computação.
Habilidades Requeridas:
Fortes Habilidades de Programação:
* Proficiência em Python ou Scala, com bom entendimento de conceitos de computação distribuída.
Experiência em Data Warehousing e Data Lakes:
* Conhecimento de conceitos tradicionais de data warehousing e experiência com tecnologias de data lake.
* Expertise em Apache Spark, incluindo Spark SQL, Spark Streaming e Spark MLlib.
Modelagem de Dados:
* Capacidade de projetar modelos de dados eficientes para diferentes tipos e cenários de uso.
Conhecimento em Computação em Nuvem:
* Familiaridade com plataformas em nuvem e seus serviços de dados.
#J-18808-Ljbffr