"O trabalho diz muito sobre você, porque você coloca energia e sentimento no que você faz” - Rafael D’Alessandro, CEO da iBlue.
Deixa-me fazer uma pergunta: Já sentiu como se algo estivesse faltando na sua carreira e que apesar de toda sua experiência em grandes empresas no mercado, ainda existe um déficit de energia, propósito e direção?
Esse incômodo fez com que o nosso fundador e CEO, Rafael D’Alessandro, unisse sua crença pessoal nas metodologias ágeis e na transformação digital, para arriscar seus mais de 20 anos de atuação no mercado de T.I e criar o que somos hoje.
A iBlue, uma consultoria digital, surge do desejo de formar uma empresa diferente, que acredita no fator humano como principal razão para alavancar resultados. Acreditamos no impacto grandioso de cada pequena decisão, gerada a partir de pessoas que buscam autonomia e sempre questionam processos a fim de otimizá-los.
Por aqui, empoderamos cada iBluer para que entendam o poder das microrrevoluções e absorvam que fomentar a inovação depende de cada pequeno ato, a fim de encontrar soluções, errar rápido, aprender com os erros e trabalhar em conjunto para alcançar o sucesso.
Quer fazer parte do nosso mundo azul? #vemseriBluer
/n
O que esperamos de você
* Graduação em Ciência da Computação, Engenharia, Estatística, Matemática, Física ou áreas relacionadas;
* Desejável pós-graduação em áreas correlatas;
* Experiência comprovada em projetos Big Data, Data Warehouse, Ciência de Dados, tendo a compreensão dos conceitos de Data Lake e Lake Warehouse, e experiência em projetar e implementar arquiteturas de armazenamento de dados eficientes para suportar análises Big Data;
* Experiência em projetar, desenvolver e otimizar pipelines de dados escaláveis e tolerantes a falhas para processar, limpar, transformar e carregar dados de várias fontes para armazenamento e análise;
* Profundo conhecimento em Python, Airflow e Big Data & Data Lake;
* Experiência com configuração de ambiente Airflow em Kubernetes – AKS;
* Habilidade para realizar tuning avançado de DAGs do Airflow;
* Sólidos conhecimentos em construir pipelines de dados, escrever APIs, e realizar processos de data ingestion, cleansing e data preparation;
* Experiência com GitHub e Docker para construção de repositórios de DataOps;
* Conhecimento em MLOps para apoiar os Cientistas de Dados;
* Colaborar efetivamente com equipes multidisciplinares, comunicar resultados complexos de forma clara e eficaz para partes interessadas não técnicas;
* Experiência com manipulação de grandes volumes de dados;
* Experiência com criação de especificação técnica e funcional;
* Compreensão de metodologias Agile;
* Sólidos conhecimentos em modelagem, desenvolvimento e monitoramento de processos.
/n
Como será o seu dia a dia
Papéis e Responsabilidades:
Arquitetura de Dados:
* Projetar e implementar arquiteturas Big Data em Nuvem (preferencialmente Azure).
* Definir estratégias para organização e modelagem dos dados no Data Lake, garantindo sua integridade, segurança e governança.
Desenvolvimento de Pipelines de Dados:
* Projetar, desenvolver e otimizar pipelines de dados escaláveis e tolerantes a falhas utilizando ferramentas como Apache Spark, Airflow, Azure Data Factory;
* Realizar processos de ingestão, limpeza, transformação e carga de dados de várias fontes para o Data Lake.
Integração com Machine Learning / Artificial Intelligence:
* Colaborar com os cientistas de dados na preparação e disponibilização dos dados necessários para construção e treinamento de modelos de ML/AI;
* Integrar pipelines de dados com ferramentas e serviços de ML/AI .
Configuração e Tuning do Airflow em Kubernetes (Azure ou AWS):
* Configurar e gerenciar ambientes Airflow em Kubernetes, garantindo alta disponibilidade, escalabilidade e eficiência na execução de DAGs.
* Realizar tuning avançado de DAGs do Airflow para otimizar o desempenho e a confiabilidade dos pipelines de dados.
Práticas de DevOps e MLOps:
* Utilizar ferramentas como GitHub e Docker para construir e gerenciar repositórios de DataOps, facilitando o versionamento e a colaboração no desenvolvimento de pipelines de dados;
* Apoiar os cientistas de dados na implementação de práticas de MLOps para garantir o monitoramento contínuo dos modelos de ML / AI em produção.
Colaboração e Comunicação:
* Colaborar de forma eficaz com equipes multidisciplinares, incluindo analistas de requisitos, cientistas de dados, desenvolvedores e stakeholders;
* Comunicar resultados complexos de forma clara e eficaz para partes interessadas não técnicas, demonstrando o valor e o impacto dos insights gerados pela análise de dados.