"O trabalho diz muito sobre você, porque você coloca energia e sentimento no que você faz" - Rafael D'Alessandro, CEO da iBlue. Deixa-me fazer uma pergunta: Já sentiu como se algo estivesse faltando na sua carreira e que apesar de toda sua experiência em grandes empresas no mercado, ainda existe um déficit de energia, propósito e direção?Esse incômodo fez com que o nosso fundador e CEO, Rafael D'Alessandro, unisse sua crença pessoal nas metodologias ágeis e na transformação digital, para arriscar seus mais de 20 anos de atuação no mercado de T.I e criar o que somos hoje.
A iBlue, uma consultoria digital, surge do desejo de formar uma empresa diferente, que acredita no fator humano como principal razão para alavancar resultados.
Acreditamos no impacto grandioso de cada pequena decisão, gerada a partir de pessoas que buscam autonomia e sempre questionam processos a fim de otimizá-los.Por aqui, empoderamos cada iBluer para que entendam o poder das microrrevoluções e absorvam que fomentar a inovação depende de cada pequeno ato, a fim de encontrar soluções, errar rápido, aprender com os erros e trabalhar em conjunto para alcançar o sucesso. Quer fazer parte do nosso mundo azul?
#vemseriBluer ????/nO que esperamos de você ??Graduação em Ciência da Computação, Engenharia, Estatística, Matemática, Física ou áreas relacionadas;Experiência comprovada em projetos Big Data, Data Warehouse.Profundo conhecimento em Python, Airflow e Big Data & Data Lake.Experiência em projetar, desenvolver e otimizar pipelines de dados escaláveis e tolerantes a falhas para processar, limpar, transformar e carregar dados de várias fontes para armazenamento e análise.Habilidade para realizar tuning avançado de DAGs do Airflow.Sólidos conhecimentos em construir pipelines de dados, escrever APIs, e realizar processos de data ingestion, cleansing e data preparation.Experiência com GitHub e Docker para construção de repositórios de DataOps.Colaborar efetivamente com equipes multidisciplinares, comunicar resultados complexos de forma clara e eficaz para partes interessadas não técnicas./nComo será o seu dia a dia ?????Papéis e Responsabilidades:Arquitetura de Dados:Projetar e implementar arquiteturas Big Data em Nuvem (preferencialmente Azure).Definir estratégias para organização e modelagem dos dados no Data Lake, garantindo sua integridade, segurança e governança.Desenvolvimento de Pipelines de Dados:Projetar, desenvolver e otimizar pipelines de dados escaláveis e tolerantes a falhas utilizando ferramentas como Apache Spark, Airflow, Azure Data Factory;Realizar processos de ingestão, limpeza, transformação e carga de dados de várias fontes para o Data Lake.Integração com Machine Learning / Artificial Intelligence:Colaborar com os cientistas de dados na preparação e disponibilização dos dados necessários para construção e treinamento de modelos de ML/AI;Integrar pipelines de dados com ferramentas e serviços de ML/AI .Configuração e Tuning do Airflow em Kubernetes (Azure ou AWS):Configurar e gerenciar ambientes Airflow em Kubernetes, garantindo alta disponibilidade, escalabilidade e eficiência na execução de DAGs.Realizar tuning avançado de DAGs do Airflow para otimizar o desempenho e a confiabilidade dos pipelines de dados.Práticas de DevOps e MLOps:Utilizar ferramentas como GitHub e Docker para construir e gerenciar repositórios de DataOps, facilitando o versionamento e a colaboração no desenvolvimento de pipelines de dados;Apoiar os cientistas de dados na implementação de práticas de MLOps para garantir o monitoramento contínuo dos modelos de ML / AI em produção.Colaboração e Comunicação:Colaborar de forma eficaz com equipes multidisciplinares, incluindo analistas de requisitos, cientistas de dados, desenvolvedores e stakeholders;Comunicar resultados complexos de forma clara e eficaz para partes interessadas não técnicas, demonstrando o valor e o impacto dos insights gerados pela análise de dados.