O que esperamos de você: Curso Superior Completo em Engenharia de Dados, Ciência da Computação, Engenharia de Software, Engenharia de Computação, Análise e Desenvolvimento de Sistemas, Ou cursos relacionados à análise de dados e big data Será um diferencial se você: Apache SparkPythonSQLDatabricksKafkaCloud Computing (Microsoft Azure, OCI, Confluent)Como será o dia a dia: Planejar, analisar e decidir arquiteturas e processos de ETL de dadosCriar, gerenciar e configurar infraestruturas e ambientes de Big Data e ferramentas de ETL em streaming e em batchDesenvolver, automatizar e revisar pipelines e workflows de ETL de dados em streaming e em batchGerenciar grandes volumes de dados e garantir o bom funcionamento dos pipelines e workflows de dados no LakehouseEstruturar, otimizar e garantir que o Lakehouse, ferramentas e fluxos de dados sejam sempre eficientes e escaláveisUtilizar boas práticas de versionamento de códigos e garantir que todos os fluxos utilizem somente códigos dos repositórios padrõesPreparar e atender com dados as equipes estratégicas, como Cientistas de Dados e BI, que precisarem dos dados para construir modelos de Machine Learning e realizar análisesIdentificar oportunidades para melhorar a confiabilidade, unicidade e qualidade dos dados e dos pipelines e workflowsImplementar medidas de segurança e governança dos dados garantindo o cumprimento de normas e proteção de dadosMonitorar falhas, acessos e performance dos ambientes, ferramentas e fluxos de dados