Somos uma EdTech brasileira, desenvolvemos produtos e soluções educacionais para alunos e instituições de ensino.
Produtos
Nossoprincipalproduto é a Quero Bolsa, maior portal de educação do Brasil, marketplace que ajuda futuros alunos do Brasil inteiro a escolherem o curso ideal por um preço que possam pagar.
Com a Quero, milhões de brasileiros podem comparar faculdades, cursos e escolas, fazer a matrícula e pagar o menor preço pelos seus estudos - tudo online, a qualquer hora.
Time de Data Engineering
O time de Data Engineering é responsável por desenvolver e manter plataformas de dados para todas as necessidades de análise da empresa, seja para estudos do dia a dia ou para modelos de Machine Learning.
Ele também gerencia a criação e manutenção de Data Warehouses, Data Lakes e trabalha para otimizar dados para leitura.
Além disso, o time conhece ferramentas de visualização de dados e streaming.
Responsabilidades
* Desenvolver, manter e otimizar pipelines de dados, garantindo integridade e disponibilidade das informações.
* Auxiliar na criação e manutenção de bancos de dados, data warehouses e data lakes.
* Implementar e monitorar fluxos de ETL (Extract, Transform, Load) para integrar dados de diferentes fontes.
* Colaborar com analistas de dados, cientistas de dados e outros stakeholders para entender as necessidades de dados e apoiar a criação de soluções eficazes.
* Participar da análise e resolução de problemas de desempenho em sistemas de dados.
* Documentar processos e fluxos de trabalho relacionados à engenharia de dados.
* Atualizar-se constantemente sobre novas ferramentas e técnicas na área de dados.
Requisitos
* Estar cursando ensino superior em Ciência da Computação, Engenharia de Computação, Sistemas de Informação ou áreas relacionadas.
* Experiência básica em linguagens de programação, como Python ou SQL.
* Conhecimento básico em bancos de dados relacionais (ex.: MySQL, PostgreSQL) e sistemas de armazenamento de dados.
* Experiência com ferramentas de versionamento de código (git, GitHub).
* Conhecimentos sobre orquestração de pipelines utilizando Apache Airflow.
* Disponibilidade para atuar no modelo 100% presencial, em São José dos Campos/SP.
Diferencial
* Familiaridade com ferramentas de ETL e frameworks de big data (ex.: Apache Spark, Hadoop).
* Experiência com ferramentas de cloud computing (ex.: AWS, Google Cloud, Azure).
* Conhecimento em metodologias ágeis (ex.: Scrum, Kanban).
* Certificações relevantes na área de dados.
* Conhecimento sobre infraestrutura como código (ex.: Terraform, Terragrunt).
* Familiaridade com Databricks.
* Familiaridade com containers e orquestração de containers (ex.: Docker, Kubernetes).