Somos uma empresa inovadora que acredita no poder dos dados para transformar negócios. Nossa tecnologia está baseada no Google Cloud Platform, utilizamos MongoDB como banco de dados principal e PostgreSQL como suporte. Estamos procurando um Engenheiro de Dados Sênior que queira fazer a diferença e nos ajudar a construir soluções incríveis.
O Que Você Vai Fazer:
* Desenvolver Pipelines de Dados: Criar e manter pipelines robustos e escaláveis, integrando dados de nossas aplicações e do HubSpot para criarmos um ambiente de acesso aos dados com governança e escalabilidade.
* Colaborar com a Equipe: Trabalhar de perto com as equipes de produto, engenharia e analytics para entender necessidades e implementar soluções eficazes.
* Implementar Processos de ETL: Desenvolver processos de Extração, Transformação e Carga eficientes, integrando dados de diversas fontes.
* Assegurar Qualidade e Segurança: Garantir que os dados sejam precisos, seguros e estejam em conformidade com as políticas da empresa.
* Inovar e Otimizar: Buscar constantemente novas tecnologias e métodos para melhorar nossos processos de dados.
* Documentar e Compartilhar: Manter a documentação atualizada e compartilhar conhecimentos com a equipe para promover o crescimento coletivo.
O Que Procuramos em Você
* Formação: Graduação em Ciência da Computação, Engenharia de Software, Sistemas de Informação ou áreas relacionadas.
* Experiência: Mínimo de 5 anos como Engenheiro de Dados ou em funções similares.Conhecimentos Técnicos:Domínio de MongoDB e PostgreSQL.
* Consumo e construção de APIs.
* Experiência com Google Cloud Platform (GCP), incluindo serviços como BigQuery, Dataflow e Pub/Sub.
* Proficiência em Python, Scala ou Java.
* Familiaridade com ferramentas de ETL e processamento de dados em larga escala (como Apache Spark e Kafka).
* Conhecimento em arquiteturas de Data Warehouse e Data Lake.
* Habilidade em modelagem de dados e design de esquemas eficientes. Diferenciais:
* Experiência com integração de dados do HubSpot.
* Certificações em Google Cloud.
* Conhecimento em Machine Learning e Big Data.
* Familiaridade com ferramentas de visualização de dados como Power BI ou Tableau.
* Habilidade em práticas de DevOps aplicadas a dados.
#J-18808-Ljbffr