Psicóloga | Tech Recruiter | IT Recruiter | Human Resources | Talent Acquisition | Gente e Gestão | Clima e Cultura
VAGA 100% PRESENCIAL para atuar em cliente no Centro de Florianópolis
Salário: R$6.125,58 (Pleno) | R$9.865,74 (Sênior)
Benefícios: Vale Alimentação (R$28,00/dia), Vale Transporte, Plano de Saúde, Seguro de Vida e Convênio com SESC.
Requisitos:
* Graduação em Sistemas de Informação, Ciência da Computação ou áreas afins;
* Experiência de no mínimo 3 (três) anos como Analista de Dados para VAGA NÍVEL PLENO | Experiência de no mínimo 5 (cinco) anos como Analista de Dados para VAGA NÍVEL SÊNIOR.
* SQL avançado (Select, Insert, Update, Delete) e criação de Views;
* Python avançado para manipulação de dados e construção de ETLs;
* Experiência em banco de dados relacionais (PostgreSQL, SQL Server, MySQL) e não relacionais (Elastic Search e MongoDB);
* Conhecimento avançado de modelagem de dados e arquitetura de dados;
* Experiência com ferramentas de automação, integração e transformação de dados (Pentaho, por exemplo);
* Vivência com dados não estruturados (logs, textos) e estruturados (planilhas, bancos);
* Conhecimento em GIT e APIs;
* Experiência com mensageria (RabbitMQ, Kafka), Airflow e Linux (básico/intermediário);
* Métodos ágeis (Scrum) e boas práticas de versionamento (Git/GitHub/GitLab).
Atividades:
* Projetar e desenvolver pipelines de dados (ETLs) robustos e otimizados utilizando Python e outras ferramentas para extrair, transformar e carregar dados de diversas fontes (bancos de dados, APIs, arquivos, etc.).
* Implementar estratégias eficientes de tratamento de erros e qualidade de dados nos pipelines de ETL.
* Automatizar a execução e monitorar o desempenho dos pipelines de ETL utilizando ferramentas como Airflow ou outras soluções de orquestração.
* Projetar e implementar modelos de dados eficientes e escaláveis para suportar as necessidades de análise e geração de relatórios, considerando tanto bancos de dados relacionais quanto não relacionais.
* Otimizar o desempenho de bancos de dados através da criação de índices, views materializadas e outras técnicas de otimização de consultas.
* Projetar e implementar APIs RESTful para acesso e manipulação de dados, garantindo a performance, segurança e escalabilidade.
* Documentar as APIs utilizando padrões como Swagger ou OpenAPI.
* Manipular e transformar dados de diversas fontes, incluindo dados estruturados (bancos de dados, planilhas) e não estruturados (logs, textos), utilizando Python e SQL.
* Realizar análise exploratória de dados para identificar padrões, tendências e anomalias.
* Implementar soluções de tratamento e limpeza de dados para garantir a qualidade e consistência das informações.
* Utilizar ferramentas de ETL (como Pentaho) para automatizar processos de integração e transformação de dados.
* Implementar soluções de mensageria (RabbitMQ, Kafka) para garantir a comunicação eficiente entre sistemas e aplicações.
* Utilizar Git/GitHub/GitLab para versionamento de código e colaborar efetivamente com outros membros da equipe utilizando métodos ágeis (Scrum, Kanban).
* Documentar os processos, sistemas e soluções implementadas, incluindo fluxos de dados, modelos de dados e configurações de sistemas.
* Participar na definição da estratégia de dados da empresa.
* Mentorar membros da equipe em práticas de desenvolvimento de dados.
* Investigar e avaliar novas tecnologias e ferramentas de dados.
#J-18808-Ljbffr