Psicóloga | Tech Recruiter | IT Recruiter | Human Resources | Talent Acquisition | Gente e Gestão | Clima e CulturaVAGA 100% PRESENCIAL para atuar em cliente no Centro de FlorianópolisSalário: R$6.125,58 (Pleno) | R$9.865,74 (Sênior)Benefícios: Vale Alimentação (R$28,00/dia), Vale Transporte, Plano de Saúde, Seguro de Vida e Convênio com SESC.Requisitos:Graduação em Sistemas de Informação, Ciência da Computação ou áreas afins;Experiência de no mínimo 3 (três) anos como Analista de Dados para VAGA NÍVEL PLENO | Experiência de no mínimo 5 (cinco) anos como Analista de Dados para VAGA NÍVEL SÊNIOR.SQL avançado (Select, Insert, Update, Delete) e criação de Views;Python avançado para manipulação de dados e construção de ETLs;Experiência em banco de dados relacionais (PostgreSQL, SQL Server, MySQL) e não relacionais (Elastic Search e MongoDB);Conhecimento avançado de modelagem de dados e arquitetura de dados;Experiência com ferramentas de automação, integração e transformação de dados (Pentaho, por exemplo);Vivência com dados não estruturados (logs, textos) e estruturados (planilhas, bancos);Conhecimento em GIT e APIs;Experiência com mensageria (RabbitMQ, Kafka), Airflow e Linux (básico/intermediário);Métodos ágeis (Scrum) e boas práticas de versionamento (Git/GitHub/GitLab).Atividades:Projetar e desenvolver pipelines de dados (ETLs) robustos e otimizados utilizando Python e outras ferramentas para extrair, transformar e carregar dados de diversas fontes (bancos de dados, APIs, arquivos, etc.).Implementar estratégias eficientes de tratamento de erros e qualidade de dados nos pipelines de ETL.Automatizar a execução e monitorar o desempenho dos pipelines de ETL utilizando ferramentas como Airflow ou outras soluções de orquestração.Projetar e implementar modelos de dados eficientes e escaláveis para suportar as necessidades de análise e geração de relatórios, considerando tanto bancos de dados relacionais quanto não relacionais.Otimizar o desempenho de bancos de dados através da criação de índices, views materializadas e outras técnicas de otimização de consultas.Projetar e implementar APIs RESTful para acesso e manipulação de dados, garantindo a performance, segurança e escalabilidade.Documentar as APIs utilizando padrões como Swagger ou OpenAPI.Manipular e transformar dados de diversas fontes, incluindo dados estruturados (bancos de dados, planilhas) e não estruturados (logs, textos), utilizando Python e SQL.Realizar análise exploratória de dados para identificar padrões, tendências e anomalias.Implementar soluções de tratamento e limpeza de dados para garantir a qualidade e consistência das informações.Utilizar ferramentas de ETL (como Pentaho) para automatizar processos de integração e transformação de dados.Implementar soluções de mensageria (RabbitMQ, Kafka) para garantir a comunicação eficiente entre sistemas e aplicações.Utilizar Git/GitHub/GitLab para versionamento de código e colaborar efetivamente com outros membros da equipe utilizando métodos ágeis (Scrum, Kanban).Documentar os processos, sistemas e soluções implementadas, incluindo fluxos de dados, modelos de dados e configurações de sistemas.Participar na definição da estratégia de dados da empresa.Mentorar membros da equipe em práticas de desenvolvimento de dados.Investigar e avaliar novas tecnologias e ferramentas de dados.
#J-18808-Ljbffr