Fundada em 2003, com a vocação de apoiar empresas que se utilizam de Outsourcing em TI, disponibilizando Inteligência & Tecnologia.
Com 18 anos de atuação em um mercado dinâmico e inovador, somos reconhecidos por nossos clientes e colaboradores pela qualidade e confiabilidade de nossos serviços.
Esse reconhecimento é reflexo de valores que cultivamos, como responsabilidade, profissionalismo, flexibilidade e transparência.
Estamos altamente capacitados a atender todas as demandas do cliente em relação a software, hardware e conectividade, com a preocupação de adequar as melhores soluções tecnológicas para nossos parceiros.
O cientista de dados é responsável por coletar, gerenciar e transformar em modelos utilizáveis uma grande quantidade de dados não estruturados, para que seja possível extrair desse conjunto informações relevantes.
É um profissional capaz de interpretar e fazer com que os dados se comuniquem entre si e façam que informações múltiplas ganhem valor agregado e possam se tornar produtos valiosos para o STF.
**Atribuições**:
Construir pipelines para coletar e processar dados de várias fontes: do ponto de ingestão à disponibilização da informação (streaming ou batch).
Configurar pipelines de dados em infraestruturas de nuvem híbrida, utilizando provedores como AWS, Microsoft Azure e GCP.
Criar serviço de ingestão de dados para lidar com milhões de eventos mensalmente.
Traduzir desafios complexos de negócio em soluções de aprendizado de máquina específicas e bem desenhadas que atinjam os requisitos de negócio.
Desenhar e implementar experimentos de aprendizado de máquina.
Fornecer orientação técnica para membros menos experientes da equipe.
Fazer parceria com outras equipes de engenharia e negócios para integrar os algoritmos aos sistemas em produção.
Apoiar na comunicação das descobertas e apresentação de resultados para um público não técnico.
Apoiar na definição arquitetural considerando ambientes de desenvolvimento, homologação e produção.
Apoiar a estruturação, definição e monitoramento de métricas e indicadores.
Apoiar a identificação e realização constante de melhorias - corretivas ou evolutivas - para aperfeiçoar a confiabilidade, integridade, disponibilidade, eficácia, eficiência e qualidade de dados, ferramentas, processos e procedimentos.
Apoiar a modelagem, estruturação, definição, documentação e automatização de dados.
**Formação Acadêmica (Obrigatória)**:
Diploma, devidamente registrado, de curso de nível superior de graduação na área de Tecnologia da Informação ou de graduação em qualquer curso superior, acrescido de certificado de curso de pós-graduação em área de Tecnologia da Informação de, no mínimo, 360 (trezentos e sessenta) horas, fornecido por instituição reconhecida pelo Ministério da Educação (MEC);
**Conhecimentos Técnicos (Obrigatórios)**
Experiência na configuração, criação e manutenção de pipelines para ingestão e processamento de dados em batch e streaming.
Experiência em Python e suas respectivas bibliotecas para ciência/análise de dados.
Experiência em frameworks de aprendizado de máquina.
Experiência em Banco de dados SQL e noSQL.
Experiência com testes de unidade.
Conhecimentos em Processamento de Linguagem Natural.
Conhecimentos em Apache Spark.
Conhecimentos em processamento de dados em lote e streaming.
Conhecimentos em práticas ágeis.
Conhecimentos em arquitetura de microsserviços.
**Conhecimentos Técnicos (desejáveis)**:
Conhecimentos em práticas DevOps e DataOps.
Conhecimentos em Kubernetes.
Conhecimentos em serviços gerenciados em nuvem pública.
Conhecimentos em soluções de Data Lakehouse.
Contratação CLT + Benefícios, projeto por tempo indeterminado, atuação em Brasília.