Trab
PreçosBlog

Especialista de Dados na Sensedia

Remoto - Remote

Candidatar-se

A Sensedia é líder no mercado de APIs, oferecendo soluções de integração e consultoria a grandes empresas no Brasil e no mundo, em uma variedade de setores. Seu portfólio, além de uma plataforma API Management, inclui Sensedia Integrations, Service Mesh, API Adaptive Governance, Events Hub, Open Banking & Finance e equipes estratégicas de Professional Services.

Missão: Efetuar ingestão, transformação e disponibilização de dados num ecossistema Big Data, realizando tratamento de dados, analisando e avaliando a qualidade e eventual necessidade de otimizar os processos.

Atividades diárias: Implementar e alterar pipelines de dados; Criar modelagem de dados; Extrair, transformar e carregar (ETL) dados de diferentes origens e formatos.

Requisitos obrigatórios: Experiência nas Linguagens Pyspark, Python, SQL; Experiência de leitura e escrita de formatos de dados Big Data; Atuar em plataforma cloud Azure; Experiência em Databricks, Storage Account, CosmosDB (MongoDB), Data Factory, Azure Devops; Capacidade de levantamento e Análise de Requisitos de negócio e técnicos; Experiência na ingestão, manipulação e tratamento de dados estruturados e principalmente semi estruturados.

Requisitos diferenciais: Atuação em projetos de stream de dados; Experiência com Kafka Confluent; Experiência com otimização de performance de pipelines de dados; Configurações cluster Databricks; Atuar na mentoria para os demais membros da equipe, compartilhando boas práticas e conhecimento técnico; Inglês Técnico.

Benefícios: Vale Refeição/Vale Alimentação, Plano de Saúde, Plano Odontológico, Seguro de Vida, PPR, TotalPass, Auxílio Creche, Programa Well-Being, Universidade Corporativa, parcerias culturais e educacionais, licença maternidade e paternidade estendida.

Requisitos

Experiência

  • Experiência nas Linguagens Pyspark, Python, SQL
  • Experiência de leitura e escrita de formatos de dados Big Data
  • Atuar em plataforma cloud Azure
  • Experiência em Databricks, Storage Account, CosmosDB (MongoDB), Data Factory, Azure Devops
  • Experiência na ingestão, manipulação e tratamento de dados estruturados e principalmente semi estruturados

Habilidades

  • Implementar soluções adequadas ao processamento (batch e stream) de grande volume de dados
  • Criar modelagem de dados
  • Extrair, transformar e carregar (ETL) dados de diferentes origens e formatos
  • Atuar em plataforma cloud Azure
  • Experiência em Databricks, Storage Account, CosmosDB, Data Factory, Azure DevOps
  • Capacidade de levantamento e Análise de Requisitos de negócio e técnicos
  • Experiência na ingestão, manipulação e tratamento de dados estruturados e semi estruturados

Idiomas

  • Inglês Técnico

Responsabilidades

  • Implementar e alterar pipelines de dados
  • Criar modelagem de dados
  • Extrair, transformar e carregar (ETL) dados de diferentes origens e formatos

Tecnologias

PysparkPythonSQLAzure DatabricksAzure Storage AccountCosmosDB (MongoDB)Azure Data FactoryAzure DevOpsKafka ConfluentDatabricks clusters

Descubra se seu currículo está pronto para esta vaga

Veja como nossa IA pode otimizar seu currículo e aumentar suas chances de conseguir esta posição.

© 2026 Trab. Todos os direitos reservados.