Trab
PreçosBlog

Especialista de Dados

Candidatar-se

A Sensedia é líder no mercado de APIs, oferecendo soluções de integração e consultoria a grandes empresas no Brasil e no mundo, em uma variedade de setores. Seu portfólio, além de uma plataforma API Management, inclui Sensedia Integrations, Service Mesh, API Adaptive Governance, Events Hub, Open Banking & Finance e equipes estratégicas de Professional Services. Trabalhar aqui é pertencer a uma cultura plural, descontraída e inovadora. É para quem tem coragem de ir além, pensar e agir fora da caixa. Preferimos pedir desculpas ao invés de pedir permissão e estamos sempre dispostos a nos transformar, nos reinventar. Nossas pessoas são incríveis e você pode fazer parte disso tudo. Nos comprometemos em garantir um ambiente de trabalho acolhedor e respeitoso. Conheça + em nosso site: https://br.sensedia.com/sensedia-careers. Qual a missão do Cargo? Efetuar ingestão, transformação e disponibilização de dados num ecossistema Big Data. Realizando tratamento de dados, analisando e avaliando a qualidade, e eventual necessidade de otimizar os processos. Quais serão suas atividades do dia-a-dia? Implementar e alterar pipelines de dados; Criar modelagem de dados; Extrair, transformar e carregar (ETL) dados de diferentes origens e formatos; Quais são os requisitos obrigatórios para esse cargo? Implementar soluções adequadas ao processamento (batch e stream) de grande volume de dados, conforme conhecimentos abaixo: Experiência nas Linguagens Pyspark, Python, SQL para preparar e manipular dados; Experiência de leitura e escrita de formatos de dados Big Data; Atuar em plataforma cloud Azure; Experiência em Databricks, Storage Account, CosmosDB (MongoDB), Data Factory, Azure Devops; Capacidade de levantamento e Análise de Requisitos de negócio e técnicos; Experiência na ingestão, manipulação e tratamento de dados estruturados e principalmente semi estruturados. Quais serão os requisitos diferenciais para este cargo? Atuação em projetos de stream de dados; Experiência com Kafka Confluent; Experiência com otimização de performance de pipelines de dados; Configurações cluster Databricks; Atuar na mentoria para os demais membros da equipe, compartilhando boas práticas e conhecimento técnico; Inglês Técnico. Aqui você vai encontrar: Vale Refeição/Vale Alimentação (Cartão Flash benefícios), Plano de Saúde, Plano Odontológico, Seguro de Vida, PPR, TotalPass, Auxílio Creche, Programa Well-Being (destinado para saúde física e mental), Universidade Corporativa (nossa #SensediaAcademy), com diversas trilhas de desenvolvimento; Parceiros culturais e educacionais, com descontos especiais; Somos uma empresa cidadã, proporcionando licença maternidade e licença paternidade estendida. Temos #WorkWhereYouBelong como proposta de valor, que é um modelo flexível de trabalho que nos ajuda a aumentar o senso de pertencimento dos Sensediers. Trabalhe onde você pertence, porque as barreiras físicas estão menores, e o sentimento é de que exista apenas uma Sensedia em qualquer lugar que você esteja trabalhando. Esta oportunidade também é para PCD! ;) Pensando em promover times cada vez mais diversos e ambientes de trabalho plurais, nossa missão é mapear os diferentes públicos que alcançamos com ele!

Requisitos

Experiência

  • Implementar soluções adequadas ao processamento (batch e stream) de grande volume de dados
  • Experiência nas Linguagens Pyspark, Python, SQL para preparar e manipular dados
  • Experiência de leitura e escrita de formatos de dados Big Data
  • Atuar em plataforma cloud Azure
  • Experiência em Databricks, Storage Account, CosmosDB (MongoDB), Data Factory, Azure Devops
  • Capacidade de levantamento e Análise de Requisitos de negócio e técnicos
  • Experiência na ingestão, manipulação e tratamento de dados estruturados e principalmente semi estruturados

Habilidades

  • Pyspark
  • Python
  • SQL
  • Azure Cloud
  • Databricks
  • Storage Account
  • CosmosDB
  • Data Factory
  • Azure DevOps
  • Kafka Confluent

Idiomas

  • English

Responsabilidades

  • Implementar e alterar pipelines de dados
  • Criar modelagem de dados
  • Extrair, transformar e carregar (ETL) dados de diferentes origens e formatos

Tecnologias

PysparkPythonSQLAzure CloudDatabricksStorage AccountCosmosDBData FactoryAzure DevOpsKafka Confluent

Descubra se seu currículo está pronto para esta vaga

Veja como nossa IA pode otimizar seu currículo e aumentar suas chances de conseguir esta posição.

© 2026 Trab. Todos os direitos reservados.