Engenheiro de Dados Pleno

  • Tempo Integral
  • São Paulo

Housi

Descrição da vaga

A Housi nasceu com o propósito de reinventar a forma de morar 

Somos uma plataforma de moradia por assinatura, 100% digital, sem burocracia e papelada.

Para o morador, somos o futuro da moradia. Para o investidor, uma plataforma que oferece a melhor gestão e rentabilidade para seu imóvel.

Aqui na Housi, temos muita vontade de fazer acontecer, de crescer e ver a Housi crescendo!

Se ficou interessado, inscreva-se e conheça mais sobre nosso time e nossas oportunidades <3

Responsabilidades e atribuições

Nosso Engenheiro de Dados Pl. tem os seguintes desafios:

  • Desenvolvimento de Infraestrutura de Dados: Projetar, implementar e otimizar pipelines de dados distribuídos e sistemas de armazenamento usando serviços do Google Cloud Platform (GCP), como BigQuery, CloudFunctions, Airflow.
  • Programação: Escrever código eficiente e escalável em Python, Java ou outras linguagens relevantes para automatizar processos de ingestão, transformação e análise de dados.
  • Segurança: Implementar políticas de segurança em todas as camadas do stack de dados, incluindo criptografia de dados em repouso e em trânsito, controle de acesso baseado em função e conformidade com regulamentos de privacidade.
  • Otimização de Desempenho: Identificar gargalos de desempenho e realizar ajustes em pipelines e sistemas de armazenamento para garantir alta disponibilidade, escalabilidade e baixa latência.
  • Colaboração Técnica: Trabalhar em estreita colaboração com analistas de dados e outros stakeholders para entender os requisitos de dados e fornecer soluções técnicas eficazes e inovadoras.
  • Documentação e Padrões de Desenvolvimento: Manter documentação abrangente sobre arquitetura de dados, processos de ETL e padrões de segurança, garantindo consistência e facilitando a colaboração entre equipes.

Requisitos e qualificações

Para isso, precisamos que você tenha:

  • Experiência sólida em engenharia de dados, com foco em Google Cloud Platform (GCP) e suas ferramentas, como BigQuery, Dataflow, CloudFunctions, Airflow e Pub/Sub.
  • Proficiência em programação em Python, SQL, Java ou outra linguagem relevante para desenvolvimento de pipelines de dados e automação de processos.
  • Habilidades comportamentais como pensamento analítico, iniciativa, colaboração, adaptabilidade, atenção aos detalhes, gestão do tempo, resiliência e determinação
  • Alta capacidade de analisar problemas complexos
  • Iniciativa para explorar novas tecnologias;
  • Adaptação a mudanças
  • Atenção à qualidade e prazos

Será um diferencial se você tiver:

  • Conhecimento em ferramentas como Tableau, Power BI ou Google Data Studio para visualização de dados.
  • Apache Airflow ou Google Cloud Composer para orquestração de workflows
  • Git para controle de versão
  • Jira ou Slack para colaboração
  • Pipedrive e Pipefy para integração e análise de dados de clientes.