[Job-24068] Senior Data Engineer (Databricks e FICO), Brazil

Brazil
GU2 – Prod_GU2 /
Homeoffice /
Remote
Somos especialistas em transformação tecnológica, unindo expertise humana à IA para criar soluções tech escaláveis. Com mais de 7.400 CI&Ters ao redor do mundo, já formamos parcerias com mais de 1.000 clientes durante nossos 30 anos de história. Inteligência Artificial é nossa realidade.

Importante: se você reside na Região Metropolitana de Campinas, sua presença nos escritórios da cidade será obrigatória, conforme a política de frequencia vigente.

Buscamos uma pessoa pessoa talentosa e motivada para atuar como Engenheiro(a) de Dados, integrando nosso time e contribuindo na construção de soluções escaláveis e inteligentes para grandes volumes de dados.

Responsabilidades:
Projetar, desenvolver e manter pipelines de dados escaláveis e robustos.
Criar soluções de ingestão, transformação e modelagem de dados utilizando Databricks, Spark/PySpark, Cloudera e Azure Data Factory (ADF).
Garantir a qualidade, integridade e usabilidade dos dados ao longo de todo o pipeline.
Implementar pipelines CI/CD voltados a processos ETL.
Projetar e manter soluções de Data Lake e Data Warehouse, com aplicação de boas práticas de governança de dados.
Aplicar conceitos de FinOps para otimização de custos relacionados ao processamento de dados na nuvem.
Desenvolver e documentar workflows, processos e arquiteturas de dados.
Realizar troubleshooting técnico de pipelines e infraestrutura de dados.
Trabalhar com conceitos e estruturas como camadas Bronze, Silver e Gold, Star Schema, Delta Tables, Delta Sharing e tabelas analíticas.
Colaborar com equipes técnicas e de negócios para orquestrar soluções alinhadas aos objetivos da empresa.
Gerenciar roadmap técnico de projetos de dados, considerando dependências, trade-offs e gestão de mudanças.

Requisitos Técnicos:
Graduação em Ciência da Computação, Engenharia, TI ou áreas correlatas.
Experiência sólida como Engenheiro(a) de Dados ou função similar.

Conhecimento avançado em:
SQL
Python / PySpark
Azure Databricks (workflows, jobs, delta tables, queries, etc)
Azure Data Factory (ADF)
Cloudera (Hive, Impala, HDFS, etc)
ETL/ELT e pipelines de dados
Modelagem de dados dimensionais
Data Lake / Data Warehouse
Governança e qualidade de dados
Vivência com práticas de CI/CD aplicadas ao ambiente de dados.
Habilidade em comunicação e colaboração com times multidisciplinares.
Capacidade de atuar em ambientes dinâmicos e lidar com escopo técnico pouco definido.
Conhecimento em otimização de código em ambientes cloud.

Diferencial: 
Experiência com Teradata.
Experiência com SAS.
Experiência com FICO

#LI-LP2

Nossos benefícios:

- Plano de saúde e odontológico;
- Vale alimentação e refeição;
- Auxílio-creche;
- Licença parental estendida;
- Parceria com academias e profissionais de saúde e bem-estar via Wellhub (Gympass)  TotalPass;
- Participação nos Lucros e Resultados (PLR);
- Seguro de Vida;
- Plataforma de aprendizagem contínua (CI&T University);
- Clube de descontos;
- Plataforma online gratuita dedicada à promoção da saúde física, mental e bem-estar;
- Curso gestante e parentalidade responsável;
- Parceria com plataformas de cursos online;
- Plataforma para aprendizagem de idiomas;
- E muitos outros

Mais detalhes sobre os nossos benefícios aqui: https://ciandt.com/br/pt-br/carreiras

Na CI&T, a inclusão começa no primeiro contato. Se você é pessoa com deficiência, é importante apresentar o seu laudo durante o processo seletivo. Assim, podemos garantir o suporte e as adaptações que você merece. Se ainda não tem o laudo caracterizador, não se preocupe: podemos te apoiar para obtê-lo.

Temos um time dedicado de Saúde e Bem-estar, especialistas em inclusão e grupos de afinidade que estarão com você em todas as etapas. Conte com a gente para fazer essa jornada lado a lado.