Data Engineer Senior
Paris
Tech – French Market /
Full-time /
Hybrid
Skello est une société européenne qui a pour mission de réinventer l’expérience de travail des équipes sur le terrain en leur permettant de mieux anticiper, s’organiser et communiquer. Comment ? Grâce à une technologie collaborative et intuitive.
Concrètement, Skello est une solution SaaS de pilotage RH pour tous les établissements dont les plannings sont complexes. Pour les managers, Skello optimise l’organisation du travail et aide à la prise de décision dans le pilotage des coûts liés aux équipes. Pour les employés, Skello facilite leur communication et simplifie leur quotidien.
L’ambition de Skello est de devenir la solution de référence pour toutes les équipes de terrain en Europe. Pour cela, une levée de fonds en Série B de 40M€ a été réalisée en septembre 2021 auprès de fonds experts dans le domaine (Partech, Aglaé Ventures & XAnge) pour apporter toujours plus de valeur à ses clients grâce à de nouvelles fonctionnalités et s’ouvrir à de nouveaux secteurs d’activité, au-delà des secteurs historiques : l’hospitality, le retail et la santé.
Mission :
En rejoignant l’équipe data, tu auras pour mission principale de mettre en place les solutions techniques pour exploiter la donnée au sein de Skello.
Cette donnée peut être issue de plusieurs sources et être destinée à tous les métiers de Skello que ce soit en termes d’analyse BI, reporting ou de base à nos features intelligentes.
Plus concrètement tu seras responsable de
- La collecte multi-source des données dans un data lake sur AWS
- L'automatisation et le traitement des flux de données
- Garantir l'intégrité et la qualité des données du data lake et de la data warehouse
- Maintenir et améliorer l’architecture data existante
- Participer & collaborer avec les data analysts et data scientists pour définir des architectures simples et évolutives en fonction des besoins.
- L'accessibilité des données pour qu’elles soient facilement exploitables par les data analysts et les data scientists
- La collaboration et la communication avec les équipes internes/externes
- Cloud provider: AWS
- Datawarehouse / Datalake: Snowflake / S3
- Orchestrateur: Airflow
- Data Transformation: Python, DBT, Spark
- Data Ingestion: Stitch, Airbyte
- CI/CD: Terraform, Github, AWS Codepipeline
- Data Viz: Looker
Notre Modern Data Stack :
Dépêche toi de postuler si
- Tu as un minimum de 4 ans d’expérience en data engineering
- Tu maîtrises le SQL ainsi qu’un langage de programmation (Python, Java, Scala)
- Tu as des compétences en ingénierie (conception et qualité de code, tests, CI/CD)
- Expérience dans la construction et la maintenance de pipelines de traitement données
- Expérience dans le déploiement d’applications dans un environnement cloud (AWS, GCP)
- Une expérience avec Docker, Kubernetes, Python et Airflow est un plus
Déroulement des entretiens
- 1er call de découverte RH
- 1er entretien métier avec Edgar, lead data
- Un échange technique avec un de nos data engineer
- Un dernier échange avec Olivier, notre CTO