Le Datahub est la plateforme centrale du système d’information d’un acteur majeur de l'épargne. Il centralise, normalise et expose l’ensemble des données pour des usages métiers critiques : calcul des commissions, génération de documents clients, finance, marketing et écosystème partenaires.
En tant que Data Engineer (Renfort), vous rejoignez une équipe de 3 personnes pour accélérer le développement, l’industrialisation et la fiabilisation des pipelines de données dans un environnement en pleine transformation.
🛠️ Stack TechniqueCloud & Stockage : Azure (Azure SQL, Cosmos DB).
Orchestration & ETL : Azure Data Factory (ADF).
Langages : SQL (Expertise requise), Python (Azure Functions).
DevOps / IaC : Terraform, Azure DevOps, SonarCloud, Snyk.
Évolution : Migration vers Airflow prévue prochainement.
Développement de Pipelines : Concevoir, maintenir et optimiser les flux d'intégration (ingestion, transformation, normalisation) via Azure Data Factory.
Expertise Data : Réaliser des transformations et agrégations de données complexes en SQL, avec un focus sur la performance et la qualité.
Industrialisation : Automatiser les processus via Python (Azure Functions) et gérer l'infrastructure via Terraform.
Collaboration Métier : Travailler en direct avec les équipes Finance, Marketing et Relation Client pour traduire leurs besoins en solutions techniques robustes.
Qualité & Sécurité : Garantir la fiabilité des données et la propreté du code (CI/CD, tests, revues de code).
Expérience : Data Engineer confirmé (3 à 5 ans d'expérience minimum).
Maîtrise SQL : Capacité à gérer des traitements de données volumineux et complexes.
Expertise Azure : Expérience solide sur ADF et l'écosystème Cloud Microsoft.
Culture Dev : Bonne connaissance de Python et des principes DevOps (Git, CI/CD, Terraform).
Soft Skills : Force de proposition, capacité d’adaptation et aisance pour échanger avec des interlocuteurs non techniques.
Langue : Anglais professionnel (un vrai plus pour l'environnement international).
Démarrage : Sous 1 mois (disponibilité immédiate ou courte).
Durée : Visibilité sur l'année 2026.
Lieu : Paris (Locaux haut de gamme).
Rythme : 3 jours de présence sur site / 2 jours de télétravail (pas de full remote).
Le Datahub est la plateforme centrale du système d’information d’un acteur majeur de l'épargne. Il centralise, normalise et expose l’ensemble des données pour des usages métiers critiques : calcul des commissions, génération de documents clients, finance, marketing et écosystème partenaires.
En tant que Data Engineer (Renfort), vous rejoignez une équipe de 3 personnes pour accélérer le développement, l’industrialisation et la fiabilisation des pipelines de données dans un environnement en pleine transformation.
🛠️ Stack TechniqueCloud & Stockage : Azure (Azure SQL, Cosmos DB).
Orchestration & ETL : Azure Data Factory (ADF).
Langages : SQL (Expertise requise), Python (Azure Functions).
DevOps / IaC : Terraform, Azure DevOps, SonarCloud, Snyk.
Évolution : Migration vers Airflow prévue prochainement.
Développement de Pipelines : Concevoir, maintenir et optimiser les flux d'intégration (ingestion, transformation, normalisation) via Azure Data Factory.
Expertise Data : Réaliser des transformations et agrégations de données complexes en SQL, avec un focus sur la performance et la qualité.
Industrialisation : Automatiser les processus via Python (Azure Functions) et gérer l'infrastructure via Terraform.
Collaboration Métier : Travailler en direct avec les équipes Finance, Marketing et Relation Client pour traduire leurs besoins en solutions techniques robustes.
Qualité & Sécurité : Garantir la fiabilité des données et la propreté du code (CI/CD, tests, revues de code).
Expérience : Data Engineer confirmé (3 à 5 ans d'expérience minimum).
Maîtrise SQL : Capacité à gérer des traitements de données volumineux et complexes.
Expertise Azure : Expérience solide sur ADF et l'écosystème Cloud Microsoft.
Culture Dev : Bonne connaissance de Python et des principes DevOps (Git, CI/CD, Terraform).
Soft Skills : Force de proposition, capacité d’adaptation et aisance pour échanger avec des interlocuteurs non techniques.
Langue : Anglais professionnel (un vrai plus pour l'environnement international).
Démarrage : Sous 1 mois (disponibilité immédiate ou courte).
Durée : Visibilité sur l'année 2026.
Lieu : Paris (Locaux haut de gamme).
Rythme : 3 jours de présence sur site / 2 jours de télétravail (pas de full remote).
Le Datahub est la plateforme centrale du système d’information d’un acteur majeur de l'épargne. Il centralise, normalise et expose l’ensemble des données pour des usages métiers critiques : calcul des commissions, génération de documents clients, finance, marketing et écosystème partenaires.
En tant que Data Engineer (Renfort), vous rejoignez une équipe de 3 personnes pour accélérer le développement, l’industrialisation et la fiabilisation des pipelines de données dans un environnement en pleine transformation.
🛠️ Stack TechniqueCloud & Stockage : Azure (Azure SQL, Cosmos DB).
Orchestration & ETL : Azure Data Factory (ADF).
Langages : SQL (Expertise requise), Python (Azure Functions).
DevOps / IaC : Terraform, Azure DevOps, SonarCloud, Snyk.
Évolution : Migration vers Airflow prévue prochainement.
Développement de Pipelines : Concevoir, maintenir et optimiser les flux d'intégration (ingestion, transformation, normalisation) via Azure Data Factory.
Expertise Data : Réaliser des transformations et agrégations de données complexes en SQL, avec un focus sur la performance et la qualité.
Industrialisation : Automatiser les processus via Python (Azure Functions) et gérer l'infrastructure via Terraform.
Collaboration Métier : Travailler en direct avec les équipes Finance, Marketing et Relation Client pour traduire leurs besoins en solutions techniques robustes.
Qualité & Sécurité : Garantir la fiabilité des données et la propreté du code (CI/CD, tests, revues de code).
Expérience : Data Engineer confirmé (3 à 5 ans d'expérience minimum).
Maîtrise SQL : Capacité à gérer des traitements de données volumineux et complexes.
Expertise Azure : Expérience solide sur ADF et l'écosystème Cloud Microsoft.
Culture Dev : Bonne connaissance de Python et des principes DevOps (Git, CI/CD, Terraform).
Soft Skills : Force de proposition, capacité d’adaptation et aisance pour échanger avec des interlocuteurs non techniques.
Langue : Anglais professionnel (un vrai plus pour l'environnement international).
Démarrage : Sous 1 mois (disponibilité immédiate ou courte).
Durée : Visibilité sur l'année 2026.
Lieu : Paris (Locaux haut de gamme).
Rythme : 3 jours de présence sur site / 2 jours de télétravail (pas de full remote).
Cherry Pick, c’est bien plus qu’une plateforme de recrutement de freelances, nous créons de véritables connexions.Notre plateforme de matching nous permet de mettre en relation des talents avec des entreprises prestigieuses tout en prenant en compte les attentes de chacun. Nous nous assurons que l’adéquation soit parfaite entre les attentes de nos freelances et celles de nos clients grâce à une expertise technique pointue de nos équipes, mais aussi l’IA de notre plateforme. Nous sommes ainsi organisés autour de quatre centres d’expertises : - Management de Projet & de Transition - Transformation Digitale - IT & DevOps - DATA Voici quelques-uns de nos partenaires : TF1, Bouygues, , Monoprix, Enedis, Leboncoin, Worldline, … Cherry Pick est membre du groupe Néo-Soft. Groupe indépendant labellisé Happy At Work et certifié RSE par AFNOR, Néo-Soft regroupe 1700 consultants qui accompagnent les entreprises du CAC-40 et SBF-120 dans leurs projets de transformation digitale. Envie d’en savoir un peu plus ? Discutons-en ensemble !