📢 Data Engineer Scala Spark – Environnement Cloud (H/F)
🧩 ContexteDans le cadre du renforcement d’une équipe Data, nous recherchons un(e) Data Engineer expérimenté(e) afin d’intervenir sur des sujets à forte volumétrie, autour de pipelines de données complexes et d’optimisation des traitements.
Vous évoluerez dans un environnement technique exigeant, avec des enjeux de performance, scalabilité et qualité de la donnée.
🚀 Missions principalesDéveloppement de pipelines data en Scala / Spark (batch principalement)
Optimisation des traitements et gestion de volumétries importantes
Mise en place et amélioration des bonnes pratiques de développement
Participation à l’architecture et aux choix techniques
Collaboration avec les équipes métiers et techniques
Contribution au mentoring et partage de connaissances
Scala / Spark
Maven
Environnement Cloud (AWS ou Azure)
Databricks (selon contexte)
API HTTP
Stack ELK (optionnel)
Solide expérience en Scala / Spark (batch)
Maîtrise des optimisations Spark
Expérience sur fortes volumétries de données
Bonnes pratiques de développement (clean code, build, versioning)
Expérience en environnement Cloud (AWS ou Azure)
Minimum 5 ans d’expérience en Data Engineering
Expérience avec Databricks
Développement d’API HTTP
Connaissance de la stack ELK
Expérience en environnement multi-projets
Esprit d’analyse et rigueur
Autonomie et force de proposition
Bon relationnel et esprit d’équipe
Capacité à comprendre les enjeux métiers
Sens des priorités et gestion des délais
Formation Bac+3 à Bac+5 en informatique
Anglais technique requis
8 ans d'expériences MINIMUM !
Télétravail partiel (jusqu’à 3 jours / semaine)
Mission longue
Démarrage : ASAP
Dans le cadre du renforcement d’une équipe Data, nous recherchons un(e) Data Engineer expérimenté(e) afin d’intervenir sur des sujets à forte volumétrie, autour de pipelines de données complexes et d’optimisation des traitements.
Vous évoluerez dans un environnement technique exigeant, avec des enjeux de performance, scalabilité et qualité de la donnée.
🚀 Missions principalesDéveloppement de pipelines data en Scala / Spark (batch principalement)
Optimisation des traitements et gestion de volumétries importantes
Mise en place et amélioration des bonnes pratiques de développement
Participation à l’architecture et aux choix techniques
Collaboration avec les équipes métiers et techniques
Contribution au mentoring et partage de connaissances
Scala / Spark
Maven
Environnement Cloud (AWS ou Azure)
Databricks (selon contexte)
API HTTP
Stack ELK (optionnel)
Solide expérience en Scala / Spark (batch)
Maîtrise des optimisations Spark
Expérience sur fortes volumétries de données
Bonnes pratiques de développement (clean code, build, versioning)
Expérience en environnement Cloud (AWS ou Azure)
Minimum 5 ans d’expérience en Data Engineering
Expérience avec Databricks
Développement d’API HTTP
Connaissance de la stack ELK
Expérience en environnement multi-projets
Esprit d’analyse et rigueur
Autonomie et force de proposition
Bon relationnel et esprit d’équipe
Capacité à comprendre les enjeux métiers
Sens des priorités et gestion des délais
Formation Bac+3 à Bac+5 en informatique
Anglais technique requis
8 ans d'expériences MINIMUM !
Télétravail partiel (jusqu’à 3 jours / semaine)
Mission longue
Démarrage : ASAP
Dans le cadre du renforcement d’une équipe Data, nous recherchons un(e) Data Engineer expérimenté(e) afin d’intervenir sur des sujets à forte volumétrie, autour de pipelines de données complexes et d’optimisation des traitements.
Vous évoluerez dans un environnement technique exigeant, avec des enjeux de performance, scalabilité et qualité de la donnée.
🚀 Missions principalesDéveloppement de pipelines data en Scala / Spark (batch principalement)
Optimisation des traitements et gestion de volumétries importantes
Mise en place et amélioration des bonnes pratiques de développement
Participation à l’architecture et aux choix techniques
Collaboration avec les équipes métiers et techniques
Contribution au mentoring et partage de connaissances
Scala / Spark
Maven
Environnement Cloud (AWS ou Azure)
Databricks (selon contexte)
API HTTP
Stack ELK (optionnel)
Solide expérience en Scala / Spark (batch)
Maîtrise des optimisations Spark
Expérience sur fortes volumétries de données
Bonnes pratiques de développement (clean code, build, versioning)
Expérience en environnement Cloud (AWS ou Azure)
Minimum 5 ans d’expérience en Data Engineering
Expérience avec Databricks
Développement d’API HTTP
Connaissance de la stack ELK
Expérience en environnement multi-projets
Esprit d’analyse et rigueur
Autonomie et force de proposition
Bon relationnel et esprit d’équipe
Capacité à comprendre les enjeux métiers
Sens des priorités et gestion des délais
Formation Bac+3 à Bac+5 en informatique
Anglais technique requis
8 ans d'expériences MINIMUM !
Télétravail partiel (jusqu’à 3 jours / semaine)
Mission longue
Démarrage : ASAP
Ucase Consulting, entité du Groupe Humanskills est une ESN dynamique, spécialisée dans la Data. Nous accompagnons nos clients dans l’analyse, la transformation et la valorisation de leurs données. Notre offre se structure autour de trois domaines : • Cloud & Big Data : Data Lake, Data Engineering, Data Science • Data Analytics & IA : • Data Management : Stratégie de données, gouvernance et qualité des donnée Nous intervenons auprès de clients issus de secteurs variés tels que la banque, la finance, l’assurance, l’industrie, la distribution et le domaine transport et les accompagnons autour de projets de migration vers le cloud, d’architecture de données, de data engineering et de mise en œuvre et déploiement de solutions Dataviz.