eXalt Lyon, spécialisée dans les métiers de la Data & de l’IA, recherche son/sa prochain(e) Consultant(e) Data Engineer Databricks pour aller à la conquête de nouveaux projets techniques !
Tu rejoindras notre pôle Data & IA, au cœur de la progression des usages et de l’architecture données chez nos clients.
Mais qui sommes-nous ?!
Chez eXalt, on est passionné(e)s de plateformes robustes, de pipelines bien pensés, et de solutions qui tiennent la prod.
On aime Spark, on parle Data Lakehouse, orchestration, versioning, testing… et surtout, on décline tout ça à l’échelle, avec du delivery propre.
🧱 Ici, tu n’interviens pas “dans un coin” mais au cœur des plateformes.
📚 Nos rituels : meet-ups internes, ateliers tech, sessions de peer review, formations continues, lab IA/data…
💬 Nos consultants sont présents chez des clients comme EDF, ENGIE, Enedis, en environnement cloud & distribué.
Et surtout : on code proprement, on documente intelligemment, et on grandit (aussi) en équipe.
Compétences techniques attendues :
Expérience concrète avec la plateforme Databricks
Maîtrise de SQL et très bonne pratique de Python
Pratique de PySpark dans un contexte de traitement distribué
Connaissances appréciées en développement d’applications analytiques avec Streamlit ou Dash
Expérience en gestion de données relationnelles et modélisation BI (Data Lake / Lakehouse)
Bonne compréhension des environnements cloud, notamment Azure (ou AWS)
Outils familiers : GitLab, Jira, Confluence
Maîtrise de la méthodologie agile et du travail en contexte projet intégré
Qualités personnelles recherchées :
Capacité à concevoir des solutions techniques robustes, maintenables et documentées
Rigueur, clarté dans la communication technique comme fonctionnelle
Appétence pour le partage de bonnes pratiques et la contribution à des initiatives internes (veille, mentoring, standardisation)
Autonomie dans la gestion de ton périmètre, tout en collaborant activement avec les équipes projet
Expérience requise :
3 à 5 ans d’expérience en tant que Data Engineer, incluant au moins une mission avec Databricks en environnement production
Une certification Databricks et/ou cloud est un plus apprécié
Une sensibilité aux enjeux de valorisation métier de la donnée est un vrai plus