Dans le cadre de ses projets Big Data internes, notre client recherche un Consultant DataOps & Administrateur Hadoop confirmé, intégré à l’équipe BDP (Big Data Platform).
Le consultant interviendra sur le déploiement, l’industrialisation, l’exploitation et le maintien en condition opérationnelle de clusters Big Data personnalisés, basés sur la TOSIT Data Platform (TDP), au service des projets data et métiers.
🎯 Rôle et responsabilités1. Déploiement & industrialisation des clusters Big DataDéploiement automatisé de clusters via pipelines Jenkins
Installation et configuration des composants Hadoop via Ansible
Adaptation des architectures selon les besoins projets (sécurité, performance, capacité)
Contribution aux pratiques CI/CD et Infrastructure as Code
Déploiement et administration du TDP Manager
Mise en place de Hue pour les environnements Datalab
Le consultant est responsable de l’installation, la configuration et l’exploitation de :
Sécurité & identités :
OpenLDAP
Kerberos
Ranger (politiques de sécurité)
Stockage & calcul distribué :
HDFS (baie Huawei)
Hadoop (YARN, services core)
Traitement & accès aux données :
Spark
Hive
Services transverses :
ZooKeeper
PostgreSQL
Responsabilités associées :
Gestion des dépendances inter-services
Cohérence des versions
Optimisation des performances et de la stabilité
Résolution des incidents complexes
Provisionnement de VM sous VMware
Préparation des prérequis systèmes (OS, réseau, stockage)
Automatisation via Ansible et scripts Bash
Gestion des environnements DEV / RECETTE / PROD
Mise en œuvre et maintien de la stack d’observabilité :
Prometheus
Alertmanager
Loki / Promtail
Grafana
Définition des indicateurs de supervision
Analyse proactive des alertes
Diagnostic et résolution d’incidents
Administration quotidienne des clusters Hadoop
Support aux équipes projets et utilisateurs Datalab
Gestion des incidents, demandes d’évolution et correctifs
Montées de version
Suivi de capacité (CPU, RAM, stockage)
Rédaction et mise à jour de la documentation technique
Participation active aux rituels d’équipe
Coordination avec :
Équipes infrastructure
Équipes projets data / métiers
Référents sécurité
Capacité à accompagner et conseiller les équipes dans l’usage de la plateforme
Forte capacité de communication transverse
Expertise Hadoop / Big Data on-prem
Solide expérience DataOps / DevOps
Maîtrise de :
Jenkins, GitLab CI/CD, SonarQube
Ansible, Bash
VMware, Docker
Stack d’observabilité (Prometheus, Grafana, Loki)
Rigueur et sens de la qualité
Forte sensibilité aux enjeux de sécurité
Capacité d’anticipation (supervision, performance, capacité)
Autonomie et esprit d’équipe
Aisance dans des environnements complexes et critiques
Forte interdépendance des composants Hadoop
Exigences élevées en matière de sécurité (Kerberos, Ranger)
Enjeux de performance et de disponibilité
Nécessité d’une coordination transverse permanente
Déploiement automatisé de clusters via pipelines Jenkins
Installation et configuration des composants Hadoop via Ansible
Adaptation des architectures selon les besoins projets (sécurité, performance, capacité)
Contribution aux pratiques CI/CD et Infrastructure as Code
Déploiement et administration du TDP Manager
Mise en place de Hue pour les environnements Datalab
Le consultant est responsable de l’installation, la configuration et l’exploitation de :
Sécurité & identités :
OpenLDAP
Kerberos
Ranger (politiques de sécurité)
Stockage & calcul distribué :
HDFS (baie Huawei)
Hadoop (YARN, services core)
Traitement & accès aux données :
Spark
Hive
Services transverses :
ZooKeeper
PostgreSQL
Responsabilités associées :
Gestion des dépendances inter-services
Cohérence des versions
Optimisation des performances et de la stabilité
Résolution des incidents complexes
Provisionnement de VM sous VMware
Préparation des prérequis systèmes (OS, réseau, stockage)
Automatisation via Ansible et scripts Bash
Gestion des environnements DEV / RECETTE / PROD
Mise en œuvre et maintien de la stack d’observabilité :
Prometheus
Alertmanager
Loki / Promtail
Grafana
Définition des indicateurs de supervision
Analyse proactive des alertes
Diagnostic et résolution d’incidents
Administration quotidienne des clusters Hadoop
Support aux équipes projets et utilisateurs Datalab
Gestion des incidents, demandes d’évolution et correctifs
Montées de version
Suivi de capacité (CPU, RAM, stockage)
Rédaction et mise à jour de la documentation technique
Participation active aux rituels d’équipe
Coordination avec :
Équipes infrastructure
Équipes projets data / métiers
Référents sécurité
Capacité à accompagner et conseiller les équipes dans l’usage de la plateforme
Forte capacité de communication transverse
Expertise Hadoop / Big Data on-prem
Solide expérience DataOps / DevOps
Maîtrise de :
Jenkins, GitLab CI/CD, SonarQube
Ansible, Bash
VMware, Docker
Stack d’observabilité (Prometheus, Grafana, Loki)
Rigueur et sens de la qualité
Forte sensibilité aux enjeux de sécurité
Capacité d’anticipation (supervision, performance, capacité)
Autonomie et esprit d’équipe
Aisance dans des environnements complexes et critiques
Forte interdépendance des composants Hadoop
Exigences élevées en matière de sécurité (Kerberos, Ranger)
Enjeux de performance et de disponibilité
Nécessité d’une coordination transverse permanente
Déploiement automatisé de clusters via pipelines Jenkins
Installation et configuration des composants Hadoop via Ansible
Adaptation des architectures selon les besoins projets (sécurité, performance, capacité)
Contribution aux pratiques CI/CD et Infrastructure as Code
Déploiement et administration du TDP Manager
Mise en place de Hue pour les environnements Datalab
Le consultant est responsable de l’installation, la configuration et l’exploitation de :
Sécurité & identités :
OpenLDAP
Kerberos
Ranger (politiques de sécurité)
Stockage & calcul distribué :
HDFS (baie Huawei)
Hadoop (YARN, services core)
Traitement & accès aux données :
Spark
Hive
Services transverses :
ZooKeeper
PostgreSQL
Responsabilités associées :
Gestion des dépendances inter-services
Cohérence des versions
Optimisation des performances et de la stabilité
Résolution des incidents complexes
Provisionnement de VM sous VMware
Préparation des prérequis systèmes (OS, réseau, stockage)
Automatisation via Ansible et scripts Bash
Gestion des environnements DEV / RECETTE / PROD
Mise en œuvre et maintien de la stack d’observabilité :
Prometheus
Alertmanager
Loki / Promtail
Grafana
Définition des indicateurs de supervision
Analyse proactive des alertes
Diagnostic et résolution d’incidents
Administration quotidienne des clusters Hadoop
Support aux équipes projets et utilisateurs Datalab
Gestion des incidents, demandes d’évolution et correctifs
Montées de version
Suivi de capacité (CPU, RAM, stockage)
Rédaction et mise à jour de la documentation technique
Participation active aux rituels d’équipe
Coordination avec :
Équipes infrastructure
Équipes projets data / métiers
Référents sécurité
Capacité à accompagner et conseiller les équipes dans l’usage de la plateforme
Forte capacité de communication transverse
Expertise Hadoop / Big Data on-prem
Solide expérience DataOps / DevOps
Maîtrise de :
Jenkins, GitLab CI/CD, SonarQube
Ansible, Bash
VMware, Docker
Stack d’observabilité (Prometheus, Grafana, Loki)
Rigueur et sens de la qualité
Forte sensibilité aux enjeux de sécurité
Capacité d’anticipation (supervision, performance, capacité)
Autonomie et esprit d’équipe
Aisance dans des environnements complexes et critiques
Forte interdépendance des composants Hadoop
Exigences élevées en matière de sécurité (Kerberos, Ranger)
Enjeux de performance et de disponibilité
Nécessité d’une coordination transverse permanente
Réinventer l’avenir : l’innovation humaine au cœur de la technologie 🚀 Quelques chiffres clés 30+ clients accompagnés 25+ experts data & IA 2.6 M€ de chiffre d’affaires 2 centres d’expertise 100+ formations par an 15% du CA investi en R&D 🧠 Notre mission Placer l’humain au cœur de la donnée pour créer des solutions intelligentes, responsables et à impact, en alliant expertise technologique, innovation et agilité. 🧩 Nos domaines d'expertise Stratégie data & gouvernance Transformation & qualité de la donnée Ingénierie Big Data Science des données & IA DevOps & automatisation Formation & acculturation data 💡 Nos services Diagnostic de maturité Roadmap IA & data IA générative & éthique Automatisation intelligente Analyse prédictive Data visualisation & UX Gouvernance & qualité des données Architecture cloud & CI/CD 👥 Notre équipe 25+ experts data 10+ spécialistes en stratégie data 5 PhD R&D 5 formateurs certifiés 🧬 Notre méthodologie Customer-centric : solutions co-construites avec nos clients Approche Agile & itérative Expertise sur toute la chaîne de valeur data Autonomisation des équipes métiers 🔁 Cycle de vie de la donnée Collecte multi-source Qualité & préparation Visualisation & dataviz Analyse prédictive & IA Déploiement automatisé (CI/CD) 🎓 Craftmandata Académie Formations inter/intra-entreprise Distanciel ou présentiel Modules sur l’IA, Cloud, DataViz... Formation de "champions métiers" 🧪 Craftmandata Lab – L’innovation concrète 15% du CA dédié à la R&D Projets internes : IA de qualité de données Détection de fraude Classification automatique NLP sur verbatims clients Suivi de la mixité & égalité Calcul de bilan carbone numérique 🛠 Notre écosystème technologique Cloud & microservices Big Data & NoSQL Machine Learning & Deep Learning VueJS, Redis, API, ELT/ETL Outils low/no-code Datalake, Data Catalog, DataViz 🌍 Nos clients & secteurs Banque | Assurance | Industrie | Énergie | Retail | Télécom | Transport