Nous recherchons un Senior Data Engineer / Data Analyst pour intervenir sur des solutions dédiées à l’analyse et à l’optimisation des performances média.
Le poste s’inscrit au sein d’une équipe pluridisciplinaire et dynamique composée notamment de Tech Lead, Développeurs Full Stack, Data Scientists, Product Owner et QA.
L’une des applications principales, One Creative, a pour objectif d’offrir une vision globale de la performance et de l’optimisation des assets media, depuis la stratégie globale jusqu’à l’activation locale.
Missions principales1. Data Engineering & PipelinesDévelopper et maintenir les data pipelines alimentant les applications data.
Gérer le sourcing des données depuis le Data Lake (BigQuery).
Automatiser le téléchargement d’assets vidéo via les APIs des plateformes social media.
Intégrer les données issues de l’application interne Augmented DAM (analyse créative).
Mettre en place et optimiser les processus d’IA (embedding, clustering).
Transformer les données brutes du Data Lake en tables optimisées pour l’application One Creative (fusion des KPIs de performance, métadonnées, données créatives).
Optimiser le déploiement du backend sur GCP.
Participer à la modernisation des briques techniques (thumbnail, product detection, encoder).
Contribuer à l’optimisation de la chaîne CI/CD.
Travailler sur la migration du backend de l’application Augmented DAM.
Développer des premières briques de monitoring des données (assets, KPIs).
Assurer la qualité et la cohérence des données consolidées par rapport aux sources.
Participer au développement des métriques de monitoring des KPIs de l’application.
Développer des requêtes SQL pour exploiter les données du Data Lake selon les besoins métier.
Analyser et croiser les données afin de produire des insights et benchmarks (ex : types de créatifs générant le plus de performance).
Collaborer avec le Data Business Owner pour définir et structurer les besoins data.
Documenter les datasets et schémas de données issus du Data Lake.
Améliorer la qualité de la codebase Python via l’ajout de tests unitaires et d’intégration.
Contribuer aux bonnes pratiques de développement et de gouvernance des données.
Excellente maîtrise de Python et SQL
Expérience avec BigQuery ou data warehouse cloud
Connaissance des architectures data pipelines
Expérience avec APIs et ingestion de données externes
Bonnes pratiques CI/CD, tests et qualité du code
Connaissance des problématiques data quality et monitoring
SAPIENS Group Depuis 2003, nous nous efforçons de répondre aux nouvelles problématiques de nos clients. Pour ce faire Sapiens Group a créé quatre filiales : ITIL Consulting, Sapiens NTIC, Tenesea Formation et Wemagine. Expert dans chacun de ses domaines, nous saurons répondre à vos attentes que vous soyez à la recherche de conseil en déploiement de solutions métiers, de développement web, de formation pour vos collaborateurs ou de la gestion de votre campagne marketing. Le Groupe Sapiens une organisation souple, à dimension humaine. Flexibles, nous adaptons nos prestations aux besoins de nos clients. Il faut également savoir que nous nous distinguons par une forte indépendance technologique et financière, garantissant ainsi une transparence totale de notre expertise technologique. Depuis sa création, Sapiens Group connait une croissance organique de son chiffre d’affaire. Nous étions 60 personnes en 2010, 80 en 2011, à ce jour nous sommes plus de 100 collaborateurs. Ouvert et disponible, nous serons ravis de vous recevoir dans nos locaux à Paris, Toulouse, Nantes, Lille ou Lyon.