Solutions et techno

Comment Saint-Maclou a restructuré sa donnée pour mieux piloter son activité


Face à une architecture devenue trop rigide, l’enseigne Saint-Maclou a fait le choix de repenser en profondeur la gestion de ses données. Une transformation progressive, qui vise à simplifier les flux et à mieux exploiter l’information au service des métiers.

Guillaume Porquier, DSI et Salmane Khamlichi Responsable data de Saint-Maclou. - © D. B
Guillaume Porquier, DSI et Salmane Khamlichi Responsable data de Saint-Maclou. - © D. B

Pour améliorer l’exploitation de ses données et gagner en réactivité, Saint-Maclou a engagé une refonte complète de sa plateforme data. L’objectif : centraliser l’ensemble des données de l’entreprise et les rendre accessibles presque en temps réel, afin de mieux répondre aux besoins des équipes métiers et faciliter le pilotage de l’activité. Saint-Maclou est un distributeur français spécialisé dans les revêtements de sols, intégré au groupe Adeo, aux côtés notamment de Leroy Merlin ou Weldom. « Nous sommes basés dans le Nord, à Lezennes, et nous disposons d’un réseau de 132 magasins en France et d’un entrepôt logistique », précise Guillaume Porquier, DSI de l’enseigne. L’entreprise s’appuie sur environ 1 400 collaborateurs et réalise un chiffre d’affaires d’environ 200 millions d’euros. Son modèle repose majoritairement sur des magasins en propre. « En dehors de quatre mandataires, nos magasins sont des succursales », ajoute-t-il, ce qui implique une forte intégration des opérations et des flux.

Dans cette organisation, la data est pilotée au sein de la DSI. « Comme la cybersécurité, la data est rattachée à la DSI », indique Guillaume Porquier. L’infrastructure reste transverse, mais des responsables sont désignés par domaine applicatif, tandis que la plateforme data est gérée par une équipe dédiée.

Une transformation progressive du système d’information

L’environnement IT de Saint-Maclou reste encore en partie composé de systèmes historiques. « Nous avons encore une certaine quantité de legacy sur cloud privé », reconnaît le DSI. Mais la trajectoire est claire : « Notre stratégie est de migrer au maximum vers le SaaS. » Plusieurs briques ont déjà évolué dans ce sens. Le système de gestion d’entrepôt a été récemment migré, tandis que l’outil de gestion des prestataires de pose repose désormais sur une solution en ligne. Le CRM interne est en cours de transformation vers Salesforce. L’ERP Microsoft Dynamics suit la même trajectoire, avec une migration prévue à horizon 2027. Ces évolutions s’inscrivent dans une logique globale : rendre le système d’information plus souple, mais aussi mieux structuré pour exploiter la donnée.

Un objectif structurant : centraliser 100 % des données

C’est dans ce contexte que Saint-Maclou a engagé, dès 2023, une refonte en profondeur de sa plateforme data. « Nous avons décidé de mettre en place une base de centralisation de 100 % des données de 100 % du SI opérationnel », explique Guillaume Porquier. L’ambition est d’avoir une vision unifiée et à jour de l’activité. « Toute la data de l’entreprise devait être disponible en temps réel dans un datalake », précise-t-il. Une fois collectées, les données sont retravaillées et organisées par domaines métiers afin de les rendre exploitables. Elles peuvent ensuite être utilisées pour différents usages, du pilotage opérationnel à des analyses plus avancées. Cette organisation répond aussi à un enjeu de performance. « Lorsqu’il s’agit de consommer la donnée, l’idée est de favoriser son usage via la plateforme data plutôt que de mobiliser les applications transactionnelles », souligne le DSI. Autrement dit, les outils du quotidien ne sont plus sollicités pour produire des analyses, ce qui fluidifie leur utilisation.

Une architecture historique devenue trop complexe

Avant cette transformation, la gestion des données reposait sur une architecture composée de nombreux flux entre applications. Ce fonctionnement montrait ses limites. « Chaque évolution des flux demandait un gros effort. C’était long et compliqué », rappelle Guillaume Porquier. Au-delà de la complexité, des difficultés apparaissaient dans le suivi des données. « Nous avions déjà des difficultés à identifier les incréments de mises-à-jour de données », précise-t-il. À cela s’ajoutaient des enjeux de performance. Dans un contexte où l’entreprise visait un accès plus rapide à l’information, cette architecture ne permettait plus de répondre aux besoins.

Pour alimenter la nouvelle plateforme, Saint-Maclou a étudié plusieurs solutions. L’entreprise a fait le choix de tester directement les outils en conditions réelles, avec les volumes de production. « Les enjeux sont essentiellement sur les volumes traités et tester suppose donc d’avoir les volumes de la production », explique Guillaume Porquier. Cette approche permettait également de vérifier que la collecte de données n’allait pas dégrader la performance des systèmes existants. Deux solutions ont été retenues en phase finale et testées. À l’issue de ces expérimentations, un outil a été choisi pour automatiser la remontée des données. Lors des premiers tests, les données étaient répliquées toutes les cinq minutes. Ce rythme a ensuite été ajusté pour trouver un équilibre entre fraîcheur de l’information et sollicitation des systèmes. « Aujourd’hui, nous avons mis en place une réplication toutes les quinze minutes : c’est suffisant pour nos besoins », indique le DSI.

Une mise en œuvre rapide et une intégration facilitée

Le déploiement a été rapide sur les principaux systèmes. « La mise en œuvre […] a été opérationnelle en quelques semaines pour l’ERP, le CMS, plusieurs bases clients… », explique Guillaume Porquier. Une fois cette première étape validée, le dispositif a été étendu à l’ensemble du système d’information. L’un des bénéfices tient à la facilité d’intégration de nouvelles sources de données. L’entreprise peut connecter progressivement différents outils, en fonction des besoins métiers, sans remettre en cause l’ensemble de l’architecture. Cette automatisation a profondément transformé le rôle des équipes data. « Aujourd’hui, l’équipe data ne se préoccupe plus de la configuration de la collecte de données. Auparavant, cette tâche était chronophage », explique Salmane Khamlichi, responsable data. Avec une collecte désormais industrialisée, l’enjeu se déplace vers l’usage. « Au lieu de perdre du temps à collecter les données, nous devons utiliser ce temps pour exploiter les données », résume Salmane Khamlichi.

L’entreprise continue d’enrichir sa plateforme au fil des besoins. De nouvelles sources sont régulièrement intégrées, et le périmètre de la donnée disponible s’élargit progressivement. En parallèle, Saint-Maclou fait évoluer son architecture en remplaçant progressivement ses anciens outils de gestion des flux par un dispositif automatisé. « C’est sans doute vexant pour eux mais, avec les équipes Fivetran, nous ne nous parlons jamais : ça marche ! », glisse Guillaume Porquier. Cette transition s’inscrit dans le temps long. L’entreprise fait le choix de ne pas intervenir sur des flux liés à des applications amenées à évoluer. « Nous nous sommes donné trois ans pour migrer à 100 % », précise le DSI.

Cet article est issu d’une interview publiée par le média Républik IT

Venez assister aux Assises de la Data & de l’IA

Les Assises de la Data & de l’IA réuniront, le 13 avril à Deauville, des décideurs du retail, de la data et du digital pour échanger sur les transformations en cours.

Au programme : agents IA, cybersécurité et gouvernance de la donnée, trois enjeux devenus stratégiques pour les entreprises. Comment exploiter la puissance de l’intelligence artificielle tout en gardant la maîtrise de la data ? Comment sécuriser les usages et aligner métiers et IT ?

Je demande une invitation