Armelle Patault (ManoMano) : « La Gen AI améliore beaucoup la pertinence des recherches »
Mise à l’échelle, socle data, ou encore small LLM… Armelle Patault, VP Data, revient sur la révolution apportée par l’IA générative et sur les bonnes pratiques mises en place chez ManoMano autour de la data et IA, deux piliers stratégiques de l’entreprise.

Comment êtes-vous structuré pour gérer la data chez ManoMano ?
Nous avons une organisation data centralisée, qui couvre tous les enjeux data-plateformes. Cela inclut la data engineering, la Business Intelligence (BI), qui analyse la data pour la rendre exploitable, ainsi que la partie Analytics qui utilise la donnée pour recommander des stratégies aux équipes ; et enfin on a la partie IA Machine Learning, qui crée des algorithmes pour améliorer l’entreprise en cherchant les bons LLM (Large language models) que l’on croise avec nos données pour créer des cas d’usages pertinents.
Au sein de l’équipe data, nous avons un product manager qui a notamment en charge d’évangéliser les différents métiers de l’entreprise.
Combien de personnes travaillent sur cette activité ?
La division data compte une cinquantaine de personnes. L’IA et la data ont toujours été au cœur de l’ADN de l’entreprise depuis sa création en 2013. Nous avons construit une plateforme qui nous permet aujourd’hui de pleinement tirer parti des dernières innovations technologiques IA.
Au sein de l’équipe data, nous avons un product manager qui a notamment en charge d’évangéliser les différents métiers au sein de l’entreprise. Cependant, l’ensemble des collaborateurs de l’organisation data restent en veille constante pour détecter les nouvelles technologies prometteuses pour l’entreprise.
Si vous faites de l’IA depuis 10 ans, qu’est-ce qui est finalement nouveau pour vous ?
Il y a une vraie révolution apportée depuis deux ans principalement sur le traitement des images, du texte et de la génération de contenu. Des solutions existaient, mais elles étaient juste beaucoup moins puissantes. Désormais, les cas d’usage que l’on peut traiter grâce à l’IA Gen sont vraiment bluffants. Et avec ces avancées technologiques, nous avons pu accélérer de nouveaux cas d’usage et améliorer ceux existants.
Il y a une vraie révolution apportée sur le traitement des images, du texte et de la génération de contenu.
Vous évoquez de nouveaux cas d’usages. Pouvez-vous nous citer un cas concret ?
Par exemple, sur le search, la Gen AI a apporté beaucoup pour s’assurer de la pertinence des recherches. Avant cette technologie, nous allions, d’une part, regarder ce que les outils ont fait dans le passé. Si on tape « Canapé beige » sur ManoMano, on va regarder d’une part ce qui a été acheté par le passé quand ces mots ont été recherchés, utilisant les données d’achats, de clics, de mises aux paniers, etc. Et d’autre part, nous allons vérifier la donnée pour s’assurer que les produits mis en avant sont bien des canapés beiges.
Sur le premier point qui repose sur l’analyse de nos datas, il y a peu d’amélioration. Le vrai changement provient de la vérification du produit et de sa classification. La Gen AI a apporté une vraie révolution dans l’analyse des images et des textes, et finalement sur les données non structurées. Cette amélioration bénéficie d’ailleurs à d’autres cas usages, comme la création d’attribut ou encore la catégorisation des produits. Toujours sur notre cas de canapé beige, la technologie peut détecter s’il s’agit d’un canapé deux ou trois places par exemple.
Concernant les nouveaux cas d’usages, c’est principalement là où il y a la génération de contenu. Parce que c’est quelque chose qui n’existait pas avant, ou existait de manière très dégradée. On parle ici de création de chatbot ou d’amélioration d’image ou de texte.
Qui dit outils puissants, dit besoin en ressources croissant. Quelles sont les conséquences des nouvelles générations d’IA sur vos infrastructures ?
Effectivement, ces types de modèles sont très gourmands. Le vrai défi sur cette technologie, c’est la mise à l’échelle. C’est à cette étape que l’on sera confronté aux problématiques de coûts et d’infrastructure.
La clé consiste à trouver des modèles assez petits pour qu’ils ne soient pas trop friands en ressources et pour réduire l’empreinte carbone. Notre approche consiste à utiliser les modèles les plus petits possibles, en les spécialisant avec un process de données optimisé, pour limiter l’explosion des besoins en cloud et calculs. Cela contribue aussi à la performance des cas d’usage en temps réel, pour avoir un temps de latence assez rapide. Les utilisateurs ne veulent pas attendre trois secondes avant d’avoir leur page qui est apparaît.
Comment faites-vous infuser l’usage de l’IA au sein des différents services ?
Nous avons une organisation centralisée sur la donnée, mais d’un point de vue opérationnel, nous sommes très décentralisés. Nous avons des petites équipes qui vont travailler avec chacun des pôles business ou produit ou tech. Par exemple, sur la partie marketing, deux data scientists et deux analystes travaillent main en main avec les équipes marketing pour les cas d’usage IA et data.
Autrement dit, des personnes du service data sont spécialisées en marketing, gestion du catalogue, ou encore vente ou publicité. Elles vont interagir tous les jours avec les équipes métiers pour proposer proactivement des solutions.
Quelles sont les bonnes pratiques à adopter selon vous pour s’emparer correctement du sujet data et IA ?
Je l’ai dit avant, il y a le passage à l’échelle. On peut créer un chatbot fonctionnel mais dès lors qu’on va lui envoyer des millions de requêtes, est-ce qu’il sera toujours aussi fonctionnel ? C’est à cette étape que tout se complique.
Pour limiter les besoins en ressources, notre approche consiste à créer des small LLM, avec un usage des données limité et optimisé pour le gain recherché.
Le deuxième conseil, c’est de soigner les fondamentaux, soit la plate-forme data et la qualité des fondamentaux, avant de rajouter une surcouche d’IA. Si le socle n’est pas bon, il sera très dur de pouvoir mettre en place des algorithmes pertinents et facilement déployable en production.
Enfin, le dernier conseil, c’est de ne pas dépendre d’un seul modèle, d’un seul LLM ou d’une seule technologie. Parce que tout évolue très rapidement. Il est essentiel de rester agnostique des modèles.
Chaque rupture technologique peut-être compliquée parfois pour les collaborateurs. Comment cela se passe chez vous ?
Nos collaborateurs sont plutôt réceptifs. Il y a une conduite du changement à avoir, mais c’est relativement simple. Tout le monde voit avec cette technologie un moyen pour automatiser ses tâches répétitives et manuelles.
L’enjeu porte davantage sur comment accompagner le mieux possible les collaborateurs dans l’usage de l’IA, plus que de les convaincre d’utiliser ces outils. Quant à la crainte de la peur de l’IA, nous utilisons cette technologie depuis longtemps. C’est avant tout en moyen de laisser l’humain se concentrer sur les taches à forte valeur ajoutée et d’utiliser la technologie pour automatiser les tâches manuelles et répétitives.
Comment anticipez-vous le problème de shadow IA, soit le fait d’utiliser des outils non validés ?
C’est en effet un très gros risque. Au début de l’IA Générative, tout le monde dans l’entreprise a testé OpenAI et ChatGPT. Nous avons donc décidé de créer notre propre chatbot interne, sécurisé, pour permettre à tous les employés de pouvoir utiliser cette technologie sans risque.
Nous formons également les différents collaborateurs aux risques que peuvent poser les outils third party non sécurisés. Nous menons un travail interne pour identifier les besoins des collaborateurs afin de trouver une solution interne ou sécurisée qui puisse permettre d’y répondre.