IT : DSI/CIO - RSSI/CISO - CDO

GenIA for CDO, où en sommes-nous et comment l’appliquer à votre métier ?

IA générative pour CDO, où en sommes-nous et comment l’appliquer à votre métier ? Retour d’expérience sur les cas d’usage en déploiement par Stéphane Bocquillon, Associé Data & Analytics chez PWC, et Guillaume Delaby, Data & Analytics Consulting | Senior Manager chez PWC SOCIÉTÉ D’AVOCATS 

Julien Merali : Quelle est votre définition de la GenIA ?

Stéphane Bocquillon :Je ne vais pas donner une définition extrêmement technique et pointue. Premier point, quand on parle de d’IA générative, on parle de tous ces outils qui ont la capacité de générer un contenu nouveau de manière autonome. Des outils basés sur ces modèles qui utilisent des techniques d’apprentissage profond comme les modèles LLM par exemple pour le texte.

Et puis aussi, des modèles qui ont appris, sur une base documentaire, une base d’informations extrêmement large et qui en déduisent une capacité à produire des contenus sur des supports variés, que ce soit du texte, que ce soit de l’image, que ce soit de la vidéo, du son. Ils sont capables de générer tous ces contenus et ils le génèrent en général par interaction avec ces fameux prompts qui vont permettre de guider finalement la génération de contenu de ces solutions.

Julien Merali : Comment est-elle perçue aujourd’hui dans les entreprises dans lesquelles vous travaillez ? 

Stéphane Bocquillon : Je dirais que l’on est face à une solution, à des outils qui sont transformants et comme à chaque fois dans l’innovation et dans la transformation, on va avoir tous types de réactions. On peut avoir de l’enthousiasme, on peut avoir de l’anxiété. On va avoir toute la gamme dans les organisations.

Pour les métiers, on voit beaucoup d’organisations où les métiers ont été les premiers à aller chercher finalement les gains de productivité et de créativité qu’ils peuvent avoir grâce à ces outils. Donc, on a vraiment une démarche des métiers qui a été forte.

Concernant finalement l’anxiété, en tout cas la partie transformante, on peut scinder les catégories d’utilisation en trois.

Le premier cas d’utilisation est ce que l’on appelle parfois le collaborateur augmenté. Et là, on va parler de l’utilisation de l’IA générative (GenIA ) sur toutes ses tâches quotidiennes dans lequel il va retrouver cet outil parfois embarqué directement dans les solutions qu’il utilise. Alors on peut parler de solutions de GenIA qui sont embarqués dans des outils bureautiques et qui vont accélérer la création d’un support de présentation ou de texte.

Ensuite, on va avoir la GenIA qui va venir améliorer les processus en entreprise et là, on parle de tous les processus, que l’on soit sur du processus de vente, du processus marketing, sur la supply chain où finalement, l’apport de la GenIA va être d’accélérer, d’améliorer les performances, d’améliorer la qualité. Sur ce deuxième cas d’utilisation, on voit que l’on est déjà sur les processus métier et que l’on va utiliser finalement un outil extrêmement puissant.

Et donc, comme à chaque fois, quand on arrive sur ces problématiques, on va avoir besoin d’une donnée qui soit disponible, qui soit maîtrisée, qui soit de bonne qualité. Et on voit des Chiefs data officer qui arrivent. 

Ensuite, le troisième cas d’utilisation qui pourrait nous intéresser forcément ce soir, c’est justement l’utilisation pour un data officer de ces outils-là sur tous les pans de ces activités qui soient de la stratégie, de la gouvernance à la qualité. 

Et donc, à la question, est-ce que les Chiefs data officer sont-ils finalement les moteurs ? Eh bien, dans les organisations, ce n’est pas toujours le cas. Souvent, les métiers sont demandeurs, souvent les métiers sont partis déjà sur les outils. En revanche, le Chief Data Officer a un rôle, en fonction de son organisation, d’avoir une gouvernance des données qui permette l’utilisation de ces outils, et après même, d’avoir une bonne gouvernance de ces outils en eux-mêmes pour que l’utilisation soit pérenne dans l’organisation.

Julien Merali : Quelle est l’appétence des Chiefs data officer sur ces sujets-là ?

Stéphane Bocquillon : Je pense qu’il n’y a pas de Chief data officer qui regarde le sujet de loin en se sentant non concerné. Tous les data offices savent que c’est un sujet important sur lequel ils devront être présents. Après, ça dépend vraiment des organisations avec lesquelles on travaille. On a quand même beaucoup d’initiatives et de demandes qui viennent des métiers.

On a souvent des data offices qui finalement se mettent en action pour répondre à ces demandes métier et qui ne sont pas forcément précurseurs. En revanche, quand on va traiter d’un certain nombre de sujets de mise en gouvernance et de maîtrise de ces outils – et on le verra plus tard – là, évidemment, la data officer reprend un rôle plus central, surtout s’il a déjà dans son périmètre tous les sujets de data science qui est le cas dans certains data offices.

Julien Merali : Guillaume, justement, est-ce que tous les data offices sont concernés, quel que soit le secteur d’activité ?

Guillaume Delaby : Ils sont tous concernés. Après, cela dépend évidemment de leur niveau de maturité en ce qui concerne le niveau de déploiement de ces use cases.

Julien Merali : Y-a-t-il un niveau de maturité nécessaire avant d’attaquer un projet de ce type-là ?

Guillaume Delaby : Il y a effectivement des prérequis. Après, par définition, ça reste des solutions qui sont récentes. Donc il n’est jamais trop tard pour se lancer. Concernant les prérequis, on peut citer cinq catégories.

La première, c’est d’avoir un souci d’alignement de ce que ces use cases d’IA générative vont apporter à la stratégie de l’organisation. Donc ça suppose un alignement avec les priorités métier de l’entreprise.

Un deuxième élément, c’est d’avoir une grille de sélection de use cases pour s’assurer qu’on ne part pas le nez dans le guidon avec n’importe quelle typologie de use case, mais qu’on a bien une notion de gain associé. Ça peut être des gains top line, en efficacité, en termes de conformité, pour l’expérience client ou pour l’expérience des employés.

Mais il faut avoir vraiment une notion très claire de R.O.I sur ce qui va être entrepris. Et qui dit R.O.I dit aussi de mettre en regard les gains avec le coût et la faisabilité, parce qu’il y a des coûts qui sont parfois sous-estimés et qui ne sont pas négligeables sur la mise en place de ces solutions, que ce soit les coûts technologiques, les coûts de conduite du changement, de formation.

Un troisième élément, c’est la conduite du changement pour que ces solutions ne restent pas expérimentales ou des tentatives technologiques, mais qu’elles passent vraiment à l’échelle. Il y a la notion d’upscaling, de formation à large échelle des personnes qui vont être bénéficiaires de ces solutions.

Donc avoir des plans adaptés de communication, de formation.

Et puis deux autres volets. L’un, c’est la gouvernance. Il y a des enjeux forts de protection des données personnelles, de compliance avec les réglementations, l’IA Act en Europe ou d’autres, qui demandent du contrôle sur la manière dont sont gérés ces algorithmes, leurs résultats et les données sous-jacentes qui sont traitées.

Il y a aussi la qualité de données. Ça, c’est extrêmement important. On se concentre souvent sur la partie émergée de l’iceberg, mais avoir des données de qualité pour que l’IA générative puisse produire des résultats. Ça, c’est le travail de fond qui est attendu des CDO et de leurs équipes.

Ça reste capital dans la production de valeur par l’IA générative.

Et le dernier pilier, c’est un pilier technologique. Il faut évidemment une infrastructure, que ce soit chez les hyperscalers où il y a des solutions en France comme Mistral IA par exemple. Mais il faut avoir un environnement qui permette de déployer à l’échelle les solutions d’IA générative.

Julien Merali : Alors quand des data officers commencent un projet, c’est toujours la grande question : est-ce que je peux le rattacher au business ? Auquel cas, c’est beaucoup plus facile à justifier. 

Stéphane Bocquillon : Le business vient déjà avec ses propres use Cases. Guillaume le soulignait : il y a un besoin de gouvernance pour ne pas partir bille en tête, pour ne pas avoir des initiatives qui soient finalement déconnectées ou incohérentes les unes avec les autres. Donc il y a besoin de ce sujet de gouvernance.

Donc le rattachement avec le business est apporté par le business lui-même qui va être en général assez friand de l’utilisation.

Et on n’est pas dans le schéma où finalement, le Chief Data Officer se retrouve à aller vendre l’opportunité ou le R.O.I que pourrait avoir cette technologie. De plus, on en parle tellement dans le grand public où il y a la possibilité de tester cet outil de manière simple. C’est une technologie qui, par rapport à d’autres technologies, est complètement accessible.

On peut tester la puissance de l’IA générative via sur son téléphone, chez soi, sur des use cases personnels. À partir de ce moment-là, ça va débrider l’imagination des métiers et ça va ouvrir le champ des possibles. Donc aujourd’hui, il n’y a pas besoin de vendre en interne ces use cases. On est plutôt dans une dynamique de structurer et d’organiser pour éviter finalement qu’il y ait un surcoût qui soit généré et qu’il y ait des initiatives qui ne sont pas porteuses in fine.

On a des chiffres dans une étude qui a été produite, dans laquelle on voit que le data officer imagine que l’on pourrait avoir jusqu’à 35 % de gain de productivité sur ses propres actions. Mais d’autres études montrent que si on utilise la GenIA de manière déconnectée de son champ d’application, on va finalement avoir des pertes de productivité qui peuvent arriver sur tous types de processus. Et là, ça rejoint les sujets de gouvernance que l’on a évoqué, il faut vraiment avoir une prise de hauteur pour tirer le meilleur parti au meilleur coût de ces outils puissants.

Julien Merali : Guillaume, avez-vous quelques exemples très concrets de son déploiement aujourd’hui ?

Guillaume Delaby : C’est encore émergent, mais il y a quand même des use cases qui commencent à passer à l’échelle. Alors, si on se concentre uniquement sur les Chiefs data officer et les data domaines, donc les activités de data management, de gouvernance, de données, il y a quatre grandes familles de use cases que l’on observe. 

Il y a tout ce qui est autour de la data stratégie. Donc là, c’est vraiment comment j’utilise l’IA générative pour sélectionner les use cases, faire de l’idéation de use cases, prioriser des use cases, faire de l’analyse d’interview par exemple du métier pour aider au tri et à la sélection de use cases.

Ensuite, on peut définir des pondérations sur des critères de sélection et puis appliquer ces pondérations aux use cases qui ont été mentionnés pour aider à produire des matrices initiales. 

On ne confie pas la prise de décision à l’outil, mais on s’appuie sur l’outil pour éclairer la prise de décision et accélérer, le cas échéant, des synthèses et l’analyse de données souvent textuelles, ce qui est quand même la force de l’IA générative.

Ça, c’est une première famille. Il y a d’autres exemples dans la data stratégie, mais une autre seconde famille, c’est la gouvernance de données. Là, les grands sous types de use cases que l’on constate, c’est pour rendre la donnée compréhensible. Donc, on a toute une famille de use cases autour du data knowledge. Un exemple typique, c’est une entreprise qui construit son Data Catalog pour rendre la donnée compréhensible à l’échelle de l’organisation.

Ce qu’on peut voir, c’est l’utilisation de l’IA générative pour aider à la construction, à l’enrichissement du Data Catalog. Ça peut être très très riche. On peut enrichir des glossaires métier. On peut faire de la traduction de contenu dans plusieurs langues. On peut faire de la proposition de règles métier. Tout ce qui est autour du Data Catalog par exemple.

Une autre famille, c’est celle que l’on va démontrer aujourd’hui. C’est plutôt autour de la qualité de données. Toute la chaîne de valeur de la qualité de données peut être aidée par l’IA générative, de l’exploration de la donnée, du data profiling, de la définition de règles, de la détection d’anomalies par rapport à un corpus de règles, des propositions de remédiation, de l’aide à l’outillage aussi quand on est peu outillés.

En fait, on peut assez facilement avec de l’IA générative créer du code pour refaire l’ensemble de ses activités de remédiation des problèmes de qualité de données. Et puis la remédiation à proprement parler. Donc vraiment toute la chaîne de valeur de la qualité de donnée. 

Une autre famille assez intéressante, c’est tout ce qui est autour de la conformité de la compliance. On l’a vu chez plusieurs clients des use cases par exemple sur la protection des données personnelles. Donc la capacité d’analyser des jeux de données, de faire de la classification de données, d’y détecter des valeurs ou de la donnée dans un système d’information sur un jeu de données, des données personnelles qui n’auraient pas forcément été identifiées au niveau du champs de la colonne.

Parfois, on découvre dans des champs de texte libre des données sensibles qui n’avaient pas été forcément identifiées. 

Et puis, une autre famille intéressante de use cases, c’est autour de la production de données. Donc là, si on prend par exemple la création de pipeline Data, toute la partie création de requêtes SQL, par exemple.

Typiquement, les personnes qui développent se rendent compte qu’il y a un intérêt à utiliser l’IA generative, soit pour accélérer la production de code, soit pour faire de l’optimisation de codes existants, soit pour documenter du code. 

Quatrième et dernière grande catégorie, c’est la partie Data Analytics, consommation de la donnée. Là, il y a une partie de ça qui commence à être gérée aussi par les éditeurs. Si on regarde le tableau, ils ont par exemple Pulse, Power BI, Copilote, etc, qui permettent de faire de l’analyse de données dans les dashboards.

Mais il y a aussi tout ce qui reste accessible via l’IA générative, que ce soit celle de Google, de Microsoft, etc, pour enrichir des analyses, pour développer des analyses et donc aider sur cette partie consommation de données, création d’analyse.

Julien Merali : Je vous propose que l’on regarde votre vidéo mais présentez-là avant.

Guillaume Delaby : Sur la partie data Quality, on a voulu montrer, que par rapport à des missions classiques que l’on peut faire chez nos clients où l’on sait qu’il y a des problèmes de qualité dans une base de données, il y a une première phase de factualisation de ces problèmes de qualité de données.

Parce que les métiers en général savent ce qui ne va pas dans leur base de données. Mais ils n’ont en général pas forcément une vision très quantifiée. Donc la première partie, c’est vraiment de factualiser les défauts de qualité dans la base. Ensuite, on établit tout un corpus de règles pour s’assurer, une fois que les remédiations seront appliqués, que la base va être vraiment conforme à l’ensemble des attentes du métier.

Donc, il y a cette partie de définition des règles. 

Par rapport à ce corpus de règles, on va ensuite mesurer les écarts entre ce qui est attendu et ce qui existe réellement dans la base de données. Donc faire une détection d’anomalies pour matérialiser ces anomalies.

Et dans une dernière phase, remédier à ces défauts de qualité qui ont pu être constatés, soit par de la correction, soit par de la normalisation, soit par de l’enrichissement. Et là, ce que l’on voit très concrètement dans ce use case, ces missions qui peuvent être faites avec des outils du marché, soit avec du python de manière un petit peu ad hoc, ou qui sont parfois un peu techniques parce qu’elles sont soit entre les mains de data scientists ou data analyst, c’est comment est-ce qu’on peut faciliter un certain nombre de ces tâches avec de l’IA générative.

C’est comment, par des instructions en langage naturel, on peut faire de l’exploration de données, comment on peut faire de la définition de règles métier. Comment est-ce que l’on peut faire de l’analyse d’anomalies et de la remédiation. Donc pour l’ensemble de cette chaine de valeur, on montre comment on peut le faire de plus en plus avec des instructions en langage naturel et de façon plus accessible pour les métiers.

Propos recueillis par Julien Merali, Général Manager du Pôle IT d’Agora Manager

Afficher plus

Articles similaires

Bouton retour en haut de la page