JURIDIQUE ET COMPLIANCE

Démystifier l’intelligence artificielle : comment ça marche et que peut-on en attendre ?

Opportunités et défis de l’IA générative et agentique :
À l’Agora des Directeurs Juridiques, Romain Lerallut (ex-VP Criteo AI Lab) et François Lhemery (avocat) ont débattu des enjeux de l’IA pour l’entreprise : promesses d’innovation, mais aussi risques opérationnels, juridiques et organisationnels. Des questions stratégiques qui vont au-delà du juridique.

👉 70 ans d’évolution de l’IA. Qui détient la propriété intellectuelle d’une création générée par IA ? Qui est responsable si une IA commet une erreur grave ? Comment encadrer des IA “agentiques” capables de collaborer entre elles ? Comment auditer efficacement les algorithmes ?

Romain Lerallut est ingénieur des Ponts et Chaussées, titulaire d’un master en intelligence artificielle obtenu au début des années 2000. Il a complété son parcours par un doctorat en sciences à Mines ParisTech.

Sa carrière s’est entièrement déroulée dans le domaine de la recherche en IA : d’abord au sein d’une entreprise française spécialisée dans la reconnaissance d’écriture (A2iA, aujourd’hui Mitek), puis chez Criteo, où il a occupé le poste d’ingénieur de recherche avant de diriger, dès sa création en 2018, le laboratoire d’IA de l’entreprise avec près de 100 ingénieurs et chercheurs sous sa direction, jusqu’à son départ il y a quelques semaines.

François Lhemery : Romain, pour vous, qu’est-ce que l’intelligence artificielle, et comment fonctionne-t-elle ?

Romain Lerallut : L’intelligence artificielle est un domaine que j’ai étudié dès le début des années 2000, mais son histoire remonte bien plus loin. Le terme lui-même a été forgé en 1956, lors de la conférence de Dartmouth, qui réunissait les plus grands informaticiens de l’époque.

À l’époque, un ordinateur occupait une pièce entière et possédait une puissance de calcul comparable à celle d’une montre. Les participants se sont alors demandé : « Une machine peut-elle penser ? » et « Quand pourrons-nous converser avec des machines intelligentes ? » La réponse, année après année, a toujours été : « Dans une dizaine d’années. »

À ses débuts, l’IA reposait sur des systèmes à base de règles : « Si cela se produit, alors faites ceci. » Mais ces règles sont rapidement devenues si complexes qu’elles en sont devenues ingérables, surtout pour modéliser des situations réelles. Cela a néanmoins donné naissance aux « systèmes experts » dans les années 1970-1980, qui ont permis à une machine d’IBM, Deep Blue, de battre le champion du monde d’échecs Garry Kasparov en 1997. Cependant, cette approche exigeait une programmation d’une complexité extrême.

Les informaticiens, toujours à la recherche d’efficacité, ont eu l’idée de faire travailler les machines plutôt que de travailler eux mêmes : « Et si les machines apprenaient elles-mêmes les règles ? »
Cette réflexion a marqué le début des réseaux de neurones, conceptualisés mathématiquement dès les années 1960. 

Les premières avancées significatives sont venues dans les années 1990, grâce aux travaux de Yann LeCun, chercheur français et lauréat du prix Turing. 

Et progressivement, dans les années 2000, une nouvelle méthode a émergé : le machine learning (apprentissage automatique). Au lieu de dicter des règles à la machine, on lui a présenté des exemples. Par exemple, en lui montrant des milliers d’images de chats et de chiens, elle a appris à les distinguer en analysant les pixels.

Pendant des années, deux obstacles majeurs ont persisté : le manque de données et la puissance de calcul limitée. Pourtant, les fondements théoriques étaient là. Tout a changé au début des années 2010, lorsque la capacité de traitement et l’accès aux données ont enfin permis aux modèles d’atteindre des performances comparables à celles des humains. 

Reconnaître des chats ou des chiens peut sembler anodin, mais cette capacité a ouvert la voie à des applications bien plus vastes : reconnaissance d’écriture manuscrite, analyse d’images médicales, ou encore prédiction de tendances.

Enfin, une nouvelle révolution a eu lieu il y a trois ans avec les LLM (Large Language Models), des modèles de langage capables d’analyser des quantités colossales de texte. En apprenant à prédire le mot suivant dans une phrase, ces modèles ont développé une forme de compréhension du langage et du raisonnement humain. Résultat ? Nous disposons aujourd’hui d’IA conversationnelles, comme ChatGPT ou DALL·E, capables de dialoguer, synthétiser des textes, ou même générer des images.

En résumé, voici 70 ans d’évolution de l’IA, des systèmes experts aux outils que nous utilisons quotidiennement.

Julie Guénard : L’IA envahit nos vies. Que faut-il faire pour que chacun puisse en tirer des bénéfices ?

Romain Lerallut : Jusqu’à récemment, l’IA était invisible pour le grand public. Les gens n’interagissaient pas directement avec elle. Par exemple, dans le domaine de la publicité, où j’ai travaillé pendant treize ans chez Criteo, nos systèmes d’IA prédisaient quels produits pouvaient intéresser les utilisateurs. Ils les mettaient en avant dans des bannières publicitaires pour optimiser l’engagement envers une marque ou un site e-commerce.

Prenons l’exemple de Deezer : leur système de recommandation suggère la prochaine chanson pour que l’utilisateur écoute en permanence une musique qui lui plaît. YouTube fait de même avec les vidéos. 

Tous ces systèmes étaient invisibles pour l’utilisateur, qui les utilisait sans s’en rendre compte. C’est encore plus vrai pour les IA qui optimisent des processus industriels ou logistiques.

Aujourd’hui, chacun a un accès direct à ces modèles. La question est donc : comment apprendre aux gens à utiliser au mieux ces technologies, tout en restant prudents ? Ces outils comportent des risques, des biais et des erreurs possibles. La clé réside dans notre capacité à former rapidement le grand public, y compris les non-experts, à les utiliser sans se nuire.

Julie Guénard : Et peut-être poser un cadre dans l’univers des entreprises, surtout quand on s’adresse à des directeurs juridiques ?

Romain Lerallut : L’IA ouvre une boîte de Pandore de questions juridiques. Par exemple, la propriété intellectuelle des données utilisées pour entraîner ces modèles est un sujet sensible. Les entreprises qui développent ces technologies ne sont pas toujours transparentes sur l’origine des données. Certains se posent la question de savoir s’ils n’auraient pas pris des données copyrightées. Donc ça, c’est une question. 

Une autre question est : qui possède la propriété intellectuelle des créations générées par une IA ? Quels sont les risques en matière de protection des données, industrielles ou personnelles, au regard du RGPD ?

Et si une IA commet une erreur, comme une voiture autonome qui cause un accident. Qui est responsable ? Le conducteur, qui n’avait pas les mains sur le volant ? Le constructeur automobile ? L’entreprise qui a développé le système de conduite autonome ?

Ces questions, totalement nouvelles, sont à la fois passionnantes et critiques. Il faut trouver un équilibre entre la protection de la société et des individus, tout en permettant l’innovation et en tirant le meilleur parti de ces technologies fascinantes.

François Lhemery : Aujourd’hui, nous avons dépassé le stade de l’IA générative. On parle désormais d’IA agentique comme prochaine étape du développement de l’IA. Que peut-on en attendre ?

Romain Lerallut : L’IA agentique représente effectivement une nouvelle évolution issue des LLM (modèles de langage de grande taille). L’idée est simple : un modèle capable de tout faire ne fera rien de manière optimale. Il est préférable d’avoir un système où chaque tâche est confiée à une IA spécialisée.

Par exemple, une IA personnelle, installée chez soi, pourrait communiquer avec une autre IA, comme celle d’un fournisseur de services, d’un site e-commerce ou n’importe quelle autre entité – un bibliothécaire IA qui a accès à base de données. Et ces deux systèmes, chacun étant optimisé pour une certaine tâche, pourront communiquer de façon efficace et optimale. 

Ce sera un peu comme un assistant qui aura comme objectif de me faciliter la vie et pourra avoir accès à d’autres IA via des protocoles optimisés de communication, ces autres IA représentant différents acteurs.

Donc c’est de la communication avec des agents qui chacun s’occuperont de décortiquer un objectif, une tâche ou toutes les actions individuelles nécessaires et qui communiqueront avec les meilleurs interlocuteurs pour réussir à accomplir la tâche originelle. 

Imaginez que vous souhaitiez aller au restaurant. Vous demandez à votre agent personnel : « Trouve-moi un restaurant pour demain soir. » Cet agent, connaissant vos goûts, vos préférences et le fait que ce soit votre anniversaire de mariage, communiquera avec d’autres agents pour réserver une table adaptée. Résultat : « Romain, demain soir à 20h01, votre table est réservée… »

Ce qui est fascinant, c’est que ces agents peuvent communiquer aussi bien avec d’autres IA qu’avec des humains. Via ce protocole, on est capables de faire une transition progressive qui nous permet d’avoir finalement une compatibilité ascendante entre les technologies anciennes – l‘humain qui décroche son téléphone ou qui envoie son email et l’agent IA qui agit au bénéfice de son propriétaire.

François Lhemery : Si on se projette dans dix ans, lorsque l’IA aura imprégné notre société, quelle place restera-t-il pour l’humain ? Comment voyez-vous une société entièrement imprégnée d’IA dans dix ans ?

Romain Lerallut : Prédire l’évolution de l’IA dans dix ans est un défi. Il y a trois ans, les LLM n’avaient pas atteint leur niveau actuel de performance et d’autonomie. Dans un domaine qui évolue à une vitesse sans précédent, tout ce qu’on dit aujourd’hui pourrait être obsolète demain, remplacé par une nouvelle avancée technologique.

Cependant, on peut essayer d’imaginer l’avenir. Les tâches à forte valeur ajoutée, celles qui nécessitent la créativité, l’interaction humaine, l’art ou l’imagination, resteront le domaine réservé des humains. En revanche, certains métiers ou actions répétitives seront probablement automatisés. Prenez l’exemple des sténodactylos : leur rôle a été remplacé par les outils informatiques et les e-mails, libérant du temps pour des tâches plus enrichissantes, comme l’accompagnement des dirigeants par des assistants plus polyvalents.

L’IA permettra de rediriger notre temps et notre énergie vers des activités à plus haute valeur ajoutée, en exploitant pleinement le génie humain. La créativité, notamment artistique, et l’imagination resteront des atouts uniques. La réalisation technique pourra être confiée aux machines, laissant aux humains davantage de temps pour ce qui les rend véritablement exceptionnels.

Propos recueillis par Julie Guénard, General Manager de l’Agora des Directeurs Juridiques et de la Compliance et François Lhemery, avocat à la cour au sein du cabinet Samman et fondateur de l’Agora des Directeurs Juridiques et de la Compliance.


Afficher plus

Agora Dir Juridiques et Compliance

L'Agora des Directeurs Juridiques et de la Compliance est l'une des 17 communautés d'Agora Managers Clubs, le premier réseau français permettant aux décideurs exerçant la même fonction au sein d'une entreprise de plus de 500 salariés, de créer un lieu permanent d'échanges et de partages d'expériences pour mutualiser leurs compétences et trouver ensemble, les meilleures solutions.
Bouton retour en haut de la page