L’IA Act : Quand l’IA s’emballe, le droit encadre
L’entrée en vigueur progressive de l’IA Act marque un tournant historique dans l’encadrement de l’intelligence artificielle en Europe. Objectif : stimuler l’innovation tout en limitant les dérives. Invitée de notre plateau, Me Jennifer Krief (avocate fondatrice de Krief Avocats) décrypte les enjeux de cette régulation pionnière et son impact sur l’expérience client.
L’UE est la première au monde à adopter un cadre juridique complet dédié à l’IA : en agissant avant les autres grandes puissances (États-Unis, Chine), elle impose ses standards et espère que ceux-ci seront repris à l’international, comme cela a été le cas avec le RGPD pour la protection des données. D’ailleurs, les États-Unis prévoient leur propre législation en 2026, indique Me Jennifer Krief.
Ce règlement, déployé progressivement entre 2025 et 2027, repose sur une classification des systèmes d’IA selon quatre niveaux de risque : minimal, limité, élevé et inacceptable* — ces derniers étant purement interdits (ex. manipulation des utilisateurs ou traitement de données ultra sensibles).
Pour les entreprises, Me Krief recommande dès aujourd’hui de mettre en place des bonnes pratiques :
- Auditer les algorithmes pour détecter et corriger les biais,
- Renforcer la gouvernance et la transparence des projets IA,
- Former les équipes afin d’intégrer l’éthique dès la conception.
Elle insiste sur le fait que l’IA doit rester un outil au service de l’humain, et non le remplacer. L’expérience client en dépend : si l’IA accélère les réponses, elle ne crée pas la relation de confiance qu’assure l’humain. Trop d’automatisation génére frustration et désengagement.
En se basant sur son expérience client vécue avec AirbnB, Jennifer Krief préconise de créer des points de bascule clairs où l’humain prend le relais, spécialement dans les situations émotionnelles, complexes ou sensibles. Aussi bien pour limiter les frustrations que pour respecter les obligations d’explicabilité.
Mais également de concevoir des plans de contingence : surveillance des erreurs IA, plan d’escalade, redondances, retour utilisateur. Ne pas laisser l’IA autonome dans des scenarii de crise.
Enfin, l’avocate rappelle que l’IA soulage les tâches chronophages et permet aux professionnels de se concentrer sur leur valeur ajoutée et leur expertise, et qu’elle reste un levier puissant et éthique de développement si l’on garde l’humain au centre.
Propos recueillis par Alexandre Carré, Journaliste Agora Média.

* Classification des systèmes d’IA selon quatre niveaux de risque :
L’IA Act classe les systèmes d’IA en quatre niveaux de risque, avec des obligations croissantes selon le danger potentiel pour les droits et la sécurité des personnes
☠️ Risque inacceptable
Tous les systèmes d’IA considérés comme une menace manifeste pour la sécurité, les moyens de subsistance et les droits des personnes sont interdits. La législation sur l’IA interdit huit pratiques, à savoir:
- manipulation et tromperie préjudiciables fondées sur l’IA
- exploitation nocive des vulnérabilités fondée sur l’IA
- notation sociale
- Évaluation ou prévision des risques d’infraction pénale individuelle
- grattage non ciblé de matériel internet ou CCTV pour créer ou développer des bases de données de reconnaissance faciale
- la reconnaissance des émotions sur les lieux de travail et dans les établissements d’enseignement;
- catégorisation biométrique pour déduire certaines caractéristiques protégées
- identification biométrique à distance en temps réel à des fins répressives dans des espaces accessibles au public
⚡ Risque élevé
Les cas d’utilisation de l’IA qui peuvent présenter des risques graves pour la santé, la sécurité ou les droits fondamentaux sont classés comme étant à haut risque. Ces cas d’utilisation à haut risque comprennent :
- Composants de sécurité de l’IA dans les infrastructures critiques (par exemple, les transports), dont la défaillance pourrait mettre en danger la vie et la santé des citoyens
- Solutions d’IA utilisées dans les établissements d’enseignement, qui peuvent déterminer l’accès à l’éducation et le cours de la vie professionnelle d’une personne (par exemple, la notation des examens)
- Composants de sécurité des produits basés sur l’IA (par exemple, application de l’IA en chirurgie assistée par robot)
- Outils d’IA pour l’emploi, la gestion des travailleurs et l’accès au travail indépendant (par exemple, logiciels de tri de CV pour le recrutement)
- Certains cas d’utilisation de l’IA utilisés pour donner accès à des services privés et publics essentiels (par exemple, notation de crédit empêchant les citoyens d’obtenir un prêt)
- Systèmes d’IA utilisés pour l’identification biométrique à distance, la reconnaissance des émotions et la catégorisation biométrique (par exemple, système d’IA permettant d’identifier rétroactivement un voleur à l’étalage)
- Cas d’utilisation de l’IA dans les services répressifs susceptibles d’interférer avec les droits fondamentaux des personnes (par exemple, évaluation de la fiabilité des éléments de preuve)
- Cas d’utilisation de l’IA dans la gestion des migrations, de l’asile et des contrôles aux frontières (par exemple, examen automatisé des demandes de visa)
- Solutions d’IA utilisées dans l’administration de la justice et les processus démocratiques (par exemple, solutions d’IA pour préparer les décisions de justice)
Les systèmes d’IA à haut risque sont soumis à des obligations strictes avant de pouvoir être mis sur le marché:
- des systèmes adéquats d’évaluation et d’atténuation des risques
- haute qualité des ensembles de données alimentant le système afin de réduire au minimum les risques de résultats discriminatoires
- journalisation de l’activité pour assurer la traçabilité des résultats
- une documentation détaillée fournissant toutes les informations nécessaires sur le système et son objectif pour permettre aux autorités d’évaluer sa conformité;
- des informations claires et adéquates à l’intention du déployeur;
- mesures de surveillance humaine appropriées
- niveau élevé de robustesse, de cybersécurité et de précision
⚠️ Risque limité
Il s’agit des risques associés à un besoin de transparence concernant l’utilisation de l’IA. La législation sur l’IA introduit des obligations de divulgation spécifiques afin de veiller à ce que les êtres humains soient informés lorsque cela est nécessaire pour préserver la confiance. Par exemple, lors de l’utilisation de systèmes d’IA tels que les chatbots, les humains devraient être informés qu’ils interagissent avec une machine afin de pouvoir prendre une décision en connaissance de cause.
En outre, les fournisseurs d’IA générative doivent veiller à ce que les contenus générés par l’IA soient identifiables. En outre, certains contenus générés par l’IA devraient être étiquetés de manière claire et visible, à savoir les faux profonds et les textes publiés dans le but d’informer le public sur des questions d’intérêt public.
✅ Risque minimal ou nul
La législation sur l’IA n’introduit pas de règles pour l’IA qui est considérée comme présentant un risque minimal ou nul. La grande majorité des systèmes d’IA actuellement utilisés dans l’UE relèvent de cette catégorie. Cela inclut des applications telles que les jeux vidéo compatibles avec l’IA ou les filtres anti-spam.





