Traduction par Stephanie Faber de l’article The ReAIlity of What an AI System Is – Unpacking the Commission’s New Guidelines écrit par par Charles Helleputte, Andrea Otaola & Claire Murphy

La Commission européenne a récemment publié ses lignes directrices sur la définition d’un système d’intelligence artificielle (qui à la date de l’article ne sont disponibles qu’en langue anglaise Guidelines on the definition of an artificial intelligence system established by AI Act) en vertu du Règlement sur l’IA (règlement (UE) 2024/1689). Ces lignes directrices sont publiées en parallèle des lignes directrices de la Commission sur les pratiques interdites en matière d’IA (Commission Guidelines on prohibited artificial intelligence practices established by Regulation (EU) 2024/1689 (AI Act)), dans le but de fournir aux entreprises, aux développeurs et aux autorités de contrôle des clarifications supplémentaires sur les dispositions du Règlement sur l’IA. Il est à rappeler que, dans le cadre de l’entrée en vigueur par étapes du Règlement, la partie relative aux interdictions relatives aux systèmes d’IA présentant des risques inacceptables est entrée en vigueur le 2 février 2025.
Principaux enseignements pour les entreprises et les développeurs d’IA
Tous les systèmes d’IA ne sont pas soumis à un examen réglementaire strict. Les entreprises qui développent ou utilisent des solutions basées sur l’IA doivent évaluer leurs systèmes au regard de la définition du Règlement sur l’IA. Avec ces lignes directrices (et celles relatives aux pratiques interdites), la Commission européenne répond à la nécessité de clarifier l’élément central du Règlement : qu’est-ce qu’un système d’IA ?
Le Règlement sur l’IA définit un « système d’IA » comme un « système automatisé qui est conçu pour fonctionner à différents niveaux d’autonomie et peut faire preuve d’une capacité d’adaptation après son déploiement, et qui, pour des objectifs explicites ou implicites, déduit, à partir des entrées qu’il reçoit, la manière de générer des sorties telles que des prédictions, du contenu, des recommandations ou des décisions qui peuvent influencer les environnements physiques ou virtuels ».
L’une des clarifications les plus importantes des lignes directrices concerne la distinction entre les systèmes d’intelligence artificielle et les « logiciels traditionnels ».
- Les systèmes d’IA vont au-delà de l’automatisation basée sur des règles et nécessitent des capacités d’inférence.
- Les modèles statistiques traditionnels et les logiciels de traitement des données de base, tels que les feuilles de calcul, les systèmes de base de données et les scripts programmés manuellement, ne sont pas considérés comme des systèmes d’IA.
- Les modèles de prédiction simples qui utilisent des techniques statistiques de base (par exemple, les prévisions basées sur des moyennes historiques) sont également exclus de la définition.
Cette distinction garantit que les obligations de conformité prévues par le Règlement sur l’IA ne s’appliquent qu’aux technologies basées sur l’IA, laissant les autres solutions logicielles en dehors de son champ d’application.
Voici ce que les lignes directrices apportent pour chacune des sept composantes :
- Systèmes automatisés – Les systèmes d’IA reposent sur des processus de calcul impliquant des composants matériels et logiciels. Le terme « automatisé » souligne le fait que les systèmes d’IA sont développés et fonctionnent sur des machines, ce qui englobe des éléments physiques tels que des unités de traitement, de la mémoire, des dispositifs de stockage et des unités de mise en réseau. Ces composants matériels fournissent l’infrastructure nécessaire au calcul, tandis que les composants logiciels comprennent le code informatique, les systèmes d’exploitation et les applications qui déterminent la manière dont le matériel traite les données et exécute les tâches. Cette combinaison permet des fonctionnalités telles que l’apprentissage de modèles, le traitement de données, la modélisation prédictive et la prise de décision automatisée à grande échelle. Même les systèmes informatiques quantiques avancés et les systèmes biologiques ou organiques peuvent être considérés comme automatisés s’ils fournissent une capacité de calcul.
- Différents niveaux d’autonomie – Les systèmes d’IA peuvent fonctionner avec un certain degré d’indépendance par rapport à l’intervention humaine. Cette autonomie est liée à la capacité du système à générer des résultats tels que des prédictions, des contenus, des recommandations ou des décisions susceptibles d’influencer des environnements physiques ou virtuels. Le Règlement sur l’IA précise que l’autonomie implique une certaine indépendance d’action, à l’exclusion des systèmes qui nécessitent une intervention humaine manuelle complète. L’autonomie s’étend également sur un spectre allant des systèmes nécessitant une intervention humaine occasionnelle à ceux fonctionnant de manière totalement autonome. Cette flexibilité permet aux systèmes d’IA d’interagir dynamiquement avec leur environnement sans intervention humaine à chaque étape. Le degré d’autonomie est un élément clé pour déterminer si un système peut être qualifié de système d’IA, ce qui a une incidence sur les exigences en matière de surveillance humaine et de mesures d’atténuation des risques.
- Capacité d’adaptation – Certains systèmes d’IA modifient leur comportement après leur déploiement grâce à des mécanismes d’auto-apprentissage, bien qu’il ne s’agisse pas d’un critère obligatoire. Cette capacité d’auto-apprentissage permet aux systèmes d’apprendre automatiquement, de découvrir de nouveaux modèles ou d’identifier des relations dans les données au-delà de celles sur lesquelles ils ont été initialement formés.
- Objectifs explicites ou implicites – Le système fonctionne avec des objectifs spécifiques, qu’ils soient prédéfinis ou qu’ils découlent de ses interactions. Les objectifs explicites sont ceux directement encodés par les développeurs, tels que l’optimisation d’une fonction de coût ou la maximisation des récompenses cumulées. Les objectifs implicites, quant à eux, découlent du comportement du système ou des hypothèses sous-jacentes. Le Règlement sur l’IA établit une distinction entre les objectifs internes du système d’IA (ce que le système vise à réaliser techniquement) et la « destination » (l’utilisation à laquelle un système d’IA est destiné par le fournisseur, le contexte externe et les cas d’utilisation définis par le fournisseur). Cette distinction est cruciale pour la conformité réglementaire, car la destination influence la manière dont le système doit être déployé et géré.
- Capacité d’inférence – Les systèmes d’IA doivent déduire comment générer des résultats plutôt que d’exécuter simplement des règles définies manuellement. Contrairement aux systèmes logiciels traditionnels qui suivent des règles prédéfinies, les systèmes d’IA raisonnent à partir des données d’entrée pour générer des sorties tels que des prédictions, des recommandations ou des décisions. Ceci implique la capacité à inférer de modèles ou d’algorithmes à partir de données, soit pendant la phase de construction, soit lors de l’utilisation en temps réel. Les techniques qui permettent l’inférence comprennent les approches d’apprentissage automatique (supervisé, non supervisé, auto-supervisé et apprentissage par renforcement) ainsi que les approches basées sur la logique et les connaissances.
- Types de sorties – Les systèmes d’IA génèrent des prédictions, du contenu, des recommandations ou des décisions qui peuvent influencer l’environnement physique ou virtuel. Les prédictions estiment des valeurs inconnues sur la base de données d’entrée ; la génération de contenu crée de nouveaux produits tels que des textes ou des images ; les recommandations suggèrent des actions ou des produits ; et les décisions automatisent des processus traditionnellement gérés par le jugement humain. Ces sorties diffèrent par le niveau d’intervention humaine requis, allant de décisions totalement autonomes à des recommandations évaluées par l’homme. En traitant des relations et des modèles complexes dans les données, les systèmes d’IA produisent des résultats ou sorties plus nuancés et plus sophistiqués que les logiciels traditionnels, ce qui renforce leur impact dans divers domaines.
- Influence sur l’environnement – Les résultats doivent avoir un impact tangible sur l’environnement physique ou virtuel du système, ce qui met en évidence le rôle actif des systèmes d’IA dans l’influence sur l’environnement dans lequel ils opèrent. Cela inclut les interactions avec les écosystèmes numériques, les flux de données et les objets physiques, tels que les robots autonomes ou les assistants virtuels.
Quelle est la portée de ces lignes directrices ?
Le Règlement sur l’IA introduit un cadre réglementaire harmonisé pour l’IA développée ou utilisée au sein de l’UE. La définition du « système d’IA » est au cœur du champ d’application du Règlement (et s’étend ensuite au champ d’application des obligations réglementaires, y compris les restrictions sur les pratiques d’IA interdites et les exigences pour les systèmes d’IA à haut risque).
Les nouvelles lignes directrices servent d’outil d’interprétation, aidant les fournisseurs et les parties prenantes à déterminer si leurs systèmes peuvent être qualifiés d’IA au sens du Règlement. L’un des principaux enseignements est que la définition ne doit pas être appliquée mécaniquement, mais qu’elle doit tenir compte des caractéristiques spécifiques de chaque système.
Si vous n’avez pas encore commencé à évaluer la nature du système d’IA que vous développez ou que vous achetez, il est grand temps de s’y atteler. Même si bon nombre de personnes considèrent que le Règlement sur l’IA n’a pas atteint son objectif (une approche de l’IA centrée sur l’humain qui favorise l’innovation et établit les conditions d’une concurrence équitable), il n’en demeure pas moins qu’il est là pour durer (et son application progressive est sur les rails).
***
Bien que tout ait été mis en œuvre pour garantir l’exactitude des informations contenues dans cet article, ni ses auteurs, ni Squire Patton Boggs n’acceptent de responsabilité en cas d’erreurs ou d’omissions. Le contenu de cet article est fourni à titre d’information générale uniquement et n’est pas destiné à constituer ou à être considéré comme un conseil juridique.