Gattolin. A et al., Rapport, Sénat, Paris, 30 mars 2023, 64 p.
L’IA n’est en elle-même ni une opportunité, ni un danger, lit-on dans l’introduction à ce rapport. En effet, «comme toutes les technologies, sa valeur dépend de l’usage qu’on en fait».
C’est la raison pour laquelle, certaines utilisations de l’IA, jugées particulièrement dangereuses, car contraires aux valeurs de l’Union européenne et susceptibles d’affecter gravement les droits fondamentaux, seraient interdites. Il s’agit notamment des systèmes qui «influencent de manière subliminale les comportements, qui exploitent les vulnérabilités dues à l’âge ou au handicap physique ou mental de l’utilisateur d’une manière susceptible de lui porter préjudice, aux systèmes de notation sociale, ou d’identification biométrique à distance en temps réel dans des espaces publics, à des fins répressives»…etc.
En parallèle, les systèmes d’IA présentant un risque élevé pour la santé, la sécurité ou les droits fondamentaux des personnes physiques, devraient être soumis à des obligations spécifiques, visant à garantir leur mise sur le marché en toute sécurité.
La classification des systèmes d’IA en systèmes «à haut risque» ne reposerait pas sur leur mode de fonctionnement et leurs fonctionnalités in abstracto, mais sur leur finalité et leurs modalités d’utilisation dans leur environnement.
Ainsi, pourraient être classés parmi les systèmes d’IA à haut risque des systèmes appartenant aux domaines suivants : «l’identification biométrique, les infrastructures critiques, l’éducation et la formation professionnelle, l’emploi, l’accès aux services publics (y compris les prestations sociales) et aux services privés essentiels, la migration, l’asile et le contrôle aux frontières, la justice et les processus démocratiques».
C’est que l’Union européenne affiche un double objectif : «mieux protéger les citoyens européens, mais aussi, en accroissant la confiance dans l’IA des utilisateurs et la sécurité du cadre juridique qui la concerne, stimuler les investissements et l’innovation dans l’IA, pour faire de l’Europe un pôle mondial en la matière».
L’IA, technologie disséminable dans toute l’économie, pourrait constituer la base d’une quatrième révolution industrielle. Elle représente des gisements de croissance considérables.
La «boussole numérique» récemment adoptée au niveau européen cite d’ailleurs le développement de l’intelligence artificielle parmi ses objectifs généraux, en se fixant en particulier comme objectif, à l’horizon 2030, «l’utilisation par au moins 75% des entreprises européennes de l’IA, de l’exploitation de mégadonnées ou de services d’informatique en nuage».
L’Europe souffre d’un considérable déficit d’investissement dans le domaine de l’IA. Selon une étude de la Commission européenne et de la Banque européenne d’investissement publiée en 2021, «les petites et moyennes entreprises d’IA sont deux fois et demie plus nombreuses aux États-Unis que dans l’Union européenne. En nombre de petites et moyennes entreprises dans le domaine de l’IA rapporté à la population, l’Union européenne est également devancée par le Royaume-Uni et le Canada».
Actuellement, l’IA ne fait l’objet d’aucune réglementation générale au niveau européen, sauf pour certains secteurs présentant des risques particuliers. Les fournisseurs et utilisateurs de systèmes d’IA sont néanmoins tenus de se conformer à certains aspects de la réglementation qui encadre l’utilisation des outils numériques dans l’Union, notamment le Règlement général sur la protection des données (RGPD).
Dans le même temps, l’IA est aussi globalement propice à la protection des droits fondamentaux des personnes, par exemple en «contribuant à la lutte contre les usurpations d’identité, en soutenant l’action des autorités répressives contre certains types de criminalité ou en améliorant l’efficacité de la gestion des flux migratoires et demandes d’asile».
Or, mal utilisée, elle peut aboutir, virtuellement, «à la violation de l’ensemble des droits fondamentaux, et plus particulièrement des droits suivants, identifiés par l’Agence des droits fondamentaux dans une étude menée en 2019:
- le respect de la vie privée et la protection des données à caractère personnel, dans la mesure où les systèmes d’IA traitent souvent de telles données,
- l’accès à la justice, si la personne affectée par une décision prise par un système d’IA susceptible de porter atteinte à ses droits fondamentaux n’est pas informée de l’utilisation d’un système d’IA et des modalités de contestation et de plainte,
- la non-discrimination.
Ce dernier point doit, note le rapport, faire l’objet d’une attention toute particulière, dans la mesure où la discrimination qui peut découler de l’usage de systèmes d’IA du fait de la présence de biais, «peut se faire à l’insu des créateurs et des utilisateurs du système. En effet, la non-utilisation de données sensibles (telles que l’origine ethnique, l’âge, le sexe…etc.), ne garantit pas les systèmes contre tout risque de biais, car de telles données peuvent dans une large mesure être inférées automatiquement (à juste titre ou non) par le système, à partir des données non-sensibles qui leur sont reliées».
L’absence générale de tout cadre juridique clair dans laquelle est jusqu’à présent déployée l’IA constitue sans aucun doute un risque pour les droits fondamentaux.
Il convient de souligner par ailleurs, que «si la définition donnée à l’intelligence artificielle est généralement large… ce sont les systèmes reposant sur l’apprentissage automatique (machine learning) qui posent le plus de questions». Les principaux enjeux posés par ce type de systèmes concernent :
- la qualité des données utilisées pour les entraîner et les faire fonctionner, en termes d’exactitude et de représentativité,
- la quantité des données nécessaires pour les faire fonctionner, qui peut notamment entrer en conflit, pour les données à caractère personnel, avec le principe de minimisation de la collecte des données posé par le RGPD,
- en ce qui concerne spécifiquement les données à caractère personnel, les risques de profilage pouvant conduire à un enfermement des individus sur la base de leurs données initialement récoltées.
Rubrique «Lu Pour Vous»
11 avril 2024