Intelligence artificielle - L’Union européenne veut gagner la course à la régulation.
Par Malik Aouadi.
[ Temps de lecture: 8 minutes ]
Plus d’un an après le partage de son livre blanc, la Commission européenne a publié son projet de régulation de l’utilisation de l’intelligence artificielle (IA). Après plusieurs années d’élaboration, ce texte propose des règles strictes sur l’utilisation de l’intelligence artificielle en vue d’établir des normes internationales dans un domaine dominé par la Chine et les États-Unis.
une europe adaptée à l’ère du numérique
«En matière d'intelligence artificielle, la confiance n'est pas un luxe mais une nécessité absolue. En adoptant ces règles qui feront date, l'UE prend l'initiative d'élaborer de nouvelles normes mondiales qui garantiront que l'IA soit digne de confiance» a déclaré Margrethe Vestager, vice-présidente directrice de la Commission.
Quelques mois après la publication du Digital Market Act, du Digital Service Act, d’un texte sur la cybersécurité et d’un essai sur l’euro numérique par la Banque Centrale européenne, ce projet de régulation illustre la volonté de l’UE de s’attaquer à tous les secteurs du numérique. L'ambition est de fournir la sécurité juridique nécessaire afin de faciliter l'investissement et l'innovation dans l’intelligence artificielle, tout en établissant un cadre pour garantir les droits fondamentaux et veiller à ce que les applications de l'IA soient utilisées en toute sécurité.
Un champ d’application très large
Tout comme le RGPD, cette initiative a vocation à s’appliquer de manière extraeuropéenne. De ce fait, ces nouvelles règles s’appliqueront aussi bien aux secteurs publics qu’aux entreprises privées, à l’intérieur ou extérieur de l’Union européenne pour autant que le système d’intelligence artificielle en question soit mis sur le marché de l’Union ou dont l’utilisation a une incidence sur des individus situés dans l’Union. Restent toutefois exclues les utilisations privées aux fins non professionnelles.
Il en reste que ce texte couvre un large éventail de domaines d’applications : des voitures à conduite autonome à l’utilisation d’algorithmes dans le processus de recrutement, en passant notamment par l’octroi de prêts bancaires. Afin de prévenir les risques futurs d’une technologie dont les capacités s’améliorent de jour en jour, la Commission européenne a opté pour une distinction fondée sur les risques.
Un système de risques:
Les risques inacceptables:
Il est ici question des utilisations de l’IA considérées comme une menace évidente pour la « sécurité, les moyens de subsistance et les droits des personnes ». À titre d’exemple, nous pouvons y trouver les utilisations qui ont pour objectif de manipuler le comportement humain et les systèmes permettant la notation sociale par les États.
Les risques élevés:
Parmi ces risques élevés, la Commission énonce notamment :
- L’utilisation de l’IA dans les infrastructures critiques qui sont susceptibles de « mettre en danger la vie et la santé des citoyens » (notamment dans les transports).
- L’utilisation de l’IA dans les domaines de « l’emploi, de la gestion de la main d’œuvre et de l’accès à l’emploi indépendant ».
- L’utilisation de l’IA pour des missions de maintien de l’ordre, susceptibles d’interférer avec les droits fondamentaux des citoyens.
- L’utilisation de l’IA en vue de l’administration de la justice et des processus démocratiques.
- L’utilisation de l’IA dans le domaine de la « gestion de la migration, de l’asile et des contrôles aux frontières ».
Les risques limités:
Il s’agit de certaines utilisations plus banales, telles que la fonction de chatbot déjà omniprésente sur la plupart des sites commerciaux ou le recours aux deepfakes. Fondamentalement, il s’agit des systèmes d’IA auxquelles s’appliquent des obligations spécifiques de transparence. L’article 52, par exemple, impose de notifier aux utilisateurs la présence d’un algorithme lors de leurs utilisations.
Les risques minimes:
Il s’agit des utilisations qui représentent un risque quasi nul pour les droits ou la sécurité des citoyens. En guise d’exemple, les jeux vidéo et les filtres anti-spam sont majoritairement présentés.
Le cas de la reconnaissance faciale
Dans son projet de réglementation, la Commission européenne reconnaît les risques de déviance posés par les systèmes de reconnaissance faciale. En vue d’éviter ces atteintes aux droits fondamentaux des utilisateurs, le projet ne prévoit l’utilisation de cette technologie qu’en cas de scénarios spécifiques, tels que la recherche d’enfants disparus ou le maintien de l’ordre en cas d’évènements terroristes. De plus, le projet précise que l’utilisation de reconnaissance faciale en temps réel ne devrait être utilisée que pour des périodes limitées, sous préalable de l’autorisation d’un juge ou d’une autorité nationale.
Des règles insuffisantes selon le CEPD, l’autorité de contrôle indépendante qui a pour mission première d’assurer que les institutions et organes européens respectent le droit à la vie privée et à la protection des données. Selon cette dernière, la reconnaissance faciale devrait être interdite en raison de sa «profonde et non-démocratique intrusion» dans la vie privée des citoyens. «Une approche plus stricte est nécessaire étant donné que l'identification biométrique à distance, pour laquelle l'IA peut contribuer, présente des risques extrêmement élevés d'intrusion profonde et non démocratique dans la vie privée des individus» a réagi le CEPD dans un communiqué.
Aux inquiétudes de cet organisme s’ajoutent ceux de nombreux groupes de défenses des droits fondamentaux, inquiets des failles potentielles du projet qui permettraient l’abus autoritaire de certains états.
Sanctions et mise en oeuvre
Essentiellement, ce projet exigerait des entreprises utilisant l’IA qu’elles fournissent aux régulateurs des preuves de leur sécurité et répondent de leur manière d’en gérer l’utilisation. De plus, il sera nécessaire pour les entreprises de garantir une surveillance humaine supervisant la manière dont les systèmes sont créés et utilisés.
Les transgressions aux règles peuvent donner lieu à des condamnations à hauteur de 20 millions d’euros, ou 6% du chiffre d’affaires de l’entreprise litigieuse. À l’instar de l’application du RGPD, les autorités de contrôles nationales seront compétentes pour contrôler et faire respecter les provisions du règlement.
De plus, le texte propose l’institution d’un comité européen de l’IA, comprenant un représentant par pays de l’UE, de l’autorité de protection des données de l’UE et d’un représentant de la Commission européenne dont la tâche principale sera de superviser l’application cohérente de la proposition de règlement.
Conclusion
La proposition de règlement de la Commission européenne est un texte législateur novateur qui pose un marqueur réglementaire clair dans le monde de l’intelligence artificielle. Sans aucun doute, l’approche suivie par l’UE est susceptible d’inspirerd’autres États à suivre cet élan de régulation dans le domaine.
Mais bien que ce projet soit une avancée majeure, il n’en reste pas moins un projet. Le plus dur reste donc à faire: convaincre les lobbyistes et responsables politiques nationaux que cette initiative pourra balancer l’équilibre fragile entre innovation et respect des droits fondamentaux. Une tâche qui ne semble pas si aisée tant la position de la Commission semble parfois trop stricte envers l’utilisation de l’IA. La raison de cette approche est toutefois assez simple : la Commission européenne est consciente qu’elle doit d’abord combler le manque de confiance et dissiper les craintes d’une partie de ses citoyens face à cette technologie (longuement alimentées par la fiction).
Une chose est sûre, la vision européenne de l’intelligence artificielle veut faire de cette technologie son allié et non une menace, comme en atteste la dernière déclaration de Margrethe Vestager : «En adoptant ces règles qui feront date, l’UE prend l’initiative d’élaborer de nouvelles normes mondiales qui garantiront que l’IA soit digne de confiance. En établissant les normes, nous pouvons ouvrir la voie à une technologie éthique dans le monde entier, tout en préservant la compétitivité de l’UE. À l’épreuve du temps et propices à l’innovation, nos règles s’appliqueront lorsque c’est strictement nécessaire: quand la sécurité et les droits fondamentaux des citoyens de l’Union sont en jeu».
Il reste à déterminer les conséquences d’une telle régulation sur les entreprises du Big Tech qui ont investi en masse dans le développement de l’IA ces dernières années, mais aussi pour les nombreuses autres entreprises qui s’en sont servis pour développer des médicaments, établir des contrats d’assurance ou en vue d’évaluer la solvabilité d’un prétendant à un crédit. Au moment où le monde entier est en proie aux défis éthiques causés par la démocratisation de l’intelligence artificielle, la course à la réglementation semble avoir été remportée par les régulateurs de l’Union européenne.
Pour en savoir davantage: «Les nouvelles règles encadrant l'intelligence artificielle — Questions et réponses» par la Commission européenne.