Condensé #35 - Semaine du 6 AVril 2023

LeS sujetS de la semaine:

ChatGPT interdit en Italie 🤌

Pour le bien de l'Humanité, une lettre ouverte pour une pause de l'IA💀

Le Royaume-Uni à la pointe de la réglementation de l'IA pro-innovation

En une ligne dans le reste du monde

Suivre sur Linkedin 💁‍♂️

Par Malik Aouadi.


DATA

ChatGPT interdit en Italie 🤌

Buzz de la fin de la semaine dernière, L'Autorité de protection des données italienne (Autorità Garante per la protezione dei dati personali) a bloqué momentanément l'accès à ChatGPT en Italie.

Ce qui est reproché à notre nouveau chatbot préféré:

  • l'absence d'information sur la manière de collecte des données des utilisateurs
     

  • l'absence de base légale pour traiter ces données
     

  • l'absence de filtre permettant de vérifier l'âge des utilisateurs, ce qui exposerait de nombreux mineurs à des réponses inadaptées. 

Pour l'instant, aucune autre autorité européenne n'a osé emboîter le pas de l'Autorité italienne. Dans le reste du monde, ChatGPT demeure interdit en Chine continentale, à Hong Kong, en Iran, en Russie et dans certains régions d'Afrique. 

OpenAI dispose de  20 jours pour communiquer les mesures prises pour remédier aux problèmes soulevés par l'Autorité, sous peine d'une amende pouvant aller jusqu'à 20 millions d'euros ou 4% du chiffre d'affaires annuel mondial. 

Seuls gagnants de cette situation; les VPN, dont la popularité a été multipliée par cinq en deux jours suite au blocage du site d'OpenAI.

Une mesure justifiée?

ChatGPT a connu une entrée fracassante sur la scène mondiale en enregistrant pas moins de 100 millions d'utilisateurs actifs dans les deux mois de son lancement. Entrainé sur plus de 500 milliards de données informatiques provenant des tréfonds d'internet, il n'en fallait pas plus pour alerter même les moins conservateurs des professionnels de la protection des données. L'annonce récente d'une fuite des conversations d'utilisateurs avec le Chatbot n'a fait que renforcer cette préoccupation croissante. 

Le principe de licéite (règle *à peu près* commune auprès des principaux textes légaux en la matière autour du monde) impose certaines mesures à l'organisation qui souhaite traiter des données personnelles - comme le fait d'obtenir le consentement de la personne en question, de lui indiquer les raisons de la collecte des données, d'en expliquer l'utilisation et de préciser qui y aura accès.

Or, ChatGPT balaye internet pour nourrir ses algorithmes sans considération de ces éléments. Des consommateurs ayant consenti à la collecte de leurs données personnelles pour une plateforme spécifique pourrait tout de même voir leurs informations englouties par le chatbot, bien qu'ils n'aient jamais consentis à une telle utilisation. 

De plus, les données personnelles ne doivent être conservées que pour une période limitée et abandonnées une fois que l'entreprise n'en a plus besoin pour l'objectif accordé initialement. A ce sujet, OpenAI est encore grandement opaque et peu d'informations ont fuitées sur le sort des données collectées.

Le droit à l'oubli est alors un autre de ces principes fondamentaux mis à mal par l'avènement de ces technologies. Selon celui-ci, chaque utilisateur peut demander la suppression complète de ses données personnelles auprès d'une entreprise - une demande précise difficilement concevable au vu de l'immensité des données extraites.


IA

Pour le bien de l'Humanité, une lettre ouverte pour une pause de l'IA 💀

Elon Musk et d'autres grands noms de l'industrie technologique ont récemment cosigné une lettre ouverte appelant les développeurs à faire une pause dans leurs projets ambitieux en matière d'intelligence artificielle.

Plus de 1000 experts ont également approuvé cette initiative, mettant en garde contre les risques considérables que l'IA pourrait représenter pour la société et l'humanité. Les signataires demandent aux chercheurs en IA de mettre en suspens leurs projets pour une durée minimale de six mois.

Gary Marcus, l'un des signataires, estime que:

«Cela ne signifie pas que nous sommes condamnés, mais nous devons réfléchir sérieusement et rapidement aux mesures appropriées, comme nous l'avons fait pour la médecine, l'aviation, les voitures, etc. L'idée (que j'ai déjà entendue) selon laquelle l'IA devrait être exemptée de toute réglementation est absurde

Jusqu'à présent, cette lettre n'a pas eu l'effet escompté et fait plutôt office de bouteille à la mer. La course effrenée à la première place d'un nouveau marché n'aide évidemment pas les choses (coucou Bard et consorts). Une situation d'ailleurs regrettée dans la lettre

«les laboratoires d'IA se sont lancés dans une course incontrôlée pour développer et déployer des esprits numériques toujours plus puissants que personne - pas même leurs créateurs - ne peut comprendre, prédire ou contrôler de manière fiable». 

Et pour cause, la taille du marché mondial de l'IA générative devrait atteindre plus de 200 milliards de dollars d'ici 2032. Goldman Sachs a récemment publié un rapport selon lequel l'usage général de l'AI pourrait accroître la productivité des travailleurs d'une telle manière que le PIB mondial annuel augmenterait de 7%


IA

Le Royaume-Uni à la pointe de la réglementation de l'IA pro-innovation

Entretemps, les gouvernements et institutions travaillent d'arrache-pied pour publier des recommandations rapidement. C'est le cas notamment du Royaume-Uni qui vient de publier son white paper sur l'intelligence artificielle.

Intitulé sobrement "A pro-innovation approach to AI Regulation", ce document détaille la proposition du gouvernement britannique qui consiste à demander aux régulateurs existants d'intégrer les principes de régulation de l'IA dans leurs pouvoirs actuels. Le pouvoir en place avait déjà exprimé sa volonté de ne pas créer de nouvelles lois pour pour règlementer la technologie.

L’idée derrière ce mécanisme trans-sectoriel est simple – c’est l’usage de l’intelligence artificielle qu’il faut réguler et non la technologie dans son ensemble, le contexte est donc essentiel.

Le gouvernement soutiendra de même la surveillance et l'évaluation du paysage réglementaire de l'IA, en cherchant à identifier les lacunes de la réglementation et à encourager la coordination et la collaboration entre les régulateurs.

5 principes cardinaux pour une IA de confiance

Les principes suivants sont destinés à encadrer la future règlementation:

  • Sûreté, sécurité et résistance - Des normes techniques et des tests réguliers peuvent être requis pour répondre à ces critères. Les régulateurs peuvent également publier des directives pour aider à atteindre cet objectif.
     

  • Transparence et lisibilité - Les utilisateurs et régulateurs doivent recevoir des informations adéquates sur le système d'IA, y compris sur son fonctionnement et la manière dont il prend des décisions.
     

  • Équité - Si une décision peut avoir un impact important sur une personne, comme dans les domaines de l'assurance, de l'évaluation du crédit ou du recrutement, elle doit être justifiée.
     

  • Responsabilité et gouvernance - Les entreprises doivent définir clairement la responsabilité et la gouvernance des systèmes d'IA.
     

  • Contestabilité et recours - Il devrait y avoir une voie de recours pour contester les décisions préjudiciables de l'IA, avec des mécanismes de réparation clairement définis par les régulateurs.

Quelques différences majeures avec le texte européen

Contrairement à ce que prévoit le futur AI Act, les britanniques ont fait le choix de ne pas arrêter de définition précise pour l'IA, les outils soumis à la règlementation sont plutôt identifiés par leurs principales caractéristiques d'adaptation et d'autonomie. Pas de classification des usages de l'IA par risques non plus pour nos voisins.

De manière plus surprenante, aucun mécanisme d'action en dommages et intérêts n'est prévu pour la partie lésée par un outil d'IA, là où la proposition de directive européenne sur la responsabilité en matière d'IA vise à faciliter l'exercice de telles actions.


Dans le reste du monde:
 

Les Parisiens votent pour l'interdiction des trottinettes en libre-service à près de 90% des voix.
 

La FSMA publie son règlement relatif à la commercialisation des monnaies virtuelles auprès des consommateurs.
 

Jeux olympiques : la France en tête des dérives techno-sécuritaires en Europe. 
 

Clearview AI a été utilisé près d'un million de fois par la police américaine.
 

Microsoft dévoile un modèle d'IA qui comprend le contenu des images et résout les énigmes visuelles.
 

Tesla doit verser plus de 3 millions de dollars à un employé pour traitement discriminatoire.
 

Les principaux enseignements du rapport de 386 pages de Stanford sur l'état de l'IA.
 

Levi’s va utiliser des mannequins créés par l’intelligence artificielle.