L'Italie mène-t-elle la fronde contre l'intelligence artificielle? Elle est devenue vendredi le premier pays dans le monde occidental à bloquer ChatGPT pour des craintes liées à l'utilisation des données, deux mois après avoir banni un autre programme commercialisé comme un "ami virtuel".
Dans un communiqué, l'Autorité italienne de protection des données personnelles prévient que sa décision a un "effet immédiat" et accuse le robot conversationnel de ne pas respecter la réglementation européenne et de ne pas vérifier l'âge des usagers mineurs.
Cette décision aura pour conséquence "la limitation provisoire du traitement des données des utilisateurs italiens vis-à-vis d'OpenAI", l'entreprise à l'origine de l'application, selon le document.
ChatGPT est apparu en novembre et a rapidement été pris d'assaut par des utilisateurs impressionnés par sa capacité à répondre clairement à des questions difficiles, à écrire des sonnets ou du code informatique. Financé par le géant informatique Microsoft, qui l'a ajouté à plusieurs de ses services, il est parfois présenté comme un potentiel concurrent au moteur de recherche Google.
- "Pas de plainte" en France -
L'institution italienne souligne que ChatGPT "a subi le 20 mars une perte de données concernant les conversations des utilisateurs et les informations relatives au paiement des abonnés au service payant".
Après les premiers signalements, OpenAI avait brièvement interrompu le service, puis reconnu un bug dans un outil tiers, désormais résolu, qui avait affecté 1,2% de ses abonnés et un nombre indéfini des utilisateurs gratuits.
L'autorité lui reproche aussi "l'absence d'une note d'information aux utilisateurs, dont les données sont récoltées par OpenAI, mais surtout l'absence d'une base juridique justifiant le recueil et la conservation en masse des données personnelles, dans le but d'+entraîner+ les algorithmes faisant fonctionner la plateforme".
En outre, alors que le robot est destiné aux personnes ayant plus de 13 ans, elle "met l'accent sur le fait que l'absence de tout filtre pour vérifier l'âge des utilisateurs expose les mineurs à des réponses absolument non conformes par rapport à leur niveau de développement".
La Cnil, le gendarme français des données personnelles, "n'a pas reçu de plainte et n'a pas de procédure similaire en cours", a-t-elle indiqué dans une réaction à l'AFP.
Elle s'est pourtant rapprochée de son homologue italienne "afin d'échanger sur les constats qui ont pu être faits" et a pour objectif de "clarifier le cadre légal dans les prochains mois".
- Désinformation et logiciels malveillants -
L'institution italienne avait bloqué début février pour des raisons similaires l'application Replika, qui propose de bavarder avec un avatar sur-mesure. Certains utilisateurs s'étaient plaints de recevoir des messages et images trop osés, proches du harcèlement sexuel.
Cette fois encore, l'Autorité demande à OpenAI de "communiquer d'ici 20 jours les mesures entreprises" pour remédier à cette situation, "sous peine d'une sanction allant jusqu'à 20 millions d'euros ou jusqu'à 4% du chiffre d'affaires mondial annuel", le maximum prévu par le Règlement européen sur les données personnelles (RGPD).
Interrogé par l'AFP, un porte-parole de l'entreprise a assuré que ChatGPT était "désactivé pour les utilisateurs en Italie" afin de se conformer à la décision de l'Autorité, assurant "être soucieux de la protection des données, nous pensons que nous respectons le RGPD et les lois en la matière".
"Nous travaillons activement à réduire les données personnelles dans l'entraînement de notre IA. Nous pensons qu'une régulation de l'IA est nécessaire et espérons travailler en ce sens avec l'Autorité", a ajouté le porte-parole.
Cette affaire montre que le RGPD, qui a déjà entraîné pour les géants de la tech des milliards de dollars d'amendes, pourrait devenir également l'ennemi des nouvelles IA génératrices de contenus.
L'IA nourrit en outre des craintes bien plus profondes que la seule exploitation des données personnelles et l'Union européenne prépare actuellement un projet de régulation qui pourrait être finalisé d'ici début 2024, pour une application quelques années plus tard.
Europol a ainsi averti lundi que des criminels étaient prêts à tirer parti de l'intelligence artificielle pour commettre des fraudes et d'autres cybercrimes.
ChatGPT a aussi été bloqué peu après sa sortie dans plusieurs écoles ou universités dans le monde, après des craintes de tricherie aux examens, et des entreprises ont déconseillé à leurs employés d'utiliser l'application.
Mercredi, le milliardaire Elon Musk -- un des fondateurs d'OpenAI dont il a ensuite quitté le conseil d'administration -- et des centaines d'experts mondiaux ont réclamé une pause de six mois dans la recherche sur les IA plus puissantes que GPT-4, la dernière mouture du logiciel sur lequel repose ChatGPT lancée mi-mars, en évoquant "des risques majeurs pour l'humanité".
glr-jub-leb-neo-els/lpa