Le très populaire chatbot ChatGPT d'OpenAI diffuse régulièrement de fausses informations sur des personnes sans offrir la possibilité de les corriger. Dans de nombreux cas, ces "hallucinations" peuvent gravement nuire à la réputation d'une personne : par le passé, ChatGPT a accusé à tort des personnes de corruption, de maltraitance d'enfants ou même de meurtre. Dans ce dernier cas, il s'agissait d'un utilisateur norvégien. Lorsqu'il a essayé de savoir si le chatbot disposait d'informations sur lui, ChatGPT a inventé avec assurance une fausse histoire le présentant comme un meurtrier condamné. Il ne s'agit manifestement pas d'un cas isolé. NOYB a donc déposé une deuxième plainte contre OpenAI. En permettant sciemment à ChatGPT de créer des résultats diffamatoires, l'entreprise viole clairement le principe d'exactitude des données énoncé dans le GDPR.
Les hallucinations de l'intelligence artificielle
Des erreurs innocentes aux mensonges diffamatoires. L'essor rapide des chatbots d'IA tels que ChatGPT a été accompagné par des voix critiques avertissant les gens qu'ils ne peuvent jamais être sûrs que les résultats sont factuellement corrects. En effet, ces systèmes d'IA se contentent de prédire le mot suivant le plus probable en réponse à une invite. Par conséquent, les systèmes d'IA ont régulièrement des hallucinations. En d'autres termes, ils inventent tout simplement des histoires. Si cela peut être tout à fait inoffensif, voire amusant dans certains cas, cela peut aussi avoir des conséquences désastreuses pour la vie humaine. Plusieurs médias ont fait état de scandales de harcèlement sexuel inventés de toutes pièces, de fausses allégations de corruption et d'agressions présumées d'enfants, qui ont déjà donné lieu à des poursuites judiciaires contre l'OpenAI. OpenAI a réagi en publiant une petite clause de non-responsabilité indiquant qu'elle pouvait produire de faux résultats.
Joakim Söderbergavocat spécialisé dans la protection des données chez NOYB : "Le GDPR est clair. Les données à caractère personnel doivent être exactes. Et si elles ne le sont pas, les utilisateurs ont le droit de les faire modifier pour refléter la vérité. Montrer aux utilisateurs de ChatGPT un avertissement mineur sur le fait qu'un chatbot peut faire des erreurs n'est manifestement pas suffisant. Vous ne pouvez pas simplement diffuser de fausses informations et ajouter un petit avertissement à la fin indiquant que tout ce que vous avez dit pourrait ne pas être vrai..."
ChatGPT a créé un faux meurtrier et une fausse prison
Malheureusement, ces incidents ne font pas partie du passé. Lorsqu'un utilisateur norvégien a voulu Arve Hjalmar Holmen pour voir si ChatGPT avait des informations sur lui, il a été confronté à une histoire d'horreur fabriquée de toutes pièces : ChatGPT a présenté le plaignant comme un criminel condamné qui avait assassiné deux de ses enfants et tenté d'assassiner son troisième fils. Pour ne rien arranger, la fausse histoire contenait des éléments réels de sa vie personnelle. Il s'agissait notamment du nombre et du sexe de ses enfants, ainsi que du nom de sa ville natale. En outre, ChatGPT prétendait que l'utilisateur avait été condamné à 21 ans de prison. Étant donné la combinaison de données à caractère personnel clairement identifiables et de fausses informations, il s'agit indubitablement d'une violation du GDPR. En vertu de l'article 5, paragraphe 1, point d), les entreprises doivent veiller à ce que les données à caractère personnel qu'elles créent sur les personnes soient exactes.

Arve Hjalmar Holmen, le plaignant : "Certaines personnes pensent qu'il n'y a pas de fumée sans feu. Le fait que quelqu'un puisse lire ce communiqué et croire qu'il est vrai est ce qui m'effraie le plus".
Des conséquences potentiellement importantes
Malheureusement, il apparaît également qu'OpenAI n'est ni intéressée ni capable de corriger sérieusement les fausses informations contenues dans ChatGPT. noyb a déposé la première plainte concernant les hallucinations en avril 2024. À l'époque, nous avons demandé la correction ou la suppression d'une date de naissance incorrecte d'une personnalité publique. OpenAI a simplement affirmé qu'elle ne pouvait pas corriger les dates. Au lieu de cela, elle ne peut que "bloquer" les données pour certains défis, mais les fausses informations restent dans le système. Bien que les dommages causés puissent être plus limités si les fausses informations personnelles ne sont pas partagées, le GDPR s'applique aux données internes autant qu'aux données partagées. En outre, l'entreprise tente de contourner ses obligations en matière d'exactitude des données en montrant aux utilisateurs de ChatGPT un avertissement indiquant que l'outil "peut faire des erreurs" et qu'ils doivent "vérifier les informations importantes". Cependant, l'obligation légale d'assurer l'exactitude des données à caractère personnel traitées ne peut être contournée par un avertissement.
Cleanthi Sardeli, avocat spécialisé dans la protection des données à NOYB : "L'ajout d'une clause de non-responsabilité indiquant que vous ne respectez pas la loi ne fait pas disparaître la loi. En outre, les entreprises d'IA ne peuvent pas se contenter de "cacher" de fausses informations aux utilisateurs tout en continuant à traiter de fausses informations en interne. Les entreprises d'IA devraient cesser d'agir comme si le GDPR ne s'appliquait pas à elles, alors que c'est clairement le cas. Si elles ne cessent pas de se bercer d'illusions, elles peuvent facilement voir leur réputation entachée."
ChatGPT est désormais officiellement un moteur de recherche
Depuis l'incident impliquant Arve Hjalmar Holmen, OpenAI a mis à jour son modèle. Désormais, ChatGPT recherche également des informations sur des personnes sur l'internet lorsqu'on lui demande qui elles sont. Heureusement pour Arve Hjalmar Holmen, cela signifie que ChatGPT a cessé de mentir sur le fait qu'il est un meurtrier. Cependant, des données incorrectes peuvent toujours faire partie du fichier de données LLM. Par défaut, ChatGPT réintègre les données des utilisateurs dans le système à des fins de formation. Cela signifie qu'il n'y a aucun moyen pour un individu d'être totalement sûr que cette sortie peut être complètement effacée, selon l'état actuel des connaissances en matière d'IA, à moins que le modèle d'IA tout entier ne soit réentraîné. Par ailleurs, l'OpenAI ne respecte même pas le droit d'accès prévu à l'article 15 du GDPR, ce qui empêche les utilisateurs de vérifier ce qu'ils traitent dans leurs systèmes internes. Cet état de fait continue, à juste titre, à susciter l'inquiétude et la peur du plaignant.
Plainte déposée en Norvège
NOYB a donc déposé une plainte auprès du Datatilsynet norvégien. En permettant sciemment à son modèle d'IA de générer des données désobligeantes sur les utilisateurs, OpenAI enfreint le principe d'exactitude des données prévu à l'article 5, paragraphe 1, point d), du GDPR. NOYB demande à Datatilsynet d'ordonner à OpenAI de supprimer les résultats diffamatoires et d'affiner son modèle pour supprimer les résultats inexacts. Enfin, NOYB suggère que l'autorité de protection des données impose une amende administrative afin d'éviter que des infractions similaires ne se reproduisent à l'avenir.
NOYB, qui signifie None of Your Business, est une organisation autrichienne de défense des consommateurs basée à Vienne. Elle a été fondée en 2017 et se consacre à la protection de la vie privée dans toute l'Europe.
NOYB/ gnews.cz - RoZ