El popular chatbot ChatGPT de OpenAI publica regularmente información falsa sobre las personas sin ofrecer la opción de corregirla. En muchos casos, estas "alucinaciones" pueden dañar gravemente la reputación de una persona: en el pasado, ChatGPT ha acusado falsamente a personas de corrupción, abuso de menores o incluso asesinato. En este último caso se vio implicado un usuario noruego. Cuando éste intentó averiguar si el chatbot tenía información sobre él, ChatGPT se inventó una historia falsa que lo presentaba como un asesino convicto. Evidentemente, no se trata de un caso aislado. Por ello, NOYB ha presentado una segunda denuncia contra OpenAI. Al permitir a sabiendas que ChatGPT cree resultados difamatorios, la empresa está violando claramente el principio de exactitud de los datos establecido en el GDPR.
Alucinaciones sobre la inteligencia artificial
De errores inocentes a mentiras difamatorias. El rápido auge de los chatbots de inteligencia artificial, como ChatGPT, ha ido acompañado de voces críticas que advierten de que nunca se puede estar seguro de que los resultados sean correctos. Esto se debe a que estos sistemas de IA se limitan a predecir la siguiente palabra más probable en respuesta a una pregunta. Como resultado, los sistemas de IA alucinan con frecuencia. Es decir, se inventan historias. Aunque esto puede ser bastante inofensivo o incluso divertido en algunos casos, también puede tener consecuencias desastrosas para la vida humana. Varios medios de comunicación han informado de escándalos de acoso sexual inventados, falsas acusaciones de soborno y supuestos abusos sexuales a menores, que ya han dado lugar a demandas contra OpenAI. OpenAI ha respondido con un pequeño descargo de responsabilidad en el que dice que puede producir resultados falsos.
Joakim Söderbergabogado especializado en protección de datos de NOYB: "El GDPR es claro. Los datos personales deben ser exactos. Y si no lo son, los usuarios tienen derecho a que se modifiquen para reflejar la verdad. Mostrar a los usuarios de ChatGPT una pequeña advertencia de que un chatbot puede cometer errores es claramente insuficiente. No puedes simplemente difundir información falsa y añadir una pequeña advertencia al final de que todo lo que has dicho puede no ser cierto..."
ChatGPT creó un asesino y una prisión falsos
Por desgracia, estos incidentes no son cosa del pasado. Cuando un usuario noruego quiso Arve Hjalmar Holmen para ver si ChatGPT tenía alguna información sobre él, se encontró con una historia de terror inventada: ChatGPT presentaba al denunciante como un delincuente convicto que había asesinado a dos de sus hijos e intentado asesinar a su tercer hijo. Para colmo, la historia falsa contenía elementos reales de su vida personal. Entre ellos, el número y el sexo reales de sus hijos y el nombre de su ciudad natal. Además, ChatGPT también afirmaba que el usuario había sido condenado a 21 años de cárcel. Dada la combinación de datos personales claramente identificables e información falsa, se trata sin duda de una violación del GDPR. En virtud del artículo 5, apartado 1, letra d), las empresas deben garantizar que los datos personales que crean sobre las personas sean exactos.

Arve Hjalmar Holmenel denunciante: "Hay quien piensa que 'no hay humo sin fuego'. El hecho de que alguien pueda leer esta salida y creer que es verdad es lo que más me asusta."
Consecuencias potencialmente de gran alcance
Por desgracia, también parece que OpenAI no está interesada ni es capaz de corregir seriamente la información falsa de ChatGPT. noyb presentó la primera queja sobre alucinaciones en abril de 2024. En aquel momento, solicitamos la corrección o eliminación de una fecha de nacimiento incorrecta de un personaje público. OpenAI simplemente alegó que no podía corregir las fechas. En su lugar, sólo puede "bloquear" los datos para determinados retos, pero la información falsa sigue permaneciendo en el sistema. Aunque el daño causado puede ser más limitado si la información personal falsa no se comparte, el GDPR se aplica tanto a los datos internos como a los compartidos. Además, la empresa intenta eludir sus obligaciones de exactitud de los datos mostrando a los usuarios de ChatGPT una advertencia de que la herramienta "puede cometer errores" y que deben "comprobar la información importante." Sin embargo, la obligación legal de garantizar la exactitud de los datos personales tratados no puede eludirse mediante una advertencia.
Cleanthi Sardeli, abogado especializado en protección de datos de NOYB: "Añadir una advertencia de que no se está cumpliendo la ley no hace que la ley desaparezca. Además, las empresas de IA no pueden simplemente 'ocultar' información falsa a los usuarios mientras siguen procesando información falsa internamente. Las empresas de IA deben dejar de actuar como si el GDPR no se aplicara a ellas, a pesar de que claramente lo hace. Si los delirios no se detienen, pueden sufrir fácilmente daños a su reputación."
ChatGPT ya es oficialmente un motor de búsqueda
Desde el incidente de Arve Hjalmar Holmen, OpenAI ha actualizado su modelo. Ahora ChatGPT también busca información sobre personas en Internet cuando se le pregunta quiénes son. Afortunadamente para Arve Hjalmar Holmen, esto significa que ChatGPT ha dejado de mentir sobre su condición de asesino. Sin embargo, los datos incorrectos pueden seguir formando parte del archivo de datos LLM. Por defecto, ChatGPT devuelve los datos de los usuarios al sistema con fines de entrenamiento. Esto significa que no hay forma de que un individuo esté completamente seguro de que esta salida pueda ser completamente borrada, de acuerdo con el estado actual del conocimiento de la IA, a menos que todo el modelo de IA sea reentrenado. Convenientemente, OpenAI ni siquiera cumple el derecho de acceso previsto en el artículo 15 del RGPD, lo que hace imposible que los usuarios sepan lo que están procesando en sus sistemas internos. Este hecho, comprensiblemente, sigue causando ansiedad y temor al denunciante.
Denuncia presentada en Noruega
Por ello, NOYB ha presentado una denuncia ante el Datatilsynet noruego. Al permitir conscientemente que su modelo de IA genere resultados despectivos sobre los usuarios, OpenAI infringe el principio de exactitud de los datos de conformidad con el artículo 5, apartado 1, letra d), del RGPD. NOYB solicita a Datatilsynet que ordene a OpenAI eliminar los resultados difamatorios y ajustar su modelo para eliminar los resultados inexactos. Por último, NOYB sugiere que la APD imponga una multa administrativa para evitar infracciones similares en el futuro.
NOYB, siglas de None of Your Business, es una organización de consumidores austriaca con sede en Viena. Se fundó en 2017 y se dedica a la protección de la privacidad en toda Europa.
NOYB/ gnews.cz - RoZ