Un ciudadano noruego presentó una denuncia contra ChatGPT, luego de descubrir que la herramienta de inteligencia artificial lo identificaba erróneamente como un criminal que asesinó a dos de sus hijos. La situación, que generó preocupación a nivel internacional, ha reabierto el debate sobre la precisión y responsabilidad de las plataformas de IA generativa.
La denuncia y el temor por la difusión de datos falsos
El afectado, Arve Hjalmar Holmen, representado por la organización austriaca Noyb, expresó en un comunicado: «Lo que más miedo me da es que alguien pueda leer eso y pensar que es cierto». La organización, que defiende la protección de la vida privada, alertó sobre el riesgo que representa la desinformación generada por modelos de IA.
Según Noyb, ChatGPT «da regularmente información falsa que puede dañar gravemente la reputación de una persona, acusando falsamente a personas de corrupción, abuso de menores o incluso asesinato».
La respuesta de OpenAI y los riesgos persistentes
Tras la denuncia, OpenAI, la empresa estadounidense creadora de ChatGPT, actualizó su modelo para corregir el error y evitar que Arve Hjalmar Holmen siga siendo presentado como un asesino. Sin embargo, Noyb advirtió que estos datos falsos podrían continuar almacenados en los sistemas internos de la plataforma.
La organización también señaló que permitir que un modelo de IA genere resultados difamatorios infringe el principio de exactitud contemplado en el Reglamento General de Protección de Datos (RGPD) europeo.
Exigen sanciones y mejoras tecnológicas
La ONG Noyb solicitó la eliminación de los datos falsos, el perfeccionamiento de la tecnología y la aplicación de una multa administrativa a OpenAI por lo ocurrido.
Desde su lanzamiento en 2022, ChatGPT se ha convertido en la herramienta más emblemática de la IA generativa, democratizando el acceso a esta tecnología, pero también enfrentando cuestionamientos por la exactitud y responsabilidad en la información que ofrece a sus usuarios.