Arve Hjalmar Holmen, un ciudadano noruego común y corriente, se convirtió en protagonista involuntario de un thriller que nunca existió… salvo en la imaginación de una inteligencia artificial. Al preguntarle a ChatGPT por su propia biografía, descubrió que, según el modelo de OpenAI, era un asesino convicto por la muerte de sus dos hijos y el intento de homicidio de un tercero. Nada grave, solo 21 años de prisión en una historia completamente fabricada con ingredientes de la vida real. ¿Qué podría salir mal?
La IA no solo se inventó el crimen, también lo aderezó con detalles inquietantemente precisos: la ciudad natal de Holmen, edades de sus hijos e incluso su número telefónico. Todo esto, mientras lo incriminaba con una narrativa que incluía estanques, muertes trágicas y un drama judicial digno de serie nórdica. El problema es que no era ficción —al menos, no advertida como tal—, sino una supuesta respuesta informativa de una herramienta con 200 millones de usuarios semanales.
El caso llegó a la Autoridad Noruega de Protección de Datos a través de Noyb, una organización austríaca de defensa de derechos digitales que ya ha denunciado que estas “alucinaciones” de ChatGPT no son un hecho aislado. En otros episodios, la IA ha acusado falsamente a personas de corrupción, abuso infantil y otros delitos. La queja formal sostiene que OpenAI violó el Reglamento General de Protección de Datos (RGPD), que establece —entre muchas otras cosas— que los datos personales deben ser precisos, accesibles y corregibles. ChatGPT, en cambio, se limitó a señalar que “puede cometer errores”.
La defensa de OpenAI parece sacada del manual del adolescente pillado copiando: ya lo corregí, profe. Aseguran que las versiones actuales de ChatGPT consultan la web para mejorar la precisión de sus respuestas, y que ahora, al buscar a Holmen, aparece la información correcta y hasta la historia del error. Pero según Noyb, esto es apenas cosmético. La información falsa puede seguir flotando en los datos que entrenan al modelo, como una pesadilla residual en la memoria de una máquina.
Y es aquí donde la historia toma un tono más profundo: no se trata solo de una metida de pata tecnológica. La pregunta de fondo es hasta qué punto pueden las empresas tecnológicas deslindarse de sus errores apelando a la advertencia genérica de “esto podría ser falso”. Porque si la IA se equivoca con tu biografía, ¿qué garantías tiene cualquier ciudadano de que su identidad digital no será reescrita por un algoritmo con delirios de guionista?
Holmen no solo exige una disculpa; quiere que se borren los datos falsos, que se le garantice el derecho de acceso y corrección, y que OpenAI pague una multa por los daños. Y más allá de lo legal, exige algo aún más escurridizo: responsabilidad algorítmica. Que no se pueda difamar a alguien con una historia inventada y luego lavarse las manos con una posdata en letra pequeña.
En resumen, el caso Holmen no es una anécdota ni un glitch simpático. Es el recordatorio de que incluso en la era de la IA, la verdad sigue teniendo valor… o al menos, consecuencias jurídicas. Porque si el futuro va a estar escrito por algoritmos, al menos que tengan claro que la ficción no puede vestirse de hecho sin consecuencias.