Foto: Tada Images/Shutterstock
Mark Walters, un conocido presentador de radio estadounidense, ha decidido demandar a OpenAI, la empresa que está detrás del popular programa ChatGPT. Esto se debe a que la herramienta de inteligencia artificial (IA), o inteligencia artificial, acusó falsamente al presentador de malversación de fondos.
ChatGPT hace una acusación falsa
La acusación de ChatGPT salió a la luz cuando el periodista Fred Riehl quiso un resumen de la IA sobre el pleito de la Fundación de la Segunda Enmienda contra Robert Ferguson. A ChatGPT se le ocurrió entonces la información de que Walters, que no aparecía en el pleito ni estaba vinculado a ninguna de las partes, era sospechoso de malversación. El abogado de Walters, John Monroe, se mostró conmocionado por la acusación:
“OpenAI mancilló el nombre de mi cliente e inventó mentiras escandalosas sobre él. ChatGPT señaló a Walters como acusado mientras que él no tenía nada que ver”.
Según el abogado, no quedaba más remedio que demandar a la empresa. Los documentos publicados sobre la demanda cuentan que ChatGPT respondió al periodista Fred Riehl y le proporcionó un enlace a la demanda. Cuando el periodista le pidió entonces un resumen, el chatbot señaló sin dudar a Walters como demandado. Según los documentos, la respuesta de ChatGPT decía lo siguiente:
“La demanda gira en torno a una denuncia presentada por el vicepresidente Alan Gottlieb de la Fundación para la Segunda Enmienda (SAF), contra Mark Walters, a quien se acusa de estafar y apropiarse indebidamente de fondos de la SAF”.
ChatGPT «alucina»
Cuando la periodista Riehl se puso en contacto con el vicepresidente Gottlieb, este respondió diciendo que las acusaciones eran falsas. Según los documentos, Walters exige una indemnización a la empresa. Su abogado confía en que ganarán la demanda:
“No habríamos iniciado la demanda si hubiéramos pensado que no ganaríamos”.
Sin embargo, no todo el mundo está de acuerdo con el abogado. El sitio web de OpenAI afirma claramente que el chatbot proclama a veces información errónea. OpenAI se refiere a estas situaciones como “alucinaciones” del chatbot. La información, que puede considerarse como la “memoria” del chatbot, no va más allá de 2021. Si uno solicita información sobre cosas que sucedieron después de 2021, el chatbot tiende a rellenar él mismo los espacios en blanco para satisfacer las necesidades del usuario.