aiartificial intelligenceChatGPTdefamationGenerallawsuitlibelmachine learningOpenAI

¿Puede un modelo masivo de lenguaje cometer un delito?

IMAGE: Alexandra Koch - Pixabay

En pleno frenesí por preguntar a los nuevos asistentes generativos como ChatGPT todo tipo de cosas, algunos usuarios han comenzado a encontrarse con respuestas inesperadas: recientemente, por ejemplo, cuando el asistente de un abogado le pidió a ChatGPT un listado de profesores de Derecho implicados en casos de acoso sexual, el algoritmo generó una lista en la que aparecía una persona que nunca había tenido relación con ese tipo de casos, se inventó los detalles, e incluso añadió un falso artículo de periódico que supuestamente lo detallaba.

El caso no es único, y forma parte de las llamadas «alucinaciones» de los modelos masivos de lenguaje: por mucho que algunos quieran atribuirles inteligencia o conciencia, estamos hablando de modelos estadísticos complejos que establecen relaciones de maneras, en muchos casos, incorrectas, y que sin embargo, devuelven en forma de frase formulada con sorprendente convicción. En un caso similar, un alcalde australiano se encontró con que ChatGPT afirmaba que había estado en la cárcel por un caso de corrupción, cuando esa acusación era completamente falsa.

Este tipo de errores son cualquier cosa menos sorprendentes desde el punto de vista de alguien como yo, que se ha encontrado cómo ChatGPT afirmaba que estaba casado con hasta cinco mujeres diferentes, ninguna de las cuales era la correcta – y en algunos casos, con alambicadas historias detrás hablando de varios matrimonios e hijos, formuladas de manera completamente convincente. La pregunta, claro, es prácticamente automática: ¿podemos considerar que ChatGPT ha cometido un delito de libelo o difamación cuando afirma con aparente seguridad algo que es falso y potencialmente dañino para la reputación o el honor de una persona?

Acusar falsamente a un político de corrupción o a un académico de acoso sexual no es algo frívolo, y de hecho, podría llegar a ser enormemente serio: esa información ha sido, a todas luces, «fabricada» de manera completamente incorrecta, pero podría tener consecuencias si alguien la interpreta como verdadera, si simplemente le genera dudas sobre la cuestión, o incluso si una respuesta errónea de ese tipo es posteriormente utilizada para entrenar respuestas subsiguientes.

De hecho, es perfectamente posible que vayamos a comprobar pronto si ese tipo de denuncias por difamación son posibles, porque algunos de los implicados en estos casos se lo están planteando, e incluir una simple cláusula en el pie de la página diciendo algo así como «ChatGPT may produce inaccurate information about people, places, or facts» no parece que vaya a resultar una protección legal demasiado convincente.

Si preguntamos al propio ChatGPT si podría ser denunciado por difamación, la respuesta es

Como modelo de lenguaje de inteligencia artificial, ChatGPT no es una entidad legal y, por lo tanto, no puede ser demandado por difamación. Sin embargo, los creadores, operadores o propietarios de ChatGPT podrían ser considerados responsables por declaraciones difamatorias hechas por el modelo si se puede demostrar que tenían conocimiento de las declaraciones difamatorias o desempeñaron un papel en su creación o difusión.

Es importante tener en cuenta que la difamación requiere una declaración falsa de hecho que cause daño a la reputación de una persona, y no todas las declaraciones hechas por ChatGPT necesariamente cumplirían con este criterio. Además, el marco legal en torno a la IA y la responsabilidad todavía está evolucionando y sujeto a debate y discusión continua.

La clave está en el primer párrafo: salvo en el caso de un entrenamiento malicioso con materiales incorrectos, la posibilidad de que los creadores de un modelo masivo de lenguaje puedan anticipar alguno de los resultados «alucinógenos» que generan estos modelos es prácticamente nula. Pero obviamente, habría que ver cómo se le puede explicar algo así a un juez, y si este podría considerarlo como una protección de algún tipo, sobre todo pensando en el enorme agujero que podría crear. Las metodologías de prompt injection han demostrado que podemos hacer decir a un algoritmo prácticamente cualquier cosa, y delimitar en esos casos la responsabilidad de quien pregunta con una evidente intencionalidad frente a la de quien construye la correspondiente respuesta podría ser sumamente complejo.

Todo indica que nos disponemos a encontrarnos con una enorme proliferación de modelos masivos de lenguaje aplicados a todo tipo de tareas. ¿Van a encontrarse las compañías que ofrecen asistentes conversacionales basados en modelos masivos de lenguaje, debido a su estrategia de escoger velocidad frente a precaución, con una oleada de denuncias derivadas de algunas de las relaciones que, de manera alegre, establecen en función de errores en sus procesos estadísticos?

Related Articles

Leave a Reply

Your email address will not be published. Required fields are marked *

Back to top button