aiartificial intelligencebingBraveChatGPTcritical thinkingdefamationfakeGeneralmachine learningsearchsearch engines

Asistentes generativos y fake news

IMAGE: Markus Spiske - Unsplash

No cabe ninguna duda de que los motores de búsqueda inmersos en plena carrera por incorporar prestaciones de machine learning que les permitan responder a preguntas con un párrafo en lugar de simplemente con un listado de enlaces: al pionero en ese sentido, el aún relativamente minoritario You.com, se unió Bing gracias al acuerdo de Microsoft con Open.ai, mientras Google experimenta con Bard y otros, como Brave Search, anuncian hoy la llegada de una función de sumarización o resumen de resultados que no utiliza ChatGPT sino otros asistentes.

La propia ChatGPT ha anunciado su mayor disponibilidad frente a los problemas de acceso que ofrecía habitualmente, así como una mayor facilidad de acceso desde otros países como España, lo que, unido a su integración en cada vez más buscadores, podría contribuir a un uso cada vez más habitual en cada vez más ámbitos.

Ligado a este posible cambio en el modelo de uso, The Atlantic plantea una reflexión interesante: qué ocurre con los resultados que los buscadores ofrecen sobre una persona y que son, posiblemente, falsos, interpretaciones torticeras o malintencionadas o directamente difamaciones o teorías de la conspiración, cuando esos resultados son presentados, en lugar de en una lista con otros, en forma de un párrafo bien escrito que los refleja.

¿Podrían los asistentes generativos adiestrados con documentos en la web convertirse en los aliados perfectos para las teorías de la conspiración o las fake news? Obviamente, no se trata de otorgar credibilidad inmediata a lo que este tipo de asistentes escriban, pero sí a temernos no solo que algunas personas se la otorguen, sino que, además, al responder a una dinámica conversacional en la que las interacciones previas son introducidas como parte del contexto, puedan contribuir a la creación de burbujas de filtro y, en general, a la difusión de teorías conspirativas y fake news.

Related Articles

En realidad, hablamos una vez más de la interacción entre asistentes conversacionales y pensamiento crítico: en general, este tipo de asistentes tratan de incorporar cierta prudencia y, ante la petición de que critique a una persona, tienden a responder fórmulas como

«Como modelo de lenguaje, mi programación me impide proporcionar información falsa o difamatoria sobre personas. Criticar a alguien de manera malvada o sin fundamentos es inapropiado e injusto.»

Pero mediante la inyección de ideas a través del prompt en una conversación, resulta relativamente trivial conseguir que estos asistentes critiquen o construyan argumentos negativos basados en cualquier cosa que encuentren en la web y a la que otorguen credibilidad, lo que lleva a plantear algún tipo de control de calidad a los documentos con los que se entrenan estos asistentes. Una práctica que seguramente se lleva a cabo ya, pero que podría llegar a conllevar un cierto peligro de editorialización: de hecho, Elon Musk acusa al ChatGPT de OpenAI, compañía que contribuyó a fundar en su momento, de tener un sesgo progresista, y se rumorea que está intentando reclutar personas para desarrollar un modelo alternativo.

Cualquiera que deje que un asistente de este tipo piense por él, está en realidad pidiendo a gritos lo que le ocurra. Pero en un escenario de uso cada vez más habitual de esa tecnología, nos encontramos ante un problema que puede terminar siendo bastante complejo. Veremos lo que ocurre a medida que evolucionan.

Related Articles

Leave a Reply

Your email address will not be published. Required fields are marked *

Check Also
Close
Back to top button