aialgorithmartificial intelligencedefamationGeneralgenerativegooglehallucinationssearchsearch engines

Google y el dilema del robot borracho

IMAGE: OpenAI's DALL·E, via ChatGPT

Se vienen problemas para Google: en su última presentación, en el Google I/O, anunció la incorporación de resultados de su algoritmo generativo, Gemini, a sus resultados de búsqueda, en forma de lo que ha dado en llamar «AI Overviews».

Empezando el pasado 14 de mayo, muchos millones de usuarios del motor de búsqueda en los Estados Unidos comenzaron a recibir esas respuestas como parte de sus páginas de resultados, y muchos millones más lo empezarán a hacer pronto en todo el mundo.

Pero esto, que parecería una gran innovación y una reacción de la compañía al cada vez más pujante desarrollo de la IA generativa, conlleva un problema potencialmente muy importante: que mientras las respuestas que Google entrega en forma de enlaces a otras páginas, en las que actúa como mero distribuidor de información, están protegidas por la conocida (y polémica) Sección 230 de la Communications Decency Act of 1996, las respuestas que Google elabora mediante su propio algoritmo generativo, Gemini, no lo están. En ese caso, las respuestas no forman parte de algo que la compañía simplemente distribuye, sino que son creadas por una herramienta propiedad de la propia compañía.

Y dada la tendencia de los algoritmos generativos a «emborracharse» de manera habitual con correlaciones a menudo vagas, ridículas o directamente espurias y generar lo que algunos han dado en llamar incorrectamente «alucinaciones», esto puede terminar desencadenando problemas y responsabilidades bastante complejas.

¿Qué ocurre cuando un algoritmo generativo, por ejemplo, se inventa que un presentador de radio recibe dinero de una organización que defiende el uso de armas? Pues que, lógicamente, el presentador denuncia a la compañía por difamación, y como es lógico dado que la afirmación no era en absoluto cierto, gana el caso. Eso le ha ocurrido a OpenAI, primera compañía en lanzar masivamente un algoritmo generativo que alcanzó una enorme popularidad, y le ha supuesto ya varios casos de este tipo. ¿Pero qué ocurre cuando quien lanza la herramienta y la vincula a su producto principal es Google, propietaria del motor de búsqueda que usan constantemente millones de personas? Por simple lógica estadística, nos vamos a empezar a encontrar resultados de este tipo con una frecuencia relativamente elevada, y muchos de los que las reciban, posiblemente, estarán en situación de considerarlo un hecho denunciable.

Aunque se ha progresado en este ámbito, las respuestas disparatadas o simplemente falsas suponen un enorme desafío para las compañías que desarrollan algoritmos generativos, debido fundamentalmente a la naturaleza probabilística de estos modelos y a las complejidades inherentes al lenguaje humano. Los sistemas basados en post-moderación pueden, posiblemente pero no siempre, reducir la incidencia de los resultados más populares o habituales, pero para otros, es preciso recurrir a una retroalimentación humana que no siempre está dispuesta a simplemente hacer una corrección, sino que directamente denuncia a quien generó el resultado. El refuerzo del aprendizaje de los modelos puede llegar a ser una solución, pero ni es sencilla, ni mucho menos rápida o universal. Y un simple disclaimer en forma de letra pequeña bajo las respuestas tampoco sirve.

El dilema de Google es claro, y lo anticipamos hace ya tiempo: se llama «el dilema del innovador», lo describió maravillosamente bien Clayton Christensen en su libro, y alude a lo que le suele ocurrir al líder de un mercado cuando intenta innovar: que las consecuencias de los cambios se pueden sobredimensionar, tanto para lo bueno como para lo malo. Si no incorpora algoritmia generativa a su búsqueda, verá como otros competidores lo hacen y le empiezan a robar cuota de mercado. Pero si lo hace, está poniendo al mando de la nave a un robot con cierta tendencia a emborracharse, con todo lo que ello puede conllevar cada vez que sus ocurrencias atropellen a alguien y lo que maneja no es un utilitario en forma de startup o de compañía pequeña, sino un camión descomunal. Por no citar los posibles efectos reputacionales si esas respuestas llegan a interpretarse como que afectan a determinadas cuestiones sensibles.

No parece que Google lo tenga fácil Google, aunque no hacer nada, obviamente, tampoco era una solución. Veremos cómo sale de esta.

Related Articles

Leave a Reply

Your email address will not be published. Required fields are marked *

Back to top button