aialgorithmartificial intelligenceGeneralgenerativegooglesearchsearch engines

La muerte de la búsqueda

IMAGE: OpenAI's DALL·E, via ChatGPT

Un reciente informe de Gartner afirma que el volumen de búsquedas en motores de búsqueda en internet se habrá reducido en torno un 25% en el año 2026 debido al crecimiento de las búsquedas en chatbots y otros agentes virtuales alimentados por algoritmia generativa, una tendencia que está llamada a redefinir el marketing en la red tal y como lo conocemos.

La conclusión es, como tal, escasamente sorprendente: desde el inicio de la popularidad de los algoritmos generativos con el lanzamiento de ChatGPT a finales de noviembre de 2022, todos empezamos a ver cómo cada vez más necesidades de información podían ser satisfechas de manera más directa y satisfactoria mediante un prompt bien formulado en lugar de recurrir a motores de búsqueda tradicionales.

La tendencia, que pronto pudimos corroborar todos los que hacemos habitualmente exámenes a nuestros alumnos a laptop abierto, tiene mucho sentido: mientras una búsqueda nos dirige generalmente a un conjunto de enlaces o, en algunos casos, a algunas preguntas formuladas que tratan de proporcionar respuestas más o menos directas, el resultado de una pregunta a un algoritmo generativo resultaba, de la noche a la mañana, mucho más sencilla de gestionar. En esto había, por supuesto, un fuerte componente de novedad, pero además, una compleja relación de confianza que tendía en muchos casos a sustituir al pensamiento crítico, como anteriormente había pasado con los propios motores de búsqueda. Si ya hace años el primer resultado de una búsqueda en Google y parecía ser muchos algún tipo de verdad absoluta, el que ahora ChatGPT contestase un párrafo correctamente redactado con determinada información hacía que muchos nunca dudasen de él, a pesar de la tendencia de muchos algoritmos a «alucinar» a partir de correlaciones, en muchos casos, sumamente bajas.

De hecho, sabemos que Google, a pesar de tener disponible tecnología para crear algoritmos generativos, rechazó lanzarlos al mercado en su momento, en lo que sería un corolario perfecto para el genial libro de Clayton Christensen «El dilema del innovador» (1997), precisamente porque temía unos efectos sobre el negocio de la búsqueda que era bastante sencillo anticipar:

  1. Los fallos o «alucinaciones», que otros competidores podían justificar fácilmente por su escasa experiencia o por ser vistos como más novedosos, resultaban inaceptables en una compañía con la cuota de mercado y el prestigio de Google, y en caso de suceder a menudo, podrían llegar a comprometer la percepción de fiabilidad de los resultados del buscador.
  2. Los costes de una búsqueda en la descomunal base de datos de Google están muy contenidos gracias a la hiper-optimizada ingeniería de Google, mientras que los de una consulta a un algoritmo generativo son más de un orden de magnitud superiores. Esa diferencia de costes puede ser asumida por compañías con un volumen de actividad relativamente bajo en búsqueda, pero podrían desestabilizar completamente la cuenta de resultados de Google, con más de un 95% de cuota de mercado, si el proceso de sustitución tuviese lugar muy rápido.
  3. La publicidad mediante enlaces patrocinados, fuente principal de negocio en Google, deja de funcionar cuando el usuario, en lugar de recibir una serie de enlaces, algunos de ellos patrocinados, en los que hacer clic, pasa a encontrarse un párrafo perfectamente redactado.

Esos tres factores hicieron, en su momento, que una compañía como Google pospusiese la idea de lanzar un algoritmo generativo, y fuese completamente tomada por sorpresa cuando OpenAI lanzó ChatGPT. Dilema del innovador en su mejor versión, en un ejemplo que haría levantarse de la tumba al mismísimo Christensen para darse el gustazo de explicarlo en una clase. Como no lo haces cuando puedes, son otros los que pasan a hacerlo por ti.

Así, los motores de búsqueda tradicionales, que iniciaron su andadura en 1993 con actores como W3Catalog, ALIWEB, JumpStation o WWWWorm, todos ellos inactivos desde hace ya muchos años, podrían empezar a escribir de alguna manera su epitafio – obviamente, las transiciones nunca son tan sencillas, y por lo general, los muertos que algunos matan suelen gozar de buena salud – a partir del año en que los algoritmos generativos con interfaces sencillas se convirtieron en tecnologías de uso habitual.

Nunca he sido muy creyente en las predicciones de Gartner, pero esa caída de un 25% en un par de años me resulta razonablemente creíble, o incluso prudente. Y con ella, empezaríamos a ver toda una nueva forma de hacer las cosas en la red, y pasaríamos de un modelo, el de los motores de búsqueda, muy contaminado con el SEO y sus tácticas, a encontrarnos con nuevas técnicas diseñadas para conseguir que los algoritmos generativos mencionen más a unas marcas o empresas que a otras. Como siempre, el problema no está en la tecnología, sino en la naturaleza humana…

Related Articles

Leave a Reply

Your email address will not be published. Required fields are marked *

Check Also
Close
Back to top button