Noticias

La equivocada idea de que queremos dejar nuestros teléfonos móviles

La tesis con la inteligencia artificial es que va a modificar nuestra relación con los servicios digitales, internet y los dispositivos.

Se interpondrá entre ellos y nosotros porque, en teoría, nos ofrecerá un interfaz más natural (el lenguaje) y será capaz de ahorrarnos trabajo: no sólo nos responderá a consultas de información, también acometerá tareas, desde las sencillas (haz una búsqueda, responde un mensaje) hasta las más complejas (haz una compra, planifica un viaje).

En las últimas semanas, la recepción de dos propuestas de nuevo hardware basado en IA – el pin de Humane y el Rabbit R1 – ha estado entre la ridiculización y una decepción poco disimulada. Ambos planteaban la tesis inicial: con los grandes modelos de lenguaje multimodales y su capacidad de procesar la voz, el texto y la imagen, tendremos asistentes con los que manejar el mundo digital. Lo haremos con la voz y sin necesidad de utilizar el teléfono móvil.

Es en este último aspecto donde hay un debate interesante. Escapar del smartphone parece más una necesidad de los fabricantes que algo consecuencia de la base técnica. Es más, R1 es literalmente una aplicación para el móvil.

Para empresas como Humane y Rabbit el iniciar un camino nuevo en el hardware tiene mucho sentido. En el móvil estarían sometidos al control y a la lógica económica parasitaria de Apple y Google: los que manejan el sistema operativo pueden capturar gran parte del negocio en tu servicio y, además, pueden acabar imponiendo sus asitentes como es el caso de Siri. Esto último, en el momento en que Apple tire a la basura el producto actual y lo rediseñe con un modelo grande de lenguaje.

Para lograr escapar del control de las grandes tecnológicas, los que están desarrollando nuevo hardware para acceder modelos de inteligencia artificial parten de un diagnóstico: que los usuarios queremos mirar menos veces el teléfono móvil hasta el punto de que nos gustaría deshacernos de él.

No está claro si el pin de Humane o el R1 de Rabbit se equivocan con el momento – la tecnología no está madura para conseguir lo que quieren hacer, la IA es lenta y se equivoca demasiado todavía – o se equivocan también con la visión.

Y es aquí donde creo que sufren una confusión habitual. La de convertir lo que más te conviene en lo que crees que sucede en realidad. La de interpretar los mensajes de una minoría cada vez más consciente de las externalidades negativas del internet que nos hemos dado (pérdida de atención, saturación informativa y de contenidos, pseudo adicción al scroll infinito, una esfera pública contaminada de posiciones extremas) como que la gente normal realmente hemos decidido que no queremos pantallas, notificaciones y bañarnos en los chutes de dopamina que nos proporcionan.

No estamos ni cerca de ese escenario.

En un episodio reciente de monos estocásticos explico mi tesis. No está claro si el pin de Humane o el R1 de Rabbit se equivocan con el momento – la tecnología no está madura para conseguir lo que quieren hacer, la IA es lenta y se equivoca demasiado todavía – o se equivocan también con la visión.

Es decir, es posible que esta generación de inteligencia artificial generativa nunca de para un asistente confiable, rápido y planificador, asunto que discutimos en este otro capítulo. Es algo que no sabremos hasta dentro de varios años, sospecho. O antes, si OpenAi o alguna otra nos ofrece otro salto adelante.

Mi impresión es que, de momento, es mucho más razonable el camino de Meta con las Rayban conectadas. Las pude probar hace poco en un evento de la compañía en París contrastando que hacen pocas cosas, pero las hacen bien: fotos, vídeos, atender a llamadas o escuchar música. Poco a poco, incorporan un asistente basado en inteligencia artificial para resolver dudas y, tras una reciente actualización, también podemos consultarles sobre lo que “vemos y oímos”. Lo explica muy bien Javier Lacort, con el que coincidí en la prueba.

¡Gracias por leer Error500! Suscríbete gratis para recibir nuevas publicaciones y apoyar mi trabajo.

El punto con las Rayban conectadas es que son un complemento del telefóno móvil y, no aspirando a sustituirlo, pueden lograr que lo usemos menos. De repente vas haciendo alguna foto o vídeo sin sacarlo del bolsillo. En otra ocasión, algo que habrías consultado con varios pasos en el teléfono, las gafas de lo responden de inmediato. Poco a poco pueden ayudar en construir el nuevo hábito de no mirar tanto una pantalla.

Claro que tienen sus problemas. El pacto social de que estamos juntos y estoy atento a ti (pero con las gafas puede que ande escuchando un podcast o un mensaje) y que lo que hablamos es privado (podría estar grabando, aquí las gafas encienden una luz de aviso a nuestro interlocutor), se modifica.

La inteligencia artificial generativa en Mayo de 2024 no tiene el nivel para cumplir la promesa de ser ese agente confiable, rápido y dispuesto a intermediar entre nosotros y el mundo digital

Eso sin contar el historial de poco respeto a la privacidad de Meta y lo interesante que resultaría en el futuro que lo que “vean las gafas” resulte de enorme valor para entrenar nuevos modelos de inteligencia artificial que puedan aprehender un modelo del mundo.

La inteligencia artificial generativa en Mayo de 2024 no tiene el nivel para cumplir la promesa de ser ese agente confiable, rápido y dispuesto a intermediar entre nosotros y el mundo digital. La visión puede ser acertada a medio plazo, tal vez. A mi me gusta pensar que lo tendremos, no tengo muy claro si bajo el paradigma de la IA generativa u otro.

Mientras tanto, las distintas apuestas harían mejor en hacerse buenas compañeras del móvil que en abrazar la fantasía de que estamos deseando desterrarlo y ellas son capaces de generar todo el valor que a día de hoy nos aporta.

Related Articles

Leave a Reply

Your email address will not be published. Required fields are marked *

Back to top button