aialgorithmartificial intelligenceChatGPTGeneralgenerativemachine learningspeechspeech synthesis

Cuando los algoritmos generativos empiezan a hablar…

IMAGE: Mohamed Hassan - Pixabay

OpenAI actualiza la versión de pago de ChatGPT en smartphones con un generador de voz capaz de recibir cuestiones en formato de voz y de contestar también con cinco opciones de voz diferentes, en lo que supone un cambio generacional frente a anteriores asistentes de voz como Alexa, Siri o Google Assistant. Además, incorpora también la capacidad de aceptar imágenes como comandos de activación.

Indudablemente, hablamos de mejoras sustantivas e interesantes en un entorno, el de la algoritmia generativa, que está en plena evolución y sometido a una fuerte competitividad. Que un asistente generativo pueda recibir preguntas de viva voz y responder también verbalmente, o recibir imágenes como entradas es una muy buena cosa en términos de accesibilidad, y abre la puerta a muchísimas posibilidades de interacción con este tipo de asistentes cada vez más potentes.

Sin embargo, es importante también entender las grandes diferencias entre las interfaces visuales de texto y las de voz: mientras en las de texto, por lo general, se lleva a cabo un procesamiento de la información recibida algo más reflexivo – derivado de la necesidad de, como mínimo, leer e interpretar el texto, cuando no, como en algunos asistentes concretos, de revisar las fuentes utilizadas para confeccionar la respuesta, – en el caso de las respuestas recibidas en formato de voz, ese procesamiento mental por parte de quien recibe la respuesta se hace de manera prácticamente inmediata, y sometido a un cuestionamiento mucho menor. La voz es instantánea, y no proporciona más contexto adicional que la respuesta obtenida.

Eso me lleva a recuperar el artículo que escribí hace algún tiempo sobre el impacto de la algoritmia generativa sobre el pensamiento crítico, «Cuando el algoritmo piensa por ti«: de lo que hablamos ahora ya no es de la posibilidad de que algunas personas con reducida preparación para lidiar con este tipo de herramientas procedan a «subcontratar» su pensamiento y juicio crítico a un asistente algorítmico, sino de poner en el bolsillo de todo aquel que quiera pagarlo una herramienta que responde de viva voz de manera inmediata a cualquier pregunta, algo potencialmente mucho más peligroso.

Obviamente, un profesor de innovación que se precie no se dedica simplemente en demonizar ese tipo de herramienta, e interpretar que esto haciendo eso sería conocerme muy poco. De lo que hablamos es de que, sabiendo como sabemos que el entrenamiento de este tipo de asistentes es potencialmente limitado, posiblemente sometido a sesgos y, además, propenso al establecimiento de correlaciones espurias o de escasa significación estadística, a las que tendemos a llamar «alucinaciones», se me antoja muy necesario introducir la educación en el uso de este tipo de herramientas en el currículum educativo, si no queremos tener todo tipo de problemas.

Hablamos, después de todo, de personas que se caen a un lago por seguir ciegamente los comandos de su GPS, de usuarios que asumen como verdad absoluta el primer resultado de un buscador, o de otros que confían de manera absoluta en el consejo legal de un algoritmo. ¿Qué no ocurrirá cuando el resultado de cualquier búsqueda o pregunta sea una frase rápida en un smartphone producida por un algoritmo generativo al que muchos atribuyen, supuestamente, una inteligencia superior a la de las personas? ¿Cómo plantearnos un uso responsable cuando, incluso si quieres realmente verificar la información que has recibido, la interfaz te ofrece escasas posibilidades de hacerlo? ¿Qué pasa, por ejemplo, cuando, a escasos minutos de una reunión con alguien, preguntas a tu asistente sobre esa persona y te dice que está implicado en casos de acoso sexual… cuando no es cierto en absoluto?

No, no hablamos de que la IA sea «demasiado buena», sino de herramientas que aún están en fase de entrenamiento, que solo ofrecen sus respuestas bajo advertencias y disclaimers de todo tipo escritas en letra pequeña al final de la página, y que están muy lejos de ofrecer la fiabilidad que sí ofrecían los algoritmos de automatización avanzada propuestos por la generación anterior del machine learning, cuando los desarrolladores aún podían tratar de entender lo que estaban haciendo, lo que ocurría cuando introducías más variables o el procedimiento matemático que daba lugar a una respuesta determinada.

O nos preparamos para lo que viene, o muchos serán directamente sus víctimas.

Related Articles

Leave a Reply

Your email address will not be published. Required fields are marked *

Back to top button