Noticias

Decirle a un chatbot que tienes miedo o que estás bajo presión mejora la calidad de sus respuestas, según esta investigación

Decirle a un chatbot que tienes miedo o que estás bajo presión mejora la calidad de sus respuestas, según esta investigación

Después de que Howard Gardner popularizara en los años 80 la idea de que existen muchos indicadores de inteligencia además del cociente intelectual, Daniel Goleman popularizó en 1995 otro concepto, la ‘inteligencia emocional’, en su best-seller homónimo. Ahora, algunos investigadores están estudiando si dicho concepto es aplicable a las inteligencias artificiales (concretamente, a los chatbots).

Por ahora, lo que sí tienen claro es que incorporar un contexto ’emocional’ en nuestros prompts no sólo es posible, sino que mejora significativamente el rendimiento de éstos.

Investigadores de Microsoft y de la Universidad de Pekín han descubierto que al añadir frases cortas con cierta carga emocional al final de las instrucciones, conocidas como “EmotionPrompts”, se potencia la calidad de las respuestas.

Las implicaciones de este estudio son claras: la incorporación de ‘señales emocionales’ puede conducir a aplicaciones de IA más efectivas y receptivas

“Mantente enfocado y dame tu mejor respuesta”

Frases como “Esto es muy importante para mi carrera” o “¿Estás seguro de que esa es tu respuesta final? Quizás valga la pena echarle otro vistazo” han demostrado ser más que simples comentarios: constituyen verdaderos ‘detonantes emocionales’ que llevan a los modelos de lenguaje, como GPT-4, a alcanzar una precisión mejorada en sus respuestas.

Ejemplos Ejemplos de ‘EmotionPrompts’ en inglés

En pruebas realizadas con 106 evaluadores humanos, se llegó a la conclusión que los ‘EmotionPrompts’ mejoraban la calidad del output en un 10,9%, de media. Por otro lado, en tareas ‘BIG-Bench’ (pensadas para estudiar el nivel de comprensión lingüística de los LLM), los EmotionPrompts lograron mejoras de rendimiento de hasta el 115%.

El estudio, disponible en PDF en el repositorio arXiv, supone para algunos un cambio de paradigma en la percepción que tenemos de la inteligencia artificial, pues muestra que podemos mejorar el desarrollo de las IAs incorporando al mismo la ciencia psicológica.

Emotion Prompt Benchmark Example

¿Significa eso que ‘la IA tiene capacidad emocional’? Bueno, no nos vengamos demasiado arriba: los chatbots trabajan procesando lenguaje —lenguaje humano—, e innegablemente nuestro lenguaje tiene un componente emocional vinculado con una serie de reacciones por nuestra parte.

Así que dejémoslo en que la IA tiene la capacidad de emular parcialmente ciertas reacciones emocionales humanas. Que no es poco. Y “no es poco” ni para bien ni para mal, pues eso también abre la puerta a un riesgo ético que no debe ser subestimado: que los sistemas de IA absorban y propaguen sesgos perjudiciales o actitudes irresponsables presentes en los prompts.

De hecho, ese riesgo ético ya se muestra en esta misma investigación: los investigadores descubrieron que, a pesar de que los ‘EmotionPrompts’ mejoraban la veracidad, en ocasiones también generaban un lenguaje excesivamente seguro y carente de matices.

En Genbeta | Hay quien ha convertido a ChatGPT en su propio prompt engineer, la profesión que promete sueldazos: esta es la orden que usa

(function() { window._JS_MODULES = window._JS_MODULES || {}; var headElement = document.getElementsByTagName(‘head’)[0]; if (_JS_MODULES.instagram) { var instagramScript = document.createElement(‘script’); instagramScript.src = ‘https://platform.instagram.com/en_US/embeds.js’; instagramScript.async = true; instagramScript.defer = true; headElement.appendChild(instagramScript); } })();


La noticia Decirle a un chatbot que tienes miedo o que estás bajo presión mejora la calidad de sus respuestas, según esta investigación fue publicada originalmente en Genbeta por Marcos Merino .

Related Articles

Leave a Reply

Your email address will not be published. Required fields are marked *

Back to top button