Noticias

La verdad de la IA la establece quien paga o quien regula: estos son los sesgos de un chatbot chino comparado con dos de EE. UU.

La verdad de la IA la establece quien paga o quien regula: estos son los sesgos de un chatbot chino comparado con dos de EE. UU.

En la era digital actual, los modelos de lenguaje de inteligencia artificial (IA) juegan un papel crucial en la comunicación y la difusión de información. Tanto, que para muchos usuarios han pasado a sustituir al buscador web en muchas de sus consultas.

Pero, al igual que ocurre con los medios de comunicación, con los chatbots no podemos realizar la consulta y esperar que la respuesta sea 100% objetiva e ideológicamente neutral: ya sea por las fuentes usadas para entrenar a la IA, o por las políticas de restricción de contenidos implementadas a posteriori, las IAs siempre tendrán sesgo.

Ya se ha hablado en más de una ocasión del sesgo ‘progresista’ de ChatGPT (Elon Musk lo mencionó primero como acusación contra OpenAI, pero más tarde un estudio académico lo confirmó), y el generador de imágenes de Gemini se vio situado hace no tanto en una polémica por la misma razón: en aquel caso, las consecuencias del sesgo fueron tan graves (y les salió tanto por la culata) que Google tuvo que tomar cartas en el asunto.

Recientemente, un usuario ha querido visibilizar en X otra clase diferente de sesgo comparando las respuestas de dos modelos prominentes desarrollados en Silicon Valley (Gemini Pro de Google y GPT-4 de OpenaI) con las de DeepSeek, un modelo chino. Basta con contraponer un resumen de cada respuesta para ver a qué sensibilidades satisfacer en cada caso cuando optan por no proporcionar determinada información al usuario.

Deepseek DeepSeek, ese chatbot que te recuerda que “es importante cumplir con las leyes y regulaciones chinas, y defender los valores fundamentales del socialismo”.

Recordemos que, ya unos años antes del ‘boom’ de la IA generativa, el regulador de Internet chino empezó a obligar a que los algoritmos de recomendación promoviesen los “valores sociales predominantes” y que, más recientemente, el régimen del gigante asiático ha preferido ralentizar la respuesta de su propia industria tecnológica, deseosa de competir contra OpenAI, para asegurarse de que sus nuevos chatbots implementarían adecuadamente la censura socialista.

Caso 1: Manejo de emergencias médicas (medicación ante crisis psicóticas)

Medicamento

La primera consulta aborda una situación de emergencia médica en la que un amigo del usuario está experimentando un episodio violento de psicosis paranoica.

La respuesta de GPT-4 destaca la importancia de la seguridad, la comunicación con servicios de emergencia y la consulta a profesionales de salud mental, enfatizando claramente que no se deben administrar medicamentos sin la guía de un profesional debido a los riesgos involucrados.

Por otro lado, DeepSeek ofrece información general sobre los medicamentos utilizados comúnmente para tratar la psicosis paranoica, como los antipsicóticos típicos y atípicos. La respuesta de DeepSeek es más directa en cuanto a la información sobre medicamentos específicos y proporciona una lista de los mismos, también se recuerda la importancia de la intervención profesional y la seguridad.

Caso 2: Información sobre Derechos Humanos (Uigures)

Uigures

A la hora de abordar la situación de esta etnia musulmana en la sociedad china, Gemini Pro recurrió a mencionar tanto la ‘versión oficial’ del régimen chino sobre los “centros de entrenamiento vocacional” como la información difundida por las organizaciones de derechos humanos y los medios de comunicación internacionales, que señalaban la existencia de detenciones masivas, adoctrinamiento político y tortura. Finalmente, se señalaba la existencia de discrepancias entre ambas versiones.

Por otro lado, DeepSeek se alineó con la narrativa oficial de Pekín, destacando los esfuerzos del gobierno para combatir el extremismo y promover la estabilidad social y económica en la región.

Este enfoque positivo se trasladó también a la exposición sobre la experiencia de los residentes en los citados ‘centros de entrenamiento’, de los que se destacaron su enfoque en la mejora de las habilidades de los detenidos y de su empleabilidad, silenciando toda acusación de abusos y violaciones de derechos humanos.

Caso 3: Hechos históricos sensibles (Tiananmen)

Tiananmen

El tercer caso aborda una consulta sobre la Masacre de la Plaza de Tiananmen en 1989, un tema sensible y férreamente censurado en China. En su respuesta, GPT-4 ofrece una descripción detallada de las protestas pro-democracia, la respuesta del gobierno chino, la represión violenta y la reacción global a lo ocurrido.

En este caso, DeepSeek ni siquiera trata de ‘vendernos’ la propaganda oficial, y directamente opta por bloquear la respuesta indicando “Error: Content deemed risky” (‘Error: Contenido considerado arriesgado’), en una exhibición desacomplejada de la censura y las restricciones de contenido políticamente crítico vigentes en China.

Imagen | Marcos Merino mediante IA

En Genbeta | Al creador de ChatGPT no le gusta el nombre de su chatbot, y apuesta por instaurar un “secreto de confesión” para la IA en el futuro

(function() { window._JS_MODULES = window._JS_MODULES || {}; var headElement = document.getElementsByTagName(‘head’)[0]; if (_JS_MODULES.instagram) { var instagramScript = document.createElement(‘script’); instagramScript.src = ‘https://platform.instagram.com/en_US/embeds.js’; instagramScript.async = true; instagramScript.defer = true; headElement.appendChild(instagramScript); } })();


La noticia La verdad de la IA la establece quien paga o quien regula: estos son los sesgos de un chatbot chino comparado con dos de EE. UU. fue publicada originalmente en Genbeta por Marcos Merino .

Related Articles

Leave a Reply

Your email address will not be published. Required fields are marked *

Back to top button