aialgorithmartificial intelligenceGeneralgenerativegooglemachine learningpolitical correctness

Los algoritmos y la corrección política

IMAGE: Gerd Altmann - Pixabay

La relación entre algoritmos generativos y corrección política es sumamente compleja, porque claramente, hablamos de ámbitos distintos: un algoritmo generativo es un constructo estadístico complejo que opera en función de correlaciones matemáticas, creando conceptos a partir de frases y palabras, dando lugar a vectores que las relacionan, y operando mediante inferencias en ese espacio probabilístico generado. La corrección política, en cambio, es un constructo humano complejo, arbitrario y sumamente multidimensional, que describe el lenguaje, las políticas o las medidas destinadas a evitar ofensas o desventajas para determinados miembros de grupos particulares de la sociedad.

La relación, obviamente, es muy escasa, más aún cuando tenemos en cuenta que la corrección política es un fenómeno relativamente reciente, que ha ido adquiriendo importancia progresivamente solo a partir de la década de los ’80, y de manera muy desigual en distintos países. Cuando alimentamos un algoritmo generativo a partir de información disponible en la web, es perfectamente posible que reciba información que muchos considerarían políticamente incorrecta, o bien que, dado que la corrección política es un mecanismo que se genera de manera voluntaria, deduzca correlaciones o vectores que la ignoran completamente.

Por otro lado, la ausencia de corrección política ejerce una presión muy fuerte sobre las compañías. Ignorarla o vulnerarla, sea por acción o por omisión, es susceptible de generar un problema muy importante para cualquier empresa, que además suele dar lugar a escándalos con altas posibilidades de convertirse en virales. En una sociedad, además, fuertemente polarizada con respecto a estos temas, con un continuo que va desde los defensores radicales de la necesidad de la corrección política en una sociedad moderna hasta los que niegan de manera muy vehemente esa necesidad, las compañías se ven, si no cuidan de manera extrema estos temas, envueltas en situaciones que conllevan fuertes riesgos reputacionales.

El problema, de nuevo, es que dada la inexistente relación entre el funcionamiento de los algoritmos generativos y los esquemas generalmente aceptados de corrección política, estos deben ser construidos ex-novo y superpuestos al algoritmo, es decir, mediante reglas específicas – y en cierto sentido, artificiales, es decir, ajenas a las correlaciones matemáticas que emergen de los datos con los que ha sido entrenado – que intenten mantenerla a toda costa para evitar los mencionados problemas.

Hablamos de condicionales de muchos tipos, que intentan recoger todas las situaciones posibles, y que buscan evitar determinadas respuestas que el algoritmo generaría, pero que se estiman inadecuadas. Las respuestas que un algoritmo proporciona tienen que ser, idealmente, diversas, independientemente de cómo lo sean los datos con los que fue entrenado, porque si no lo son, se acusará a la compañía de no ser políticamente correcta.

Para terminar de complicar el tema, resulta que cada vez que aparece un algoritmo y es puesto a disposición de los usuarios, muchos de ellos intentan, de manera completamente intencionada, buscar respuestas que desafíen la corrección política, para salir inmediatamente corriendo a airearlo en las redes sociales si efectivamente lo consiguen. Nada se cotiza más que pillar a un algoritmo en un posible renuncio: es una publicación con grandes posibilidades de convertirse en viral, y de proporcionar esos cinco minutos de fama a quien la publica.

Los efectos no tardan en surgir: Google acaba de pausar la generación de imágenes humanas en su algoritmo recién presentado Gemini, una evolución de Bard, porque tenía, aparentemente, una obsesión por la diversidad que le llevaba a generar una «superpoblación artificial» de imágenes de personas de color, le pidieses lo que le pidieses. Da lo mismo que le pidas que genere imágenes de «una familia blanca», «del Papa» o de «los padres fundadores de los Estados Unidos»… Gemini los convertirá en personas de color, en nativos americanos o de orígenes raciales diversos, o incluso se negará a generar imágenes que considere carecen de diversidad.

Dado que el resultado afecta únicamente a la generación de representaciones humanas, que son el sujeto de la corrección política, la decisión de Google ha sido, en primer lugar, disculparse y afirmar que, en efecto, su algoritmo está «errando el tiro» a la hora de combinar esa generación de personas con la protección de la corrección política, y ha terminado por pausar esa generación. ¿Por qué? Porque estaba generando reacciones iracundas, particularmente entre colectivos anti-woke, que interpretaban que los resultados eran exagerados y esencialmente anti-white, es decir, que a fuerza de intentar corregir un sesgo, adoptaban completamente el sesgo contrario.

El equilibrio es complejo, y más si combinamos dos cuestiones tan alejadas como el funcionamiento de la matemática con una serie de condiciones impuestas manualmente de manera arbitraria. Pero sobre todo, nos sugiere la que me parece una interesante discusión: ¿podemos, cuando una parte importantísima de la sociedad no es siquiera capaz de comportarse de manera políticamente correcta en todo momento, pedir a los algoritmos que lo hagan? ¿Tiene un algoritmo entrenado con datos que con seguridad no son políticamente correctos que generar resultados que sí lo sean? ¿Están justificados los escándalos que afean a las compañías esa falta de corrección política en algoritmos que acaban de ser puestos en producción? ¿No sería más productivo, en lugar de forzar a esas compañías a adoptar soluciones de emergencia a golpe de condicional manual, buscar soluciones para mejorar el entrenamiento de esos algoritmos a lo largo del tiempo?

Related Articles

Leave a Reply

Your email address will not be published. Required fields are marked *

Back to top button