aiartificial intelligencecampaignelectionsGeneralgenerativemachine learningpolitics

Imágenes sintéticas y manipulación electoral

IMAGE: New Zealand National Party ad

Un interesante y bien documentado artículo en The New York Times, «A.I.’s use in elections sets off a scramble for guardrails«, plantea la interesante cuestión del uso de imágenes creadas sintéticamente para ilustrar mensajes políticos en campañas electorales.

La imagen que acompaña a este artículo fue creada por el partido conservador New Zealand National Party, y es un claro ejemplo de ello: una imagen sintética de una serie de ladrones enmascarados robando en una joyería. La imagen no pretende engañar a nadie, su naturaleza sintética es relativamente fácil de detectar, pero obtiene su propósito: evocar temores y generar una imagen mental determinada que, en la mente de muchos votantes, apela a sus peores temores y es imposible de borrar.

Del mismo modo, hemos visto imágenes sintéticas en la campaña a la alcaldía de Toronto de Anthony Furey, un candidato conservador que utiliza ilustraciones generadas algorítmicamente en las que muestra una perspectiva distópica de su ciudad asolada por la pobreza o por homeless que acampan en los parques públicos. O en la de los republicanos norteamericanos, que crean vídeos en los que ilustran mediante algoritmos lo que anuncian que sería un futuro de guerra con China invadiendo Taiwan, inmigrantes entrando libremente por la frontera de México, cientos de bancos quebrando y oleadas de crímenes en las calles.

El uso de algoritmia en las campañas políticas va mucho más allá de pedir a un algoritmo generativo que escriba mensajes personalizados a los votantes, y entra en la posibilidad de generar fácilmente y sin ningún tipo de control o bloqueo sociocultural cientos o miles de imágenes falsas que evoquen problemas que muchos consideran peligros tan inenarrables como las plagas de Egipto, con el fin de construir evocaciones que puedan afectar el sentido de su voto. Algo que podía hacerse mediante ilustraciones, dibujos o con una buena narrativa catastrofista, pero que al trascender al espacio de la imagen real se convierte en un arma para el engaño potencialmente mucho más peligrosa.

Los peligros de los algoritmos no es que tomen conciencia de sí mismos y decidan acabar con la humanidad, sino que la propia humanidad los use para hacer el imbécil y acabar consigo misma. ¿Cómo «vacunar» al electorado para que entiendan que esas imágenes con las que van a ser bombardeados son completamente sintéticas, falsas, y no deberían afectar, por tanto, su juicio a la hora de emitir el voto?

Related Articles

Leave a Reply

Your email address will not be published. Required fields are marked *

Back to top button