aialgorithmartificial intelligencedangerGeneralgenerativemachine learningprivacyrisk

El peligroso negocio del amor pixelado

IMAGE: Open Clipart Vectors - Pixabay

Era simplemente cuestión de tiempo: en cuanto, en noviembre de 2022, apareció ChatGPT con sus en aquel momento sorprendentes capacidades para el diálogo, comenzaron a aparecer herramientas enfocadas en la creación de «parejas virtuales», algoritmos que interpretan el papel de una pareja, que puedes incluso supuestamente «construirte tú mismo«, con la que intercambiar conversaciones y mensajes.

Vendidas como «software y contenido desarrollado para mejorar tu estado de ánimo y bienestar», este tipo de aplicaciones son, según demuestra un informe de la Mozilla Foundation, un auténtico infierno para la privacidad, con un funcionamiento destinado a extraer la mayor cantidad de datos personales de todo tipo del usuario, ingentes e injustificadas cantidades de trackers de todo tipo, y políticas extremadamente poco claras que permiten una explotación prácticamente ilimitada de esos datos.

Los intentos de proveedores como OpenAI por evitar el desarrollo de este tipo de aplicaciones y retirarlas de sus plataformas chocan con la dificultad de identificarlas y de conceptualizar unas funcionalidades a menudo disfrazadas como «compañía virtual», y con unas acusaciones de «moralismo digital» que disfrazan intentos por crear otro ámbito más, y especialmente potente, para la captación y explotación de datos del usuario. En este caso, hablamos de conversaciones que abundan en aspectos personales de todo tipo, supuestamente encuadrados dentro de los que suelen ser considerados datos de especial protección, pero que el usuario suministra voluntariamente en el contexto de conversaciones con las que busca algún tipo de sustitutivo de una relación personal. La cuestión es tan obvia, que hasta duele: en cuanto «confiesas» cualquier cosa a tu «pareja virtual», tu información sale directamente para ser vendida a todo aquel que tenga interés en ella. Básicamente, como el llamado pig butchering scam, pero hecho legalmente.

Algoritmos que preguntan por preferencias y deseos íntimos, que animan al usuario a compartirlos creando una supuesta cercanía que invita a la confidencia, y que pueden ser posteriormente vendidos al mejor postor bien directamente, o con un simple cambio en el clausulado que el usuario ha autorizado a que puedan llevarse a cabo de manera completamente unilateral. Preguntas relacionadas con la salud sexual, con el uso de medicamentos, con la identidad sexual o con cuestiones íntimas de todo tipo por el que directivos de marketing sin el más mínimo escrúpulo están dispuestos a pagar.

Related Articles

Básicamente, la reinvención de la industria del espionaje online, pero en un entorno, el de las relaciones personales, que posibilita la explotación de información ya no personal, sino directamente íntima. Si de verdad te sientes solo o sola y quieres recurrir a una de esas «relaciones virtuales», como mínimo haz lo que no sueles hacer nunca cuando te instalas una nueva app: lee bien los términos de servicio, y ante la más mínima duda, no la instales. Aunque en realidad, estás harto de saberlo: si alguien te dice que te va a proporcionar una supuesta pareja, confidente y hasta terapeuta sexual sin cobrarte nada por ello… nos hemos hartado de decirlo ya: el producto eres tú.


This article is also available in English on my Medium page, «The dangerous business of pixelated love«

Related Articles

Leave a Reply

Your email address will not be published. Required fields are marked *

Check Also
Close
Back to top button