censorshipcommentselon muskGeneralmoderationTwitteryoutube

La moderación de contenidos y sus dilemas

IMAGE: Sabine Kroschel - Pixabay

Poco tiempo le ha llevado a Elon Musk darse cuenta, tras la adquisición de Twitter, de que las cosas no suelen ser tan sencillas como se ven desde fuera. Hoy, tras haber anunciado a principios de noviembre que su compromiso con la libertad de expresión era tan significativo que no eliminaría ni siquiera la cuenta de Twitter que publicaba los movimientos de su avión privado, la compañía ha suspendido más de veinticinco cuentas que se dedicaban al seguimiento de aviones privados de multimillonarios, incluido, por supuesto, el de Elon Musk.

Hablamos de cuentas automatizadas que utilizaban datos de dominio público sobre seguimiento de vuelos y que permitían seguir en tiempo real las rutas que estos aviones privados llevaban a cabo, pero que Musk había calificado como un riesgo para su seguridad personal. Aunque los datos siguen estando públicamente disponibles, la idea de que estuviesen tan fácilmente visibles en una cuenta de Twitter ha terminado, aparentemente, con la tolerancia de Musk.

¿Cuál es el verdadero dilema de la moderación de contenidos? Algo que conocemos todos los que hayamos, en algún momento, tenido que administrar una plataforma de comunicación, por pequeña y modesta que sea. Pura y simplemente, la naturaleza humana. Desarrolla una plataforma para la comunicación entre personas, e inmediatamente te encontrarás con que algunas de esas personas comienzan a poner a prueba los límites de esa comunicación en todas las variaciones posibles, y con todos los subterfugios imaginables. Si además hablamos de plataformas que no impiden la creación de cuentas múltiples, el problema será mayor, porque al dilema que supone la creación de reglas lo más razonables posibles, seguirá el de cómo poner en vigor esas normas evitando que quien las viola, simplemente vuelva a la plataforma con una nueva cuenta.

Si tratas de utilizar moderadores humanos, es evidente que tendrás problemas de todos los colores: interpretación de las normas, traumas y exposición excesiva a contenidos nocivos, control de la actividad, y. todo tipo de cuestiones derivadas de una actividad que, simplemente, no escala, porque aunque la actividad en las redes escala en muchas ocasiones de manera exponencial, las personas no. La única forma de escalar la moderación de contenidos es renunciando a la supervisión humana y optando por la aplicación de algoritmos, con todo lo que ello conlleva. Hasta no hace demasiado tiempo, la moderación algorítmica era prácticamente anatema y muy fácil de engañar simplemente recurriendo a variaciones de términos, palabras escritas con modificaciones intencionadas o uso de la ironía, lo que convertía su uso en prácticamente un recurso desesperado para poder decir que «se hacía algo» al respecto.

Ahora, el permanente avance en el machine learning y en la interpretación del lenguaje parece abrir nuevas posibilidades: YouTube, conocida por la fortísima toxicidad de sus hilos de comentarios, acaba de anunciar que enviará notificaciones a sus usuarios en tiempo real cuando publiquen un comentario considerado abusivo, y que tomarán además las acciones restrictivas adecuadas en caso de reincidencia, tales como la suspensión de cuentas. Robots encargados de pastorear a los humanos, controlar su comportamiento y darles con la vara cuando se salen del espacio designado.

¿Tiene sentido tomar acciones cuando cualquier usuario sancionado solo tiene que crear una nueva cuenta para poder volver al mismo hilo e insertar otro comentario? El dilema de la moderación de contenidos continúa, obviamente, con la identidad de los usuarios: si permites anonimato sin ningún tipo de traba y lo asocias con un derecho de las personas, estarás protegiendo a quienes precisan de ese anonimato para poder expresarse, pero a su vez, estarás posibilitando que muchos energúmenos lo utilicen para esconderse o para crear tantas cuentas como les vayas prohibiendo. Y ni siquiera impedirá que algún empleado filtre, a su conveniencia, los datos que la compañía tenga disponibles de las cuentas anónimas correspondientes.

¿Por dónde empezar? El problema de la identidad y de la eliminación de las cuentas falsas o automatizadas ya supone, de por sí, un problema importante y de solución complejísima. Si a eso añadimos el de la moderación de contenidos con la escala de las redes sociales, estamos en la práctica creando un nudo gordiano de proporciones bíblicas, que por el momento, se ha probado prácticamente imposible de resolver. Convertir los servicios en algo restringido para quien paga (y, por tanto, verifica su identidad en modo similar a las normas KYC de los servicios financieros) es una forma de introducir algo de fricción en la actividad de quienes intentan burlar las reglas, como lo es el plantearse portar los servicios a la Web3, en la que la gestión de la identidad pasa, por lo menos, a ofrecer otras posibilidades, pero estamos hablando aún en el terreno de las hipótesis.

Problemas difíciles, soluciones complejas. Por ahora, lo único que sabemos es que desde la barrera, los toros se disfrutaban mucho más.

Related Articles

Leave a Reply

Your email address will not be published. Required fields are marked *

Back to top button