censorshipcommentscontentcontent curationelon muskGeneralmoderationparticipationTwitter

Racionalizando la participación en redes sociales

IMAGE: Clker Free Vector Images - Pixabay

Mi columna de esta semana en Invertia se titula «Los dilemas de la moderación de contenidos» (pdf), y trata de explicar cuáles son las variables implicadas en el desarrollo de un sistema de gestión de la participación y de moderación de contenidos en redes sociales, al hilo de los retos que Elon Musk va a encontrarse tras la adquisición de Twitter.

¿Dónde está el dilema fundamental de la moderación de contenidos? Sobre todo, en darse cuenta de que el idealismo on funciona. Los fundadores de Twitter tardaron muchos años en darse cuenta de ello, y consiguieron el dudoso mérito de convertir su plataforma en un cenagal de insultos, acoso y falsedad hasta que abandonaron su idea de ser «the free speech wing of the free speech party» y comenzaron a plantearse políticas de supervisión, que en su caso, nunca llegaron a ser ni siquiera mínimamente adecuadas. En la Twitter que conocimos antes de la adquisición de Musk, la moderación era tremendamente deficiente, había acusaciones de sesgo y de censura constantes, y los mecanismos sociales de denuncia no funcionaron jamás. Era, claramente, una compañía muy mal gestionada en ese sentido.

¿Qué pasa cuando los mecanismos de moderación no funcionan? Pues básicamente que terminas siendo tildado de censor, con todos los usuarios descontentos en un ambiente malsano, y con muchas voces censuradas de facto por temor a los insultos y a las amenazas de las tweet storms. Ese es, en la práctica, el retrato de una Twitter que llegó a perder muchísimo valor, oportunidades y dinero por el hecho de no saber gestionar este tipo de cosas. El número de personas y de anunciantes que restringieron o eliminaron su actividad en Twitter por temores relacionados con su causticidad y toxicidad ha sido, históricamente, muy elevado, y ha jugado un papel importante en la trayectoria que ha culminado con su adquisición. Si Twitter hubiera estado bien gestionada en ese sentido, Musk no se habría planteado hacerse con ella.

Cuando llega Musk, muchos interpretan por sus declaraciones que va a convertir Twitter en un «free for all», en un «vale todo». De hecho, la campaña de trolling que se desencadena, rápidamente identificada y acotada, pretendía hacer cundir esa imagen de descontrol, de ley del más fuerte, de «hemos ganado», impulsada por grupos radicales. Pero obviamente, nadie compra una plataforma para hacer disminuir drásticamente su valor y convertirla en una pocilga maloliente, y Musk menos que nadie. La campaña fue rápidamente controlada, las cuentas eliminadas, y Twitter volvió a ser lo que era, que tampoco era un gran mérito considerando la mala situación de partida.

Related Articles

¿Dónde están las claves del futuro de Twitter? Sobre todo, en la forma de controlar el vínculo cuenta – usuario. Recurrir a una idea tan primaria como «identifíquese fehacientemente si quiere tener una cuenta» no funciona, porque deja fuera a todos aquellos que, por la razón que sea y en muchos casos muy justificada, necesitan actuar bajo un seudónimo o protegerse en el anonimato. El anonimato es y debe ser un derecho, y una compañía que lo permita pero que conozca la identidad de quien está detrás tiene un problema: en algunos países, el gobierno puede reclamar las identidades de aquellos que utilizan cuentas que les resultan molestas. Aquí, obviamente, hay que diferenciar a quienes cometen delitos de cualquier tipo y cuya identidad puede, por tanto, ser reclamada de manera legítima por la justicia, de otras que deben ser protegidas porque simplemente son opositores al poder político o pertenecen a grupos perseguidos por razones ideológicas, religiosas o culturales.

Los matices de este tipo son fundamentales: ¿debemos entregar a la justicia la información que permite identificar a un usuario que utiliza su cuenta para perturbar el orden público, lanzar bulos, difamar o intoxicar? ¿Y a una persona que opina sobre el fundador de la patria? ¿Y qué hacer con un usuario que pertenece al colectivo LGTBI+ pero vive en un país en el que determinados hábitos sexuales son considerados pecaminosos o ilegales? Los aspectos culturales y los fueros legales de cada país son fundamentales aquí, y sitúan a las compañías, en no pocas ocasiones, en dilemas muy importantes y sensibles.

¿Cuál es la mejor manera de gestionar la identidad y la participación? Muy posiblemente, recurriendo a lo que apunta a convertirse en el mecanismo de identificación de la llamada Web3: la criptografía. Algunas aplicaciones ya comienzan a ofrecer a sus usuarios la posibilidad de identificarse mediante un wallet: ¿a qué nivel se popularizaría este mecanismo si fuese Twitter quien lo adoptase y ofreciese? ¿Podríamos contar con una Twitter que, aprovechando el efecto pionero, se convirtiese en una suerte de «identificador universal» en la Web3? Lo mismo puede apuntarse de posibilidades como la incorporación de criptomonedas o NFTs para la creación cultural o los intercambios económicos, y el hecho de que el único miembro del consejo de Twitter que ha trasladado su participación a la nueva compañía dirigida por Musk sea precisamente Jack Dorsey, fundador de Block, Inc. (antes Square), puede tener bastante que ver con ello. Es muy posible que la transición de Twitter para convertirse en un servicio en la Web3 sea uno de los ejes fundamentales de su transformación – pero esto, por el momento, no son más que hipótesis.

A partir de aquí, podemos hablar de la moderación de contenidos: «free for all», claramente, no tiene ningún sentido, como no lo tiene la ley de la selva o el que mande más el que más grita. La ausencia de moderación favorece al radical, al salvaje, al que más transgrede los códigos generalmente aceptados en la sociedad, y tiende a cancelar al que intenta preservarlos como elemento importante de la interacción social. ¿Qué se debe eliminar? Claramente, aquello que transgrede unas normas de interacción sociales básicas (insultos, amenazas, acoso, etc.), que desfavorece a colectivos desprotegidos, o que atenta contra el orden social de una manera evidente. La identificación de la cuenta es fundamental, dado que si se elimina el contenido y se permite fácilmente que los implicados reaparezcan con otras identidades y mantengan su conducta, no se consigue nada más que desacreditar el sistema de moderación. Básicamente, lo fundamental es que quien la haga, la pague y no desaparezca o reincida (accountability, o rendición de cuentas). Algo más fácil de decir que de hacer, pero que está en la base del funcionamiento de las sociedades humanas, y que es fundamental replicar en entornos participativos en la red.

Todo ello, además, sazonado con las necesarias dosis de la paradoja de la intolerancia popperiana, y con la necesidad de eliminar sesgos que lleven a asociar la política de moderación con algún tipo de manifestación ideológica. Complejo, sí, pero necesario. Difícil de obtener, más difícil aún de escalar y de hacer resiliente, y un reto para cualquiera que pretenda gestionar una plataforma participativa.

Pronto empezaremos a ver cómo se le dan todas estas cosas a la Twitter de Musk.

Related Articles

Leave a Reply

Your email address will not be published. Required fields are marked *

Back to top button