aiartificial intelligenceBrad Smithdeepfakesfakefake newsGeneralgenerativemachine learningmicrosoftvideo

Herramientas de generación de vídeo… y sentido común

IMAGE: Brad Smith (Microsoft's President)

Esta entrada del presidente de Microsoft, Brad Smith, en uno de sus blogs corporativos, «Combating abusive AI-generated content: a comprehensive approach«, me ha parecido que está llena de sentido común, y que toca además los temas que debe tocar, pero tomando las precauciones adecuadas.

La reciente progresión de las herramientas algorítmicas de generación de vídeo como Sora, la última iteración de OpenAI es, a todas luces, impresionante. Sin estar aún disponible para los usuarios, la red se ha llenado rápidamente de ejemplos de increíbles vídeos que lo ilustran, y que la compañía afirma haber publicado sin ningún tipo de modificación, tal y como salieron del algoritmo. Algo que es a la vez impresionante, por lo que tiene de brillante desarrollo tecnológico; y también terrorífico, por las posibilidades que ofrece para la generación de todo tipo de deepfakes con usos de cualquier tipo, desde el revenge porn hasta la política o las fake news.

Obviamente, a partir del momento en que este tipo de herramientas pueden ser desarrolladas, no hacerlo por temor a un posible mal uso sería absurdo, y solo conseguiría que estuviesen disponibles solo para unos pocos. Pero si hay algo evidente en este momento es que, como dice el propio Smith en su artículo, «necesitamos que las personas entiendan que no pueden creerse cada video que ven o cada audio que escuchan». Obviamente, esto es más fácil decirlo que conseguirlo, y requiere de algunos compromisos de tipo tecnológico, regulatorio y educativo.

Desde el punto de vista tecnológico, las compañías que desarrollan este tipo de herramientas tienen que adquirir compromisos claros e inequívocos para tener arquitecturas robustas capaces de prevenir y detectar el abuso, de llevar a cabo prácticas de red teaming constantes, bloqueo de prompts considerados abusivos y expulsión de usuarios que hagan un mal uso de sus herramientas.

Además, tienen que facilitar el reconocimiento de los contenidos que generan, incorporando formas de marcarlo mediante metadatos, fingerprinting y marcas de agua que informen de su procedencia y su historial de modificaciones, de forma que esas marcas no puedan ser fácilmente eliminadas o modificadas.

Detectar y evitar rápidamente usos abusivos, como ocurrió hace un par de semanas con el caso de Taylor Swift, como ocurre con las estafas que simulan la voz de un familiar o un compañero de trabajo, o como en los casos de revenge porn. El equilibrio entre libertad de expresión y usos claramente fraudulentos o directamente censurables tiene que estar claro, y esos contenidos tienen que poder ser identificados y eliminados por la vía rápida.

La colaboración entre compañías de la industria, y con gobiernos, reguladores y la sociedad civil en general es fundamental, como lo es el desarrollo de una legislación adecuada que proteja a los ciudadanos del mal uso de estas herramientas, con el fin de que podamos proteger a las personas al tiempo que se respetan cuestiones como la protección de la libre expresión y de la privacidad personal.

Por último, pero por supuesto, no menos importante, la parte que me toca directamente: la educación. Es preciso que la sociedad en su conjunto sea consciente de la existencia de este tipo de herramientas, de la necesidad de ejercitar el tan maltratado pensamiento crítico en todo momento, en el uso de la responsabilidad a la hora de compartir contenidos, y en las consecuencias de vivir en un mundo en el que los criterios que llevamos toda la vida considerando adecuados y suficientes, simplemente, han dejado de serlo.

Me ha parecido un buen artículo, una buena enumeración de medidas, y una buena demostración de sentido común. Que desgraciadamente, en nuestra sociedad, tiende en muchos casos a ser el menos común de los sentidos.


This article is also available in English on my Medium page, «How to take a common-sense approach to video creation tools«

Related Articles

Leave a Reply

Your email address will not be published. Required fields are marked *

Back to top button