aiartificial intelligencedeepfakesfraudGeneralgenerativemarketingrobocalls

Ilegalizar el uso de voces generadas algorítmicamente en llamadas telefónicas

IMAGE: Paco Silva - Pixabay

Todo indica que la Federal Communications Commission (FCC) estadounidense está planteándose la criminalización el uso de inteligencia artificial generativa para la síntesis de voces en campañas de marketing telefónico, una medida que seguiría a un importante crecimiento en su uso para tratar de suplantar a personajes conocidos.

hace una semana, una campaña de llamadas fraudulentas con la voz de Joe Biden intentó convencer a entre cinco mil y veinticinco mil votantes del estado de New Hampshire para que no votasen en las elecciones primarias. El origen de la campaña es desconocido, pero los audios con la voz del presidente eran un deepfake generado algorítmicamente.

Clonar una voz a partir de unas cuantas muestras de la misma es, hoy en día, un proceso prácticamente trivial. De los primeros algoritmos que precisaban varios minutos de lectura de frases específicas, hemos pasado a otros que simplemente necesitan unos pocos segundos de una voz para lograr copiarla. En el caso de personajes públicos, dado que suele resultar enormemente sencillo obtener muestras de su voz, se han encontrado en muchos casos campañas que pretenden utilizarlos como forma de generar confianza en el interlocutor. Al unir esa tecnología con la algoritmia generativa, podemos encontrarnos con algoritmos conversacionales razonablemente convincentes.

En algunos casos, esas llamadas con voces clonadas están siendo utilizadas para hacer creer a personas que un familiar se encuentra en apuros y necesita dinero. Pero en otros, la intención es falsear, por ejemplo, la recomendación de un producto por parte de una persona famosa o influyente, evitando así que la marca tenga que pagar a esa persona por el uso de su voz.

Related Articles

La Telephone Consumer Protection Act (TCPA) de 1991 restringe en los Estados Unidos la realización de llamadas de telemarketing y el uso de sistemas de marcación telefónica automática con mensajes de voz artificiales o pregrabados sin previo consentimiento del receptor. Si ahora, además, se prohibe el uso de llamadas que utilizan voces clonadas, se aseguraría un marco legal razonable para ese tipo de actividades. ¿Tiene sentido tipificar como delito algo que es utilizado precisamente por delincuentes, cuya actividad está, por definición, al margen de la ley? Obviamente, eso no impide su uso ilegal, pero al menos, facilitaría la persecución posterior del delito y la imposición de unas penas adecuadas.

En cualquier caso, parece una medida bastante razonable. Cuando una tecnología como el clonado de voces se convierte en técnicamente sencilla y su uso predominante es para cometer fraudes, ilegalizar su uso, aunque no sea algo sencillo, parece una forma bastante lógica de intentar proteger a los consumidores del mal uso de esa tecnología.


This article is also available in English on my Medium page, «The time has come to ban robocalls using AI-generated voices«

Related Articles

Leave a Reply

Your email address will not be published. Required fields are marked *

Back to top button