Celulares, smartphones y tablets

Este vídeo deepfake en español es tan bueno que mucha gente caerá en su estafa: logra que el Telediario de La1 nos la cuele

Hace poco, te hablábamos del auge de los timos publicitados en redes sociales y supuestamente protagonizados por ‘celebrities’ españolas, desde Resines hasta la Familia Real, que se basan en supuestas capturas de declaraciones televisivas, a veces acompañadas de (falsas) entrevistas publicadas en medios, para promocionar campañas de phishing, estafas piramidales o

Ahora, en un nuevo y alarmante caso de desinformación y fraude online, hemos localizado, circulando por Facebook, un vídeo que presenta a destacadas figuras públicas —como la hija de Amancio Ortega o el gobernador del Banco de España— promocionando las excelencias de un presunto proyecto financiero revolucionario, liderado el presidente de Inditex que ofreceenormes  ganancias a todos sus usuarios.

Ana Blanco lo dice y Marta Ortega lo confirma, ¿cómo va a ser mentira?

El vídeo en cuestión ha estado circulando en las redes sociales, atrayendo la atención de miles de usuarios que buscan ‘oportunidades financieras’, se presenta como un fragmento de una emisión del telediario de La 1, y recoge supuestas declaraciones de la hija de Amancio Ortega o del gobernador del Banco de España vendiendo las excelencias del proyecto.

{“videoId”:”x8qkbu3″,”autoplay”:true,”title”:”Timo deepfake sobre Amancio ortega”, “tag”:””}

En el vídeo, Ana Blanco, presentadora de noticias de TVE, afirma que “Hasta finales de diciembre todos los españoles podrán aumentar sus 260 euros a 26.000 euros garantizados”. A continuación, se aclara que los usuarios sólo tienen que comprobar el saldo “por la mañana y por la noche, eso es todo” porque las “tecnologías de redes neuronales” se encargan de todo.

Todo ello, con lo que parecen ser las voces reales de los protagonistas del vídeo. Sin embargo, esa noticia nunca se ha emitido en TVE, ni esas declaraciones se han realizado nunca: estamos ante un caso de deepfake generado mediante IA.

Por la boca muere el pez

¿Qué podemos hacer?

El auge de los deepfakes y la atención mediática en torno a ellos comenzó mucho antes de la actual edad dorada de las plataformas de IA, aunque es cierto que con el tiempo los resultados han ido mejorando (ojo a esa sincronización boca/sonido) al tiempo que se reducían el dinero y/o los conocimientos necesarios para realizar estos vídeos falsos.

De hecho, hace ya tres años que Synthesia, por ejemplo, nos ofrecía ‘guionizar’ vídeos de actores (éstos, anónimos) con IA.

¿Qué podemos hacer, entonces, los usuarios que nos vemos expuestos a esta clase de desinformación? Bueno, pues…

En Genbeta | Ya podemos generar vídeos con IA en minutos y preocupa: así es la nueva estafa que usa un deepfake muy realista de MrBeast

(function() { window._JS_MODULES = window._JS_MODULES || {}; var headElement = document.getElementsByTagName(‘head’)[0]; if (_JS_MODULES.instagram) { var instagramScript = document.createElement(‘script’); instagramScript.src = ‘https://platform.instagram.com/en_US/embeds.js’; instagramScript.async = true; instagramScript.defer = true; headElement.appendChild(instagramScript); } })();


La noticia Este vídeo deepfake en español es tan bueno que mucha gente caerá en su estafa: logra que el Telediario de La1 nos la cuele fue publicada originalmente en Genbeta por Marcos Merino .