biometricD-IDdeepfakesfacefacial recognitionGeneralGil Perryidentificationmyheritageprivacysecurityvideo

Dominando la expresión facial

Sí, el de la foto es Abraham Lincoln. Y sí, la foto está coloreada a partir de un original, lógicamente, en blanco y negro.

Pero es que además, ahora podemos ver la fotografía animada: un algoritmo se ha encargado de superponer a la fotografía el contenido de otro vídeo, en el que otra persona locuta un anuncio de MyHeritage. Para ello, se ha utilizado tecnología de D-ID, una compañía israelí a uno de cuyos fundadores, Gil Perry, conocí hace un par de años en Netexplo, y de la que ya hablé en alguna otra ocasión. El resultado, en este caso específico, es aún un poco «sintético», pero la posibilidad de poner a la figura histórica que se te pase por la imaginación a grabar un anuncio para tu compañía es algo que, no me cabe la menor duda, nos vamos pronto a hartar de ver explotado en un buen montón de ocasiones.

frameborder=”0″ allow=”accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture” allowfullscreen>

La tecnología utilizada se explica perfectamente en este otro vídeo, en el que varias fotografías estáticas – una de ellas la del propio Perry – son animadas mediante lo que se denomina un driver video, y pasan a replicar de manera sumamente convincente no solo el movimiento de los labios que conlleva la vocalización de sus palabras, sino también otra serie de gestos faciales.

frameborder=”0″ allow=”accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture” allowfullscreen>

Hablamos, claramente, de la posibilidad de tomar cualquier imagen, y superponer sobre ella cualquier gesto en animaciones que pueden resultar muy convincentes, con todo lo que ello conlleva: desde una foto de un familiar que conviertes en animada y pasa a proyectar una evocación con una fuerza muchísimo mayor que una imagen estática, hasta los consabidos deep fakes, pero también cuestiones que van mucho más allá, desde eliminar la imagen de una persona cuya identidad se quiere proteger cuando hace una confesión o unas declaraciones, hasta utilizar actores – vivos o muertos – para crear planos que nunca han rodado, o incluso generar para ellos una vocalización en otro idioma que resulte natural cuando pasan por un proceso de doblaje.

En otro vídeo, el CEO de la empresa de ciberseguridad biométrica y comportamental BioCatch lleva a cabo una supuesta «entrevista» al conocido ladrón de bancos Willie Sutton, muerto hace más de cuarenta años, partiendo simplemente de una fotografía suya.

Ya no hablamos simplemente de deepfakes: ahora hablamos de la posibilidad de tomar la imagen de cualquiera, lo que más nos identifica visualmente como personas, y manipularla con relativa sencillez haciendo que replique los gestos que en un vídeo hace otra persona. Tras años tratando de entender la esencia de la biometría, ahora hemos pasado ya a la posibilidad de aplicar deep learning para tomar cada uno de sus componentes sus componentes y recrear con ellos imágenes sintéticas razonablemente creíbles, con sus muecas, con las arrugas de su cara si se ríe o gesticula, lo que abre nuevas posibilidades… de todo tipo.

El avance de la biometría y del deep learning es sencillamente brutal. Hemos sabido no solo abrir el juguete, sino que además, hemos entendido cómo funciona, y ahora podemos aplicarlo a cualquier cosa que nos dé la gana. Como sociedad, es posible que nos lleve un cierto tiempo entender que todo este tipo de manipulaciones sintéticas son ya no solo posibles, sino además, razonablemente sencillas.


Related Articles

Leave a Reply

Your email address will not be published. Required fields are marked *

Back to top button