PlayGround utiliza cookies para que tengas la mejor experiencia de navegación. Si sigues navegando entendemos que aceptas nuestra política de cookies.

C
left
left

Now

Esta inteligencia artificial es capaz de poner discursos falsos en la boca de cualquiera (y no lo notarías)

H

 

Desarrollan una herramienta que permite injertar formas de boca generadas por ordenador en el semblante de una persona que habla en una grabación de vídeo, y el resultado resulta creíble

A.O.

14 Julio 2017 14:24

Getty

Lo de no pongas en mi boca palabras que no he dicho parece que pronto va a adquirir un matiz distinto, mucho más literal, gracias a la Inteligencia Artificial. Unos investigadores de Washington han mostrado esa semilla con un vídeo manipulado de Barack Obama, tremendamente realista, en el que se ve al expresidente hablando. A primera vista todo parece normal. El problema es que eso que aparece diciendo en los vídeos no se corresponde con lo que realmente dijo en esas apariciones. Lo que le oyes decir está en realidad sacado de otros discursos que dio en el pasado, algunos de muy joven. La locución ha sido superpuesta de forma magistral. Viendo su gestualidad facial, cuesta sospechar que el discurso sea impostado.

La herramienta desarrollada permite tomar audios preexistentes de la persona a partir de los cuales la IA genera "formas de boca" que son injertadas en la grabación que se quiere manipular. Es decir, esa boca creada de forma artificial, que se mueve en sincronía con el audio de la locución que se quiere usar, se encaja en la "cabeza parlante" —en este caso de Obama— y se retoca la expresión facial hasta lograr un "injerto" convincente.



La inteligencia artificial está capacitada para ver una gran cantidad de vídeos y reconocer qué sonidos coinciden con las formas de los labios. Aprende de esas coincidencias y luego las aplica sobre el rostro de esa persona en la grabación que se quiere manipular. Se eligió al expresidente porque hay multitud de vídeos de él.

Los investigadores sostienen que el fin de esta tecnología es mejorar las videollamadas de Skype o de otras aplicaciones en las que hay un buen sonido pero una imagen de baja resolución. La red neuronal se encargaría de reconstruir esa imagen en tiempo real en base al sonido.

Más allá de esa buena fe de los investigadores, de la que no dudamos, no cuesta pensar en los riesgos de una herramienta así aplicada al arte de la desinformación interesada. No saber si lo que ves es real o no. Llevar la idea un paso más allá y no solo limitarse a poner en boca de alguien sus propios discursos pasados, sino palabras nuevas, totalmente inventadas. Palabras que nunca dijo, pero que aparecen enunciadas de tal manera en el vídeo de turno que parecen perfectamente ciertas. El poder destructivo de las 'fake news' se multiplicaría por 1.000.

¿Tenemos razones para asustarnos?

share