No creas lo que ves: Qué es el deepfake y cómo puede afectarte

No creas lo que ves: Qué es el deepfake y cómo puede afectarte

La palabra “deepfake” es un acrónimo de «deep learning» (aprendizaje profundo) y «fake» (falso), y puede traducirse como mentira profunda. Es una técnica de inteligencia artificial que permite editar videos falsos de personas que aparentemente son reales. Para lograrlo, utiliza algoritmos de aprendizaje no supervisados conocidos en español como RGAs (Red Generativa Antagónica) y vídeos o imágenes ya existentes, que permiten reemplazar, por ejemplo, la cara de una persona por otra en un video con bastante realismo. Este tipo de contenido se puede encontrar fácilmente en sitios de transmisión de videos en línea como Youtube.

Los deepfakes se pueden utilizar para crear noticias falsas y fraudes malintencionados; pero, el lado más oscuro de esta técnica es el empleo de caras de famosos o gente común en videos pornográficos. Un programa popular para crear estos videos falsos es FakeApp, que hace uso de Tensor Flow de Google, aplicación que permite a los usuarios crearlos y compartirlos fácilmente donde las caras de las personas son intercambiadas.

Esta aplicación necesita de al menos un puñado de fotos de la persona que queremos simular en video (cuantas más, mejor). La inteligencia artificial, por su parte, aprende de esas imágenes y es capaz de recrear un rostro sobre otro, como una máscara inteligente; y del mismo modo puede reorganizar los sonidos para que el sujeto pueda decir lo que se quiera.

Videos no reales

Los videos deepfake más creados son los que tienen como protagonista a una persona del espectáculo o la política, generalmente un actor que aparecerá en el vídeo falso diciendo algo que no dijo (generando falsas noticias), haciendo algo que no hizo (creando malentendidos) o participando en actos sexuales. No importa que el actor o personaje nunca haya realizado ese tipo de. Precisamente, lo que se persigue es crear el efecto, lo más realista posible.

Esta técnica fraudulenta tiene su origen en el mundo de la investigación con aplicaciones prácticas en el mundo del cine. El ejemplo más claro se dio en la última película de la saga Star Wars,  Rogue One: una historia de Star Wars (2016) donde Carrie Fisher, la conocida princesa Leia, ya había fallecido durante su rodaje, por lo que hubo que hacer uso de esta técnica para hacerla aparecer en la pantalla grande en las escenas que tenía pendiente grabar. 

Algoritmos detrás de las imágenes

Gracias a los algoritmos RGA se pueden generar fotografías que parecen auténticas a los ojos humanos. Por ejemplo, una imagen sintética (fabricada) de un gato que consiga engañar al discriminador (una de las partes funcionales del algoritmo), es probable que lleve a una persona cualquiera a aceptarla como una foto real.

Los deepfakes suelen estar limitados a personajes estáticos, que no se mueven demasiado, con un fondo sin demasiados detalles o desenfocado. Además, generalmente son videos que no están realizados con una buena resolución para que se puedan ver bien en la mayoría de los televisores actuales y muchas pantallas de teléfonos o tablets.

Del deepfake al deepnude

Deep Nude, era la polémica app que permitía “desnudar” a mujeres a través de tecnología  deepfake y que fue eliminada de las tiendas virtuales, hace unos días atrás, tras generarse un escándalo en los medios de comunicación sobre su potencial peligro de producir ataques sexuales. Los creadores de Deep Nude explicaron que el software fue lanzado hace varios meses para entretener y que subestimaron la demanda de la aplicación: “Nunca pensamos que sería viral y que no podríamos controlar el tráfico”, mencionaron.

Mientras que los vídeos deepfakes tardan horas en renderizar (proceso de generar una  foto realista desde un modelo 3D) esta aplicación permitía subir la imagen de una mujer con ropa y, en cuestión de segundos, crear una nueva de la misma persona desnuda. La plataforma ofrecía resultados bastante realistas y estuvo disponible a través de su web para Windows y Linux. Para usarla no se requería ningún tipo de conocimiento ya que era el algoritmo el que se encargaba de todo. 

Es, precisamente, en este algoritmo donde se encuentra la principal muestra de cómo este tipo de tecnología se usa de forma sexista en el porno, porque Deep Nude únicamente funcionaba con mujeres. Algo que, según explicó uno de sus creadores en una entrevista, se debía a que es mucho más fácil encontrar fotos de mujeres desnudas en internet que de hombres. Aunque la app fue cerrada, sus críticos expresaron preocupación de que algunas versiones del software sigan disponibles y puedan servir para abusos.

El “no” discurso de Mark Zuckerberg

Existen videos deepfake protagonizados por Barack y Michelle Obama, Vladimir Putin, Donald e Ivanka Trump, Jim Carrey, Gal Gadot, Emma Watson, Mark Zuckerberg, y entre otros.  

Precisamente, hace unos días comenzó a circular un vídeo por Instagram en el que aparece el CEO y fundador de Facebook, ofreciendo un desconcertante discurso sobre los planes que tiene su compañía con nuestros datos. En el vídeo vemos a Zuckerberg sentado en su escritorio, mientras que en la parte inferior aparece el clásico rótulo que incluyen los programa de noticias. 

De su boca salen la siguientes palabras: «Imagínese esto por un segundo: un hombre, con control total sobre los datos robados de millones de personas, todos sus secretos, sus vidas, su futuro. Se lo debo todo a Spectre, que me mostró que quien controla los datos, controla el futuro».

Aunque parece totalmente real, fue un nuevo caso de los llamados vídeos deepfakes. Se conoció que el vídeo fue creado por los artistas Bill Posters y Daniel Howe (en colaboración con la startup israelí CannyAI). Este nuevo video se creó utilizando unas declaraciones ofrecidas por Zuckerberg en 2017.

A pesar de que era evidente que este vídeo era falso, Facebook decidió no eliminarlo de su plataforma, afirmando que «no tienen una política que estipule que la información que se publica en Facebook deba ser verdad».

IA vs IA

Lo problemático del uso de esta tecnología es lo que los expertos en edición de video, en inteligencia artificial (IA) y los políticos coinciden: “no estamos listos para evitar la divulgación de estos contenidos”. Por eso, ya se está trabajando en sistemas que puedan identificar la manipulación para encontrar detalles que indiquen la falsedad de un rostro, una boca o alguna palabra, pero no son completamente efectivos.

Para combatir estos videos que preocupan tanto a políticos como a famosos, la mejor opción es otra inteligencia artificial. Un grupo de investigadores de dos Universidades de California ha desarrollado una herramienta que analiza la forma de hablar y gesticular de las personas y reconoce si el vídeo es real o está manipulado, El proyecto Protecting World Leaders Against Deep Fakes que ha sido financiado por Google y DARPA, la sección de investigación del Pentágono. 

Si te gustó nuestro blog, posts y noticias sobre relaciones públicas, reputación, social media, comunicación y sociedad digital, puedes unirte a la comunidad de Trend en Facebook, Twitter, Linkedin, Instagram, Soundcloud y YouTube. Y para mantenerte al tanto de nuestras últimas noticias, suscríbete a nuestro boletín digital aquí

El post No creas lo que ves: Qué es el deepfake y cómo puede afectarte aparece primero en el blog de Trend | Agencia de PR & Reputación. ¿Necesitas orientación o ayuda para tu marca en alguno de los temas que tratamos en este post? Comunícate con nosotros y te responderemos cuanto antes.