fbpx
+51 991 664 782 info@trend.pe
No todo es malo: las buenas prácticas del deepfake

No todo es malo: las buenas prácticas del deepfake

Los videos deepfakes más creados y usados son los que tienen como protagonista a un actor o a un político diciendo algo que no dijo (generando falsas noticias), haciendo algo que no hizo (creando malentendidos) o participando en actos sexuales (videos pornográficos). Sin embargo, no todos los usos de esta tecnología basada en Inteligencia Artificial (IA) son negativos, algunos pueden tener una aplicación legítima para el entretenimiento, educación e incluso la salud.

Origen cinematográfico

Esta técnica fraudulenta tiene su origen en el mundo de la investigación con aplicaciones prácticas en el mundo del cine. Un ejemplo reciente lo tenemos en la última película de la saga Star Wars,  Rogue One: una historia de Star Wars (2016) donde Carrie Fisher, la conocida princesa Leia, ya había fallecido durante su rodaje, por lo que hubo que hacer uso de esta técnica para hacerla aparecer en la pantalla grande en las escenas que tenía pendientes grabar. 

Otro ejemplo claro lo tenemos en el 2010 con la cinta Tron Legacy, secuela de la película Tron, de 1982, que destacó en su tiempo por sus efectos especiales y animaciones computarizadas que recrearon la historia de Kevin Flynn (Jeff Bridges) quien es absorbido al ciber mundo digital intrínseco en una máquina de videojuegos, quedando atrapado en él. 

La dificultad -debido al guión- surgió en Tron Legacy porque no solo tenía que aparecer el personaje de Jeff Bridges viejo, sino también el joven, representando un avatar computarizado llamado Clu, copia y calco de Kevin Flynn, que no ha envejecido. El problema se resolvió con un actor que tuvo que interpretar el cuerpo de Clu durante la película y al cual se le superpuso una recreación digital de un joven Jeff Bridges, creado desde imágenes del rostro del actor en su juventud. 

El uso de tácticas de inteligencia artificial (IA) por medio del deepfake dio como resultado un transplante de cabeza por métodos digitales, que prácticamente adjudica a cada actor la facultad de interpretar casi cualquier papel a cualquier edad. Bridges días antes del estreno de la cinta declaró sentirse asombrado por haber encontrado un santo grial de la eterna juventud. “Es rarísimo. Es una noticia maravillosa para mí, porque ahora significa que puedo interpretarme a mí mismo a cualquier edad”, sostuvo.

Deepfakes para diagnósticos médicos

Estudios recientes de investigadores del Instituto de Informática Médica de la Universidad de Lübeck (Alemania) han propuesto un nuevo uso de estas prácticas tecnológicas. Según la investigación, los algoritmos de un deepfake podrían sintetizar imágenes altamente realistas que podrían tener beneficios importantes para el diagnóstico médico.

“Estos algoritmos son excelentes para la coincidencia de patrones en imágenes; porque pueden entrenarse para detectar diferentes tipos de cáncer en una tomografía computarizada, diferenciar enfermedades en las resonancias magnéticas e identificar anomalías en una radiografía”, sostiene el informe de dicha investigación.

Impartir clases mediante deepfakes

El auge de las plataformas de MOOCs (acrónimo en inglés de Massive Online Open Courses o cursos online masivos y abiertos, es decir cursos a distancia, accesibles por internet al que se puede apuntar cualquier persona y prácticamente no tiene límite de participantes) han provocado un aumento de la producción de vídeos destinados a fines educativos, pero que estos tengan un aspecto profesional requiere de una gran inversión en materiales y tiempo de grabación y edición, así como de una adecuada selección de localizaciones.

Dos investigadores de la plataforma de e-learning Udacity, Byung-Hak Kim y Varun Ganapathi, analizaron que podría resultar rentable buscar un modo de abaratar y al mismo tiempo agilizar la creación de esta clase de videos. Y lo lograron recurriendo a la inteligencia artificial para generar automáticamente nuevos vídeos a partir de una muestra de imágenes y un archivo de audio con la lección en cuestión.

Es decir se valieron de las técnicas de los deepfakes. “Con el método actual de elaboración de clases, un sistema de IA que automatice parcial o totalmente la generación de vídeos de lecciones podría ser extremadamente más beneficioso que volver a grabar cada vídeo de nuevo”, sostuvieron los especialistas.

Deepkafes y la ética

Según David Bray, director ejecutivo de la Human Centered Internet Coalition, “deberíamos pensar en códigos de ética para diferentes temáticas tecnológicas. La idea es que las personas que trabajan en este sector, como ocurre en la medicina o el derecho, tengan un código de ética independiente al que mantienen las organizaciones o empresas para que sin importar dónde se empleen, apliquen cosas como pedir permiso antes de usar los datos de algún usuario o no usar la información para herir a las personas”.

Si te gustó nuestro blog, posts y noticias sobre relaciones públicas, reputación, social media, comunicación y sociedad digital, puedes unirte a la comunidad de Trend en Facebook, Twitter, Linkedin, Instagram, Soundcloud y YouTube. Y para mantenerte al tanto de nuestras últimas noticias, suscríbete a nuestro boletín digital aquí

El post No todo es malo: las buenas prácticas del deepfake aparece primero en el blog de Trend | Agencia de PR & Reputación. ¿Necesitas orientación o ayuda para tu marca en alguno de los temas que tratamos en este post? Comunícate con nosotros y te responderemos cuanto antes.

 

No creas lo que ves: Qué es el deepfake y cómo puede afectarte

No creas lo que ves: Qué es el deepfake y cómo puede afectarte

La palabra “deepfake” es un acrónimo de “deep learning” (aprendizaje profundo) y “fake” (falso), y puede traducirse como mentira profunda. Es una técnica de inteligencia artificial que permite editar videos falsos de personas que aparentemente son reales. Para lograrlo, utiliza algoritmos de aprendizaje no supervisados conocidos en español como RGAs (Red Generativa Antagónica) y vídeos o imágenes ya existentes, que permiten reemplazar, por ejemplo, la cara de una persona por otra en un video con bastante realismo. Este tipo de contenido se puede encontrar fácilmente en sitios de transmisión de videos en línea como Youtube.

Los deepfakes se pueden utilizar para crear noticias falsas y fraudes malintencionados; pero, el lado más oscuro de esta técnica es el empleo de caras de famosos o gente común en videos pornográficos. Un programa popular para crear estos videos falsos es FakeApp, que hace uso de Tensor Flow de Google, aplicación que permite a los usuarios crearlos y compartirlos fácilmente donde las caras de las personas son intercambiadas.

Esta aplicación necesita de al menos un puñado de fotos de la persona que queremos simular en video (cuantas más, mejor). La inteligencia artificial, por su parte, aprende de esas imágenes y es capaz de recrear un rostro sobre otro, como una máscara inteligente; y del mismo modo puede reorganizar los sonidos para que el sujeto pueda decir lo que se quiera.

Videos no reales

Los videos deepfake más creados son los que tienen como protagonista a una persona del espectáculo o la política, generalmente un actor que aparecerá en el vídeo falso diciendo algo que no dijo (generando falsas noticias), haciendo algo que no hizo (creando malentendidos) o participando en actos sexuales. No importa que el actor o personaje nunca haya realizado ese tipo de. Precisamente, lo que se persigue es crear el efecto, lo más realista posible.

Esta técnica fraudulenta tiene su origen en el mundo de la investigación con aplicaciones prácticas en el mundo del cine. El ejemplo más claro se dio en la última película de la saga Star Wars,  Rogue One: una historia de Star Wars (2016) donde Carrie Fisher, la conocida princesa Leia, ya había fallecido durante su rodaje, por lo que hubo que hacer uso de esta técnica para hacerla aparecer en la pantalla grande en las escenas que tenía pendiente grabar. 

Algoritmos detrás de las imágenes

Gracias a los algoritmos RGA se pueden generar fotografías que parecen auténticas a los ojos humanos. Por ejemplo, una imagen sintética (fabricada) de un gato que consiga engañar al discriminador (una de las partes funcionales del algoritmo), es probable que lleve a una persona cualquiera a aceptarla como una foto real.

Los deepfakes suelen estar limitados a personajes estáticos, que no se mueven demasiado, con un fondo sin demasiados detalles o desenfocado. Además, generalmente son videos que no están realizados con una buena resolución para que se puedan ver bien en la mayoría de los televisores actuales y muchas pantallas de teléfonos o tablets.

Del deepfake al deepnude

Deep Nude, era la polémica app que permitía “desnudar” a mujeres a través de tecnología  deepfake y que fue eliminada de las tiendas virtuales, hace unos días atrás, tras generarse un escándalo en los medios de comunicación sobre su potencial peligro de producir ataques sexuales. Los creadores de Deep Nude explicaron que el software fue lanzado hace varios meses para entretener y que subestimaron la demanda de la aplicación: “Nunca pensamos que sería viral y que no podríamos controlar el tráfico”, mencionaron.

Mientras que los vídeos deepfakes tardan horas en renderizar (proceso de generar una  foto realista desde un modelo 3D) esta aplicación permitía subir la imagen de una mujer con ropa y, en cuestión de segundos, crear una nueva de la misma persona desnuda. La plataforma ofrecía resultados bastante realistas y estuvo disponible a través de su web para Windows y Linux. Para usarla no se requería ningún tipo de conocimiento ya que era el algoritmo el que se encargaba de todo. 

Es, precisamente, en este algoritmo donde se encuentra la principal muestra de cómo este tipo de tecnología se usa de forma sexista en el porno, porque Deep Nude únicamente funcionaba con mujeres. Algo que, según explicó uno de sus creadores en una entrevista, se debía a que es mucho más fácil encontrar fotos de mujeres desnudas en internet que de hombres. Aunque la app fue cerrada, sus críticos expresaron preocupación de que algunas versiones del software sigan disponibles y puedan servir para abusos.

El “no” discurso de Mark Zuckerberg

Existen videos deepfake protagonizados por Barack y Michelle Obama, Vladimir Putin, Donald e Ivanka Trump, Jim Carrey, Gal Gadot, Emma Watson, Mark Zuckerberg, y entre otros.  

Precisamente, hace unos días comenzó a circular un vídeo por Instagram en el que aparece el CEO y fundador de Facebook, ofreciendo un desconcertante discurso sobre los planes que tiene su compañía con nuestros datos. En el vídeo vemos a Zuckerberg sentado en su escritorio, mientras que en la parte inferior aparece el clásico rótulo que incluyen los programa de noticias. 

De su boca salen la siguientes palabras: “Imagínese esto por un segundo: un hombre, con control total sobre los datos robados de millones de personas, todos sus secretos, sus vidas, su futuro. Se lo debo todo a Spectre, que me mostró que quien controla los datos, controla el futuro”.

Aunque parece totalmente real, fue un nuevo caso de los llamados vídeos deepfakes. Se conoció que el vídeo fue creado por los artistas Bill Posters y Daniel Howe (en colaboración con la startup israelí CannyAI). Este nuevo video se creó utilizando unas declaraciones ofrecidas por Zuckerberg en 2017.

A pesar de que era evidente que este vídeo era falso, Facebook decidió no eliminarlo de su plataforma, afirmando que “no tienen una política que estipule que la información que se publica en Facebook deba ser verdad”.

IA vs IA

Lo problemático del uso de esta tecnología es lo que los expertos en edición de video, en inteligencia artificial (IA) y los políticos coinciden: “no estamos listos para evitar la divulgación de estos contenidos”. Por eso, ya se está trabajando en sistemas que puedan identificar la manipulación para encontrar detalles que indiquen la falsedad de un rostro, una boca o alguna palabra, pero no son completamente efectivos.

Para combatir estos videos que preocupan tanto a políticos como a famosos, la mejor opción es otra inteligencia artificial. Un grupo de investigadores de dos Universidades de California ha desarrollado una herramienta que analiza la forma de hablar y gesticular de las personas y reconoce si el vídeo es real o está manipulado, El proyecto Protecting World Leaders Against Deep Fakes que ha sido financiado por Google y DARPA, la sección de investigación del Pentágono. 

Si te gustó nuestro blog, posts y noticias sobre relaciones públicas, reputación, social media, comunicación y sociedad digital, puedes unirte a la comunidad de Trend en Facebook, Twitter, Linkedin, Instagram, Soundcloud y YouTube. Y para mantenerte al tanto de nuestras últimas noticias, suscríbete a nuestro boletín digital aquí

El post No creas lo que ves: Qué es el deepfake y cómo puede afectarte aparece primero en el blog de Trend | Agencia de PR & Reputación. ¿Necesitas orientación o ayuda para tu marca en alguno de los temas que tratamos en este post? Comunícate con nosotros y te responderemos cuanto antes.

 

 

Converse con Nosotros