← Back to portfolio

El MIT Lab quiere fomentar la aplicación positiva del deepfake

Published on

El deepfake es la técnica de inteligencia artificial (AI) que permitió, por ejemplo, que la princesa Leila apareciera en la película Rogue One: una historia de Star Wars con la cara de Carrie Fisher cuando era joven, a pesar de que, en realidad, el papel lo interpretó otra actriz. Sin embargo, esta tecnología emergente también se está utilizando intencionadamente con fines perversos, como dañar la imagen de celebridades, políticos y empresas, y tergiversar la realidad mediante vídeos falsos. Pero no todo son aspectos negativos.

Como toda tecnología, y gracias a su potencial, el deepfake también puede transformarse en una herramienta que contribuya a nuestro bienestar. Y esto es, precisamente, lo que ha hecho un equipo del MIT Media Lab en colaboración con la Universidad de California y la Universidad de Osaka: han dado la vuelta al deepfake explorando aplicaciones interesantes en campos como la educación, el arte y la salud.


¿Cómo funciona esta técnica de AI?

La palabra deepfake es un acrónimo del inglés formado por las palabras fake (falsificación) y Deep learning (aprendizaje profundo). Para entender cómo funciona esta tecnología, lo mejor es poner otro ejemplo de lo que se está haciendo con ella. Se ha utilizado para hacer aparecer a actores famosos en vídeos pornográficos que ellos jamás han rodado. Estos vídeos se crean combinando un vídeo pornográfico real ̶que es el que utilizan los algoritmos como base ̶ con otro vídeo o imagen del actor al que se quiere dañar, y procesando toda esta información en el programa informático. Los resultados del deepfake pueden llegar a ser tan asombrosos que es imposible distinguir si un vídeo es real o falso.

En el vídeo de arriba podéis ver un ejemplo de cómo funciona la tecnología: se han servido del cuerpo de la actriz Jennifer Lawrence para crear un vídeo falso de ella que parece absolutamente real.

Las posibilidades positivas del deepfake

Para fomentar las posibilidades positivas de la tecnología, los investigadores del MIT Media Lab y sus colaboradores de la Universidad de California en Santa Bárbara y la Universidad de Osaka han compilado un canal de generación de caracteres de código abierto y fácil de usar que combina modelos de inteligencia artificial para expresiones faciales, voz y movimiento, los cuales se pueden utilizar para crear una variedad de salidas de audio y video. Esta canalización, además, señala la salida resultante con una marca de agua rastreable para distinguirla del vídeo auténtico y mostrar cómo se generó, lo que ayuda a prevenir su uso malicioso.

El objetivo de los investigadores es inspirar a maestros, estudiantes y trabajadores de la salud para que exploren cómo esta herramienta puede ayudarlos en sus respectivos campos. Por ejemplo, se puede animar a Albert Einstein para que dé clases de Física, a Vincent Van Gogh para que explique su propia pintura, otorgar anonimato a los participantes de un grupo de terapia, que los niños puedan hablar con su médico online viéndolo con una apariencia más «amigable» que alivie su temor antes, durante y tras las citas médicas, etc. (ver el vídeo de arriba).

Los investigadores del MIT también utilizaron la tecnología para crear una versión de Johann Sebastian Bach y hacer que tuviera una conversación en vivo con el renombrado violonchelista Yo-Yo Ma en una clase del Media Lab. Los experimentos han mostrado que estos personajes generados por AI pueden hacer que los estudiantes se entusiasmen más con el aprendizaje y mejoren el desempeño de las tareas cognitivas al personalizar la enseñanza en función de sus intereses y sus ídolos, por lo que plantean su uso como un complemento a la instrucción tradicional. Incluso proponen ampliar el uso de personajes generados por AI más allá del profesorado. Los estudiantes también pueden desempeñar diferentes roles. «Durante una lección de historia, varios estudiantes pueden encarnar a los padres fundadores de los Estados Unidos y participar en la redacción de la Constitución», sugieren los investigadores, ya que han comprobado que encarnar a un personaje en la realidad virtual puede influir positivamente en el comportamiento y las habilidades de las personas de múltiples maneras, desde mejorar la expresividad hasta mitigar los estereotipos negativos y aumentar las habilidades de resolución de problemas. De hecho, han estudiado a estudiantes de ingeniería que encarnaron a grandes inventores de la historia durante brainstormings en realidad virtual, y comprobaron que tenían una mayor fluidez y originalidad de ideas en comparación con aquellos que participaron bajo condiciones de control.


La IA generativa se volverá omnipresente en nuestra vida diaria, como se afirma en el artículo que han publicado los investigadores en Nature Machine Intelligence. Es necesaria una discusión sobre las implicaciones éticas y sociales de la generación de personajes, y sobre las cuestiones jurídicas. «Será un mundo realmente extraño cuando la IA y los humanos comiencen a compartir identidades. Este documento hace un trabajo increíble de liderazgo de pensamiento, trazando el espacio de lo que es posible con personajes generados por IA en dominios que van desde la educación a la salud y las relaciones cercanas, al tiempo que brinda una hoja de ruta tangible sobre cómo afrontar los desafíos éticos en torno a la privacidad y la tergiversación», ha declarado Jeremy Bailenson, director fundador del Laboratorio Virtual de Interacción Humana de Stanford, el cual no participó en el estudio.