Seguro que en los últimos años has escuchado hablar alguna vez de los deepfakes, esos vídeos ultrarrealistas generados con ordenador en los que se recrea la imagen y la voz de una persona para hacerles hacer cosas que nunca han hecho y decir cosas que nunca han dicho. Aunque en un futuro podrían convertirse en una amenaza real, en la actualidad hay otras técnicas de desinformación mucho menos complejas pero igual de efectivas que suponen un peligro mayor.

Para empezar, deepfake se ha convertido en un término abstracto que se usa de forma incorrecta para etiquetar cualquier vídeo que ha sido manipulado. Una grabación sacada de contexto o recortada no es un deepfake. Sin embargo, cuando en mayo de 2019 se viralizó un vídeo ralentizado y editado de la presidenta de la Cámara de Representantes de los Estados Unidos, Nancy Pelosi, en el que parecía estar bajo los efectos del alcohol, varios medios de comunicación lo difundieron como un ejemplo de deepfake.

Esto también se hizo en España con el presidente del Gobierno, Pedro Sánchez, el presidente de Ciudadanos, Albert Rivera, y el diputado de Unidas Podemos Alberto Rodríguez, como ya desmentimos en Maldita.es.

Entonces, ¿qué es un deepfake?

El término deepfake se popularizó en 2017 cuando usuarios de Reddit crearon y difundieron vídeos pornográficos en los que cambiaron los rostros de las protagonistas de las imágenes por los de otras mujeres famosas. Esa técnica, que fue prohibida por los administradores de la plataforma, se aplicó posteriormente para elaborar vídeos manipulados de políticos.

El más conocido es uno que fue creado por BuzzFeed, en el que el expresidente de los Estados Unidos, Barack Obama, alertaba sobre los peligros de la desinformación. En colaboración con Monkeypaw Productions, el medio de comunicación sobrepuso la imagen y la voz de Obama a la del director y guionista Jordan Peele, que era quien de verdad estaba hablando.

También sufrió esta técnica el fundador de Facebook Mark Zuckerberg, que en un vídeo parecía decir que tenía el "control total de los datos de billones de personas". La grabación era en realidad una versión manipulada de otra que de verdad grabó Zuckerberg para explicar qué iban a hacer para evitar la interferencia de terceros países en procesos electorales.

No son la mayor amenaza en la actualidad

Sí, los vídeos de Obama y Zuckerberg impresionan, pero no son el tipo de desinformación que más nos tiene que preocupar en la actualidad. Para elaborar unos deepfakes tan bien ejecutados no sólo se requiere a un especialista, sino que son necesarios mucho tiempo y una gran cantidad de recursos y herramientas complejas.

Por ello, desde que arrancó Maldita.es no nos habéis pedido nunca que verifiquemos un posible deepfake, ni hemos detectado que se estuviera viralizando alguno como si fuera real. De hecho, la mayoría de desinformaciones por las que nos preguntáis todos los días son mucho más sencillas de hacer, como el bulo del mosquito "que te puede dejar embarazada de un solo picotazo" o esta imagen que atribuye al presidente del Partido Popular, Pablo Casado, una frase que nunca dijo.

Como veis, estas desinformaciones requieren una milésima parte de los recursos y la producción que sí es necesaria para hacer un deepfake en la actualidad, pero eso no impide que se viralicen.

Vídeos con los que sí nos la intentan colar

Tampoco es necesario usar herramientas complejas e invertir mucho tiempo para desinformar con vídeos. A veces basta con ralentizarlo, como en los casos de Nancy Pelosi o Pedro Sánchez, o recortarlo, como ocurrió en el que se acusaba al cantante Luis Cepeda de rechazar el abrazo de una fan (en una versión completa de las imágenes se ve cómo era una broma y terminó abrazándola).

Sin embargo, los vídeos a los que más acostumbrados estamos en Maldita.es son aquellos que son reales pero que se descontextualizan. Un ejemplo de ello es la grabación que se viralizó como si "un musulmán" estuviera "atacando al personal médico en un centro de salud español", pero que en realidad mostraba a un hombre en estado de embriaguez agrediendo a personal sanitario en Rusia.

Como decimos, los deepfakes podrían convertirse en un problema en el futuro cuando se simplifique y abarate su producción, y cuando se creen herramientas que permitan a cualquier persona hacer uno, pero antes hay que combatir otros tipos de desinformación mucho menos complejas que ya están causando serios problemas en la actualidad.

Para ello, puedes hacernos llegar posibles bulos a través de nuestro servicio de WhatsApp (655 198 538) y armarte con nuestro manual para que no nos la cuelen.