¿Recuerdas Regreso al futuro*? El coche, la música, y, en el centro de todo, el icónico dúo de Robert Downey Jr. y Tom Holland como Doc Brown y Marty McFly. Por supuesto, la última parte no la recuerdas; de hecho, Tom Holland ni siquiera había nacido cuando Regreso al futuro se estrenó en 1985.
Pero puedes ver este reparto alternativo en uno de los cientos de vídeos deepfake que han aparecido por Internet en los últimos últimos dos años. Mediante la tecnología de deepfaking, estos vídeos pueden situar a actores en películas en las que nunca han aparecido, o a famosos en entrevistas que no se llevaron a cabo, con una precisión excepcional. Existe una preocupación creciente por las implicaciones de los deepfakes. ¿Hasta dónde está justificado el miedo? ¿Y qué podemos hacer para abordarlo?
¿Qué son los deepfakes? ¿Y debemos preocuparnos?
Los deepfakes se basan en una tecnología llamada «redes generativas antagónicas» (RGAs) Una red antagónica consta de dos redes neuronales: generador y discriminador.
En primer lugar, el generador toma una foto de una persona e intenta generar una segunda imagen, que es similar pero diferente a la foto proporcionada. Luego esta foto se envía a la red del discriminador, que intenta entender si la entrada proporcionada es auténtica o falsa; de ahí viene el nombre «antagónica»: las redes intentan engañarse entre sí.
Cuanto más entrenen las dos redes, mejor se les dará generar imágenes falsas que parezcan reales. Al final, se crea una imagen que es indistinguible (al menos para la red de discriminación) de las fotografías reales de esa persona. Así, nace un deepfake. Así es cómo puedes ver un vídeo del CEO de Facebook, Mark Zuckerberg, vendiendo tratamientos de diálisis fraudulentos o amenazando en broma con dominar el mundo.
Pero, según algunos críticos, estos vídeos, aunque resulten graciosos, pueden traer consecuencias negativas. Según afirman, la capacidad de crear representaciones casi totalmente realistas podría tener escalofriantes aplicaciones en muchos ámbitos de la vida.
Los deepfake podrían poner palabras incriminatorias en boca de políticos, o ponérselo fácil para renegar de sus propias palabras o acciones alegando que eran deepfakes. También tienen un alto potencial de fraude. Si se puede engañar a la gente con un email de phishing haciéndoles creer que es de su banco y pedirles una transferencia, ¿cómo no se van a creer una videollamada de un amigo o familiar? La agencia de la Unión Europea en materia policial, Europol, recomendó en un informe que las autoridades de cumplimiento de la ley deberían realizar «inversiones significativas» para desarrollar tecnologías que puedan ayudar a detectar un uso malicioso de los deepfakes.
El riesgo también es aplicable al siniestro submundo de la pornografía en Internet, donde se puede insertar digitalmente a famosos y otras personas en material explícito sin su consentimiento. En septiembre de 2019, casi el 96 % de los deepfakes se usaban en pornografía, según un informe de DeepTrace.
Sin embargo, también hay voces que consideran la amenaza menor de lo que parece. La manipulación de fotografías sucede desde 1860, y la eliminación por motivos políticos de fotografías oficiales se usó mucho en la Unión Soviética de Joseph Stalin. En 2004, una fotografía manipulada de John Kerry apareció en el New York Times* durante la la carrera presidencial de ese año. Y también ha sido posible mentir en los medios impresos desde que estos existen. Así que, según opinan los escépticos, solo se trata de una nueva tecnología con la que tendremos que aprender a vivir.
Detectar los vídeos falsos
A pesar de las garantías, es comprensible que muchas personas se sentirían más seguras si hubiera formas infalibles y basadas en la tecnología para diferenciar un deepfake de la realidad. Y, desde luego, la investigación en este ámbito continúa. Lo que la IA puede hacer, lo puede ayudar a deshacer.
Por ejemplo, la empresa de IA Zeff es solo una de las múltiples compañías que trabajan para que los sistemas de detección de IA vayan un paso por delante. Inicialmente, uno de los signos inconfundibles de un deepfake eran los patrones de parpadeo poco naturales. Sin embargo, una vez que estos se identificaron, se buscaron soluciones y ahora parpadean como las personas reales.
Como respuesta, Zeff pasó a usar la IA para examinar el flujo de sangre bajo la piel, algo que los deepfake aún no pueden emular bien. Sin embargo, en el podcast Intel on AI, Ben Taylor, director de datos de Zeff, se muestra pragmático acerca de la sostenibilidad de la solución a largo plazo, y reconoce que este ámbito es como juego del gato y el ratón. «El problema es que el objetivo cambia constantemente. Así que cualquier buena idea que se nos ocurra es una idea que otras personas pueden usar para mejorar los deepfakes».
Otra solución es añadir capas digitales a fotografías que las hagan inutilizables para la creación de deepfakes, lo que les dejaría sin su materia prima necesaria. Por ejemplo, unos investigadores independientes han desarrollado una capa algorítmica que se puede codificar en una imagen. Entonces, el código distorsiona la imagen hasta dejarla irreconocible si detecta que alguien intenta usarla para un deepfake.
Aún no está claro si el riesgo que suponen los deepfakes aumentará. Quizá aprendamos a vivir con ellos, o quizá la tecnología haga más fácil su detección. Pero quizá la postura más cauta es la del director de tecnología de Facebook*, Mike Schroepfer: «quiero estar preparado para muchas cosas malas que nunca van a suceder, y no al contrario».