El fin de la realidad: las “deepfakes”

Comunicación | Por Tomás Rodríguez Ansorena

En menos de seis años, el desarrollo de la inteligencia artificial puso a disposición de casi cualquiera la posibilidad de crear imágenes falsas indistinguibles de la realidad. Del negocio del porno a un golpe de Estado, la internet está diseminando una nueva amenaza fantasma: que nunca más sepamos qué es verdad.

En las elecciones legislativas hindúes, el candidato Manoj Tiwari sorprendió con un video hablando en hindi, otro en inglés y otro en haryanvi. Días después se supo la verdad: una agencia publicitaria le había propuesto ampliar la oferta electoral utilizando inteligencia artificial para crear “deepfakes” con grabaciones y software de punta, pusieron en su boca palabras que desconocía y llevaron su mensaje por WhatsApp a votantes fuera de sus apoyos.

Los “deepfakes” aparecieron en 2017. Un usuario publicó sus primeras creaciones pornográficas utilizando algoritmos y librerías de imágenes con resultados asombrosos. En sincronía con la aparición de TikTok y las apps de envejecimiento o rejuvenecimiento facial, la técnica se popularizó y pronto surgió la primera app abierta para incorporar un rostro cualquiera a un video existente. Desde Bolsonaro como el Chapulín Colorado, hasta Cristina Kirchner como una Drag Queen, Internet se llenó de videos falsos. Lo más notable, a tres años de su aparición, es la mejora de su calidad: en agosto, un fan publicó su propia versión de las escenas de Robert De Niro joven en “The Irishman”; la comparación entre el trabajo de Netflix y el “deepfake” de este usuario de YouTube (y los millones de dólares de diferencia) da la pauta de la accesibilidad y potencial de esta herramienta.

Para estas creaciones se utiliza un autocodificador, que crea una imagen latente con solo algunas variables (parámetros de sonrisa, ceño fruncido, etc.) y repone con otras la imagen final (los mismos gestos con otro rostro, o el mismo rostro con otro discurso). Pero no estamos hablando solo de imágenes fijas o en movimiento, sino también de sonido. La falsa primicia basada en un audio viral sobre el supuesto pase de Lionel Messi al Manchester City podría haber prescindido de un imitador talentoso. El audio podría haberse creado con un software como el que utiliza el Boston Chlidren’s Hospital para recrear la voz de quienes perdieron el habla.

En septiembre se conoció la primera gran estafa de un “deepfake”: según el Wall Street Journal, el CEO de una compañía inglesa transfirió 220.000 euros por orden de un software que imitaba la voz de su jefe alemán.

La mera existencia de esta tecnología no solo habilita la posibilidad de crear “fakes” -con consecuencias políticas y sociales inusitadas- sino desbancar a la realidad: si lo que existe realmente puede ser adulterado o directamente inventado, todo el mundo tiene derecho a desconfiar. El ejemplo más paradigmático de este problema ocurrió en Gabón. Durante 2018, su presidente, Ali Bongo, no apareció públicamente; los rumores sobre su estado de salud e incluso su muerte obligaron al gobierno a revelar que Bongo había sufrido un ACV, pero que estaba recuperándose. La rigidez y aparente artificialidad de los movimientos del líder en el mensaje grabado rápidamente despertaron la psicosis de la oposición: el video es falso, exclamaron. Una semana después, y apoyándose en la aparente acefalía, una fracción del Ejército quiso dar un golpe de Estado, aunque luego fue reprimido... por el propio Bongo, que sigue al frente del gobierno.

La pandemia llevó nuestra relación con las imágenes virtuales a niveles insospechados. Entrevistas laborales, clases, bautismos, consultas médicas, audiencias judiciales, sesiones legislativas, y hasta sexo. La «presencia» es un requisito cada vez más prescindible en los rituales e instituciones que nos constituyen como sociedad. A la inversa, la identidad virtual, su «huella digital», se vuelve cada vez más relevante, y no solo en términos jurídicos sino también prácticos. Allí donde la vida cotidiana encuentra su cauce solo a través de una proyección digital, su autenticación es vital. Lo saben los niños de todas las latitudes que, igual que el senador Esteban Bullrich lo hiciera en el Congreso, ya aprendieron a burlar a sus profesores poniendo imágenes en una clase virtual.

Los “deepfakes” presentan problemas más complicados. La inteligencia artificial (IA) ya se utiliza en la creación masiva de comentarios para posicionar un producto o servicio en plataformas de e-commerce, y también para fines políticos, como se comprobó durante la campaña presidencial argentina en 2019. ¿Por qué no imaginar protestas o movilizaciones masivas, ejecuciones sumarias, represiones, crímenes callejeros y demás registros visuales inventados? Si las “campañas de desprestigio” son ya una herramienta consolidada, tanto para quienes la ejercen como para quienes la enarbolan como excusa, ¿qué posibilidades abrirán los “deepfakes”? ¿Qué niveles de miseria política podrán arrastrar la posibilidad de que un registro visual sea falso? Seremos capaces de crear lo real, pero ya no sabremos qué es lo real.

Si las redes neuronales de inteligencia artificial continúan con este ritmo de aceleración, la humanidad tendrá a su disposición herramientas capaces de dislocar su experiencia con el mundo. Para siempre. A diferencia de otras tecnologías, la «democratización» no resolverá los dilemas que presentan los “deepfakes”. ¿A quién le reclamaremos la verdad? Quizás habrá que acostumbrarse a vivir sin ella.

 
© 1997 - 2019 Todos los derechos reservados. Diseñado y desarrollado por HoyDia.com.ar