Los deepfakes, reproducciones hiperrealistas que la inteligencia artificial ha llevado a límites inauditos de accesibilidad y difusión, lo inundan todo, como demuestra el caso de las recreaciones falsas de desnudos de adolescentes en Almendralejo (Badajoz) esta semana. “Todos podemos ser víctimas. Internet es la selva. No hay control y no es un juego: es un delito”, advierte la presidenta de la federación extremeña de padres y madres de alumnos Freapa, Maribel Rengel. El informe más citado, realizado por Deeptrace, rastreó hasta medio millón de archivos falsos en la red mundial con un crecimiento de casi el 100% cada seis meses. Pero es solo el trabajo de una entidad. El volumen real se desconoce. Sí se sabe que el 96% es pornografía y que estas creaciones han saltado del ámbito de la imagen a la voz, a los textos, a los documentos y al reconocimiento facial, o la combinación de todos, hasta convertirse en uno de los vectores emergentes de fraude más preocupantes a partir de una tecnología aún sin regular.
El Instituto Europeo de Normas de Telecomunicaciones (ETSI, por sus siglas en inglés) advierte en uno de los informes más completos y actualizados de los peligros del “cada vez más fácil” uso de la inteligencia artificial en la creación de archivos falsos. La ETSI, formada por más de 900 entidades de todo ámbito, alerta: “Debido a los avances significativos en la aplicación de la inteligencia artificial a la generación y modificación de datos, han surgido nuevas amenazas que pueden conducir a riesgos sustanciales en diversos entornos que van desde la difamación personal y la apertura de cuentas bancarias utilizando identidades falsas (mediante ataques a los procedimientos de autenticación biométrica) hasta campañas para influir en la opinión pública”. Estos son los principales objetivos:
Pornografía. Danielle Citron, profesora de derecho en la Universidad de Boston y autora de Crímenes de odio en el ciberespacio (Hate crimes in cyberspace), afirma: “La tecnología deepfake se usa como arma contra las mujeres al insertar sus rostros en la pornografía. Es aterrador, vergonzoso, degradante y silenciador. Los vídeos de sexo deepfake dicen a las personas que sus cuerpos no son suyos y pueden dificultar sus relaciones en línea, la obtención o mantenimiento de un trabajo o que se sientan seguras”.
Rengel lo comparte tras el caso que ha afectado a varios institutos de su comunidad. “La sensación es de vulnerabilidad y es muy difícil de controlar. Los daños son irreparables. Pueden arruinar la vida de una niña”, afirma la representante extremeña para exigir, de forma urgente, un pacto de Estado que regule el uso de esta tecnología.
Estos ataques consisten en la difusión de vídeos, imágenes, audio o texto falsos en las redes sociales para arruinar la reputación de la víctima o humillarla. El informe de Deeptrace calculaba el número de reproducciones de este material en más de 134 millones. Mujeres conocidas han sido víctima de estas prácticas desde hace años. La cantante Rosalía ha sido la última española famosa de una larga lista internacional que encabezaron Emma Watson y Natalie Portman.
Pero como advierte Rengel, “nadie está libre”. A golpe de clic, en plataformas en abierto o en sistemas de mensajería cifrada se pueden encontrar aplicaciones y páginas que ofrecen “desnudar a cualquiera” en segundos. Advierten de que es para mayores de 18 y que no se pueden usar fotos de una persona sin su consentimiento, aunque no lo comprueban, descargan la responsabilidad en el usuario y afirman que el objetivo es “el entretenimiento”.
This is the frame leaked by the streamer, where a chrome tab containing an adult site featuring a deepfake video of Pokimane and Maya Higa can be seen pic.twitter.com/IeWwA8BmUP
— Dexerto (@Dexerto) January 30, 2023
El creador de contenidos Brandon Ewing, conocido como Atrioc, fue sorprendido en directo a principios de año con una página de deepfakes pornográficos con recreaciones falsas de sus colegas Pokimane, Maya Higa y Blaire (pide eludir el apellido para proteger a la familia), conocida como QTCinderella. Ewing alegó que la consulta fue “accidental”, pero la reacción de las víctimas fue demoledora.
Higa afirmó sentirse “asqueada, vulnerable y ultrajada”. QTCinderella publicó un impactante vídeo de repulsa: “Aunque no es mi cuerpo, bien podría serlo. Fue la misma sensación de una violación. ¡La constante explotación y cosificación de las mujeres agota!”. Pokimane recordó la necesidad de “consentimiento para determinadas prácticas, como sexualizar a las mujeres”.
La Oficina Federal de Investigación de Estados Unidos (FBI) ha alertado del aumento de ciberdelincuentes que emplean las imágenes y vídeos de las redes sociales para elaborar deepfakes con los que acosar y extorsionar a las víctimas.
Bulos para influir en la opinión pública. Giorgio Patrini, fundador de Deeptrace, afirma: “Los deepfakes ya están desestabilizando los procesos políticos. Sin contramedidas defensivas, la integridad de las democracias de todo el mundo está en riesgo”.
El informe de ETSI identifica estos ataques como publicaciones falsas que crean la impresión de que personas que ocupan cargos influyentes han escrito, dicho o hecho ciertas cosas. “Se aplica a todos los propósitos donde hay mucho en juego y el beneficio justifica el esfuerzo desde la perspectiva de un atacante”, alerta la entidad. Pueden utilizarse para el desprestigio de un personaje, manipular precios, atacar a competidores, influir en la opinión pública en el periodo previo a las elecciones o plebiscitos, fortalecer el alcance de una campaña de desinformación y como propaganda, especialmente en tiempos de guerra.
As a matter of principle, I never post or link to fake or false content. But @MikaelThalen has helpfully whacked a label on this Zelensky one, so here goes.
I’ve seen some well-made deepfakes. This, however, has to rank among the worst of all time.pic.twitter.com/6OTjGxT28a
— Shayan Sardarizadeh (@Shayan86) March 16, 2022
En marzo de 2022, se publicó un video deepfake del presidente ucranio, Volodímir Zelenski, donde anunciaba la capitulación ante la invasión rusa. La política estadounidense Nancy Pelosy ha sufrido otro en el que parecía borracha, y ni Donald Trump ni Barack Obama ni el Papa ni Elon Musk se han librado de creaciones similares.
Ataques a la autenticidad. Se dirigen explícitamente a los procedimientos de identificación y autenticación biométrica remota. Tales procedimientos son de uso generalizado en muchos países para dar a los usuarios acceso a servicios digitales, como abrir cuentas bancarias, porque reducen los costos y facilitan la contratación de productos.
En 2022, un grupo de hackers (piratas informáticos) denominado Chaos Computer Club ejecutó ataques exitosos contra procedimientos de identificación de vídeo aplicando métodos deepfake.
Seguridad en internet. Muchos ataques se fundamentan en el error humano para acceder a los sistemas corporativos, como el reciente secuestro sufrido por el Ayuntamiento de Sevilla. Pero los archivos falsos hiperrealistas multiplican la capacidad de acceso al aportar datos falsos de difícil identificación. Pueden involucrar escritos con el estilo del supuesto remitente, voz y vídeos de las personas que supuestamente se comunican con las víctimas del ataque. El objetivo es que las víctimas pinchen en enlaces maliciosos, que los atacantes pueden usar para obtener credenciales de inicio de sesión o para distribuir malware (programas maliciosos).
Un gerente de banco en Hong Kong fue engañado en 2020 por atacantes que falsificaron la voz de un director de la entidad para lograr una transferencia de 35 millones de dólares, según informó Forbes. Una compañía de energía en el Reino Unido también sufrió un ataque similar un año antes que le costó 243.000 dólares.
Cine con falsos actores y guionistas. En el área artística, esta tecnología se puede utilizar para crear contenido cinematográfico. El sindicato SAG-AFTRA, que agrupa a 160.000 trabajadores de la industria del entretenimiento, convocó una huelga en Hollywood en julio para reclamar, además de mejores remuneraciones, garantías de protección ante el uso de la inteligencia artificial en las producciones.
Tanto actores como escritores demandan la regulación de tecnologías que pueden escribir una historia o reemplazar actores mediante el uso del deepfake, que permite replicar el físico, voz y movimientos de una persona. La generalización de estas herramientas permitiría a las grandes productoras prescindir de seres humanos en la creación de contenidos.
El actor británico Stephen Fry, narrador de los audiolibros de Harry Potter en el Reino Unido, ha denunciado el uso de su voz sin su consentimiento en un documental. “Podrían hacerme leer cualquier cosa: desde un mensaje para asaltar el Parlamento hasta secuencias de porno duro. Todo sin mi conocimiento y sin mi permiso”, ha declarado.
Puedes seguir a EL PAÍS Tecnología en Facebook y Twitter o apuntarte aquí para recibir nuestra newsletter semanal.
Suscríbete para seguir leyendo
Lee sin límites