El caso de Almendralejo (Badajoz) y las fotos manipuladas con inteligencia artificial que mostraban niñas desnudas ha llevado al primer plano de la actualidad la expresión “deepfakes" sexuales; una práctica que puede ser delito y que, según expertos consultados por EFE, se ha popularizado gracias a nuevas herramientas tecnológicas al alcance de cualquiera.
Los “deepfakes” o ultrafalsos de este tipo "hace años" que existen, pero hasta hace no mucho las herramientas necesarias estaban “en manos de unos pocos”. Ahora “cualquiera puede hacerlo, como se demuestra en esa ocasión”, dice el director de investigación y concienciación de la empresa de ciberseguridad Eset, Josep Albors.
Los ultrafalsos son vídeos, audios o imágenes ficticios en los que se usan técnicas de inteligencia artificial para crear contenidos manipulados extremadamente realistas.
Para jóvenes y adolescentes, “que son nativos digitales", acceder a este tipo de herramientas es “sencillo y gratuito”, porque en la mayoría de aplicaciones no hay que registrarse o basta con un correo electrónico, indica Juan Ignacio Rouyet, profesor especializado en Ética e Inteligencia Artificial de la Universidad Internacional de La Rioja (UNIR).
En la industria del cine para adultos y la pornografía, relata Albors, “lleva años sucediendo casos de actrices y actores famosos que ven cómo se utilizan sus rostros en cuerpos que no son los suyos”.
Fabricar imágenes falsas de desnudos con la ayuda de la inteligencia artificial (IA) es algo “relativamente fácil”, solo hace falta un imagen real, una fotografía cualquiera, apunta Rouyet.
A partir de ahí, la IA mantiene la cara, pero define el contorno y genera una recreación de cómo sería ese cuerpo sin ropa, explica. “No es su cuerpo, es simulado, pero parece real”.
A estas herramientas se puede acceder a través de una aplicación o de un página web, dice Albors, quien desconoce qué tipo se ha usado en el caso de las menores de Almendralejo (Badajoz), pero no es “difícil buscar un poco y encontrar algo que esté disponible para cualquiera”.
El experto matiza que el recurso empleado no tiene por que estar pensado para ese uso específico, “la tecnología no es mala de por sí, es el uso que nosotros le damos el que puede ser malicioso”.
En el caso de Almendralejo, tanto las víctimas como los identificados como presuntos autores son menores y Rouyet considera que la sociedad, los padres, los educadores y los propios jóvenes tienen que concienciarse de que “estas prácticas no son chiquilladas”.
Se trata de “delitos que van mucho más allá de una simple gracia entre adolescentes. Son delito”, subraya y “hay que verlo y afrontarlo como tal”.
Existen herramientas de control parental que permiten monitorizar qué tipo de aplicaciones hay en un dispositivo y “pueden ser una ayuda”, pero el menor puede usar el de un amigo o incluso uno público, como puede ser el ordenador de una biblioteca, dice Albors.
Las herramientas de control parental no son “la solución definitiva” si no se explica a los hijos que ese tipo de actividades “no son un juego”, que la persona a quien se lo está haciendo -destaca- “es una víctima que sufre por ello”.
Además, en el caso de menores inimputables, por tener menos de 14 años, "a los padres les va corresponder pagar una multa” como está imponiendo desde el año pasado la Agencia Española de Protección de Datos (AEPD), de hasta 10.000 euros.
Ambos expertos resaltan la importancia de denunciar estos hechos ante la AEPD, que ya ha abierto una investigación de oficio por el caso de Almendralejo, y ante las autoridades competentes.
Albors, recuerda que este caso ha salido a la luz porque una madre ha denunciado y ha animado a otros a denunciar. "Lo ha hecho muy bien”, porque mucha gente tiene la impresión de que “esto no sirve para nada, pero sí que sirve”.
En esa ocasión, “una de las madres ha sabido reaccionar”, pero se puede imaginar un caso en el que alguien que pensara que su hija ha difundido fotografías de contenido erótico, cuando no lo ha hecho.
En ese supuesto, agrega, se estaría culpando a la víctima por el simple desconocimiento de que existen herramientas que "permiten que cualquier fotografía inocente (…) se puede llegar manipular de tal forma que aparezcan esos resultados”.
Rouyet reconoce que la opacidad de internet complica mucho la persecución de los ultrafalsos, porque "muchas veces no sabes ni dónde están los servidores y no puedes actuar contra la fuente original".
Y aunque para Rouyet limitar el mal uso de la IA es como "intentar poner puertas al campo", hay medidas preventivas o "ex ante" como endurecer los criterios de registro de las aplicaciones y regular el uso de la IA a través de una ley.
Andalucía
Los deepfakes sexuales no son nuevos, pero sí su popularización
Son vídeos, audios o imágenes ficticios en los que se usan técnicas de inteligencia artificial para crear contenidos manipulados extremadamente realistas
TE RECOMENDAMOS
ÚNETE A NUESTRO BOLETÍN
Lo más leído
Lo último
Boletín diario gratuito
- Los deepfakes sexuales no son nuevos, pero sí su popularización · El Periódico de Utrera · Viva Estepona DESCARGAR PERIÓDICO
-
-
Seccionesexpand_more
-
- Hemeroteca
- Quiénes somos
- Contacto
- Publicidad
- Aviso Legal
- Cookies
- Seguridad
- Protección de datos