Uno de cada 8 adolescentes en Estados Unidos dice conocer a alguien que ha sido víctima de un deepfake nude –imágenes o videos falsos de personas desnudas creados mediante IA o software de manipulación digital–-, según una encuesta de la organización sin fines de lucro Thorn. Estas imágenes y videos manipulados con inteligencia artificial representan un peligro creciente para los menores –niños y niñas–, exponiéndolos a riesgos graves como el acoso y la extorsión sexual (sextorsión).
Te explicamos en detalle qué son los deepfakes y los deepfakes nudes, por qué son tan peligrosos y cómo proteger a un menor que haya sido víctima.
El FBI alerta sobre el uso de ‘deepfakes’ para acoso y sextorsión
Un deepfake es una fotografía o un video manipulado o generado con inteligencia artificial para representar, alterar o sustituir el rostro, el cuerpo o la voz de una persona para que parezca que está haciendo o diciendo cosas que nunca hizo. Según advierte el FBI, este tipo de contenido puede crearse con un objetivo sexual y difundirse posteriormente en redes sociales o en sitios web pornográficos con el objetivo de acosar a las víctimas o cometer sextorsión.
“Muchas víctimas, entre ellas menores de edad, desconocen que sus imágenes fueron copiadas, manipuladas y difundidas hasta que alguien más se lo hace saber”, indica el FBI (Buró Federal de Investigaciones).
En algunos casos, los creadores de estos deepfakes envían directamente las imágenes a las víctimas como forma de sextorsión (un chantaje realizado a partir de la posesión por parte del chantajista de una imagen íntima) o acoso. Así lo explicó el FBI, que destacó que, una vez que el contenido ha sido difundido, resulta complicado impedir que siga compartiéndose o lograr su eliminación de Internet.
Un informe de la organización Thorn, basado en una encuesta a 1,200 jóvenes de entre 13 y 20 años en Estados Unidos, muestra que la creación de deepfake nudes (deepfakes con desnudos) es fácil y accesible para los jóvenes. El 13% de los encuestados dijo conocer a alguien que fue víctima de este tipo de contenido y el 12% afirmó conocer a alguien que lo ha creado o distribuido.
Por qué los ‘deepfakes’ son especialmente peligrosos para los niños
“Si un niño es víctima de abuso sexual basado en imágenes generadas por IA, puede experimentar humillación, vergüenza, ira, violación y autoculpa”, indica el Centro de Excelencia en Redes Sociales y Salud Mental Juvenil de la Academia Estadounidense de Pediatría (AAP). Todo ello puede causar angustia emocional inmediata y continua, dificultades para mantener relaciones de confianza y afectar al rendimiento escolar. Así lo indica el organismo, que destaca que algunos casos pueden llevar a autolesiones y pensamientos suicidas.
Los deepfakes pueden causar un fuerte impacto emocional en las víctimas, especialmente si se difunden entre compañeros de escuela. Como destaca la AAP, pueden generar burlas, acoso y un trauma que aumenta cada vez que el contenido se comparte.
“Los niños son menos propensos a contarles a otros cuando han sido víctimas de pornografía deepfake o abuso sexual infantil”, señalan desde la AAP. La investigación con jóvenes de Thorn en 2023 reveló que 1 de cada 6 menores que participan en una interacción sexual en línea potencialmente dañina nunca se lo revela a nadie.
Quienes utilizan imágenes manipuladas con IA para dañar a otros también pueden intentar extorsionar a menores (sextorsión). “Los adultos chantajean en línea a menores –principalmente entre 14 y 17 años– obligándolos a pagar para prohibir que compartan fotos o grabaciones íntimas”, señalan desde la AAP.
Qué hacer si tu hijo ha sido víctima de un ‘deepfake’ sexual
Omny Miranda Martone, fundadora y directora ejecutiva de la Asociación para la Prevención de la Violencia Sexual (SVPA), recomienda reportar a la escuela si “algunos alumnos le han hecho esto a otros alumnos”. Unos de los consejos en esta sección es sobre reunir evidencia. Debes tomar en cuenta que al tratarse de menores, este contenido es material de abuso sexual infantil (CSAM). Como te contamos en Factchequeado, la creación, distribución y posesión de CSAM es un delito y esto incluye contenido real como el que fue creado con herramientas de IA.
En estos casos, Martone recomienda llevar el teléfono o computadora directamente a las autoridades y mostrarles este material para que ellos “recopilen las pruebas de una manera segura”.
Si tu hijo ha estado involucrado en un abuso sexual basado en imágenes generadas por IA, la AAP aconseja mantener la calma, escuche atentamente, recopile pruebas (pero sin guardar las imágenes) y tome medidas si es posible:
Escuchar sin juzgar, validar lo ocurrido y asegurar al menor que no es su culpa.
Priorizar su seguridad: “Bloquea y denuncia al agresor que crea y distribuye este contenido en todas las plataformas para que se pueda eliminar la imagen o grabación íntima y se puedan detener las amenazas de compartirla”.
Reunir evidencia del contenido abusivo para apoyar cualquier reporte o investigación.
Aplicar controles parentales y ajustes de privacidad adecuados a su edad.
Vigilar cambios en su salud mental, como alteraciones en el sueño, el ánimo, la energía o la asistencia escolar y consultar con su pediatra o profesional de la salud si se nota algún cambio preocupante.
El FBI explica que los menores que sean víctimas de delitos relacionados con imágenes o videos sexuales manipulados (como deepfakes) pueden recibir ayuda para detener su difusión. El Centro Nacional para Menores Desaparecidos y Explotados (NCMEC) ofrece un servicio gratuito llamado Take It Down, que ayuda a eliminar o frenar la circulación de contenido sexual de menores. También puedes reportar estos contenidos en la CyberTipline de NCMEC, si la víctima es o era menor de 18 años cuando ocurrieron. No es necesario proporcionar el nombre de la persona que hace el reporte ni su información de contacto. Tampoco tiene por qué estar en Estados Unidos para completar el reporte.
El FBI también recomienda reportarlo a:
También se puede reportar directamente en las páginas de reporte de las plataformas tecnológicas, como Bing (aquí y aquí), Google (aquí y aquí) o Yahoo (aquí), en aplicaciones de mensajería como Signal o WhatsApp, aplicaciones de citas como Tinder o Match, y en las redes sociales como Facebook, Facebook Messenger o TikTok.
Factchequeado es un medio de verificación que construye una comunidad hispanohablante para contrarrestar la desinformación en Estados Unidos. ¿Quieres ser parte? Súmate y verifica los contenidos que recibes enviándolos a nuestro WhatsApp +16468736087 o a factchequeado.com/whatsapp.
Lee también:

