Varias creadoras de contenido relataron cómo habían sido víctimas del uso de deepfakes (videos creados con inteligencia artificial para suplantar la identidad de una persona) sin su consentimiento para generar material pornográfico. QTCinderella, una de las afectadas por estos contenidos, aseguró durante una transmisión en Twitch en enero de 2023 que iba a denunciar a la plataforma que había publicado este video.
El relato de las víctimas devuelve a la palestra el debate sobre estas herramientas y la regulación del uso de imágenes generadas por inteligencia artificial sin la aprobación de las personas que aparecen en ellas; especialmente, si es para contenidos sexuales. ¿Es legal? ¿Hay formas de defenderse?
Algunos expertos consideran que los avances recientes en la inteligencia artificial pueden contribuir a una proliferación y popularización de los deepfakes, como recoge CBS News. Adam Dodge, fundador de EndTAB, un grupo que ofrece formación sobre el abuso facilitado por la tecnología, considera que esta tecnología se va a seguir utilizando para “dañar a otros, principalmente a través de la violencia sexual en línea, los deepfakes pornograficos y las imágenes de desnudos falsos".
"Existe una carrera armamentista tecnológica entre los creadores de deepfakes y los detectores de deepfakes", explica Jared Mondschein, científico físico de la organización RAND, al periódico The New York Times. El experto considera que “hasta que empecemos a idear formas de detectar mejor los deepfakes, será muy difícil que cualquier cantidad de legislación tenga fuerza".
Aunque el uso de deepfakes no está regulado de forma explícita en Estados Unidos (país natal de QTCinderella) a nivel federal, cada estado cuenta con una serie de normativas y regulaciones que permitirían a las víctimas emprender acciones legales al ver sus derechos vulnerados. Y en algunos existen proyectos de ley que buscan proteger a las víctimas de los deepfakes.
Así lo detalla Maitane Valdecantos, abogada especializada en propiedad intelectual y derechos digitales, que ha explicado a Maldita.es, medio cofundador de Factchequeado, que las streamers afectadas podrían recurrir a lo que se conoce como personality rights, publicity rights o celebrity rights: el derecho de una persona de controlar el uso comercial de su identidad “como su nombre, imagen, semejanza u otros identificadores inequívocos”, detalla.
“Son derechos que sobreviven al fallecimiento de la persona y son de regulación estatal no federal (es decir, que cada estado tiene su propia norma de publicity rights), exigiendo autorización previa para su uso”, precisa Valdecantos. En el caso de California, el Código Civil recoge el uso indebido del “nombre, la voz, la firma, la fotografía o el parecido de otra persona” en “productos, mercancías o bienes”.
Rahul Uttamchandani, abogado especializado en tecnología y privacidad, también detalla a Maldita.es que esta normativa depende de cada estado. Texas es uno de los territorios que ofrecen una mayor base legal para perseguir este tipo de acciones al contar con una regulación específica para el deepfake. Cuenta, por ejemplo, con una ley que prohíbe la creación y distribución de videos engañosos destinados a dañar a los candidatos a cargos públicos o influir en las elecciones.
Del mismo modo, California busca regular qué ocurre si se emplea un deepfake para manipular unas elecciones con el Proyecto de Ley de la Asamblea No. 730.
“El mero hecho de utilizar tu imagen o rasgos de tu personalidad sin tu consentimiento para generar deepfakes ya va a habilitar en muchos casos la posibilidad de interponer una acción judicial”, sintetiza Uttamchandani, que también ejemplifica que, en el caso de California, entra en juego la Ley de Protección de Datos de ese estado y la Ley de Privacidad del Consumidor de California (CCPA, por sus siglas en inglés). Esta legislación “permitiría a una persona física interponer una acción legal siempre que se vulnere esa normativa, por ejemplo cuando se utiliza datos personales de esa persona, como es el caso de los deepfakes”, recuerda el experto.
En el caso de Virginia hay una ley específica de protección de datos de carácter personal (VCDPA, por sus siglas en inglés), pero ésta “no confiere el derecho de emprender una acción a nivel individual”.
Por otra parte, Maitane Valdecantos señala que hay legislaciones que regulan la difusión de imágenes íntimas y la invasión de la privacidad, y que protegen el derecho de una persona, en especial personajes que no sean públicos, a “la protección de la publicidad que crea una impresión falsa o engañosa sobre ella”. “Hay que tener en cuenta que dicha representación debe ser altamente ofensiva, y que el actor debe haber tenido conocimiento o haber actuado con imprudencia temeraria”, recuerda la experta, si bien este derecho colinda con la libertad de expresión, lo que dificulta que un personaje público pueda pedir protección ante los deepfakes, razona la abogada.
¿Puede la legislación estadounidense proteger a las víctimas si se emplea su imagen para crear ‘deepfakes’ sexuales?
Hemos hablado en general de imágenes íntimas, pero ¿qué pasa en el caso de deepfakes creados con la intención de hacer material pornográfico? La tecnología en sí no está regulada en este aspecto, pero la creación de este material a partir de imágenes no consensuadas sí entra en los supuestos de la ley, según Uttamchandani.
Mientras que el uso de esta tecnología para contenidos que son “parodia” podrían englobarse dentro de los supuestos de la libertad de expresión, los contenidos de índole sexual dañan la reputación y menoscaban la imagen de las afectadas, por lo que sí entraría en los supuestos de la ley, argumenta el experto.
Valdecantos detalla que existen leyes recientes en Estados Unidos que regulan la pornografía no consentida, y que “pueden ser el recurso legal más eficaz contra quienes suben deepfakes personales con contenido pornográfico no consentidos”. Por tanto, esto podría ser perseguido por la vía penal. “Hasta la fecha, más de treinta estados tienen en aplicación este tipo de estatutos”, asegura la abogada.
En California, el Proyecto de Ley de la Asamblea No. 602 busca introducir “un derecho de acción privado para las personas vistas en pornografía deepfake para simplificar el proceso de denuncia individual”.
Otros estados como Virginia o Nueva York también cuentan con regulaciones en este sentido que varían en algunas cuestiones, pero Valdecantos destaca que “en general, los requisitos para la apreciación de la infracción son la existencia de dolo, la expectativa de intimidad y la visualización de zonas íntimas y actos sexuales”.
Virginia prohibió en 2019 la difusión de imágenes o videos de desnudos “con la intención de coaccionar, acosar o intimidar” -lo que incluiría los deepfakes-. Texas, por su parte, cuenta con una ley que considera un delito penal la producción o distribución ilegal de deepfakes sexualmente explícitos. Mientras tanto, Minnesota aprobó en mayo de 2023 un proyecto de ley sobre deepfakes para criminalizar a las personas que comparten contenido sexual, según recoge la agencia AP. “Necesitamos proteger a todos los habitantes de Minnesota que podrían convertirse en víctimas de aquellos que buscan utilizar la tecnología o la inteligencia artificial para amenazar, acosar o humillar a cualquiera”, afirmó el senador republicano Eric Lucero.
Factchequeado es un medio de verificación que construye una comunidad hispanohablante para contrarrestar la desinformación en Estados Unidos. ¿Quieres ser parte? Súmate y verifica los contenidos que recibes enviándolos a nuestro WhatsApp +16468736087 o a factchequeado.com/whatsapp.
Leer más:
Un 'deepfake' no es lo mismo que una imagen manipulada: qué diferencias hay entre ambos conceptos