A veces utilizan la imagen de Oprah Winfrey, Tom Hanks y The Rock. En otras ocasiones la de Elon Musk. Incluso pueden utilizar una voz similar a la del periodista de Univision Jorge Ramos. Los estafadores siempre están buscando formas innovadoras para engañarte y que caigas en sus trampas.
En Factchequeado queremos que nuestra comunidad no sea presa fácil de los estafadores. Por eso te traemos algunos ejemplos de cómo operan este tipo de engaños.
Los videos publicitarios que usaron la figura y voz de Jorge Ramos para promocionar un falso programa de perdón de deuda
Como te informamos en Factchequeado, en este caso circularon en Facebook y en Instagram videos publicitarios (ads) donde se utiliza la imagen del periodista de Univision Jorge Ramos para hacer creer que está promocionando un supuesto “paquete de recuperación” con “dinero gratis del gobierno” y con el que los bancos perdonarían hasta $15,000 de deuda en tarjetas de crédito.
El propio Ramos confirmó a Factchequeado que él no está promocionando el supuesto programa. Además, no hay evidencia de que tal ayuda del gobierno exista.
Las publicaciones tomaron videos de reportajes de Jorge Ramos y le agregaron una voz similar a la voz del periodista de Univision. Una investigación de Factchequeado encontró que la página de Facebook que promocionó la falsa ayuda había invertido entre $10,000 y $15,000 y que la publicidad le había llegado a entre 500,000 y 600,000 usuarios, principalmente en California, Florida, Texas, y Nueva York, New Jersey e Illinois, estados con mayor población hispana.
Utilizan las figuras de Oprah y The Rock tomadas de otros videos para hacer la falsa publicidad
En la investigación también encontramos que la misma página de Facebook estuvo impulsando videos en inglés, similar a los de Ramos, pero utilizando videos y una voz similar a la de Oprah Winfrey. También, en la página web vinculada a estas publicidades encontramos imágenes de Oprah y del actor Dwayne Johnson (The Rock) que tomaron del anuncio que ambas celebridades hicieron el 31 de agosto de 2023 para ayudar a las víctimas de los incendios forestales de Maui, Hawai.
También han utilizado IA para suplantar la identidad de Elon Musk y promover supuestas plataformas de criptomonedas
Elon Musk, dueño de X (antes Twitter) y de otras empresas como Tesla y SpaceX, es una cara recurrente en los intentos de engaños. En 2022 circuló un video manipulado en el que pareciera que Musk estuviese promocionando una plataforma de criptomonedas.
Pero era falso. Lo que hicieron fue tomar una parte de una intervención que hizo Musk en un evento organizado por TED en abril de ese año, y le clonaron la voz con IA para que pareciera que estaba promocionando la supuesta plataforma. El propio Musk aclaró, a través de su perfil de Twitter, que quien hablaba en el video no era él:
En julio de 2023 en Factchequeado desmentimos una imagen que hacía parecer que Musk estaba promocionando una supuesta plataforma llamada “Quantum AI”. Durante nuestra investigación encontramos que ese mismo mes se había viralizado en Gran Bretaña un deepfake del periodista Martin Lewis (conocido en ese país por hacer reportajes sobre temas financieros) donde aparenta recomendar Quantum AI tras una supuesta inversión que habría realizado Musk a la compañía. Pero era falso: el propio Lewis salió a desmentir el video el 7 de julio de 2023 en el show Good Morning Britain.
Abajo puedes ver el deepfake. Presta atención al nivel de realismo al que pueden llegar estos videos:
@MartinSLewis assuming this is a scam.. getting more convincing with the use of AI pic.twitter.com/spDIVWxVLU
— Daniel Handford (@t0uchscreenguru) July 6, 2023
Algunas celebridades han salido a denunciar el uso de su imagen para promocionar scams
El actor Tom Hanks, el 1 de octubre de 2023, denunció en su cuenta oficial de Instagram que estaban utilizando una versión de él creada con IA para promocionar un supuesto plan de seguro dental.
El youtuber conocido como Mr. Beast denunció el 2 de octubre de 2023 en su cuenta de X (antes Twitter) que estaba circulando un deepfake de él creado con IA para promocionar una estafa. En el video el falso Mr. Beast aparece diciendo que entregará varios Iphone 15 a cambio de $2:
Lots of people are getting this deepfake scam ad of me… are social media platforms ready to handle the rise of AI deepfakes? This is a serious problem pic.twitter.com/llkhxswQSw
— MrBeast (@MrBeast) October 3, 2023
Gayle King, presentadora del show matutino CBS Mornings, también denunció el 2 de octubre de 2023 en su cuenta oficial de Instagram que estaba circulando un video de ella creado con IA para promocionar un producto para "pérdida de peso". La periodista también publicó el video original que habían utilizado para promocionar el scam.
Si quieres blindarte más contra el uso de la IA para intentar estafarte, lee también estas notas de Factchequeado:
La inteligencia artificial es capaz de traducir videos a otros idiomas
Las voces generadas con inteligencia artificial (IA) se pueden usar de forma fraudulenta
Factchequeado es un medio de verificación que construye una comunidad hispanohablante para contrarrestar la desinformación en Estados Unidos. ¿Quieres ser parte? Súmate y verifica los contenidos que recibes enviándolos a nuestro WhatsApp +16468736087 o a factchequeado.com/whatsapp.