Imágenes de periodistas de televisión e influencers latinos son usadas por los desinformadores para crear con inteligencia artificial (IA) videos que parecen reales. Se los ve contando supuestas noticias que afectan a los hispanos. Al buscar en sus propias cuentas o en medios no hay nada que respalde lo que se muestra en esas supuestas grabaciones. Se trata de deepfakes, videos hiperrealistas que pueden recrear la cara, los movimientos y la voz de una persona con IA.
Aquí te contamos los casos de algunos de los latinos de alto perfil que han sido víctimas de deepfakes y qué recomiendan los expertos para detectar el uso de esta tecnología.
Deepfakes de María Elena Salinas, Enrique Acevedo y del “sargento Carlos Cornejo”
“[Donald Trump] acaba de firmar una medida” que hace que cruzar un semáforo con la luz amarilla sea “igual que cruzar en rojo”, dice un hombre en un video publicado en la cuenta “Pasitos Migratorios” en Instagram. Según una búsqueda inversa en Google Lens la imagen de la persona que aparece allí es de un influencer que se hace llamar el “sargento Carlos Cornejo”, un ex sargento del estado de Colorado que se convirtió en influencer en 2021 para desmentir contenidos falsos, como mitos sobre la vacuna del COVID-19, según reportaron Los Angeles Times y CBS News.
En otro video, pero de la cuenta “Joker Motiva”, se puede ver y escuchar a una persona parecida al influencer “Cornejo” afirmando que “la FIFA acaba de quitarle a Estados Unidos la sede del Mundial 2026”.
Ambos videos tienen algo en común: comparten contenidos falsos (como te contamos en Factchequeado aquí y aquí) y no muestran al real influencer Cornejo sino que son deepfakes. El mismo Cornejo publicó un video el 4 de junio de 2025 donde alertó sobre videos “que muestran una imagen parecida a la mía, una voz parecida a la mía, pero claramente creados por inteligencia artificial” e hizo un llamado a sus seguidores a reportar las cuentas que los publican.
Según la Oficina de Responsabilidad Gubernamental (GAO, por sus siglas en inglés), los deepfakes pueden ser videos, imágenes o audio manipulados con inteligencia artificial (IA) para crear, reemplazar o alterar rostros, o para sintetizar voz.
Pero Cornejo no es el único cuya imagen ha sido utilizada recientemente y manipulada gracias a la IA. Desde Factchequeado hemos detectado al menos 23 deepfakes en redes sociales (la mayoría en TikTok) que comparten información falsa o no verificada con la imagen de Cornejo o de periodistas.
Otro ejemplo es este deepfake en TikTok que, según pudimos corroborar con una búsqueda inversa en Bing, muestra la imagen de María Elena Salinas –periodista que fue copresentadora del Noticiero Univision por varias décadas– supuestamente diciendo que el 4 de junio de 2025 se llevarían a cabo redadas en 20 tiendas de la cadena Dollar Tree.
También encontramos este video que, según una búsqueda inversa en Google Lens, muestra la imagen de Enrique Acevedo, presentador del programa “En Punto con Enrique Acevedo” de la cadena NMás (de Televisa Univisión), donde supuestamente afirma que el vicepresidente “JD Vance llama loco a [Donald] Trump y exige su destitución”.
Búsquedas en Google (aquí y aquí) de Salinas y Acevedo junto con las afirmaciones que se encuentran en los videos no arrojaron resultados que prueben que hayan dicho eso y tampoco aparecen en videos de sus cuentas oficiales ni en medios de comunicación.
Los deepfakes erosionan la confianza pública en los medios digitales, dicen expertos
Siwei Lyu, experto de la Universidad de Buffalo, explicó a Factchequeado que los deepfakes están “erosionando la confianza pública en los medios digitales al hacer más difícil la distinción entre contenido real y manipulado”.
También agregó que actualmente “crear un deepfake convincente es más fácil que nunca para la persona promedio” ya que “aplicaciones y plataformas online intuitivas ofrecen herramientas para cambiar rostros o clonar voces con solo unos clics, sin necesidad de programación ni conocimientos técnicos”.
“Muchos de estos servicios son gratuitos o de bajo costo” dijo Lyu a Factchequeado a través de correo electrónico.
En el caso del video del “sargento Cornejo” y los supuestos cambios en las leyes de los semáforos, Lyu dijo que “parece estar sincronizado con el audio TTS (text to speech o texto a voz, en español), análisis que hace a partir de los movimientos faciales “poco naturales, las formas repetidas de la lengua, los reflejos asimétricos en los ojos y la pronunciación diferente de ciertas palabras como ‘Trump’”.
Según el Departamento de Seguridad Nacional (DHS, por sus siglas en inglés), una manera de crear un deepfake es por medio del “cambio de cara” (face swap, en inglés), que permite “intercambiar el rostro de una persona por el rostro y el cuerpo de otra”. Otra manera es la “sincronización labial” (lip synching, en inglés), que permite “mapear una grabación de voz (…) sobre una grabación de video diferente, para que el sujeto del video parezca decir algo auténtico”.
Esta tecnología ha sido utilizada para intentar influir en elecciones y crear pornografía no consensuada, según GAO. Alrededor del “96% de los deepfakes son deepfakes sexuales no consensuados; de ellos, el 99 % son de mujeres”, según un reporte de 2024 del Instituto de Georgetown para la Mujer, la Paz y la Seguridad.
Los deepfakes también se utilizan en estafas –estas aumentaron en un 245% interanual a nivel mundial, de acuerdo a un reporte de mayo de 2024 de Sumsub, un servicio de verificación de identidad.
En Factchequeado también te hemos contado en esta nota sobre avatares creados con IA que posiblemente comparten desinformación.
En figuras públicas, las imágenes, video y audio —ingredientes para crear un deepfake— son “ampliamente accesibles”
Como te contamos en Factchequeado, los deepfakes usan redes neuronales que han sido entrenadas para aprender los gestos, las expresiones faciales y las voces de personas, que luego son utilizadas para generar videos en los que aparecen esas personas hablando y en movimiento.
Este proceso, según Lyu, es como enseñarle a una “computadora inteligente” cómo se ve y se escucha una persona para que luego pueda “generar una versión falsa”, sea un “video, audio o imagen” de esa persona. La “IA estudia muchas imágenes o videos o audios de alguien” para hacer un deepfake, agregó.
“Este tipo de datos son ampliamente accesibles, especialmente de figuras públicas” cuyas imágenes y voces se encuentran en las “redes sociales, videos de YouTube, entrevistas y los podcasts”, dijo Lyu.
Cómo detectar un deepfake
Hany Farid, profesor de Ingeniería Eléctrica y Ciencias de la Computación en la Universidad de California, Berkeley, recomienda “ir más despacio” cuando se encuentre este tipo de contenido. En un video titulado “cómo detectar deepfakes” de la cuenta en YouTube de noticias de la Universidad de Berkeley, Farid dijo que “el problema de la desinformación tiene dos partes: los creadores y los difusores. Y quienes retuitean, comparten y dan ‘me gusta’, son parte del problema”.
De hecho, el deepfake del periodista Acevedo, donde se afirma que Vance supuestamente llamó loco a Trump, fue compartido 810 veces hasta el 6 de junio de 2025. Seis días después había sido compartido más de 4,000 veces.
Lyu recomienda lo siguiente para detectar un deepfake:
Presta atención al rostro y voz. Busca el parpadeo no natural, movimientos faciales rígidos, falta de coincidencia entre los labios y el audio; iluminación y sombras inconsistentes, especialmente alrededor de los ojos y la boca; el rostro demasiado liso o que no coincide con el cuerpo y el fondo.
En deepfakes de audio, busca la falta de emoción en la voz, ritmo extraño o tono robótico que no coincide con el habla humana normal.
Confía en tu instinto. Si algo te parece raro o “fuera de lugar” probablemente lo sea. También piensa si esa persona está haciendo o diciendo algo que no es coherente con su comportamiento habitual.
Busca pistas en el contexto, como ubicar la fuente del video o si ha sido verificado por medios de comunicación.
Verifica el contenido o usa herramientas de detección confiables para verificar su autenticidad (En Factchequeado te hemos explicado cómo detectar desinformación generada con IA, el método SABE para no caer en desinformación y cómo verificar lo que ves en redes sociales sobre migración).
Calificamos los 23 videos que encontramos como deepfakes en esta nota porque presentan varias de estas señales. Por ejemplo, entre otros detalles, vemos que no hay completa sincronización entre las palabras y el movimiento de la boca y que la voz resulta un poco monótona en todos los casos.
Factchequeado es un medio de verificación que construye una comunidad hispanohablante para contrarrestar la desinformación en Estados Unidos. ¿Quieres ser parte? Súmate y verifica los contenidos que recibes enviándolos a nuestro WhatsApp +16468736087 o a factchequeado.com/whatsapp.
Lee también:
Un 'deepfake' no es lo mismo que una imagen manipulada: qué diferencias hay entre ambos conceptos
El método SABE: 4 pasos para que no caer en desinformación
Cómo saber si lo que ves en redes sociales sobre inmigración es una noticia falsa