Sam Altman, CEO de OpenAl, una de las empresas más grandes de inteligencia artificial (IA), dijo estar “muy nervioso de que tengamos una importante crisis de fraude inminente” debido a la IA, durante la conferencia de la Reserva Federal del 22 de julio de 2025. Altman advertía en ese evento sobre el uso de la IA para emular la voz de una persona y así burlar los controles de seguridad de los bancos para mover dinero.
“Algo que me aterra es que aparentemente todavía hay instituciones financieras que aceptan la huella de voz como autenticación para mover mucho dinero o hacer algo más. Tú dices una frase de seguridad y lo hacen”, dijo Altman. “Es una locura que se siga haciendo. (…) La IA ha superado por completo la mayoría de los métodos de autenticación actuales, salvo las contraseñas”.
En los últimos meses, en Factchequeado hemos detectado un aumento del uso de la IA en contenidos desinformantes y estafas. Y, además del ejemplo que cita Altman, hay muchas otras maneras en las que se está utilizando la IA para cometer estafas, como ocurre con los deepfakes –manipulaciones a base de IA que pueden recrear el rostro, los movimientos y la voz de una persona, como celebridades o empresarios o hasta familiares.
Aquí listamos algunos ejemplos de estafas comunes con esta tecnología para que estés mejor preparado para advertirlas:
Estafas de inversión: aquí le dicen a la víctima que puede “ganar dinero” rápido o fácilmente sin “ningún riesgo”, invirtiendo en mercados financieros, criptomonedas, bienes raíces o metales preciosos y monedas.
Estafas de romance (romance scam): los estafadores tratan de entablar una relación con las víctimas para ganarse su confianza y, posteriormente, pedir dinero. Para hacerlo, se crean perfiles falsos en sitios y aplicaciones de citas o se comunican a través de redes sociales como Instagram o Facebook.
Fraude por compromiso de correo electrónico empresarial (business email compromise o BEC): en esta modalidad de scam los criminales envían emails que parecen provenir de una fuente conocida (un proveedor, un jefe, una compañía con la que se está haciendo un negocio) y solicitan información o dinero.
Rescate por secuestro: los estafadores contactan a la víctima afirmando que secuestraron a uno de sus familiares y exigen una recompensa para liberarlo.
En un testimonio escrito a la Comisión de Bolsa y Valores de Estados Unidos (SEC, por sus siglas en inglés), Perry Carpenter, estratega jefe de gestión de riesgos humanos en KnowBe4, una plataforma de ciberseguridad que aborda de manera integral la gestión de riesgos humanos, dijo que “hemos llegado a un punto de inflexión crítico: la IA está transformando fundamentalmente el fraude financiero, haciendo que las estafas sofisticadas sean más accesibles, escalables y convincentes que en cualquier otro momento de la historia”.
Como te contamos en esta nota de Factchequeado, los videos, imágenes o audios que se requieren para hacer un deepfake “son ampliamente accesibles, especialmente de figuras públicas cuyas imágenes y voces se encuentran en las “redes sociales, videos de YouTube, entrevistas y los podcasts”.
Te explicamos cómo se están utilizado los deepfakes en cada una de las categorías de estafas mencionadas y lo que puedes hacer para protegerte.
Estafas de inversión
Los estafadores han adaptado el uso de deepfakes de personas famosas (como multimillonarios, economistas, autoridades de gobierno o periodistas) para dar la impresión de que están hablando a favor de la supuesta iniciativa de inversión. En la mayoría de los casos registrados incluyen un enlace a páginas no legítimas que imita a medios de comunicación o, simplemente, mencionan la falsa inversión.
Nuestros aliados de elDetector de Univision, reportaron en 2023, el uso de deepfakes del presentador chileno Mario Kreutzberger, conocido como Don Francisco, en un anuncio en Facebook que promovía una supuesta plataforma de inversiones de Elon Musk, dueño de la red social X (antes Twitter) y SpaceX. “Elon Musk presentó su nuevo proyecto en el que ya ha invertido más de 3,000 millones de dólares”, decía Kreutzberger, pero el movimiento de los labios no coincidía con sus palabras.. María Luisa Calderón, coordinadora internacional del presentador, dijo a elDetector que “Don Francisco nunca hizo esa declaración".
El mismo año, la imagen de Musk fue utilizada en anuncios endosando una supuesta “oportunidad de inversión”. Un hombre llamado Steve Beauchamp, de 82 años, invirtió los 690,000 dólares de su cuenta de retiro en la supuesta iniciativa creyendo que era avalada por el empresario.. Sin embargo, no era Musk sino un deepfake creado a partir de sus entrevistas. La voz y gestos faciales del magnate fueron editados para que pareciera apoyar la iniciativa fraudulenta y Beauchamp perdió todo su dinero invertido, según reportó The New York Times.
En México, nuestros aliados de LatamChequea de Animal Político detectaron 166 publicaciones en julio de 2024 que utilizaron la imagen de Claudia Sheinbaum, presidenta de México, para atraer a personas a esquemas fraudulentos de inversión. En la mayoría de los anuncios incluyeron enlaces de páginas con el nombre de la presidenta, como el de “claudiasheinb.com”, pero que no estaban relacionadas con ella. Al ingresar a esta página, no hay mención de la presidenta, pero sí aparecen la imagen de Musk, y logos de entidades como SMÅA, un fondo de seguridad social para empresarios, o Nyföretagar Centrum, que brinda asesoría de inversión, ambos de Suecia. La página también pide que ingreses información personal como nombre y correo electrónico.
Las imágenes de figuras como Andrés Manuel López Obrador, expresidente de México; el empresario Carlos Slim;el periodista Joaquín Lopez Doriga y el cantante Carin León, también se utilizaron para este tipo de scams en México.
Utilizando la misma técnica, en Argentina, Chequeado, medio cofundador de Factchequeado, reportó que se hicieron deepfakes del economista argentino Carlos Melconian, del periodista José Del Río y del vocero presidencial Manuel Adorni, para promocionar falsas plataformas de inversión. Estas estafas incluyeron enlaces a páginas falsas que variaban dependiendo desde qué dispositivo se ingresaba. Si se hacía clic desde una computadora, aparecía el sitio de una supuesta empresa de asesoría financiera. En cambio, si se ingresaba desde un teléfono móvil, aparecía un sitio falso que imitaba el formato del medio Clarín con una supuesta entrevista a Adorni sobre la “secreta plataforma de inversión de YPF”, siglas de Yacimientos Petrolíferos Fiscales, la empresa argentina de energía dedicada a la exploración, producción, refinación y comercialización de petróleo y gas.
También se han utilizado deepfakes de famosos como Taylor Swift y Oprah o líderes militares para promover productos, según advierten la fiscal general de Arizona, Kris Mayes, y Joe Ducey del Better Business Bureau, en un video publicado en el canal de la Oficina de la Fiscal el 18 de junio de 2025.
Estafas de romance
En esta modalidad de fraude, los estafadores se pueden hacer pasar por celebridades o militares. De hecho, en Factchequeado te hemos contado sobre fraudes de romance en los que estafadores utilizan las imágenes reales de soldados del Ejército o la Marina estadounidense para contactar a las víctimas haciéndoles creer que estaban interesados en una relación romántica. Según una investigación de McAfee, empresa de ciberseguridad,, publicada el 12 de febrero de 2025, una de cada cinco personas “han sido contactadas por alguien que pretende ser una figura pública conocida”. Entre los que cayeron en la estafa, un 33% perdió un promedio de 1,985 dólares.
Pero, en nuestra cobertura anterior, no advertimos sobre el uso de IA en estas estafas; sin embargo, según David Maimon, director de análisis de fraude en SentiLink y profesor en la Universidad Estatal de Georgia, el uso de la IA generativa para este tipo de fraude se ha incrementado. Lo informó en un testimonio escrito a la Comisión de Bolsa y Valores de Estados Unidos (SEC, por sus siglas en inglés), el 6 de marzo de 2025.
Maimon se especializa en la investigación del crimen cibernético y según explicó en su testimonio, él y su equipo de trabajo se infiltran en mercados de fraudes en línea alojados en entornos de la web oscura (o darknet) –red cifrada en internet a la que se puede acceder únicamente con software especializados y permiten a los usuarios mantener el anonimato– o en aplicaciones de mensajería como Telegram o WhatsApp, para extraer datos y analizarlos. Allí, ellos observaron cómo los estafadores usaban tecnología en teléfonos inteligentes para alterar sus rostros mientras cortejaban a víctimas desprevenidas.
Entre las estafas reportadas bajo esta modalidad, figuran casos donde las personas creyeron haber recibido mensajes en video de supuesto interés romántico que, en realidad, eran deepfakes. En 2025, el medio First Coast News reportó que una mujer en el condado de Putnam, Florida, perdió más de 7,500 dólares y su auto por un estafador que se hizo pasar por el actor oriundo de Hawaii, Jason Momoa. La víctima recibió videos en los que se ve a un hombre con la imagen y rasgos faciales del actor diciendo “quiero que sepas que te amo y te extraño” o “quiero que sepas que estoy haciendo lo mejor que puedo para conseguir el dinero, pero, por favor, espero que cuando tengas tu pago mensual que puedas al menos apoyarme de alguna manera”.
En 2023, el medio ABC 7 reportó que se utilizaron deepfakes de mujeres en para convencer a hombres de enviarles dinero para supuestamente invertir en la bolsa de valores. Uno de los hombres citados en la nota afirmó haber perdido alrededor de 60,000 dólares.
En 2024, una mujer de 77 años de Escocia aseguró haber perdido 17,000 libras esterlinas (más de 22,871 dólares estadounidenses) al enviarle ese dinero por transferencias bancarias y por la aplicación PayPal a una persona con la cual creía tener una relación en línea. La víctima recibió mensajes grabados en video en los que se puede ver y escuchar a una mujer con tez clara diciendo cosas como “espero que este video demuestre que estás equivocada con todos los pensamientos negativos”.
Fraude por compromiso de correo electrónico empresarial
Bajo las estafas de correo electrónico empresarial (BEC, por sus siglas en inglés), los estafadores contactan a empleados de compañías haciéndose pasar por proveedores, por el director ejecutivo (CEO) de la empresa o por compañías proveedoras de servicios.
Los estafadores que engañan con esta modalidad suelen enviar correos electrónicos desde direcciones parecidas a las legítimas de la compañía o desde una cuenta hackeada y solicitar dinero o información personal que luego pueden utilizar para acceder a cuentas de la compañía, calendario, y datos. También pueden usar un software malicioso que puede infiltrarse en las redes de las empresas y acceder a conversaciones de correo electrónico legítimas sobre facturación, según explica el Buró Federal de Investigaciones (FBI, por sus siglas en inglés). Sin embargo, autoridades y compañías en Estados Unidos y de otros países han reportado que los estafadores están utilizando deepfakes de empleados y directores ejecutivos para hacerlos aún más convincentes.
En Estados Unidos, Carlos Watson CEO y cofundador de la empresa de entretenimientos actualmente extinta, Ozy, y Samir Rao, un ejecutivo y cofundador de Ozy, acordaron hacerse pasar por un ejecutivo de YouTube para intentar engañar a la institución financiera, Goldman Sachs en invertir 45 millones de dólares. Rao, con la aprobación de Watson, creó un correo electrónico falso en nombre del ejecutivo de YouTube y utilizó una aplicación en su celular para ocultar su voz en una llamada telefónica con el banco de inversión y firma de servicios financieros con sede en Nueva York. Watson, estaba en el mismo cuarto con Rao cuando ocurrió la llamada y le envió mensajes de texto con instrucciones sobre qué decir y que no, según el Departamento de Justicia (DOJ, por sus siglas en inglés).
Por este y otros casos donde engañaron a inversores y se hicieron pasar por ejecutivos de empresas de medios, Watson fue sentenciado a casi 10 años de prisión en diciembre de 2024 por “conspiración para cometer fraude de valores, conspiración para cometer fraude electrónico y robo de identidad agravado”. Sin embargo, la sentencia de Watson fue conmutada por el presidente Donald Trump en marzo de 2025. Rao, quien testificó en contra del ex CEO de Ozy, fue “condenado a un año de libertad condicional”, según el DOJ.
Entre los casos más conocidos de uso de deepfakes en estafas de BEC se encuentra el de la empresa multinacional británica Arup. Uno de sus empleados en Hong Kong fue engañado y llegó a pagar más de 25 millones de dólares a estafadores, según reportaron CNN o CNBC a inicios de 2024. El trabajador dijo que asistió a una videoconferencia donde aparentemente el director financiero de la compañía le ordenó hacer transferencias de dinero. Pero tanto el supuesto director financiero como los otros empleados que aparecieron en la videoconferencia eran, en realidad, deepfakes.
En julio de 2024, un ejecutivo del fabricante de carros deportivos de lujo Ferrari fue el objetivo de un estafador que se hizo pasar por el director ejecutivo de la compañía, Benedetto Vigna. El estafador incluso clonó la voz y acento italiano de Vigna, pero fue descubierto cuando el ejecutivo le preguntó sobre el libro que le había recomendado días atrás –algo que solo el verdadero Vigna sabía. Al no poder responder la pregunta, el falso director ejecutivo colgó la llamada.
Rescate por secuestro virtual
Los estafadores utilizan IAa para clonar las voces de un familiar o ser querido para pedir asistencia financiera inmediata o exigiendo un rescate, según una alerta del FBI del 3 de diciembre de 2024.
Una mujer hispana de 86 años fue estafada por una persona que imitó la voz de un hombre que ella conocía y consideraba como su hijo y que le pidió 6,000 dólares para supuestamente pagar una fianza y salir de la cárcel, según reportó Univisión Miami en mayo de 2024.
En 2023, Jennifer DeStefano, una mujer de Arizona, dijo en un testimonio escrito al Senado de Estados Unidos, que un “viernes en la tarde” recibió una llamada de un número desconocido que “iba a ignorar”. Pero, cuando decidió contestar escuchó la voz, sollozos y llanto de su hija de 15 años pidiendo ayuda y la de un hombre que, en tono vulgar, dijo que la había secuestrado y pidió un millón de dólares para su rescate.
Mientras el supuesto secuestrador decía “voy a hacer lo que quiera con ella, la dejaré en México y nunca la volverás a ver”, también se podía escuchar a la hija de DeStefano en el fondo diciendo “¡mamá ayúdame!”, según el testimonio. Solo se dio cuenta del engaño cuando una mujer que se encontraba a su lado pudo contactar a su esposo, quien a su vez localizó a la hija que supuestamente fue secuestrada ”descansando a salvo en la cama”.
“No podía creer que estaba a salvo hasta que escuché su voz decir que lo estaba”, dijo DeStefano.
El 8 de enero de 2025, el distrito escolar de Peekskill City, en el estado de Nueva York, advirtió sobre dos familias que fueron contactadas por extraños que afirmaron haber secuestrado a sus seres queridos y demandaron el pago de un rescate.
Cómo detectar un deepfake de audio o video para que no te engañen
Aquí compartimos algunos consejos para detectar deepfakes de audio o video que ofrecen la Comisión Federal de Comercio (FTC, por sus siglas en inglés), el MIT Media Lab, laboratorio de investigación interdisciplinario de la Escuela de Arquitectura y Planificación del Instituto Tecnológico de Massachusetts, y el Instituto de Tecnología de la Universidad de Miami.
Verifica la fuente: No confíes en la voz. Llama a la persona que supuestamente te está contactando usando un número de teléfono que sabes que le pertenece y verifica la historia. Si no puedes contactarla, trata de ponerte en contacto a través de uno de sus familiares o sus amigos. En Factchequeado también recomendamos hacer una pregunta que solo la persona real puede saber. Si en el mensaje mencionan alguna alguna entidad o sitio web que supuestamente informó algo, trata de verificar directamente con esa fuente.
Presta atención al rostro. Las manipulaciones de deepfakes de alta calidad casi siempre son transformaciones faciales.
Presta atención a las mejillas y la frente. ¿La piel se ve demasiado lisa o demasiado arrugada? ¿El envejecimiento de la piel es similar al del cabello y los ojos? Los deepfakes pueden ser incongruentes en algunas dimensiones.
Presta atención a los ojos y las cejas. ¿Aparecen sombras en lugares inesperados? Los deepfakes pueden no representar completamente la física natural de una escena.
Presta atención a las gafas. ¿Hay reflejos? ¿Hay demasiados reflejos? ¿Cambia el ángulo del reflejo cuando la persona se mueve? De nuevo, los deepfakes pueden no representar completamente la física natural de la iluminación.
Presta atención al vello facial o la ausencia del mismo. ¿Parece real? Los deepfakes pueden añadir o eliminar bigote, patillas o barba. Sin embargo, es posible que no consigan que las transformaciones del vello facial sean completamente naturales o consistentes a lo largo de un video.
Presta atención a los lunares faciales. ¿Parece real el lunar?
Presta atención al parpadeo. ¿Parpadea la persona lo suficiente o demasiado?
Presta atención a los movimientos de los labios. Algunos deepfakes se basan en la sincronización labial. ¿Parece natural el movimiento de los labios?
Inconsistencias audiovisuales: El audio podría no sincronizarse perfectamente con los movimientos labiales, o podría haber discrepancias entre la voz del sujeto y sus acciones.
Pistas contextuales: Considera el contexto del contenido. Si parece muy improbable o fuera de lugar para la persona representada, podría tratarse de un deepfake.
Los estafadores te piden que pagues o envíes dinero de maneras que hacen que sea difícil recuperarlo. Si te piden que hagas una transferencia de dinero, envíes criptomonedas o compres y les des los números o PIN de tarjetas de regalo (gift cards), podrían ser señales de un scam.
¿Qué hacer si fuiste víctima de estafa?
Si le enviaste dinero a un estafador, la FTC recomienda actuar de inmediato y contactar a la empresa que usaste para hacer el pago y pedir que reviertan la transacción.
Puedes reportar una estafa en español a la FTC en reportefraude.ftc.gov o al Centro de Denuncias de Delitos en Internet del FBI en www.ic3.gov.
Si le compartiste tu información personal al estafador, podrías convertirte en víctima de robo de identidad. Esto ocurre cuando alguien usa tu información financiera o personal sin autorización para cometer fraude o un acto ilegal, según informa USA.gov, página oficial del gobierno de Estados Unidos. Es probable que no te des cuenta de esto de inmediato, pero podrías recibir facturas de productos que no compraste o llamadas para cobrar deudas que no son tuyas.
Puedes reportar el robo de identidad en español en RobodeIdentidad.gov o por el teléfono 1-877-438-4338 (presiona 2 para recibir atención en español).
Factchequeado es un medio de verificación que construye una comunidad hispanohablante para contrarrestar la desinformación en Estados Unidos. ¿Quieres ser parte? Súmate y verifica los contenidos que recibes enviándolos a nuestro WhatsApp +16468736087 o a factchequeado.com/whatsapp.
Leer más: