MENÚ

Cómo detectar desinformación generada por inteligencia artificial (IA) en época electoral y más allá

Publicado
Claves
Si sólo tienes unos segundos, lee estas líneas:
En la temporada electoral 2024, aumentó el uso de inteligencia artificial. Factchequeado desarrolló una guía práctica para ayudar a los votantes a identificar contenido creado o manipulado con IA.
Existen herramientas de verificación que permiten identificar imágenes, audio o texto creado o manipulado con IA, como Hugging Face, AI Voice Detector o Hive Moderation.
Si no encuentras una fuente confiable, la regla es simple: no compartas el contenido 

Por Paula Bukowinski de Factchequeado

Comparte
Etiquetas

En la temporada electoral de las elecciones en Estados Unidos 2024, aumentó  el uso de inteligencia artificial (IA) para crear y difundir desinformación. Esta nueva amenaza representa un desafío significativo para la integridad democrática, ya que la tecnología permite crear contenido falso cada vez más convincente.

"La desinformación generada por IA es particularmente peligrosa porque puede ser muy difícil de detectar a simple vista", explica Ana María Carrano, editora en jefe de Factchequeado, que ha desarrollado, con el apoyo de PEN America, un recursero para ayudar a los votantes a identificar contenido creado o manipulado mediante herramientas de inteligencia artificial.En imágenes: Observar detalles como dedos, ojos y sombras irregulares. También se puede hacer una búsqueda inversa de la imagen que se quiere analizar, para ver si se encuentra la fuente original o imágenes similares que muestren otros contextos.

  • En audio: Identificar cambios abruptos en el tono o emotividad poco natural. Prestar atención si el audio tiene efectos especiales o música de fondo, porque ello hace que las herramientas que detectan IA fallen más.

  • En videos: Estar especialmente atentos  a la sincronización labial con el audio y textura de la piel de las personas, la IA suele mostrarnos pieles más tersas que las reales.

  • En textos: Verificar la información con sitios web confiables y desconfiar especialmente del contenido que genera emociones extremas.

Si tras la observación y el uso de tus sentidos, no estás seguro de la autenticidad de un contenido, Factchequeado recomienda utilizar herramientas de verificación como Hugging Face para imágenes, AI Voice Detector para audio y Deepware para videos o Hive Moderation,  que sirve para los tres formatos. Aunque debes saber que ninguna herramienta es 100% fiable y cada una arroja un porcentaje de probabilidad de que un contenido haya sido generado con IA.

“Además de usar estas herramientas (que son actualmente algunas de las que mejor funcionan), es clave mantenerse actualizado porque evolucionan rápidamente”, advierte Nira Dinerstein, coordinadora de proyectos especiales de Educación de Chequeado . Y recuerda siempre que la mejor defensa es la verificación cruzada con fuentes confiables (fuentes oficiales, medios profesionales, instituciones académicas, organizaciones que trabajan el tema del que se informa) antes de compartir cualquier contenido.

“Es crucial leer críticamente el contexto en el que aparece el contenido sospechoso -señala Carrano-. Preguntarse qué está pasando respecto de ese tema, si el contenido o uno similar fue publicado antes, quién lo difundió, cuál es la evidencia presentada y qué dicen otras fuentes confiables al respecto nos da pistas clave para evaluar su veracidad”.

Se recomienda siempre  buscar la fuente original del contenido. Y, si no encuentras una fuente confiable que respalde la imagen, audio, video o texto, la regla es simple: no compartas el contenido si es informativo.

Algunos ejemplos: https://factchequeado.com/teexplicamos/20240830/grok-ia-elon-musk-x-twitter-imagenes-violentas-sexualizadas-politicos/ y una de Trump: https://factchequeado.com/verificaciones/20240528/foto-trump-bbq-bronx-ai/

Video/audio: https://factchequeado.com/teexplicamos/20231201/cuidado-voces-famosos-scam-ai/

Republica nuestro contenido

Puedes republicar tu contenido en tu sitio de forma gratuita respetando nuestra licencia e insertando este código en la página donde lo republiques. Contacta con nosotros en [email protected]