Los chatbots de inteligencia artificial —como ChatGPT, Gemini, Claude, Copilot, Perplexity o Grok— se han vuelto herramientas cotidianas para millones de personas en el mundo. Sin embargo, cada vez que chateamos con ellos, compartimos información que puede ser recopilada, almacenada y utilizada de formas que pocas veces leemos en los términos y condiciones.
Te explicamos por qué es bueno tener precauciones y te damos algunas recomendaciones basándonos en análisis de expertos en ciberseguridad, académicos que investigan cuestiones de privacidad y organizaciones especializadas.
¿Qué datos recopilan los chatbots de IA?
Un análisis realizado por la empresa de ciberseguridad Surfshark de los chatbots más populares en la App Store de Apple mostró lo siguiente:
Todos los chatbots analizados recopilan algún tipo de datos del usuario.
En promedio, cada app recopila 13 tipos de datos distintos.
El 45% de las apps recopila la ubicación del usuario.
Meta AI —dueña de WhatsApp, Instagram, Messenger y Facebook— es la app más invasiva: recopila 32 de los 35 tipos de datos posibles. Incluyendo los más sensibles: salud, finanzas, orientación sexual, creencias religiosas, datos genéticos y biométricos.
Copilot, Poe y Jasper recopilan datos que pueden venderse a brokers (intermediarios comerciales) de datos o usarse para publicidad dirigida.
En el caso de Perplexity, recopila 8-10 tipos de datos, de los que puedes darte de baja fácilmente (opt-out fácil), pero según la empresa, ellos no los venden.
En cuanto a Grok, la IA de Elon Musk, recoge alrededor de 20 tipos, incluyendo todos tus posteos, y viene activado por defecto (opt-in automático).

FOTO: Captura de pantalla de un gráfico del estudio de SurfShark de mayo de 2025 sobre los datos del usuario que recopilan los diferentes chatbots de IA.
Un estudio de la Universidad de Stanford analizó las políticas de privacidad de 6 grandes empresas (Amazon, Anthropic, Google, Meta, Microsoft y OpenAI) y encontró riesgos relevantes:
Uso de conversaciones para entrenar modelos de lenguaje (LLMs).
Periodos largos de retención de datos.
El entrenamiento con datos de menores.
Falta de transparencia sobre cómo se manejan los datos.
Los chats de las plataformas como Google, Meta y Microsoft pueden mezclarse con información de búsquedas, compras y redes sociales.
En muchos casos, el entrenamiento con chats está activado por defecto y requiere que el usuario busque la opción de exclusión (“opt‑out”)
¿Cuáles son los principales riesgos para tu privacidad?
1. Filtraciones de datos y hackeos
Los chatbots almacenan conversaciones que pueden incluir información sensible: datos de tu historial médico, laboral, psicológico, amoroso, financiero o información personal de terceros. Este tipo de almacenamiento los convierte en un blanco atractivo para ciberdelincuentes.
Los riesgos incluyen explotación de APIs (Interfaz de Programación de Aplicaciones), secuestro de sesiones (session hijacking), escalada de privilegios y vulnerabilidades en integraciones con terceros, que se producen cuando el chatbot está conectado a otras plataformas como el correo, el calendario, los documentos en la nube. Una falla en cualquiera de esos enlaces se convierte en una puerta de entrada para los atacantes.
2. Revisión humana de conversaciones
Aunque parezca que solo hablas con una máquina, tus conversaciones pueden ser revisadas por personas de carne y hueso. Google reconoce que algunas interacciones con Gemini pueden ser revisadas por humanos para mejorar sus sistemas.
3. Publicidad y perfilado
Los datos que compartes con chatbots tienen mucho valor comercial. Meta anunció que colocará anuncios dentro de sus chatbots de IA. El mismo estudio de Surfshark sobre “AI companions” —apps como Replika, Character AI y otras— encontró que la mayoría recopilaba identificadores de dispositivo y combinaba datos con terceros para publicidad dirigida.
4. Inferencias no deseadas
Incluso si no compartes información sensible, los chatbots pueden hacer inferencias sobre ti. Un ejemplo citado por investigadores de Stanford: si le pides a un chatbot recetas bajas en azúcar o amigables para el corazón, el algoritmo puede clasificarte como una persona con vulnerabilidades de salud, por lo que después te podrían salir anuncios sobre este tema o sobre seguros médicos.
Cómo proteger tu privacidad
1.- Mientras puedas, usa la versión del chatbot sin tu cuenta
Siempre que puedas, accede a los chatbots sin crear una cuenta, sin iniciar sesión o activando su modo privado, de incógnito. Eso limita la información personal que se recopila y se asocia a tu identidad. ChatGPT tiene "Chats temporales", Gemini tiene "Chats privados", Copilot ofrece conversaciones sin historial en su versión web, Perplexity no guarda historial si navegas sin cuenta, aunque con cuenta sí lo almacena por defecto.
Las versiones sin cuenta tampoco son del todo privadas: tus prompts (que las instrucciones que le das) pueden usarse para entrenamiento de otros modelos, pero reduce la exposición de tu información personal.
2.- Configura tu privacidad
Toma las siguientes precauciones:
Evita iniciar sesión con Google o Facebook, eso puede facilitar el intercambio de datos entre plataformas.
Si tienes un Apple, “iniciar sesión con Apple” es una opción más privada: te permite ocultar tu email real y Apple no te rastrea dentro de la app.
Usa una contraseña fuerte y única.
Explora los ajustes de privacidad: desactiva historial, memoria y personalización si no los necesitas; en ChatGPT, el “Chat temporal” borra tus conversaciones tras 30 días y no las usa para entrenamiento.
3.- Datos para entrenamiento
La mayoría de los chatbots ofrecen la opción de que tus conversaciones no se usen para entrenar a sus modelos. Hay que ir a buscarlo, no siempre está activado por defecto. Estos son los pasos para hacerlo:
ChatGPT: Configuración > Controles de datos > desactivar “Mejorar el modelo para todos”.
Gemini: Actividad de Apps de Gemini > Desactivar el guardado de actividad.
Claude: Configuración > Privacidad > Desactivar “Ayudar a mejorar Claude”. Anthropic actualizó sus términos de servicio en 2025: si el usuario permite el entrenamiento, sus chats pueden conservarse hasta 5 años. Si lo desactiva, los chats se almacenan aproximadamente 30 días por razones operativas.
ChatGTP

Gemini

Claude

4.- No compartas información sensible o identificable
La regla más importante que debes tener en cuenta es: no ingresar información que no querrías que vea otra persona. Piensa en que aquello que no le confiarías a un extraño no se lo deberías confiar a una IA. Los chatbots pueden almacenar o transmitir los datos que compartes y, por ende, caerías en el riesgo de filtraciones.
No pongas tu nombre completo, dirección, número de documento o tarjeta de crédito.
No des información médica o financiera tuya o de terceros.
No entregues datos confidenciales de tu empresa: estrategias internas, contratos, listas de clientes.
No subas archivos, fotos o documentos con información sensible.
Por ejemplo, en lugar de escribir: “Revisa este mail para Canelo Ramírez de la empresa ABC sobre la renovación del contrato por $500.000”, escribe: “Revisa este mail para un cliente sobre una renovación de contrato. Concentrarse en el tono y la claridad”. O sustituye los nombres por “X”.
5.- Revisa los permisos en tu teléfono y tu navegador
¿Un chatbot realmente necesita acceso a tu ubicación, fotos, micrófono o cámara? En la mayoría de los casos, no. Si en algún momento necesitas compartir algo puntual, es mejor compartir solo eso en el momento que lo necesitas, en lugar de darle acceso permanente.
• En tu teléfono: Configuración > Privacidad > Permisos de apps.
• En el navegador: Configuración > Privacidad y seguridad > Permisos del sitio.
• Además, usar el chatbot desde el navegador suele ser una opción más privada que instalar la app en el celular.
El caso de Grok (xAI) y la privacidad
Grok es el chatbot de inteligencia artificial desarrollado por xAI, la empresa de Musk, disponible tanto en la plataforma X (ex Twitter) como en su propia app y sitio web. Desde su lanzamiento, ha protagonizado varios incidentes de privacidad.
El problema del opt-in automático
Uno de los aspectos más cuestionados de Grok es que, por defecto, todos los usuarios de X quedan automáticamente inscritos para que sus datos (como publicaciones, interacciones, inputs y resultados con Grok y en general X) sean usados para entrenar los modelos de xAI.
Sucede incluso si nunca usaste Grok.
Ante la presión regulatoria europea, xAI tuvo que suspender el entrenamiento con datos de usuarios de la Unión Europea. Pero en la mayoría de los países, el darse de baja (opt-out) sigue siendo responsabilidad del usuario en X.
La filtración masiva de chats privados en 2025
En agosto de 2025 se descubrió que cientos de miles de conversaciones privadas con Grok habían quedado indexadas en Google, Bing y DuckDuckGo. El problema estaba en la función “Compartir” de la app: al generar una URL única por conversación, esos links terminaban siendo rastreados por los buscadores sin que los usuarios lo supieran. El riesgo existe en cualquier chatbot con función de “compartir” y genera links públicos.
Ese año, se estimó que unas 370,000 conversaciones privadas quedaron expuestas públicamente, algunas con contenido muy sensible.
“Los chatbots de IA son un desastre de privacidad en proceso”, dijo Luc Rocher, de Oxford Internet Institute.
Cómo proteger tus datos si usas Grok o X
Si usas X o Grok, puedes tomar estas medidas:
Ir a Configuración de X > Privacidad y Seguridad > Compartir datos y Personalización > Grok.
Desmarcar la opción "Permitir que tus datos públicos, así como tus interacciones, inputs y resultados con Grok sean usados para entrenamiento".
Incluso si ya no usas X, vale la pena entrar a desactivar esta opción: todos tus posts históricos pueden usarse para entrenar modelos futuros salvo que lo desactives explícitamente.
Según la documentación de X, puedes borrar todo el historial de conversaciones de Grok y la compañía afirma que se eliminarán de sus sistemas en un plazo aproximado de 30 días, salvo obligaciones legales o de seguridad.
Hacer tu cuenta privada en X evita que tus publicaciones sean visibles para todos y usadas en los modelos.
Factchequeado es un medio de verificación que construye una comunidad hispanohablante para contrarrestar la desinformación en Estados Unidos. ¿Quieres ser parte? Súmate y verifica los contenidos que recibes enviándolos a nuestro WhatsApp +1 (646) 873 60 87 o a factchequeado.com/whatsapp.
Leer más:
‘Deepfakes’ sexuales: por qué afectan sobre todo a mujeres y qué leyes los regulan en Estados Unidos

