MENÚ

Qué sabemos sobre la recomendación de Elon Musk de subir documentos médicos a Grok: no es una buena idea, según los expertos

Publicado
Claves
Si sólo tienes unos segundos, lee estas líneas:

  • Elon Musk, el dueño de X (antes Twitter) y asesor de Donald Trump, recomendó en varias ocasiones compartir imágenes y documentos médicos con Grok, la IA de su red social, para obtener un diagnóstico de salud.
  • Esto contradice la Política de Privacidad de xAI, su compañía detrás de Grok, que pide a los usuarios no compartir información sensible con el chatbot y advierte de que los documentos que subimos se recopilan y pueden compartirse.
  • Los chatbots de IA no son fuentes fiables de información de salud y pueden cometer errores en los diagnósticos. Los médicos no recomiendan su uso con estos fines, ya que puede sugerir tratamientos inadecuados.

Por Maldita.es, medio cofundador de Factchequeado
Comparte
Etiquetas

“Ahora mismo puedes subir tus radiografías o imágenes de resonancia magnética a Grok y te dará un diagnóstico médico. He visto casos en los que es incluso mejor que lo que te dicen los médicos”. Con estas palabras, Elon Musk, dueño de X (antes Twitter) y asesor de la Administración del presidente Donald Trump que lidera el Departamento de Eficiencia Gubernamental (DOGE, por sus siglas en inglés), alabó las capacidades de Grok, la IA de su red social, para analizar imágenes médicas durante el podcast The Joe Rogan Experience. Ya lo había hecho antes: en su cuenta de X, la más popular en la plataforma con más de 219 millones de seguidores, recomendó por lo menos unas cinco veces usar su chatbot de IA generativa para analizar datos de salud (que son sensibles y están especialmente protegidos) como escáneres (ultrasonidos, rayos X), resultados de sangre y otros análisis. 

Pero la recomendación del líder del nuevo Departamento de Eficiencia Gubernamental (DOGE) contradice la propia Política de Privacidad de xAI, la compañía de Musk que desarrolla Grok, que pide a los usuarios no proporcionar información personal e indica que los documentos que se compartan con esta IA son recopilados y pueden compartirse con terceros. Este no es el único riesgo: los chatbots de IA no son una fuente fiable de información de salud y pueden cometer errores, también en sus diagnósticos. Por ejemplo, una radióloga tuiteó que Grok confundió una mamografía con la imagen de un cerebro. Los médicos consultados por Maldita.es, medio cofundador de Factchequeado, no recomiendan el uso de Grok con estos fines, ya que puede resultar en tratamientos inadecuados. 

Musk recomienda compartir documentos e imágenes médicas con Grok para recibir diagnósticos 

Desde octubre de 2024, Elon Musk lleva recomendando a sus seguidores probar el chatbot de IA generativa de X para analizar documentos médicos y recibir un diagnóstico. “Intenta subir rayos X, PET (tomografías por emisión de positrones), MRI (imágenes por resonancia magnética) u otras imágenes médicas a Grok para su análisis. Sigue en una etapa temprana, pero ya es bastante exacto y se volverá extremadamente bueno. Dinos cuándo Grok acierta y cuándo necesita mejorar”, tuiteó el 29 de octubre de 2024 en una publicación con más de 41 millones de visualizaciones. 

Desde entonces, publicó por lo menos otras 4 veces con la misma recomendación y apareció en el podcast del comediante Joe Rogan animando a usar Grok con estos fines. 

“Puedes subir cualquier imagen a Grok, incluyendo imágenes médicas y recibir su opinión (no de doctor). Grok diagnosticó de forma correcta a un amigo a partir de sus imágenes médicas”, tuiteó el 9 de noviembre del año pasado, con más de 8.6 millones de visualizaciones. 

En estas publicaciones, el dueño de Tesla y SpaceX también sugirió a sus seguidores compartir con el chatbot de IA resultados de pruebas de sangre y otras analíticas.  

Capturas de los tuits de Elon Musk sugiriendo subir documentos e imágenes médicas a Grok.

Esta recomendación contradice la Política de Privacidad de xAI, que pide no compartir información personal 

Esta recomendación que Musk hizo públicamente una y otra vez entra en contradicción con la Política de Privacidad de xAI, su compañía detrás del desarrollo de Grok. En esta, la empresa dice no pretender recopilar información personal confidencial, como información sobre la salud o datos biométricos de los usuarios. 

Te solicitamos que no nos proporciones dicha información”, pide el protocolo de uso de la propia empresa. Además, el texto señala que xAI “no procesa datos de entrenamiento con el propósito de inferir o deducir datos sensibles o de categoría especial” y que tampoco “busca activamente fuentes de datos que incluyen datos sensibles o de categoría especial”. 

La misma política también aclara que recopilan información de los ‘prompts’ (instrucciones de texto) y documentos que subimos a Grok, “como archivos, imágenes, audios y otros materiales”, y que si compartimos información personal, esta puede ser “reproducida” en los resultados del chatbot: “Te pedimos que no incluyas información personal en tus entradas, sin embargo, no podemos controlar lo que nos entregas”

La información que recopilan del contenido de los usuarios, según xAI, puede usarse para analizar, mantener, desarrollar y mejorar el chatbot, además de para garantizar su seguridad e integridad y realizar investigaciones. La política indica que esta información puede compartirse con “proveedores, en relación con transferencias comerciales y a las compañías asociadas”, con los riesgos que esto puede conllevar. 

Los chatbots de IA pueden cometer errores y dar diagnósticos equivocados  

Lo que pueda suceder con nuestra información personal no es el único riesgo de usar Grok con estos fines. Apoyarnos en la IA de X para obtener un diagnóstico médico puede suponer riesgos para nuestra salud, ya que estos chatbots no son fuentes fiables de información de salud y pueden mezclar la información, desordenar los datos y cometer errores. Y lo más importante: no hay un profesional médico detrás, es solo un modelo de IA jugando a juntar datos en base a probabilidades.

Cuando Musk lanzó por primera vez la idea de usar Grok para analizar imágenes médicas, algunos radiólogos pusieron a prueba esta recomendación. Por ejemplo, el radiólogo francés, Thibaut Jacques, publicó en X los resultados que arrojó la IA a sus imágenes de resonancia magnética, que calificó como “no ciertos”, “muy genéricos y sin diagnóstico”. 

Laura Heacock, radióloga e investigadora de aprendizaje profundo, también puso a prueba al chatbot con varias imágenes médicas y concluyó en un hilo de X que no hubo “ningún diagnóstico correcto” e incluso que Grok había confundido una mamografía con la imagen de un cerebro. 

También pueden tener un sesgo de adulación que haga que nos den sólo respuestas que queremos escuchar o sufrir alucinaciones (respuestas incorrectas o sin fundamento generadas por un modelo) y crear resultados sin sentido o inexactos que podrían llevar a recomendar o aconsejar cosas que no sean buenas para las personas. 

Para Javier Ferrero, médico y programador, uno de los riesgos radica en los datos que utiliza Grok para responder: “Sabemos que toma los resultados de su gestión de millones de datos que están accesibles y que hay bastantes que no son ciertos”. 

“Un modelo mal entrenado produce resultados erróneos con importantes consecuencias para la salud. Yo no recomiendo el uso de esta herramienta como sustituto de un especialista médico”, afirmó Roberto Sánchez, médico experto en protección radiológica. Además, el especialista sugirió que el llamamiento a subir estas imágenes a Grok “podría estar relacionado con la obtención de grandes cantidades de imágenes reales y actuales, que son necesarias para entrenar el modelo”. 

Ferrero matizó que los sistemas de IA pueden apoyar y ser muy útiles para el trabajo de los médicos (es decir, como una herramienta de apoyo para los profesionales, no un sustituto). Sin embargo, el médico recordó que es importante “evaluar los porcentajes de casos dudosos o falsos y las consecuencias que pueden tener para los pacientes”. En ese sentido, advirtió de que un usuario puede aplicar “tratamientos inadecuados” si una IA comete un error. “Creo que es un porcentaje bajo, pero claro, si hablamos de salud, las malas decisiones siempre son importantes”, concluyó. 

Factchequeado es un medio de verificación que construye una comunidad hispanohablante para contrarrestar la desinformación en Estados Unidos. ¿Quieres ser parte? Súmate y verifica los contenidos que recibes enviándolos a nuestro WhatsApp +16468736087 o a factchequeado.com/whatsapp.

Lee también:

Cómo la nueva versión de Grok, la IA de Elon Musk en X, se está usando para generar imágenes violentas, vejatorias y sexualizadas de figuras políticas y famosas

Cómo detectar desinformación generada por inteligencia artificial (IA)

Republica nuestro contenido

Puedes republicar tu contenido en tu sitio de forma gratuita respetando nuestra licencia e insertando este código en la página donde lo republiques. Contacta con nosotros en [email protected]

Lo más nuevo