MENÚ

ChatGPT cumple 6 meses: ha mejorado pero sigue equivocándose y desconoce sucesos de actualidad

Publicado
Claves
Si sólo tienes unos segundos, lee estas líneas:

  • El modelo de inteligencia artificial ChatGPT cumplió 6 meses desde que se lanzó su versión gratuita y se ha convertido en la plataforma que más usuarios ha reunido en menos tiempo en la historia de Internet.
  • En este tiempo ha mejorado, pero sigue equivocándose y no evoluciona en temas conectados a la actualidad (como la invasión de Ucrania) porque su base de datos de entrenamiento llega hasta 2021.
  • Hemos hablado de los riesgos de consultarlo como entrenador o nutricionista y de su uso en timos. Actualmente, la legislación de este tipo de sistemas de IA sigue en el aire.
Comparte

Hoy se cumplen 6 meses desde que el modelo de inteligencia artificial (IA) ChatGPT, desarrollado por la empresa OpenAI, se lanzó de forma pública. En este tiempo, la versión gratuita de esta herramienta se ha democratizado y ha llegado a millones de usuarios: apenas 2 meses después de su lanzamiento, el 30 de noviembre de 2022, ya había alcanzado los 100 millones de usuarios mensuales, convirtiéndose en la plataforma de Internet que más rápido ha crecido en toda la historia.

Meses más tarde, el 1 de febrero de 2023, OpenAI lanzó GPT Plus, la versión de pago del chatbot impulsada por el modelo de IA GPT-4 que permite funciones exclusivas, como respuestas más rápidas o el acceso a Internet. No obstante, es la versión gratuita la que más usuarios aglutina: solo en enero recibía más de 13 millones de usuarios al día, según un estudio de la consultora UBS. Además, el chatbot ya cuenta con su propia aplicación para móviles: de momento solo está disponible en Estados Unidos y para usuarios iOs (Apple), aunque se espera que próximamente se lance también para Android.

A pesar de que el chatbot ha evolucionado durante los últimos 6 meses, ChatGPT sigue equivocándose y no está conectado a la actualidad (la base de datos con la que se le entrenó llega hasta 2021). Por eso desconoce sucesos como la guerra de Ucrania. Los expertos consultados por Maldita.es, medio cofundador de Factchequeado aseguran que la IA no está todavía “lo suficientemente perfeccionada”, ya que en muchos casos sigue “inventándose la información”. Además, su uso en campos como el de la nutrición y el deporte puede entrañar riesgos.

ChatGPT cumple 6 meses: ¿está la IA lo suficientemente perfeccionada como para usarla a ciegas?

El crecimiento de ChatGPT durante los últimos 6 meses ha hecho que muchos usuarios crean que la herramienta sirve para todo sin fallo ni error. Sin embargo, está lejos de ser así. El chatbot presenta una serie de limitaciones desde sus inicios: ChatGPT no puede usarse como si fuera Google u otro buscador, ya que no está conectado a Internet, y tampoco dice siempre la verdad o responde con información correcta.

Julio Gonzalo, experto en inteligencia artificial, explica a Maldita.es, que los modelos de lenguaje no manejan un “conocimiento explícito” sobre el mundo, sino que siguen hablando de oídas: “Cuando hablan de algo de lo que no sabes nada, te da la impresión de que ellos saben mucho. Cuando hablan de algo en lo que tú eres experto, enseguida ves las costuras: la información que dan, a menudo, es trivial o inventada”.

Juan Alonso, experto en IA y parte del laboratorio Both, señala a Maldita.es que la IA está perfeccionada para devolver un texto coherente, pero eso no significa que diga la verdad: “Repitiendo la pregunta o cambiando de orden un par de palabras puede devolver resultados muy diferentes”. El modelo GPT, explica, se ha entrenado con combinaciones de preguntas y respuestas de todo tipo, como escribir poemas, resumir textos o, incluso, contar chistes. “El modelo "aprende" de los textos que ha visto. Si hay información incorrecta, el sistema la incluye en sus respuestas”, señala el experto. Por ejemplo, en algunas versiones de GPT, a la pregunta de ‘¿qué ocurre si se rompe un espejo?’ podremos recibir una respuesta que diga que tendremos siete años de mala suerte.

En qué ha mejorado ChatGPT y en qué sigue fallando: ejemplos en nociones matemáticas y sucesos de actualidad

En sus inicios el chatbot fallaba al asegurar que el 9 era un número primo, cuando no lo es, como explicaron en la Maldita Twitchería Tecnológica. Meses después, la herramienta ya responde de forma correcta a esta pregunta aunque sigue equivocándose en algunas ecuaciones. Alonso probó a plantearle la ecuación de Mifflin-St Jeor –que calcula el consumo energético basal, es decir, el número de calorías que quema el cuerpo en reposo– y obtuvo 2 resultados. El primero es correcto según la ecuación. El segundo, incorrecto: se inventa la ecuación y hay casi un 20% de diferencia.

El primer resultado obtenido por Alonso es correcto.
Este segundo resultado, sin embargo, es incorrecto.

En la Maldita Twitchería Tecnológica, Alonso explicaba que, aún así, su evolución en estos últimos 6 meses ha sido espectacular: “En marzo mejoraron toda la parte de relacionada con las matemáticas, cambiaron la programación para que sea capaz de entender instrucciones más complejas, que simule un razonamiento más avanzado y sea más creativo”.

En estos primeros meses de vida, decía, se han aplicado mejoras que lo han hecho más potente, más interesante y puede que hasta “más peligroso”. Los riesgos, explicaba, no están en que el chatbot pueda fallar, sino en que es más difícil detectar los errores: “Tendemos a pensar que lo que vemos es cierto porque nos parece coherente”.

Si hablamos de actualidad, hay varios ejemplos reseñables en los que el chatbot se equivoca. Desde septiembre de 2021, se han producido diferentes sucesos que han marcado la historia. Por ejemplo, la guerra de Ucrania. El chat reconoce que el conflicto comenzó en 2014 con la anexión rusa de la península de Crimea. Sin embargo, asegura que continúa en la actualidad a un “nivel más bajo de intensidad que en los años anteriores”. Desconoce, por lo tanto, que la madrugada del 24 de febrero de 2022 Rusia invadió a Ucrania.

Conversación con ChatGPT sobre la guerra de Ucrania.

Si le preguntamos por el dueño de la red social Twitter, ChatGPT nos seguirá hablando de Jack Dorsey y de su reemplazo por Parag Agrawal. Ni rastro del empresario Elon Musk, que compró la compañía en 2022.

Conversación con ChatGPT sobre el dueño de Twitter.

Lo mismo ocurre con temas más sencillos y virales como la ruptura de la cantante Shakira y el futbolista Gerard Piqué. La IA no duda en afirmar que “no hay evidencias” de que la pareja se haya separado. Tampoco tiene constancia de la sesión que la artista tiene con el productor argentino Bizarrap, un éxito mundial: “No tengo conocimiento de que Shakira haya sacado una canción con Bizarrap hablando mal de Piqué”.

Conversación con ChatGPT sobre la ruptura de Shakira y Piqué.

Falla, incluso, cuando le preguntamos por el día en el que estamos. Durante la Maldita Twitchería Tecnológica, Alonso le preguntaba al chatbot en directo en qué día estábamos. “Martes 17 de mayo de 2023”, contestó. Falló: la fecha era correcta, pero no el día de la semana, ya que era miércoles 17 de mayo de 2023. “Sabe que martes va relacionado con las fechas, pero no tiene el conocimiento de que la fecha se corresponde con otro día concreto de la semana”, explicaba.

La IA se afina pero no amplía la base datos: sigue congelada en 2021

Este tipo de modelos de IA, como explicábamos, aprende en base a millones de ejemplos con los que ha sido entrenado. Alonso explica que, durante la fase de entrenamiento, ven “millones y millones de textos” a los que se les quitan palabras para que el modelo pueda predecirlas. “Una vez que sabe continuar una frase, se añade más complejidad, y se vuelve a entrenar para que sean capaces de responder preguntas de manera coherente”, señala.

El proceso en el que se preparan los textos y se entrenan los modelos es muy costoso, en dinero y en tiempo. Por eso no se hace continuamente. Actualmente, ChatGPT está congelado en 2021 porque no se le han mostrado textos posteriores a esa fecha y por eso falla en los ejemplos que hemos visto. A eso hay que sumarle, dice Alonso, que la mayoría de textos que ha visto (más del 90%) están en inglés, lo que hace que muchas respuestas en español sean de menor calidad.

Patricio Martínez, investigador del Grupo de Procesamiento del Lenguaje y Sistemas de Información de la Universidad de Alicante, explica a Maldita.es, medio aliado de Factchequeado, que para poder entrenar al modelo y afinarlo hay que parar de recopilar información en algún momento: “GPT-3, [el modelo de IA detrás de la versión gratuita de ChatGPT], se entrenó con datos recogidos hasta octubre de 2019 y no fue hasta mayo de 2020 cuando se presentó oficialmente, estando en fase beta hasta julio de 2020”. Es decir, se tardaron 9 meses en obtener una versión estable del modelo después de haber recopilado toda la información. “Se necesitan muchos meses de computación y pruebas para tener entrenado al chatbot. Es muy costoso entrenar y afinar el modelo por lo que pueden pasar muchos meses de computación y pruebas”, señala.

Riesgos del uso inadecuado de ChatGPT: nutricionista, entrenador deportivo, y su uso para timos

Entre los muchos usos que esos millones de usuarios le están dando a ChatGPT, la IA se ha colado de lleno en el mundo del deporte y la nutrición. Tanto, que muchos aseguran en redes sociales que ChatGPT puede desempeñar las labores de un nutricionista y un entrenador personal. Sin embargo, los expertos aseguran que esta herramienta no está lo suficientemente perfeccionada y su uso en materias que impactan a nuestra salud puede conllevar riesgos. En la mayoría de los casos, este chatbot no tiene en cuenta factores fundamentales como el peso, lesiones, posibles patologías o la relación de los usuarios con la comida, tanto para elaborar una dieta como para crear una rutina de deporte. Además, los expertos recuerdan que la IA puede devolver información errónea y que carece del factor psicosocial y de acompañamiento que nos daría un entrenador deportivo profesional o un nutricionista, algo que consideran “fundamental”.

Además, como ya te hemos contado, los estafadores están utilizando esta herramienta para perfeccionar sus trampas. A través del chatbot, los timadores están perfeccionando la redacción de emails fraudulentos y phishing. También podrían utilizar la herramienta para cruzar fuentes de datos hackeadas, por lo que podrían presentarnos la información de una manera que supuestamente solo nuestra entidad bancaria o nuestra aseguradora pudiera hacerlo. Los expertos señalan que ChatGPT no es una herramienta específica para generar malware, pero sí que permite a los cibercriminales actuar más rápido y elaborar código en menos tiempo.

Temas que siguen en el aire: regulación y responsabilidades de una IA como ChatGPT

Desde su lanzamiento, uno de los grandes debates sobre ChatGPT es dilucidar quién se responsabiliza de los posibles daños (físicos, económicos, morales o reputacionales) que la herramienta pueda causar para indemnizarlos. Teresa Rodríguez de las Heras, docente y miembro del grupo de expertos en Nuevas Tecnologías, Prevención y Seguro en la Comisión Europea, explicó a Maldita.es cómo se está estudiando desde un punto de vista jurídico. La primera opción es “considerar que el sistema de IA es responsable por sí mismo”, pero ChatGPT no tiene “un patrimonio para compensar a la víctima”, por lo que “la práctica es compleja y no ha salido adelante".

La Comisión Europea está trabajando en otras 2 posibilidades: "La segunda idea es considerar que este chat es un producto, y entonces haríamos responsable al productor del sistema de IA (el desarrollador del algoritmo). La tercera solución es que se toma como una herramienta y el responsable sería el operador, el que lo usa para algo. Por ejemplo, el banco si lo utiliza para resolver quejas de sus clientes", desarrollaba Rodríguez de las Heras. Sin embargo, también estas dos opciones tienen limitaciones y aspectos que hay que seguir analizando.

Además, desde abril de 2023 el Comité Europeo de Protección de Datos (EDPB, por sus siglas en inglés), conformado por autoridades de protección de datos europeas en la que se incluye la Agencia Española de Protección de Datos (AEPD), está analizando “un posible incumplimiento de la normativa” de protección de datos por parte de la empresa OpenAI. De momento no se han impuesto restricciones, pero España se suma así a la oleada europea de investigaciones sobre OpenAI y ChatGPT, que inició Italia el viernes 31 de marzo, y que han continuado otros países como Francia, Irlanda y Alemania.

Por otro lado, el CEO de OpenAI, Sam Altman, ha asegurado que "no tiene planes" de llevarse ChatGPT de Europa después de haber dicho que retiraría sus servicios en la UE si no estaban de acuerdo con las regulaciones de la futura ley sobre inteligencia artificial.

ChatGPT a futuro: ¿cómo creen los expertos que evolucionará esta IA?

Ante el crecimiento vertiginoso de la inteligencia artificial, un grupo de expertos en IA y ejecutivos de la industria tecnológica pidió en marzo una pausa de seis meses en el entrenamiento de los sistemas de inteligencia artificial. En una carta abierta, argumentaban que estos sistemas son una “potencial amenaza para la humanidad” y en concreto se pedía parar los sistemas más potentes que GPT-4, como te contamos en Tech en un clic de Maldita Tecnología.

Tras esto, Altman,compareció ante el Senado estadounidense y aseguró que es “esencial” regular la inteligencia artificial para garantizar que el público pueda acceder a “los muchos beneficios” de esta tecnología. Instaba en su discurso, además, a que la sociedad trabaje unida para “identificar y gestionar las posibles desventajas” para que todos “podamos disfrutar de las tremendas ventajas de la IA”. Ahora bien, ¿qué se espera de este chatbot en los próximos 6 meses?

Alonso cree que, como explicaba en la Maldita Twitchería Tecnológica, se aumentará el número de caracteres que ofrece el chatbot, llegando a ofrecer capítulos completos de libros; y llegará la multifuncionalidad, en la que se puedan subir imágenes y preguntar a la IA sobre ellas. Además, el chatbot tiene dos tareas pendientes, según apuntaba el experto: “Actualizar el núcleo duro de ChatGPT para que se incluya información del año 2022 y actualizar así las bases de datos. También, aumentar el porcentaje de documentos en español de los que bebe el chatbot y mejorar sus respuestas en esa lengua”.

Para Verónica Bolón, experta en IA por la Universidad de Coruña, ChatGPT tiene “mucho potencial” para ser una herramienta “muy útil” en muchísimas disciplinas, “pero para ello siempre hay que contar con la supervisión de profesionales humanos”. Gonzalo coincide: “Allí dónde haya datos, la IA puede jugar, y está jugando ya, un papel relevante”. María Paloma Díaz, experta en IA y maldita, señala a Maldita.es que una IA “con un modelo de conocimiento abierto y público” sí puede ayudar a la sociedad a tomar mejores decisiones, “siempre y cuando podamos saber cómo se llega a una determinada conclusión”. Por eso, ante el auge de estas aplicaciones, dice la experta, es “más importante que nunca” la alfabetización digital de toda la población.

Factchequeado es un medio de verificación que construye una comunidad hispanohablante para contrarrestar la desinformación en Estados Unidos. ¿Quieres ser parte? Súmate y verifica los contenidos que recibes enviándolos a nuestro WhatsApp +16468736087 o a factchequeado.com/whatsapp.

Republica nuestro contenido

Puedes republicar tu contenido en tu sitio de forma gratuita respetando nuestra licencia e insertando este código en la página donde lo republiques. Contacta con nosotros en [email protected]