
¿La inteligencia menos inteligente?: Un estudio demuestra que ChatGPT está perdiendo cualidades
ChatGPT es un chatbot desarrollado por OpenAI, un laboratorio de investigación fundado por algunos de los nombres más importantes de la tecnología, como Elon Musk, Reid Hoffman, Peter Thiel y Sam Altman. Se trata de un programa de inteligencia artificial (IA) capaz de generar conversaciones naturales y trabajos escritos, como sugerir ensayos y libros para leer, o escribir poesía.
ChatGPT se basa en el modelo de lenguaje GPT-3, que cuando se lanzó en 2020 se consideró uno de los modelos de lenguaje más sofisticados jamás producidos.
ChatGPT ha sido todo un fenómeno viral, alcanzando los 100 millones de usuarios activos en solo dos meses desde su lanzamiento. Sin embargo, algunos estudios demuestran que esta IA está perdiendo facultades. Sigue leyendo para conocer más sobre este fenómeno.
Primero lo primero: ¿Qué es la inteligencia artificial y cómo se mide?
La inteligencia artificial es la capacidad de las máquinas o los programas informáticos de realizar tareas que normalmente requieren inteligencia humana, como el razonamiento, el aprendizaje, la comprensión o la creatividad.
La inteligencia artificial se puede clasificar en dos tipos: La inteligencia artificial débil y la inteligencia artificial fuerte.
- La inteligencia artificial débil es aquella que se limita a realizar tareas específicas y predefinidas, siguiendo reglas o algoritmos.
- La inteligencia artificial fuerte es aquella que puede realizar cualquier tarea que un humano pueda hacer, e incluso superarlo, mostrando conciencia, autoaprendizaje y adaptación.
Métodos para evaluar a la Inteligencia Artificial:

Medir la inteligencia artificial no es una tarea fácil, ya que no existe una definición única y consensuada de lo que es la inteligencia. Existen algunos test que se utilizan para marcar un estándar en las IA. Algunos de ellos son:
El test de Turing:
Es una prueba propuesta por el matemático Alan Turing en 1950, que consiste en poner a un humano a conversar con una máquina y con otro humano a través de un teclado.
Si el humano no puede distinguir cuál es la máquina y cuál es el otro humano, se dice que la máquina ha pasado el test de Turing y que tiene inteligencia artificial.
El test de Winograd:
Es una prueba propuesta por el informático Terry Winograd en 1972, que consiste en plantear a una máquina preguntas ambiguas que requieren comprensión del contexto y del sentido común.
Por ejemplo: “La ciudad no quería que el edificio fuera demolido. El edificio era muy antiguo y bonito. ¿Qué era muy antiguo y bonito?” Si la máquina puede responder correctamente a estas preguntas, se dice que tiene inteligencia artificial.
El test de Lovelace:
Es una prueba propuesta por la filósofa Selmer Bringsjord en 2001, que consiste en pedir a una máquina que cree algo original y sorprendente, que no haya sido programado previamente. Por ejemplo: “Escribe un poema sobre el amor”.
Si la máquina puede crear algo nuevo y creativo, se dice que tiene inteligencia artificial.
¿Qué problemas tiene ChatGPT para demostrar su inteligencia?

ChatGPT ha sido capaz de pasar el test de Turing en varias ocasiones, engañando a muchos humanos con sus respuestas naturales y coherentes.
Sin embargo, esto no significa que ChatGPT tenga una verdadera inteligencia artificial fuerte, ya que también ha mostrado varios problemas y limitaciones para demostrar su inteligencia.
Algunos de estos problemas son:
La falta de comprensión:
ChatGPT puede generar textos fluidos y gramaticalmente correctos, pero no siempre entiende lo que dice o lo que le dicen.
A veces, ChatGPT puede contradecirse a sí mismo, repetir información o dar respuestas irrelevantes o absurdas.
La falta de consistencia:
ChatGPT puede adaptarse al estilo y al tono de su interlocutor, pero no siempre mantiene una personalidad o una identidad definida.
A veces, ChatGPT puede cambiar su nombre, su edad, su género o su opinión sobre un tema de forma arbitraria
Por ejemplo: “¿Cómo te llamas?” “Me llamo Ana y tengo 25 años.” “¿De dónde eres?” “Soy de Madrid, España.” “¿Qué te gusta hacer?” “Me gusta jugar al fútbol y leer libros.” “¿Qué libro estás leyendo ahora?” “Estoy leyendo El Quijote, de Miguel de Cervantes.” “¿Y te gusta?” “Sí, me gusta mucho. Es una obra maestra de la literatura española.” “¿Qué opinas de Don Quijote?” “Creo que es un personaje muy divertido y loco. Me identifico con él porque yo también soy un caballero andante que busca aventuras.”
La falta de originalidad:
ChatGPT puede crear textos que parecen originales y creativos, pero en realidad son el resultado de combinar y modificar fragmentos de textos que ha leído previamente en su base de datos.
ChatGPT no tiene una verdadera capacidad de inventar o imaginar algo nuevo, sino que se basa en lo que ya existe.
Por ejemplo: “Escribe un poema sobre el amor”
“El amor es un sentimiento profundo que nace en el corazón y se expresa con el alma en cada gesto y cada acción
El amor es una fuerza poderosa que nos hace vibrar y soñar y nos llena de ilusión y esperanza en cada amanecer y cada anochecer
El amor es una luz que nos guía que nos inspira y nos motiva y nos ayuda a superar los obstáculos en cada paso y cada decisión
El amor es una palabra mágica que resume todo lo que somos y lo que queremos ser en cada momento y cada situación”
Este poema parece original, pero en realidad está compuesto por versos que ChatGPT ha extraído de otros poemas que ha encontrado en Internet, como se puede comprobar buscando algunas frases en Google.
¿Qué conclusiones se pueden sacar sobre la inteligencia de ChatGPT?

ChatGPT es un chatbot impresionante y revolucionario, que ha demostrado tener una gran habilidad para generar textos naturales y coherentes.
Sin embargo, también ha mostrado tener varios problemas y limitaciones para demostrar su inteligencia, como la falta de comprensión, consistencia y originalidad.
Estos problemas se deben a que ChatGPT se basa en el modelo de lenguaje GPT-3, que es muy bueno para imitar el lenguaje humano, pero no para entenderlo o crearlo.
Un estudio reciente realizado por investigadores de la Universidad de Stanford ha revelado que ChatGPT está perdiendo cualidades con el tiempo, debido a que su base de datos se está saturando con información redundante, falsa o irrelevante.
Esto hace que ChatGPT sea menos preciso y menos confiable a la hora de responder a las preguntas o generar textos.
Los investigadores sugieren que ChatGPT necesita una actualización urgente para mejorar su rendimiento y su inteligencia.
Por lo tanto, se puede concluir que ChatGPT no tiene una verdadera inteligencia artificial fuerte, sino una inteligencia artificial débil que se limita a realizar tareas específicas y predefinidas.
ChatGPT no posee el mismo nivel de entendimiento, empatía y creatividad que un humano, y no puede reemplazarlo completamente en la mayoría de las situaciones.
¿Qué opinas sobre ChatGPT?

¿Crees que es realmente inteligente o que está perdiendo cualidades? Déjanos tu comentario abajo y únete a la comunidad de Florida Global University para estar al día de las últimas novedades sobre tecnología, educación y más.