Madrid Times

España Viva: Your Window to Madrid and Beyond
Saturday, Aug 16, 2025

El 'ChatGPT 5' de OpenAI de nivel 'doctorado' tropieza y lucha incluso para etiquetar un mapa.

Comercializado como un avance revolucionario, GPT-5 ha enfrentado en cambio el ridículo por errores básicos, una personalidad disminuida y la jubilación de modelos antiguos populares, lo que ha provocado una rápida reacción en contra y soluciones apresuradas por parte del CEO de OpenAI, Sam Altman.
Sam Altman, conocido durante mucho tiempo por sus elevadas promesas sobre la inteligencia artificial, ahora se
efuerza por contener las consecuencias.

La última iteración del celebrado chatbot de OpenAI estaba destinada a representar un salto histórico hacia adelante: un modelo tan avanzado que podría conversar como un experto de "nivel de doctorado".

Los inversores habían vertido miles de millones en la visión.

Sin embargo, cuando finalmente llegó GPT-5, rápidamente reveló una personalidad limitada y rígida y una incapacidad para manejar incluso las tareas más simples de manera confiable.

La reacción pública fue rápida, dejando a la empresa emitiendo disculpas incómodas mientras insistía en la supuesta brillantez del modelo.

En resumen: fue un fracaso.

El fracaso de GPT-5 se destaca por dos razones.

Primero, subrayó las limitaciones existentes de la IA generativa, errores que los críticos destacaron con entusiasmo, a menudo con humor.

En segundo lugar, planteó serias dudas sobre la capacidad de OpenAI para crear productos de consumo por los que las personas estén dispuestas a pagar, una realidad inquietante para una empresa valorada en alrededor de $500 mil millones a pesar de nunca haber obtenido beneficios.

El lanzamiento del modelo el jueves pasado —ya un año retrasado— había sido promocionado como un hito.

Altman prometió en una transmisión en vivo que GPT-5 se sentiría como conversar con un experto en cualquier campo.

Lo comparó con el momento en que el iPhone pasó de pantallas pixeladas y torpes a pantallas Retina nítidas, describiéndolo como una actualización tan significativa que nadie querría retroceder.

Luego el público tuvo acceso a él.

Casi de inmediato, los usuarios comenzaron a probar sus límites y a burlarse de sus errores.

Al pedirle que generara retratos de los primeros doce presidentes de EE. UU. con sus nombres, GPT-5 produjo solo nueve figuras, completas con errores de ortografía como "Gearge Washingion" y "William Henry Harrtson". Otra consulta sobre los últimos doce presidentes arrojó dos versiones de George W. Bush, una de las cuales parecía una persona desconocida al azar.

Otros compartieron errores aún más ridículos.

Los mapas básicos de los Estados Unidos regresaron plagados de errores, etiquetando estados como "Tonnessee", "Mississipo", "West Wigina", e incluso el inexistente "Yirginia".

Al principio, la salida descuidada fue tratada como entretenimiento por los entusiastas de la tecnología.

Pero muchos usuarios regulares de ChatGPT se frustraron, particularmente con la personalidad simplificada que reemplazó al más animado GPT-4o.

Dado que OpenAI desactivó las versiones anteriores en favor del nuevo modelo, incluso los fans de larga data se encontraron excluidos de las herramientas que preferían.

Más de 4,000 firmaron una petición exigiendo el regreso de GPT-4o.

“Estoy tan cansado de ChatGPT 5”, escribió un usuario de Reddit, describiendo cómo el bot arruinó un flujo de trabajo simple, eliminando tareas y moviendo plazos al azar.

Dentro de las 24 horas, Altman ya estaba en modo de control de daños.

Anunció una serie de correcciones en las redes sociales, incluyendo la reinstauración de GPT-4o para los clientes de pago.

“Esperábamos algunos altibajos”, admitió, “pero fue un poco más accidentado de lo que esperábamos”.

La rápida reversión expuso un problema más grande: Altman y su equipo parecían no estar preparados para cómo 700 millones de usuarios semanales dependen realmente del producto.

La cobertura en los principales medios ha documentado desde hace tiempo los profundos lazos personales que las personas forman con los chatbots, mientras foros como Reddit están llenos de ejemplos de usuarios que los integran en sus rutinas diarias.

Una investigación de mercado básica debería haber revelado que finalizar abruptamente modelos más antiguos provocaría indignación.

Cuando se presionó sobre la reacción, OpenAI solo mencionó las declaraciones públicas de Altman y una publicación en el blog prometiendo refinar GPT-5.

Sin embargo, el lanzamiento destacó una tensión más profunda en la industria de la IA: las empresas se comercializan como “laboratorios”, disfrazadas de gravedad científica, mientras que, en última instancia, operan como empresas impulsadas por el lucro que buscan entregar productos de consumo.

Las pruebas de referencia pueden mostrar que GPT-5 sobresale en matemáticas o lógica, pero esas victorias importan poco si la experiencia del usuario final colapsa bajo el peso de las expectativas infladas.

Al promover GPT-5 como un salto único en una generación, OpenAI no se dejó margen para el error.

“Honestamente, no pensé que OpenAI quemaría el nombre de la marca en algo tan mediocre”, escribió el investigador Gary Marcus, señalando que la empresa aún no ha obtenido beneficios, ha reducido precios para mantener el uso y está perdiendo talento a medida que crece la competencia.

Para los críticos, la reacción fue un signo de vindicación, una señal de que la burbuja de la IA puede estar acercándose a un punto de inflexión.

La imagen más amplia es sombría: cuando la gente habla de IA, a menudo imagina dos cosas diferentes.

Por un lado está la IA que realmente existe: chatbots con habilidades limitadas y desiguales.

Por otro está la IA que las empresas prometen: sistemas que pueden pensar más que los humanos, curar enfermedades, resolver el cambio climático y entretenernos a todos al mismo tiempo.

Con cada nuevo lanzamiento, la brecha entre la exageración y la realidad parece sólo ampliarse.

Lisa Eadicicco de CNN contribuyó con la información.
AI Disclaimer: An advanced artificial intelligence (AI) system generated the content of this page on its own. This innovative technology conducts extensive research from a variety of reliable sources, performs rigorous fact-checking and verification, cleans up and balances biased or manipulated content, and presents a minimal factual summary that is just enough yet essential for you to function as an informed and educated citizen. Please keep in mind, however, that this system is an evolving technology, and as a result, the article may contain accidental inaccuracies or errors. We urge you to help us improve our site by reporting any inaccuracies you find using the "Contact Us" link at the bottom of this page. Your helpful feedback helps us improve our system and deliver more precise content. When you find an article of interest here, please look for the full and extensive coverage of this topic in traditional news sources, as they are written by professional journalists that we try to support, not replace. We appreciate your understanding and assistance.
Newsletter

Related Articles

Madrid Times
×