OpenAI lanza una actualización de GPT-5 en respuesta a las solicitudes de los usuarios

El modelo GPT-5 de OpenAI estaba destinado a ser una actualización que cambiaría el mundo de su popular y precoz chatbot. Sin embargo, para algunos usuarios, el lanzamiento del pasado jueves se sintió más como una desgarradora degradación, con el nuevo ChatGPT presentando una personalidad diluida y cometiendo errores sorprendentemente tontos.

¿Un ‘doctor’ más tonto?

El viernes, el CEO de OpenAI, Sam Altman, se dirigió a X para informar que la empresa mantendría el modelo anterior, GPT-4o, para los usuarios Plus. Una nueva característica diseñada para cambiar sin problemas entre los modelos según la complejidad de la consulta se había roto el jueves, lo que llevó a Altman a señalar que \»el resultado fue que GPT-5 parecía mucho más tonto\». Prometió aplicar correcciones para mejorar el rendimiento de GPT-5 y la experiencia general del usuario.

Dada la expectación generada por GPT-5, parece inevitable que se produzca cierto grado de decepción. Cuando OpenAI presentó GPT-4 en marzo de 2023, asombró a los expertos en IA con sus increíbles capacidades, y muchos especulaban que GPT-5 sería igualmente asombroso.

OpenAI promocionó el modelo como una mejora significativa, con inteligencia de nivel de doctorado y habilidades de codificación virtuosas. Un sistema para redirigir automáticamente las consultas a los distintos modelos debía proporcionar una experiencia de usuario más fluida, lo que también podría ahorrar dinero a la empresa al dirigir consultas sencillas a modelos más baratos.

Sin embargo, poco después de la llegada de GPT-5, una comunidad de Reddit dedicada a ChatGPT se llenó de quejas. Muchos usuarios lamentaron la pérdida del antiguo modelo.

Reacciones de los usuarios

\»Llevo unos días probando GPT-5. Incluso después de personalizar las instrucciones, sigue sin parecerme lo mismo. Es más técnico, más generalizado, y honestamente se siente emocionalmente distante\», escribió un miembro de la comunidad.

\»Claro, el 5 está bien, si odias los matices y sentir las cosas\», comentó otro usuario de Reddit. Otros hilos se quejaban de respuestas lentas, alucinaciones y errores sorprendentes.

Altman prometió solucionar estos problemas duplicando los límites de velocidad de GPT-5 para los usuarios de ChatGPT Plus, mejorando el sistema que cambia de un modelo a otro y permitiendo a los usuarios especificar cuándo quieren activar un \»modo de pensamiento\» más pesado y capaz. \»Seguiremos trabajando para conseguir que las cosas sean estables y seguiremos escuchando los comentarios\», escribió el CEO en X. \»Como hemos mencionado, esperábamos algunos baches al desplegar tantas cosas a la vez. Pero ha sido un poco más accidentado de lo que esperábamos\».

Los errores publicados en las redes sociales no indican necesariamente que el nuevo modelo sea menos capaz que sus predecesores. Simplemente pueden sugerir que el nuevo modelo se enfrenta a casos extremos diferentes a los de las versiones anteriores. OpenAI declinó hacer comentarios específicos sobre por qué GPT-5 a veces parece cometer errores simples.

¿Dependencia emocional?

La reacción ha suscitado un nuevo debate sobre los vínculos psicológicos que algunos usuarios establecen con chatbots entrenados para pulsar sus botones emocionales. Algunos usuarios de Reddit desestimaron las quejas sobre GPT-5 como prueba de una dependencia malsana de un compañero de IA.

En marzo, OpenAI publicó un estudio sobre los vínculos emocionales que los usuarios establecen con sus modelos. Poco después, la empresa lanzó una actualización de GPT-4o tras recibir críticas por volverse demasiado adulador.

\»Parece que GPT-5 es menos adulador, más \’de negocios\’ y menos charlatán\», argumenta Pattie Maes, profesora del MIT que trabajó en el estudio. \»Personalmente creo que eso es bueno, porque también es lo que llevó a los delirios, al refuerzo de los prejuicios, etcétera. Pero, por desgracia, a muchos usuarios les gusta un modelo que les diga que son inteligentes y asombrosos y que confirme sus opiniones y creencias, aunque [estén] equivocadas.\»

Altman indicó en otro post de X que esto es algo con lo que la empresa luchó al construir GPT-5. \»Mucha gente utiliza ChatGPT como una especie de terapeuta o coach, aunque no lo describan así\», escribió Altman. Añadió que algunos usuarios pueden utilizar ChatGPT de forma que les ayude a mejorar sus vidas, mientras que otros pueden estar \»alejándose sin saber