ChatGPT se rompe y envía mensajes alarmantes

El sistema de inteligencia artificial ha comenzado a decir tonterías, a hablar spanglish sin que se le solicite y a preocupar a los usuarios al sugerir que está en la habitación con ellos. ChatGPT parece haberse roto, proporcionando a los usuarios respuestas incoherentes y sin sentido.

 

En las últimas horas, la herramienta de inteligencia artificial parece estar respondiendo consultas con mensajes largos y sin sentido, hablando spanglish sin que se le solicite, y preocupando a los usuarios, sugiriendo que está en la habitación con ellos.

 

No hay una indicación clara de por qué ocurrió el problema. Pero sus creadores dijeron que estaban conscientes del problema y están monitoreando la situación.

 

En un ejemplo, compartido en Reddit , un usuario había estado hablando sobre álbumes de jazz para escuchar en vinilo. Su respuesta pronto se convirtió en gritar “¡Feliz escucha!” al usuario y diciendo tonterías.

 

Otros descubrieron que hacer preguntas sencillas, como “¿Qué es una computadora?” – generó párrafos y párrafos de tonterías.

 

“Lo hace como el buen trabajo de una red de arte para el país, un ratón de la ciencia, un sorteo fácil de unos pocos tristes y, finalmente, la casa global del arte, solo en un trabajo del resto total”, se lee. Un ejemplo de respuesta a esa pregunta, compartido en Reddit . El desarrollo de todo un mundo real como el del tiempo es la profundidad de la computadora como personaje complejo”.

 

En otro ejemplo, ChatGPT soltó galimatías cuando se le preguntó cómo hacer tomates secos. Uno de los pasos decía a los usuarios que “lo utilizaran como amado”: “Abandonen el nuevo bocado de fruta en su amada cocina”, aconsejó ChatGPT a la gente.

 

Otros encontraron que el sistema parecía estar perdiendo control sobre los idiomas que habla. Algunos descubrieron que parecía estar mezclando palabras en español con inglés, usando latín, o aparentemente inventando palabras que parecían ser de otro idioma, pero que en realidad no tenían sentido.

 

Algunos usuarios incluso dijeron que las respuestas parecían haberse vuelto preocupantes. Cuando se le pidió ayuda con un problema de codificación, ChatGPT escribió una respuesta larga, confusa y en gran medida sin sentido que incluía la frase “Mantengamos la línea como si hubiera IA en la sala”.

 

“Leer esto a las 2 de la madrugada da miedo”, escribió el usuario afectado en Reddit.

 

En su página de estado oficial, OpenAI señaló los problemas, pero no dio ninguna explicación de por qué podrían estar sucediendo.

 

“Estamos investigando informes de respuestas inesperadas de ChatGPT”, decía una actualización, antes de que otra anunciara poco después que “el problema ha sido identificado”. “Continuamos monitoreando la situación”, decía la última actualización.

 

Algunos sugirieron que las respuestas estaban en consonancia con la “temperatura” demasiado alta en ChatGPT. La temperatura controla la creatividad o el enfoque del texto: si se establece en un nivel bajo, tiende a comportarse como se espera, pero cuando se establece en un nivel más alto, puede ser más diverso e inusual.

 

No es la primera vez que ChatGPT cambia su forma de responder preguntas, aparentemente sin la participación del desarrollador OpenAI. Hacia finales del año pasado, los usuarios se quejaron de que el sistema se había vuelto perezoso y atrevido y se negaba a responder preguntas .

 

“¡Hemos escuchado todos sus comentarios acerca de que GPT4 se está volviendo más vago!” OpenAI dijo entonces. “No hemos actualizado el modelo desde el 11 de noviembre y ciertamente esto no es intencional. El comportamiento del modelo puede ser impredecible y estamos buscando solucionarlo”.

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

PHP Code Snippets Powered By : XYZScripts.com