ChatGPT сошел с ума на несколько часов и начал писать несвязанные ответы

Помните того дружелюбного ИИ-помощника ChatGPT, который всегда готов помочь с текстом, идеями или просто поболтать?

Так вот, похоже, у него случился временный приступ «сумасшествия». Во вторник пользователи стали массово жаловаться на странные ответы: несвязный бред, бессмысленные стихи, а кто-то даже сравнил это с «потерей рассудка» у компьютера.

OpenAI, создатели ChatGPT, признали проблему и работают над решением, но ситуация примечательна тем, как люди воспринимают сбои в больших языковых моделях.

Эти модели пытаются имитировать человека, и когда что-то идёт не так, пользователям приходится прибегать к таким метафорам как «потерял рассудок». Ведь OpenAI не раскрывает, как именно работает ChatGPT, оставляя его внутреннее устройство «чёрным ящиком».

Некоторым людям даже пришлось усомниться в своей адекватности! Спрашивали про кормление собаки хлопьями, а в ответ получили бессмыслицу. Нормально ли это? Вряд ли…

Эксперты пока строят разные догадки. Возможно, у ChatGPT была слишком высокая «температура» (параметр, определяющий отклонение от вероятного ответа), или он терял контекст разговора.

Возможно, тестировалась новая версия GPT-4 Turbo с ошибками. Или проблема в отдельной функции, вроде недавно добавленной «памяти».

Источник: Ferra