Родни Брукс, исследователь в области робототехники и эксперт по ИИ, заявил, что известные нам языковые модели могут быть не такими умными, как мы думаем.
По его словам, человечество сильно переоцениваем возможности больших языковых моделей, в том числе и GPT, которая лежит в основе популярного чат-бота ChatGPT.
Брукс заявил, что большие языковые модели хороши в том, чтобы говорить так, как должен звучать ответ. При этом это вовсе не то же самое, что и давать правильный ответ.
Эксперт объяснил, что эти модели не имеют своей собственной модели мира и не имеют связи с реальностью. Они просто находят связи между словами и фразами, но не могут логически выводить смысл из них.
Это означает, что, хотя ИИ может звучать убедительно, он может легко ввести вас в заблуждение. В качестве примера специалист привёл свой опыт использования больших языковых моделей для помощи в сложном программировании.
Он говорит, что ИИ даёт ответ с полной уверенностью и даже начинает верить в него. Но в половине случаев ответ оказывается совершенно неверным.
Таким образом, несмотря на все удивительные вещи, которые ИИ может делать, помните, что он всё ещё далек от того, чтобы быть настолько умным, как человек. А значит, бояться пока что нечего.
Источник: Ferra