Нельзя доверять искусственному интеллекту: ChatGPT поймали на лжи о научных исследованиях

Группа учёных заявило, что отсутствие прозрачности в технологиях разговорного ИИ вызвало необходимость создания альтернатив с открытым исходным кодом.

Исследование, озаглавленное как «ChatGPT: пять приоритетов для исследований», предупреждает, что «использование чат-ботов для специализированных исследований, вероятно, внесёт неточности, предвзятость и плагиат».

При этом специалисты предупредили своих коллег, заявив, что исследователи, использующие данные технологии, «рискуют быть введёнными в заблуждение ложной или предвзятой информацией и включить её в свои рассуждения и работы».

Авторы исследования считают, что разработка и внедрение технологий ИИ с открытым исходным кодом должны быть приоритетными. В первую очередь для того, чтобы противостоять непрозрачности нынешних технологий, которые в основном являются собственными продуктами крупных технологических компаний.

Источник: Ferra