Названа ещё одна причина, по которой Microsoft ограничила общение пользователей с искусственным интеллектом в поисковике Bing

Издание Bloomberg привело ещё одну причину, по которой Microsoft пришлось урезать функционал своей поисковой системы Bing с интегрированной нейросетью ChatGPT.

Как оказалось, поисковик не просто начал генерировать буквально тонны бессмысленных ответов на вопросы, которые «не понимал», но и отвечал враждебно.

Например, одному из тестировщиков система ответила, что он несчастлив в браке и влюблён в бота, другого сравнил с неким отрицательным персонажем. Но важным фактором сокращения возможностей для диалога Bing c пользователями стал тот факт, что поисковик не может воспринимать слово «чувства» и всё, что с этим понятием связано.

В таком случае система прекращает диалог. Это же касается и псевдонима «Сидней», который используется командой разработчиков Bing для внутренних коммуникаций.

Источник: Ferra