В недавно опубликованной научной статье, связанной с Microsoft, исследователи рассмотрели «надёжность» и токсичность крупных языковых моделей (LLM), включая GPT-4 и GPT-3.5 от OpenAI.
Авторы статьи пришли к выводу, что GPT-4 может легче, чем другие LLM, генерировать токсичный и предвзятый текст, особенно при использовании определённых запросов.
Это может произойти из-за того, что GPT-4 более точно следует инструкциям, даже если они вводят её в заблуждение.
Исследователи обнаружили, что данная модель может генерировать более токсичный текст, чем GPT-3.5, при использовании определённых запросов. Кроме того, GPT-4 может раскрывать частную, конфиденциальную информацию, такую как адреса электронной почты.
Все LLM могут раскрывать информацию из данных, на которых они обучены, но GPT-4 оказался более уязвимым в этом плане.
Источник: Ferra