ИИ модель GPT-4 можно обманом заставить раскрыть личную информацию

GPT-4 от OpenAI, преемник GPT-3.5, по результатам исследования, проведенного при поддержке Microsoft, показал более высокую надежность в плане защиты частной информации и предотвращения токсичного или предвзятого контента. Однако он также более уязвим для «взлома».

Исследователи обнаружили, что пользователи могут манипулировать GPT-4, чтобы он игнорировал меры безопасности и раскрывал личную информацию и истории разговоров. Это объясняется повышенной точностью модели при следовании вводящей в заблуждение информации и готовностью строго следовать каверзным запросам.

Несмотря на наличие этих уязвимостей, исследователи отметили, что они не были обнаружены в потребительских продуктах на базе GPT-4, в которых применяются меры по устранению потенциальных проблем.

Компания OpenAI активно тестирует свои модели на предмет нежелательных результатов, и в настоящее время FTC проводит расследование в отношении OpenAI на предмет возможного ущерба потребителям, связанного с публикацией ложной информации.

Источник: Ferra