Трое сотрудников Samsung случайно слили секреты компании в ChatGPT

Компания Samsung начала расследование в отношении сразу трёх сотрудников, которые без какой-либо договорённости, из-за оплошности, слили в нейросеть ChatGPT секреты вендора.

Недавно Samsung позволила сотрудникам использовать ChatGPT в качестве инструмента для решения рабочих задач. Это и привело к утечке конфиденциальной информации. Причём разработчик нейросети компания Open AI объясняет в своей документации, что бот нельзя использовать для работы с секретными данными, поскольку система обучается на взаимодействии с пользователями. И тот контент, который система получит, может появиться в её ответах другим пользователям.

Все три сотрудника Samsung об этом, видимо, не знали, потому что один из них обратился к чат-боту с задачей проверить исходный код конфиденциальной базы данных на наличие ошибок, другой попросил оптимизировать код, а третий ввёл в ChatGPT запись совещания и попросил нейросеть составить протокол.

Теперь в Samsung ввели ряд мер, в том числе ограничение длины запросов сотрудников в ChatGPT килобайтом, или 1024 символами текста. Сообщается, что компания создаёт собственный чат-бот для предотвращения проблемных ситуаций.

Источник: Ferra