Данные пользователей ChatGPT и их переписок стали доступны посторонним

Популярный чат-бот ChatGPT, разработанный OpenAI, столкнулся с новым вызовом в области безопасности данных.

Исследователи выяснили, что личные беседы пользователей с ботом, содержащие конфиденциальную информацию, такую как имена пользователей и пароли, оказались доступны третьим лицам.

Согласно отчету ArsTechnica, один из пользователей обнаружил в своей истории чата диалоги, которые явно принадлежали кому-то другому.

Эти утечки включали в себя данные от поддержки клиентов аптеки, включая названия порталов, номера магазинов и учетные данные для входа, а также названия презентаций и детали неопубликованных исследовательских предложений.

Это не первый случай, когда ChatGPT сталкивается с проблемами утечки данных. Ранее, в марте и ноябре 2023 года, были зафиксированы аналогичные инциденты.

OpenAI уже заявила, что проводит расследование последнего случая утечки. В свете этих событий компания призывает пользователей быть особенно осторожными при обмене чувствительной информацией с искусственным интеллектом, особенно если это касается ботов, не разработанных самими пользователями.

Источник: Ferra