Специалисты Чикагского университета выпустили Nightshade 1.0 — инструмент, предназначенный для наказания недобросовестных создателей моделей машинного обучения, которые обучают свои системы на данных, предварительно не получив разрешения.
Nightshade — «наступательный инструмент» для защиты изображений от несанкционированного использования. Технология называется Glaze и минимизирует видимые изменения исходного изображения. Ещё разработчики называют своё детище «отравой», «паслёном» — для обмана ИИ.
«Nightshade вычисляется как многоцелевая оптимизация, которая минимизирует видимые изменения исходного изображения. Например, человеческий глаз может увидеть затенённое изображение коровы на зелёном поле практически без изменений, но модель ИИ может увидеть большой кожаный кошелек, лежащий в траве», — рассказал один из руководителей проекта.
Специфика технологии заключается в выборе ярлыка, который описывает то, что на самом деле изображено, чтобы размыть границы этого понятия, когда изображение попадает в модель для обучения.
Источник: Ferra