ИИ-генераторы картинок обвинили в обучении на фото с насилием над детьми

Сотрудник Стэнфордской интернет-обсерватории (SIO) Дэвид Тиль представил доклад о критической ситуации с нейросетями для генерации картинок по текстовому описанию.

Летом 2023 года Тиль обнаружил, что генеративные нейросети используются для создания поддельных изображений с порно. Всё бы ничего, но на этих картинках изображались дети. Затем эти картинки распространяются в даркнете.

А обучаются нейросети на основании реальных изображений с сексуальным насилием над детьми. Данные для обучения ИИ собраны в общедоступную базу LAION-5B, которую используют многие разработчики нейросетей. Данные автоматически копируются в базу из Интернета.

На LAION-5B обучалась и популярная нейросеть с открытым исходным кодом Stabel Diffusion. И даже если отключить проблемную базу данных от нейросетей, что разработчики LAION-5B уже сделали, у ИИ-платформ уже сформированы соответствующие «навыки».

Тиль предложил вовсе запретить использовать образ детей для генерации картинок в нейросетях с возможностью создания эротического контента. Или убрать изображения несовершеннолетних из открытых обучающих баз данных для нейросетей.

Источник: Ferra