WhatsApp подвергся нападкам за сгенерированные искусственным интеллектом стикеры о Палестине

WhatsApp столкнулся с критикой после того, как новая функция ИИ-генерации стикеров выдала спорные изображения по запросам, связанным с Палестиной.

По данным The Guardian, при поиске слов «палестинец», «Палестина» или «мусульманский мальчик палестинец», пользователи получали стикеры с изображением оружия или мальчика с оружием.

В то же время запросы, связанные с Израилем, приводили к более мирным изображениям, таким как играющие или читающие дети.

Представители мессенджера заявили, что осведомлены о проблеме и работает над ее решением. В компании подчеркнули, что, как и в случае с любыми генеративными ИИ-системами, модели могут выдавать неточные или неподобающие результаты, и что они будут продолжать улучшать эту функцию на основе отзывов пользователей.

Произошедшее происходит на фоне обвинений в адрес материнской компании WhatsApp в теневой блокировке контента, поддерживающего Палестину, и добавлении метки «террорист» к палестинским биографиям.

Другие ИИ-системы, включая Google Bard и ChatGPT, также показали значительные признаки предвзятости в вопросах, касающихся Израиля и Палестины.

Источник: Ferra