Google отказалась давать гарантии непредвзятости своего ИИ Gemini

После того как Google восстановит работу своей большой языковой модели и вернет Gemini в онлайн, ИИ-инструменты могут оставаться ненадежными, особенно при создании изображений или текста о текущих событиях, развивающихся новостях или острых политических вопросах.

«Он будет допускать ошибки», – говорится в публикации Google на прошлой неделе. «Как мы сказали изначально, галлюцинации — это известная проблема для всех больших языковых моделей. Бывают случаи, когда ИИ просто ошибается. Это то, над чем мы постоянно работаем над улучшением».

Prabhakar Raghavan, старший вице-президент Google по знаниям и информации, объяснил, почему компания была вынуждена закрыть функцию генерации изображений на базе ИИ в Gemini через три недели после запуска, чтобы «исправить ее».

Простыми словами, движок ИИ Google брал текстовые запросы пользователей и создавал изображения, явно пристрастные к определенному социополитическому взгляду.

Например, текстовые запросы пользователей для изображений нацистов порождали черных и азиатских нацистов. Попросив нарисовать изображение Папы Римского, Gemini ответил созданием азиатской женщины-Папы и черного Папы.

Запрос на создание изображения средневекового рыцаря привел к появлению изображений азиатских, черных и женских рыцарей.

Источник: Ferra