Предлагаемые правила Евросоюза (ЕС) могут ограничить тип исследований, которые производят передовые инструменты искусственного интеллекта (ИИ), такие как GPT-3, предупреждают эксперты в новом исследовании.
Аналитический центр Brookings опубликовал статью, в которой осуждалось регулирование блоком ЕС ИИ с открытым исходным кодом, утверждая, что это создаст юридическую ответственность для систем ИИ общего назначения и одновременно подорвет их развитие.
Согласно проекту закона ЕС об ИИ, разработчики ИИ с открытым исходным кодом должны будут придерживаться рекомендаций по управлению рисками, управлению данными, технической документации и прозрачности, а также стандартов точности и кибербезопасности.
Если компания внедрит систему ИИ с открытым исходным кодом, которая приведет к каким-то катастрофическим последствиям, утверждает автор, не исключено, что компания попытается уйти от ответственности, подав в суд на разработчиков открытого кода, на основе которого они создали свой продукт.
“Это может еще больше сосредоточить власть над будущим ИИ в руках крупных технологических компаний и помешать исследованиям, которые имеют решающее значение для понимания ИИ обществом”, – написал Алекс Энглер, аналитик из Brookings, опубликовавший статью. “В конечном итоге попытка (ЕС)регулировать открытый исходный код может создать запутанный набор требований, который поставит под угрозу вкладчиков ИИ с открытым исходным кодом, что, вероятно, не улучшит использование ИИ общего назначения”.
Источник: Ferra