Обученный в лаборатории ИИ после встречи с «реальным миром» работает хуже

Новое исследование, проведенное учеными Northwestern University, показало, что модели искусственного интеллекта (ИИ) могут быть легко введены в заблуждение «загрязнением тканей» (когда образцы тканей одного пациента попадают на предметные стекла другого пациента), что приводит к ошибкам в диагнозах.

Исследование, опубликованное в журнале Modern Pathology, является первым, в котором изучается влияние загрязнения тканей на модели машинного обучения.

Исследователи обучили три модели искусственного интеллекта сканировать микроскопические слайды тканей плаценты, чтобы обнаружить повреждения кровеносных сосудов, оценить срок беременности и классифицировать макроскопические повреждения. Они также обучили четвертую модель искусственного интеллекта выявлять рак простаты в тканях, собранных при игольчатой биопсии.

Когда ИИ-модели подвергались воздействию небольших порций загрязненной ткани, выяснилось, что каждая модель уделяла загрязнению слишком много внимания, что приводило к ошибкам в диагностике. По мнению исследователей, это происходит потому, что модели ИИ часто обучаются в чистых, симулированных условиях и не привыкли иметь дело с реальными отвлекающими факторами.

Результаты исследования имеют важные последствия для использования ИИ в патологии. Патологоанатомы полагаются на ИИ, чтобы помочь им поставить диагноз, но исследование показывает, что модели ИИ следует использовать с осторожностью, особенно при работе со слайдами, которые могут быть загрязнены.

Исследователи говорят, что один из способов решения этой проблемы — обучение моделей ИИ на более широком спектре данных, в том числе на данных, включающих загрязнения тканей. Они также предполагают, что модели искусственного интеллекта могут быть разработаны таким образом, чтобы быть более устойчивыми к отвлекающим факторам.

Источник: Ferra