Humana использовала ИИ с коэффициентом ошибок 90% для отказа в уходе за пожилыми

Компания Humana, крупный поставщик медицинских страховых услуг, столкнулась с обвинениями в использовании модели искусственного интеллекта с ошеломляющим коэффициентом ошибок 90%, что привело к неправомерному отказу в обслуживании пожилых людей, застрахованных по планам Medicare Advantage компании.

В иске, поданном в Кентукки, использование компанией Humana модели искусственного интеллекта названо «мошеннической схемой» и утверждается, что она ставит под угрозу здоровье и финансы пожилых людей, в результате чего они оказываются обремененными медицинскими долгами или лишенными необходимой медицинской помощи.

В иске, требующем статуса коллективного иска, утверждается, что модель искусственного интеллекта компании Humana, известная как nH Predict, используется для прогнозирования потребностей пациентов в постреанимационном уходе и определения точных дат прекращения выплат. Утверждается, что эта несовершенная модель не учитывает общие обстоятельства пациентов, рекомендации врачей и фактические условия, что приводит к плохим прогнозам.

Утверждается, что Humana ставит финансовую выгоду выше точных решений в области здравоохранения, полагаясь на ограниченность ресурсов и неосведомленность пациентов, чтобы поддержать неправомерные отказы.

Источник: Ferra