Американские специалисты из медицинского центра Mayo Clinic и компании Zyter|TruCare предложили новый подход к диагностике с помощью искусственного интеллекта (ИИ). Их система не просто выдает диагноз, а объясняет его, позволяет оценить степень уверенности и совпадение с мнением врача. Результаты исследования, опубликованные в журнале Diagnostics, показывают, что такой формат резко повышает доверие медработников — доля отклоненных специалистами рекомендаций снизилась c 87,6 до 33,3%.
Разработка была проверена на 6689 реальных клинических случаях сердечно-сосудистых заболеваний из базы данных MIMIC-III. Алгоритм не ограничивается прогнозом, а создает понятную структуру отчета: уровень уверенности, степень совпадения с врачебным диагнозом и качество объяснения. Эти параметры объединяются в единый индекс доверия. Если объяснение выглядит неполным, модель должна быть максимально уверена, прежде чем врач сможет принять диагноз. Такой механизм устраняет «серые зоны» — ситуации, в которых врач не может понять, почему ИИ так решил.
При уверенности модели в 90–99% врачи отклоняли лишь 1,7% предложений, при 70–79% — почти все. Когда объяснение было минимальным, диагноз отвергался в 73,9% случаев, а при развернутом комментарии — в 49,3%. Исследователи подчеркивают, что непрозрачность и несбалансированная уверенность ИИ остаются главными препятствиями для его внедрения в практику. Новый подход делает взаимодействие человека и алгоритма более осознанным, снижая риски как избыточного доверия, так и категорического недоверия.
В перспективе авторы намерены адаптировать систему для онкологии, неврологии и инфекционных заболеваний, а также встроить механизм в электронные медицинские карты. Кроме того, планируются испытания в реальных клинических условиях, которые покажут, как объяснимый ИИ влияет на точность диагностики и исходы лечения. Ученые считают новую систему шагом к формированию стандартов «достоверного ИИ» — прозрачного, калиброванного и подотчетного.
Нет комментариев
Комментариев: