Разработчики систем искусственного интеллекта раскритиковали российские базы медицинских данных
О низком качестве медицинских данных, которые используются в программных разработках, заявили 9 февраля участники Всероссийской научно-практической конференции по искусственному интеллекту в здравоохранении и системам поддержки принятия решений ITM-AI.
«Доступность деперсонифицированных медицинских данных в России и создание дата-сетов – отчасти серая область», – признала член Российской ассоциации искусственного интеллекта, директор Института информационных технологий Владивостокского государственного университета экономики и сервиса (ИИТ ВГУЭС) Карина Шахгельдян. По ее словам, мединформсистемы содержат только часть данных, остальные хранятся в бумажном виде или на иных носителях вне МИС. При этом сведения, имеющиеся в системах, как правило, не пригодны для машинной обработки в исходном виде, их приходится дополнительно формализовывать.
Эксперт по искусственному интеллекту Центрального НИИ организации и информатизации здравоохранения (ЦНИИОИЗ) Минздрава Александр Гусев подтвердил: «Более 50% информации в МИС – просто неструктурированные текстовые протоколы». Он добавил, что данные электронных медицинских карт также приходится проверять на достоверность и разделять на заслуживающие доверия и сомнительные.
«Если в медорганизации используется автоматизированная лабораторная система, диагностические данные собираются с помощью автоматизированных диагностических комплексов, то доля ошибок в таких протоколах минимальна, их можно использовать для работы прогнозных моделей», – пояснил Гусев. В иных случаях в данных содержится большое число ошибок.
Председатель научного совета Российской ассоциации искусственного интеллекта, зав. отделом интеллектуальных систем поддержки принятия решений ФИЦ «Информатика и управление РАН» Борис Кобринский напомнил, что большие данные, накопленные за несколько лет, могут содержать искаженную информацию, если в этот период менялись классификация заболеваний, методы обследования и лечения, возникали ошибки систем искусственного интеллекта.
Информация может не иметь ценности также в случаях, когда ее собирали только в однородной среде, уверен Кобринский. Он напомнил, что система IBM Watson продемонстрировала эффективность только на похожих выборках в отдельных клиниках США – до 95%. «Выясняется, что в других клиниках Америки точность снизилась, учреждения отказались от дальнейшего использования Watson и подали судебные иски к IBM: предложенные системой рекомендации привели к негативным результатам при лечении. А в Дании точность была продемонстрирована на уровне лишь 33%: в европейских клиниках практикуют иные подходы», – рассказал эксперт.
По мнению участников конференции, необходимо обучать врачей работе с цифровыми инструментами, так как, не понимая механизмы работы таких систем, медики не доверяют искусственному интеллекту, а их ответственность за результат диагностики и лечения падает.
Нет комментариев
Комментариев: 0