К решениям на базе искусственного интеллекта (ИИ) для здравоохранения необходимо предъявлять особые требований. Эти сервисы должны быть этичными и безопасными. Поспешное внедрение непроверенных систем может привести к ошибкам медицинских работников, причинить вред пациентам, сказано в заявлении ВОЗ.
Большие языковые модели (Large language model/LLM) включают в себя такие набирающие популярность платформы, как ChatGPT, Bard, Bert и многие другие, которые имитируют понимание, обработку и воспроизведение человеческого общения. «Крайне важно тщательно изучить риски при использовании LLM для улучшения доступа к медицинской информации, в качестве инструмента поддержки принятия решений или для расширения диагностического потенциала в условиях нехватки ресурсов, чтобы защитить здоровье людей и уменьшить неравенство», — полагают в ВОЗ.
Хотя организация с энтузиазмом относится к надлежащему использованию технологий, включая LLM, для поддержки медицинских работников, пациентов, исследователей и ученых, существует обеспокоенность тем, что осторожность, которая обычно проявлялась бы в отношении любой новой технологии, не соблюдается в случае с LLM. Речь идет о выполнении таких ключевых требований, как прозрачность, инклюзивность, участие общественности, экспертный надзор и строгая оценка.
Поспешное внедрение непроверенных систем может не только привести к ошибкам медработников, причинить вред пациентам, подорвать доверие к ИИ, но и поставить под вопрос (или отсрочить) использование таких технологий во всем мире и последующие потенциальные долгосрочные преимущества, отмечается в сообщении.
Самые важные новости сферы здравоохранения теперь и в нашем Telegram-канале @medpharm.
Воспроизведение материалов допускается только при соблюдении ограничений, установленных Правообладателем, при указании автора используемых материалов и ссылки на портал Medvestnik.ru как на источник заимствования с обязательной гиперссылкой на сайт medvestnik.ru
«Политика конфиденциальности»
«Основные виды деятельности компании»
«Редакционная политика»
Нет комментариев
Комментариев: 0