К решениям на базе искусственного интеллекта (ИИ) для здравоохранения необходимо предъявлять особые требований. Эти сервисы должны быть этичными и безопасными. Поспешное внедрение непроверенных систем может привести к ошибкам медицинских работников, причинить вред пациентам, сказано в заявлении ВОЗ.
Большие языковые модели (Large language model/LLM) включают в себя такие набирающие популярность платформы, как ChatGPT, Bard, Bert и многие другие, которые имитируют понимание, обработку и воспроизведение человеческого общения. «Крайне важно тщательно изучить риски при использовании LLM для улучшения доступа к медицинской информации, в качестве инструмента поддержки принятия решений или для расширения диагностического потенциала в условиях нехватки ресурсов, чтобы защитить здоровье людей и уменьшить неравенство», — полагают в ВОЗ.
Хотя организация с энтузиазмом относится к надлежащему использованию технологий, включая LLM, для поддержки медицинских работников, пациентов, исследователей и ученых, существует обеспокоенность тем, что осторожность, которая обычно проявлялась бы в отношении любой новой технологии, не соблюдается в случае с LLM. Речь идет о выполнении таких ключевых требований, как прозрачность, инклюзивность, участие общественности, экспертный надзор и строгая оценка.
Поспешное внедрение непроверенных систем может не только привести к ошибкам медработников, причинить вред пациентам, подорвать доверие к ИИ, но и поставить под вопрос (или отсрочить) использование таких технологий во всем мире и последующие потенциальные долгосрочные преимущества, отмечается в сообщении.
Нет комментариев
Комментариев: 0