ВОЗ призвала к осторожности при внедрении ИИ в здравоохранение

17.05.2023
08:07
Всемирная организация здравоохранения предостерегла от поспешного внедрения искусственного интеллекта в здравоохранении. Организация призывает проявлять осторожность при использовании таких продуктов, как ChatGPT, чтобы защитить здоровье населения.

К решениям на базе искусственного интеллекта (ИИ) для здравоохранения необходимо предъявлять особые требований. Эти сервисы должны быть этичными и безопасными. Поспешное внедрение непроверенных систем может привести к ошибкам медицинских работников, причинить вред пациентам, сказано в заявлении ВОЗ.

Большие языковые модели (Large language model/LLM) включают в себя такие набирающие популярность платформы, как ChatGPT, Bard, Bert и многие другие, которые имитируют понимание, обработку и воспроизведение человеческого общения. «Крайне важно тщательно изучить риски при использовании LLM для улучшения доступа к медицинской информации, в качестве инструмента поддержки принятия решений или для расширения диагностического потенциала в условиях нехватки ресурсов, чтобы защитить здоровье людей и уменьшить неравенство», — полагают в ВОЗ.

Хотя организация с энтузиазмом относится к надлежащему использованию технологий, включая LLM, для поддержки медицинских работников, пациентов, исследователей и ученых, существует обеспокоенность тем, что осторожность, которая обычно проявлялась бы в отношении любой новой технологии, не соблюдается в случае с LLM. Речь идет о выполнении таких ключевых требований, как прозрачность, инклюзивность, участие общественности, экспертный надзор и строгая оценка.

Поспешное внедрение непроверенных систем может не только привести к ошибкам медработников, причинить вред пациентам, подорвать доверие к ИИ, но и поставить под вопрос (или отсрочить) использование таких технологий во всем мире и последующие потенциальные долгосрочные преимущества, отмечается в сообщении.

Присоединяйтесь!

Самые важные новости сферы здравоохранения теперь и в нашем Telegram-канале @medpharm.

Нет комментариев

Комментариев: 0

Вы не можете оставлять комментарии
Пожалуйста, авторизуйтесь
Продолжая использовать наш сайт, вы даете согласие на обработку файлов cookie, которые обеспечивают правильную работу сайта.