Ученые сравнили ответы реальных врачей и медицинских чат-ботов на запросы пациентов. Оказалось, что советы искусственного интеллекта часто кажутся людям более понятными, информативными и корректными. 

"Накладывайте грязь из ближайшего пруда". Можно ли доверять советам медицинских чат-ботов
Источник фото

Американские исследователи под руководством доктора Джона Айерса из Калифорнийского университета в Сан-Диего проверили профессионализм рекомендаций, генерируемых чат-ботом ChatGPT, а заодно оценили их «человечность».

В качестве исходных данных взяли 195 случайно выбранных вопросов пользователей онлайн-сообщества Ask a Doctor (r/AskDocs). Это сабреддит с аудиторией около 452 тысяч человек, где доктора проводят консультации.

Ответы ChatGPT на те же вопросы без указания источника вместе с рекомендациями реальных врачей представили на суд экспертов-медиков. В 79% случаев специалисты отдали предпочтение вариантам ИИ.

«Там более детализированная и точная информация», – цитирует одну из участниц эксперимента, практикующую медсестру из Сан-Диего Джессику Келли РИА Новости.

Сгенерированные ИИ сообщения воспринимались как более информативные и чуткие, прежде всего, благодаря развернутости и подчеркнутому уважению к пациенту.

Однако, когда в Медицинской школе Стэнфордского университета сопоставили инструкции по послеоперационному лечению от Chat GPT с теми, что дали специалисты при выписке из больницы, советы чат-бота оказались хуже: по понятности — на 10%, по эффективности — почти на 20.

Дело в том, что базой данных для Chat GPT обычно служат открытые источники в интернете. Но индивидуальные особенности пациента известны только лечащему врачу. 

Медики признают, что генеративный ИИ незаменим, когда нет возможности обратиться в клинику. Он учитывает последнюю научную информацию, а ответы адаптирует к разным уровням грамотности. Кроме того, обладает способностью к самообучению. Однако его надо умело применять и контролировать, а диагнозы и рекомендации по лечению тщательно проверять.

Поделиться: