ChatGPT поймали на предложении опасных методов лечения

Исследователи из Brigham and Women’s Hospital выяснили, что популярный чат-бот ChatGPT предоставлял ложную информацию во время составления терапевтических мер при раке, беспорядочно смешивая достоверные и ложные данные. Наличие правдивых сведений в этом миксе делало проблему серьёзнее, так как затрудняло поиск неправильного звена.

В ходе исследования ChatGPT просили сгенерировать планы лечения для разных случаев рака, и 30% ответов содержали ложную информацию. Более того, чат-бот имел тенденцию смешивать правильную и неправильную информацию вместе таким образом, что было трудно определить, какая из них является точной. Из 104 запросов около 98% ответов ChatGPT содержали по крайней мере одну рекомендацию по лечению, которая отвечала стандартам Национальной всеобъемлющей онкологической сети. Таким образом, поиск ошибок был затруднительным даже для экспертов, а перепроверка подлинности рекомендации занимала больше времени, чем могло было быть потрачено на написание плана лечения доктором.

Тем не менее интеграция ИИ в здравоохранение может быть полезна для упрощения административных задач. Кроме того, использование ИИ для скрининга рака молочной железы, как выяснилось, безопасно и редко даёт сбои. Вдобавок, как писалось ранее, ChatGPT оказался эмпатичнее и терпеливее людей.

Источник

Поделиться ссылкой:

Total Views: 88 ,
 

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *