История из США наглядно показала, насколько опасно слепо доверять советам искусственного интеллекта в вопросах здоровья. 60-летний житель Нью-Йорка оказался в больнице после того, как последовал «диетическим» рекомендациям ChatGPT и получил редкое отравление бромом — бромизм.
Как сообщает Annals of Internal Medicine со ссылкой на NBC News, мужчина спросил у чат-бота, чем можно заменить обычную поваренную соль. В ответ он получил совет использовать бромид натрия — вещество, которое когда-то применялось в медицине, но давно признано токсичным. Посчитав это более «здоровой» альтернативой, он заказал химикат онлайн и в течение трёх месяцев добавлял его в еду вместо соли.
Последствия оказались катастрофическими: паранойя, бессонница, психоз, сильные физические нарушения. В какой-то момент он даже был уверен, что сосед его отравляет. Врачи диагностировали бромизм — тяжёлое отравление бромом, встречающееся крайне редко именно потому, что такие соли давно не применяются. После прекращения приёма и лечения состояние пациента стало улучшаться.
Учёные проверили ChatGPT и убедились, что тот действительно советует бромид как замену хлориду, не предупреждая о токсичности. Этот случай подчёркивает ограничения ИИ в медицине: чат-бот не может заменить врача и его ответственность. И одновременно ставит вопрос о том, нужны ли системе жёсткие «ограждения» на чувствительные темы.
Сегодня ИИ встроен в нашу повседневность, но любопытство не должно подменять здравый смысл. Особенно в медицине: один ошибочный совет может стоить жизни.