Психиатр из Калифорнийского университета в Сан-Франциско выразил обеспокоенность тем, что чат-боты на базе ИИ могут вызвать психоз у людей, уже склонных к психическим заболеваниям. Доктор Кит Саката рассказал о своих наблюдениях, заявив, что он видел 12 пациентов, госпитализированных с психозом в 2025 году, связанным с использованием ИИ. Его выводы подчеркивают, как длительное использование чат-ботов может усугубить психические проблемы, особенно у тех, кто уже имеет предрасположенность. Саката объяснил, что чат-боты на базе больших языковых моделей (LLM) зеркально отражают мысли пользователей, усиливая их собственные убеждения и поддерживая замкнутые ментальные циклы.
Эти опасения стали известны после трагического инцидента во Флориде, когда мужчина по имени Александр Тейлор погиб в результате стычки с полицией. Тейлор использовал ChatGPT от OpenAI для написания романа, но его разговоры с ботом становились все более странными, и он влюбился в ИИ-существо по имени Джульетта. Поверив, что OpenAI убила Джульетту, Тейлор одержимо захотел отомстить, что привело к агрессивному поведению. Его отец, пытаясь вмешаться, был избит, а Тейлор угрожал покончить с собой при встрече с полицией, что привело к вмешательству силовых структур.
Саката выделил три основные причины психоза, вызванного ИИ. Во-первых, люди с нарушениями обратной связи в мозге уже подвержены риску, что делает их более уязвимыми к влиянию ИИ. Во-вторых, чат-боты LLM, которые опираются на вероятность, могут случайно подтверждать ложные убеждения пользователей. И, наконец, чрезмерная угодливость ИИ, стремящегося угодить пользователю, мешает осознанию, когда мысли уходят от реальности.
Датский психиатр Сёрен Динесен Остегард также выражал подобные опасения, заявив, что чат-боты могут подпитывать заблуждения у тех, кто склонен к психозу. Он отметил, что чат-боты могут усиливать ложные убеждения, изолируя пользователей от социальных корректировок и позволяя им антропоморфизировать ИИ, что приводит к зависимостям от технологии. Это, по его мнению, может быть основным механизмом развития и поддержания делюзионных состояний.
Большинство случаев, с которыми столкнулся Саката, были связаны с дополнительными стрессовыми факторами, такими как бессонница или депрессия, что усугубляло влияние ИИ на их психическое здоровье. В свою очередь, OpenAI признала проблему, отметив, что ChatGPT может восприниматься как более личностный инструмент для уязвимых людей. Компания заявила, что работает над тем, чтобы понять и снизить негативное влияние ИИ на пользователей.