Многие начали обращаться к ChatGPT как к личному помощнику — кто-то ищет советы по отношениям, кто-то делится тревогами, а кто-то буквально проводит «терапию» в чате. Но гендиректор OpenAI Сэм Альтман призывает не путать искусственный интеллект с психологом.
Во время подкаста This Past Weekend с Тео Воном Альтман напомнил: всё, что вы пишете чат-боту, может быть использовано против вас. «Люди рассказывают ChatGPT самые личные вещи, особенно молодёжь. Используют его как психолога или коуча. Но с ним не работает юридическая конфиденциальность, как с врачом или адвокатом», — заявил он.
Иными словами, если информация из чатов станет предметом судебного разбирательства, OpenAI может быть обязана передать её по запросу. Никаких законов, защищающих личную переписку с ИИ, пока не существует.
Это особенно опасно на фоне того, что современные AI-системы стали более «сочувствующими» и убедительными. Они создают иллюзию личного общения, но всё это — просто удобный интерфейс без правовой защиты.
Некоторые пользователи обходят риски, используя VPN, анонимный режим или переходят на китайские аналоги вроде DeepSeek или Qwen. Кто-то пишет в чат, представляя ситуацию как сценарий книги или фильм — на всякий случай. Но всё это скорее временные меры.
Сэм Альтман подытожил: пока законодательство не адаптировалось к новой реальности, доверять AI как психотерапевту — рискованно. Машина не несёт ответственности за вашу приватность, а значит, думайте дважды, прежде чем открыть душу роботу.