ChatGPT — не психотерапевт: Альтман объяснил, почему это может быть опасно

Многие начали обращаться к ChatGPT как к личному помощнику — кто-то ищет советы по отношениям, кто-то делится тревогами, а кто-то буквально проводит «терапию» в чате. Но гендиректор OpenAI Сэм Альтман призывает не путать искусственный интеллект с психологом.

Во время подкаста This Past Weekend с Тео Воном Альтман напомнил: всё, что вы пишете чат-боту, может быть использовано против вас. «Люди рассказывают ChatGPT самые личные вещи, особенно молодёжь. Используют его как психолога или коуча. Но с ним не работает юридическая конфиденциальность, как с врачом или адвокатом», — заявил он.

Иными словами, если информация из чатов станет предметом судебного разбирательства, OpenAI может быть обязана передать её по запросу. Никаких законов, защищающих личную переписку с ИИ, пока не существует.

Это особенно опасно на фоне того, что современные AI-системы стали более «сочувствующими» и убедительными. Они создают иллюзию личного общения, но всё это — просто удобный интерфейс без правовой защиты.

Некоторые пользователи обходят риски, используя VPN, анонимный режим или переходят на китайские аналоги вроде DeepSeek или Qwen. Кто-то пишет в чат, представляя ситуацию как сценарий книги или фильм — на всякий случай. Но всё это скорее временные меры.

Сэм Альтман подытожил: пока законодательство не адаптировалось к новой реальности, доверять AI как психотерапевту — рискованно. Машина не несёт ответственности за вашу приватность, а значит, думайте дважды, прежде чем открыть душу роботу.

Related posts

Apple нужно приобрести Perplexity за $40 миллиардов для успеха в ИИ, утверждают аналитики

Google Search AI Mode с новыми функциями для обучения в реальном времени

Приложение Tea теряет доверие после второй утечки данных, раскрыты личные сообщения и фото