Китай использовал ChatGPT для скрытых пропагандистских операций, раскрывает OpenAI
С развитием искусственного интеллекта (ИИ) его возможности становятся все мощнее, но, к сожалению, растет и количество его злоупотреблений. Компания OpenAI, разработавшая известный ChatGPT, недавно сообщила, что она прекратила несколько скрытых кампаний влияния, в том числе четыре, связанные с Китаем, в которых использовались ее инструменты ИИ для манипулирования онлайн-разговорами и распространения пропаганды.
Эти кампании являются частью более широкого явления, в котором также участвуют Россия, Иран и Северная Корея. Китай использовал ChatGPT для создания политически ангажированных постов и комментариев, а также для создания фальшивых личностей с целью влияния на взаимодействия в социальных сетях. Одна из таких китайских кампаний, получившая название “Дядя Спам”, пыталась вызвать контроверсии по чувствительным вопросам в США.
Расследования OpenAI показали, что эти кампании не ограничивались только созданием контента. ИИ использовался для имитации реальных онлайн-активностей и даже для создания отчетов о результатах работы, которые передавались их руководителям для оценки эффективности кампаний.
Бен Ниммо, возглавляющий аналитическую команду по угрозам в OpenAI, предупредил о “широком спектре скрытых операций”, исходящих из Китая, подчеркивая эволюцию тактик дезинформации. Эти кампании не ограничивались анонимными публикациями, но включали также отправку ИИ-созданных писем журналистам, политикам и аналитикам, чтобы завоевать доверие под ложными предлогами и извлечь из них информацию.
Этот отчет подчеркивает срочную необходимость глобального сотрудничества в разработке этического ИИ. Хотя ИИ может быть мощной силой во благо — в таких областях, как здравоохранение, образование и наука — он также предоставляет инструменты для психологической войны и дезинформации, если его не контролировать.
Раскрытия OpenAI ознаменуют поворотный момент в управлении ИИ. Чем более изощренным становится злоупотребление этими инструментами, тем больше возникает вопрос: не только можно ли контролировать ИИ, но и кто будет нести ответственность, если это не удастся. Если такие продвинутые инструменты, как ChatGPT, становятся цифровыми наемниками в кампаниях влияния, то прозрачность, контроль и устойчивость должны быть заложены в систему с самого начала.
Сообщение ясно: ИИ больше не просто инструмент — это оружие. И, как любое оружие, все зависит от того, кто его использует.
3 комментария