Исследователи раскрыли, как чат-боты ИИ, такие как ChatGPT и Gemini, могут быть обмануты и раскрыть запрещённый контент

С каждым годом технологии искусственного интеллекта становятся всё более мощными, и компании всё больше инвестируют в их развитие. ИИ находит применение во множестве областей и всё чаще становится частью нашей повседневной жизни. Однако с ростом его влияния появляются и опасения по поводу его этичного использования. Недавнее исследование, проведённое учеными из Intel, Университета штата Бойсе и Университета Иллинойс, обнаружило тревожную уязвимость в чат-ботах ИИ, таких как ChatGPT и Gemini, которая может привести к серьёзным последствиям.

Учёные выявили, что, перегрузив модели ИИ чрезмерным объёмом данных, можно обмануть системы и заставить их раскрыть заблокированный или цензурированный контент. Эти модели, несмотря на свою мощь, всё ещё испытывают трудности с правильной интерпретацией намерений и значений в определённых ситуациях. Эта уязвимость особенно опасна, когда недобросовестные пользователи используют её для обхода встроенных фильтров безопасности.

Модели, такие как ChatGPT и Gemini, спроектированы с мощными механизмами безопасности, чтобы предотвратить генерацию опасного или запрещённого контента. Однако эти фильтры можно обойти, если ИИ будет подвергаться воздействию слишком сложных или противоречивых данных, которые он не в состоянии полностью обработать. Такое состояние сбивает модели с толку, и это именно та уязвимость, которую можно использовать. В своём исследовании команда учёных использовала автоматизированный инструмент под названием «InfoFlood», чтобы симулировать эффект перегрузки информацией, эффективно «взламывая» ИИ-модели. Результаты показали, что при воздействии на модели чрезмерного объёма данных, они начинают игнорировать свои собственные фильтры безопасности.

Учёные поделились своими результатами с 404 Media и сообщили о своих планах информировать компании, разрабатывающие такие ИИ, как ChatGPT и Gemini, об этих уязвимостях. Они планируют отправить подробное уведомление, чтобы помочь этим компаниям укрепить свои системы против подобных угроз. Хотя фильтры безопасности важны, это исследование подчёркивает необходимость постоянного контроля и улучшения, чтобы ИИ-системы не становились легко манипулируемыми.

Related posts

Google Keep получил свежий дизайн в стиле Material You

Apple вводит новые возрастные рейтинги в App Store с iOS 26

Google обновляет поиск: Web Guide на базе ИИ меняет правила игры