YouTube представил новую функцию на основе искусственного интеллекта, которая должна помочь авторам защитить себя от поддельных видео и дипфейков. Пока человечество ждёт, когда ИИ решит глобальные проблемы, он уже активно создаёт новые — и подделка внешности людей в видео становится одной из самых острых тем. Теперь у авторов появилось средство, которое позволит им контролировать, где и как используется их лицо.

Инструмент распознавания внешности: защита от дипфейков
Компания официально запустила инструмент AI likeness detection — систему для распознавания видео, в которых используется облик создателя без его разрешения. Если в ролике найдена подделка, автор сможет запросить удаление видео напрямую через YouTube Studio. Это не просто фильтр, а полноценный инструмент управления репутацией в эпоху ИИ-контента.
Основная цель YouTube — помочь авторам защитить свою личность и предотвратить распространение дезинформации с использованием дипфейков. На первом этапе функция появится у участников партнёрской программы YouTube. В течение ближайших месяцев доступ постепенно откроется большему числу пользователей, а к январю 2026 года все монетизированные каналы смогут использовать эту возможность.
Как работает новая функция
Инструмент располагается во вкладке обнаружения контента внутри YouTube Studio. Чтобы активировать защиту, автору нужно пройти процесс подтверждения личности — загрузить документ, удостоверяющий личность, и короткое видео-селфи. После этого система начнёт отслеживать появление его лица в любых видео на платформе.
Когда алгоритм находит совпадение, автор получает уведомление со всеми подробностями: название ролика, канал, количество просмотров и точный отрывок, где был использован его облик. Прямо из интерфейса можно отправить запрос на удаление или просмотреть видео для уточнения. Таким образом, процесс становится простым и прозрачным.
При этом YouTube подчёркивает, что инструмент не предназначен для борьбы с пародиями или творческими работами. Цель — остановить именно вводящие в заблуждение подделки, где используется чужое лицо без согласия для дезинформации или манипуляций.
Дипфейки: новая реальность и новые риски
Появление функции совпало с резким ростом количества ИИ-видео. Приложения вроде Sora позволяют создавать реалистичные клипы с чужими лицами буквально за минуты. И если раньше от этого страдали в основном знаменитости, то теперь под угрозой любой пользователь. YouTube признаёт: защита от дипфейков — это уже не нишевая задача, а общественная необходимость.
Некоторые пользователи, впрочем, скептичны. Им не нравится идея передавать свои биометрические данные ради защиты от ИИ. Многие считают, что платформа должна ввести жёсткую маркировку ИИ-контента или выделить для него отдельную ленту. Простой визуальный ярлык вроде «сгенерировано ИИ» помог бы пользователям не попадаться на удочку фейков.
Тем не менее, шаг YouTube можно считать важным началом. В мире, где границы между реальностью и синтетикой стираются, возможность отследить использование собственного лица — это уже не роскошь, а необходимая мера цифровой самозащиты.
2 комментария
Правильное направление, дипфейки реально угроза
Наконец-то, а то этих фейков уже не отличить от настоящих 😅