Недавно Apple объявила о том, что будет сканировать iPhone в США на предмет материалов о сексуальном насилии над детьми (CSAM). В рамках этой инициативы компания сотрудничает с правительством и вносит изменения в iCloud, iMessage, Siri и Search.
Согласитесь, это звучит несколько настораживающе. Мы в России уже давно привыкли к тому, что под предлогом борьбы с действительно ужасными вещами, вводимые меры применяются по совершенно другим мотивам.
Вот и в случае с Apple многие обеспокоились о слежке и рисках утечки данных.
Apple будет сканировать ваши фотографии в iCloud и просматривать их с помощью базы данных Национального центра по проблеме исчезнувших и эксплуатируемых детей (NCME)C, чтобы определить, есть ли какие-либо изображения CSAM. Хотя фактически, компания это делать будет не в облаке, а на вашем устройстве. То есть перед отправкой изображения в хранилище iCloud алгоритм выполнит проверку известных хешей CSAM.
Когда фотография загружается в iCloud, Apple создает ваучер криптографической безопасности, который хранится вместе с ней. Ваучер содержит сведения, позволяющие определить, соответствует ли изображение известным хешам CSAM.
Если на телефоне отключена синхронизация iCloud, сканирование не будет работать.
Для iMessage Apple такде будет сканировать и размывать изображения CSAM. Компания также внедряет соответствующие алгоритмы в Поиск и Siri.
Все функции Apple призваны помочь остановить CSAM, и на бумаге это выглядит неплохо.
Тем не менее, организация по защите цифровых прав Electronic Frontier Foundation (EFF) раскритиковала Apple в своем сообщении и отметила, что внедрение компании открывает потенциальные лазейки в системе шифрования.
«Сказать, что мы разочарованы планами Apple, – значит ничего не сказать», – добавила EFF. Организация указала, что сканирование контента с использованием заранее определенной базы данных может привести к опасным вариантам использования. Например, в стране, где гомосексуальность является преступлением, правительство «может потребовать, чтобы классификатор был обучен ограничивать очевидный контент ЛГБТК +».
И тут сложно не согласиться. Самая большая проблема в том, что Apple не контролирует базу данных CSAM. Так что… кто знает, к чему это приведет через несколько лет.
Все выглядит так, будто они говорят: «Эй, теперь мы будем легально шпионить за вашими фотографиями». Хотя уверен, что у них и так уже есть всё. Тут только вопрос в легализации.
Жестокое обращение с детьми – это очевидное зло, которому сложно найти конкуренцию. Но попытка Apple работать на полицию, как мне кажется, может быть опасным делом.
У нас есть множество примеров того, как технологии, такие как распознавание лиц, не работают и невинные люди обвиняются в преступлениях, которых они никогда не совершали.
Функции Apple для CSAM появятся позже в этом году в обновлениях iOS 15, iPadOS 15, watchOS 8 и macOS Montere.