Apple признала, что плохо объяснила технологию сканирования фото на iPhone

На днях Apple объявила, что в iOS 15 появится необычная функция. Она называется CSAM и сканирует iPhone на предмет запрещенных фото. В частности – изображений жестокого обращения с детьми (включая порно).

Если что-то такое находится, Apple сообщает об этом в организацию NCMEC. Последняя тесно сотрудничает с правоохранительными органами США. Цель благородная, но нововведение вызвало возмущение у пользователей и экспертов.

Apple закономерно указали на конфиденциальность. Что если CSAM используют не только для поиска порнографии? Кто помешает хакерам или спецслужбам узнавать другие секреты, хранящиеся на iPhone?

Поднялся скандал. Настолько громкий, что гиганту из Купертино пришлось давать объяснения. Более того, Крейг Федериги, вице-президент Apple, признал вину компании. Журналистам Wall Street Journal он заявил, что корпорация не сумела донести до публики сути CSAM.

Федериги напомнил, что сканирование работает лишь при определенных условиях. Например, должна быть включена функция “Фото iCloud” в настройках айфона. Иначе CSAM просто бесполезна.

Подозрительными считаются исключительно аккаунты со множеством нарушений. Подобные учетные записи отправляются на ручную проверку в Apple. Однако специалисты не имеют доступа ко всей библиотеке снимков.

Помимо прочего, CSAM поддерживает несколько уровней шифрования. Взломать систему практически невозможно – даже спецслужбам. Поэтому злоупотреблений с их стороны ждать не стоит.

Related posts

Электрический Lotus важный конкурент Porsche Cayman в 2027 году

Intel выпустит 21 процессор Arrow Lake-S «Core Ultra 200» для настольных ПК: включая модели мощностью 125 Вт, 65 Вт и 35 Вт

Samsung может отказаться от AMD в пользу собственного графического процессора для Galaxy S26