Apple не будет искать детское порно на iPhone. Пока

Всем привет. Недавно Apple анонсировала, что встроит в iOS необычную систему. Она называется CSAM и ищет на устройстве снимки с сексуальным насилием над детьми. О любителях такого контента сообщается организациям, связанным с правоохранительными органами.

Цель благая, но не без изъянов. Эксперты обратили внимание, что CSAM может срабатывать ложно. Кроме того, нет гарантий, что новинку не используют власти некоторых стран. Им сканирование фото на iPhone послужит для корыстных целей. Например, для преследования оппозиции.

Также Apple столкнулась с негативной реакцией простых пользователей. Людям по душе, что их гаджеты следят за ними.

Сказанное вынудило компанию пересмотреть свои планы. Гигант из Купертино внезапно объявил, что приостанавливает внедрение CSAM. Apple нужно дополнительное время на доработку технологии. Она хочет учесть замечания специалистов и публики.

Дебют CSAM должен был состояться в середине сентября – после презентации iPhone 13. Когда теперь это произойдет – неизвестно.

Related posts

The Elder Scrolls VI – уже в разработке

Внешний экран Galaxy Z Flip 5 запустит любое приложение, но есть одна загвоздка

God of War Ragnarok – вышло обновление 04.01