На днях Apple анонсировала систему CSAM, которая займется выявлением детской порнографии. Делать это она будет на iOS – автоматически сканируя фотографии пользователя. Если что найдет – доложит куда надо.
Цель у CSAM достойная. А вот у методов нашлись противники. Во-первых, сами владельцы iPhone и iPad. Мало кому хочется, чтобы Apple просматривала личные снимки. Пусть даже с помощью алгоритма.
Во-вторых, возмутились правозащитники по всему миру. Стало известно о появлении открытого письма Apple. Обращение подписали более 90 организаций по защите гражданских прав.
Они просят Apple отказаться от внедрения CSAM. По простой причине: новинку в своих интересах используют власти многих стран. Они начнут давить на гиганта из Купертино, пытаясь расширить диапазон нежелательных изображений.
Детской порнографией дело не ограничится. Apple станут заставлять – в том числе юридически – искать различные материалы. Например, фото, выставляющие крупных политиков в негативном свете. Или картинки, связанные с протестами.
CSAM – по мнению авторов письма – способствует повсеместной слежке и цензуре. Поэтому Apple лучше вспомнить о ценностях конфиденциальности. Пока еще не поздно.