После целой недели критики по поводу новой системы обнаружения фотографий сексуального насилия над детьми (CSAM) Apple заявила в пятницу, что будет искать только те изображения, которые были отмечены информационными центрами в различных странах.
Изначально Apple не подтвердила, сколько совпадающих изображений на телефоне или компьютере должно быть найдено, прежде чем операционная система уведомит Apple о необходимости проверке человека и возможном сообщении властям. В пятницу Apple подтвердила изначально порог установлен на 30 изображениях, однако по мере улучшения работы системы это число может быть уменьшено.
Apple также опровергла предположение, что новый механизм может быть использован для нацеливания на отдельных лиц: список идентификаторов изображений универсален и будет одинаковым для любого устройства, к которому он будет применяться.
Apple также пояснила, что новая система создает на устройстве зашифрованную хэш-базу данных материалов с сексуальным насилием над детьми, полученную не менее чем от двух или более организаций, работающих под патронажем отдельных национальных правительств.
Apple признала, что плохо справилась с объяснением новой стратегии, что вызвало негативную реакцию влиятельных групп, занимающихся политикой в области технологий, и даже собственных сотрудников, обеспокоенных тем, что компания ставит под угрозу свою репутацию в плане защиты конфиденциальности потребителей.
Apple отказалась сообщить, повлияла ли эта критика на какие-либо политики или программное обеспечение, но заявила, что проект все еще находится в разработке и ещё подвергнется изменениям.