Apple отложила слежку за фотографиями пользователей из-за общественного давления

Apple отложила развёртывание своей технологии обнаружения сексуального насилия над детьми (CSAM). Эта технология должна была сканировать фотографии пользователей в iCloud на предмет наличия соответствующих снимков. Планы Apple жёстко раскритиковали самые разные люди.

Люди активно подписывали письма с требованием отказаться от этой технологии. В итоге Apple заявила сегодня изданию TechCrunch:

В прошлом месяце мы объявили о планах по созданию функций, призванных помочь защитить детей от насильников, использующих средства коммуникации для их вербовки и эксплуатации, а также ограничить распространение материалов о сексуальном насилии над детьми. Основываясь на отзывах клиентов, групп по защите интересов, исследователей и других лиц, мы решили в ближайшие месяцы уделить дополнительное время тому, чтобы собрать информацию и внести улучшения, прежде чем выпускать эти критически важные функции безопасности детей

Apple

Данная функция должна была появиться в iOS 15, выход которой ожидается в ближайшее время.

Источник: Ferra