Некоторое время назад Apple объявила о намерении внедрить новую функцию в iPhone и iPad. Она должна была заниматься обнаружением на устройствах изображений, содержащих сцены жестокого обращения с детьми (CSAM).
Ожидаемо, эта инициатива столкнулась с огромным количеством хейта в сети. Но несмотря на это, компания всё ещё намерена продолжить её развитие.
Напомним, что сканирование пользовательских фотографий назвали необходимым для защиты детей от насилия. При этом функция также должна была уметь определять факт отправки или получения детьми изображений откровенного характера. В случае, если что-то подобное произошло бы, компания оповестила бы об этом родителей.
И если изначально Apple опубликовала на своём сайте сообщение, в котором заявила о намерении отложить запуск функции, то теперь исчезло как само сообщение, так и любое упоминание о CSAM. Правда, в разговоре с The Verge корпорация призналась, что не отказалась от планов по внедрению функции — просто произойдёт это чуточку позже.
Источник: Ferra