Apple опубликовала документ (.pdf), в котором ответила на часто задаваемые вопросы о новой функции безопасности — проверке фотографий пользователей на детскую порнографию и жестокое обращение с детьми (Child Sexual Abuse Material, CSAM).
В компании заверили, что система CSAM может быть использована только для распознавания детской порнографии и жестокого обращения. Она будет работать с базой изображений, предоставленных правозащитными организациями. База хранится в виде нечитаемых хэшей — строк чисел, который невозможно конвертировать в изображения. Система не будет сканировать все снимки, а только искать совпадения с хэшами.
CSAM будет проверять только фотографии, загруженные в iCloud. Если пользователь отключил выгрузку в облако, система не будет работать; не будет проверяться и библиотека на устройстве.
Программа не предполагает автоматической передачи данных властям — сначала сотрудники Apple вручную проверят результаты сканирования. Также компания заявила, что не будет сотрудничать с правительством для адаптации системы под другие цели.
Apple рассказала, что защита детей в iMessage и проверка фото в iCloud — две разные технологии, не связанные друг с другом. Проверка сообщений работает только на семейных аккаунтах с детьми до 12 лет, родители должны самостоятельно включить функцию. В отличие от CSAM, сканирование происходит непосредственно на устройстве, таким образом не нарушается сквозное шифрование iMessage.
При этом родителей не будут сразу предупреждать об отправке или получении откровенных изображений. Ребенок младше 12 лет получит размытую картинку и сообщение о том, что если он продолжит отправку или просмотр фотографии, родителям будет отправлено уведомление. Детей в возрасте от 13 до 17 лет также предупредят об опасности содержимого, но система не будет оповещать родителей.
На прошлой неделе Apple объявила о планах сканировать iCloud на запрещенный контент. Пока функцию запустят только в США. Эксперты допускают, что программа безопасности Apple может усилить давление и на другие технологические компании, чтобы они запускали аналогичные системы.