$AAPL опубликовали документ, который отвечает на частозадаваемые вопросы о скандировании фотографий на наличие неправомерного контента.
Если в кратце, то сканирование фотографий будет происходить только если включения синхронизация с iCloud.
При загрузке фотографии, генерируется хэш, который сверяется с хэшами из базы данных. Если обнаружено совпадение, то отчёт передаётся в эпл, где на основе обученных данных будет вынесен вердикт.
По словам компании, алгоритм не позволяет восстановить исходное изображение. Так Apple не узнает о содержимом фотографии до обнаружения запрещённых материалов.
Сам документ можете прочитать по ссылке:
https://www.apple.com/child-safety/pdf/Expanded_Protections_for_Children_Frequently_Asked_Questions.pdf
Перевод документа:
В Apple наша цель — создать технологии, которые расширят возможности людей и обогатят их жизнь, помогая им оставаться в безопасности. Мы хотим защитить детей от хищников, которые используют коммуникационные инструменты для их вербовки и эксплуатации, а также ограничить распространение материалов о сексуальном насилии над детьми (CSAM). С тех пор, как мы объявили об этих особенностях, многие заинтересованные стороны, включая организацию конфиденциальности и организации по безопасности детей, выразили свою поддержку этому новому решению, а некоторые обратились с вопросами. Этот документ служит для решения этих вопросов и обеспечивает большую ясность и прозрачность процесса.
Чем отличается безопасность связи в сообщениях от обнаружения CSAM в iCloud Photos?
Эти две функции не одинаковы и не используют одну и ту же технологию.
Безопасность общения в сообщениях предназначена для того, чтобы дать родителям и детям дополнительные инструменты, которые помогут защитить своих детей от отправки и получения сексуально откровенных изображений в приложении «Сообщения». Он работает только на изображениях, отправленных или полученных в приложении «Сообщения» для детских аккаунтов, созданных в разделе «Семейный доступ». Он анализирует изображения на устройствах и поэтому не меняет гарантий конфиденциальности — тузов сообщений. Когда дочерний аккаунт отправляет или получает сексуально откровенные изображения, фотография будет размыта, и ребёнок будет предупрежден, представлен полезными ресурсами и заверит, что это нормально, если он не хочет просматривать или отправлять фотографию. В качестве дополнительной меры предосторожности маленьким детям также можно сказать, что, чтобы убедиться, что они в безопасности, их родители получат сообщение, если они это просмотрят.
Вторая функция, обнаружение CSAM в iCloud Photos, предназначена для того, чтобы не допустить CSAM до iCloud Photos, не предоставляя Apple информации о каких-либо фотографиях, кроме тех, которые соответствуют известным изображениям CSAM. Изображения CSAM запрещены в большинстве стран, включая государства-единицы. Эта функция влияет только на пользователей, которые решили использовать iCloud Photos для хранения своих фотографий. Это не влияет на пользователей, которые не выбрали использование фотографий iCloud. Никаких других данных на устройствах не влияет. Эта функция не распространяется на сообщения.
Безопасность связи в сообщениях
Кто может использовать безопасность связи в сообщениях?
Безопасность связи в Сообщениях доступна только для учётных записей, созданной в виде семейств в iCloud. Родительские/опекунские счета должны включить эту функцию для своей семейной группы. Родители/опекуны могут разрешать родительские нотации только для детских счетов в возрасте до 12 лет.
Расширенная защита детей — часто задаваемые вопросы Информация, подлежащие авторским правам. Все права защищены.
2
Означает ли это, что сообщения будут обмениваться информацией с Apple или правоохранительными органами?
Нет. Apple никогда не получает доступ к коммуникациям в результате этой функции в Сообщениях. Эта функция не передает никакой информации Apple, NCMEC или правоохранительным
#apple #акции #эпл #акционер #инвестор #инвестиции