В Apple объяснили, как iPhone будет сканировать фотографии на предмет изображений сексуального насилия над детьми

Вскоре после сообщений о том, что Apple начнет сканировать iPhone на предмет изображений жестокого обращения с детьми, компания подтвердила свой план и предоставила более подробную информацию в пресс-релизе и техническом резюме. В технических подробностях, утверждается, что вероятность ложных срабатываний составляет 1 к 1 триллиону.

"Метод Apple по обнаружению известных CSAM (материалов о сексуальном насилии над детьми) разработан с учетом конфиденциальности пользователей", - говорится в заявлении Apple. "Вместо сканирования изображений в облаке система выполняет сопоставление на устройстве с использованием базы данных известных хэшей изображений CSAM, предоставленных NCMEC (Национальным центром по пропавшим и эксплуатируемым детям) и другими организациями по безопасности детей. Apple также преобразует эту базу данных в нечитаемый набор хэшей, который надежно хранится на устройствах пользователей".

iphone hayat kurtariyor. jpg

Apple представила более подробную информацию о системе обнаружения CSAM в техническом резюме и заявила, что ее система использует пороговое значение, "установленное для обеспечения чрезвычайно высокого уровня точности и обеспечивающее менее одного шанса из одного триллиона в год неверно пометить данную учетную запись".

Изменения будут внесены "позже в этом году в обновлениях для iOS 15, iPadOS 15, watchOS 8 и macOS Monterey", - говорится в сообщении Apple. Apple также развернет программное обеспечение, которое может анализировать изображения в приложении "Сообщения" для новой системы, которая будет предупреждать детей и их родителей при получении или отправке фотографий сексуального характера.

Apple обвинили в создании “инфраструктуры для слежки”

Несмотря на заверения Apple, эксперты по безопасности и защитники конфиденциальности раскритиковали этот план.

"Apple заменяет свою стандартную сквозную зашифрованную систему обмена сообщениями инфраструктурой для наблюдения и цензуры, которая будет уязвима для злоупотреблений и распространения не только в США, но и во всем мире", - сказал Грег Ноджайм, содиректор проекта Центра демократии и технологий по безопасности и наблюдению. "Apple должна отказаться от этих изменений и восстановить веру своих пользователей в безопасность и целостность их данных на устройствах и сервисах Apple".

В течение многих лет Apple сопротивлялась давлению правительства США на установку "черного хода" в своих системах шифрования, заявляя, что это подорвет безопасность всех пользователей. Эксперты по безопасности высоко оценили Apple за эту позицию. Но, планируя развернуть программное обеспечение, которое выполняет сканирование на устройстве и делится выбранными результатами с властями, Apple опасно близка к тому, чтобы стать инструментом государственного надзора, предположил профессор криптографии Университета Джона Хопкинса Мэтью Грин в Twitter.

Сканирование на стороне клиента, о котором Apple объявила, в конечном итоге может "стать ключевым компонентом для добавления наблюдения в системы зашифрованных сообщений",- написал он. "Возможность добавления подобных систем сканирования в системы обмена сообщениями E2E [сквозное шифрование] была важной "просьбой" правоохранительных органов во всем мире".

Сканирование сообщений и “вмешательство”Siri

В дополнение к сканированию устройств на наличие изображений, соответствующих базе данных CSAM, Apple заявила, что обновит приложение "Сообщения", чтобы "добавить новые инструменты для предупреждения детей и их родителей при получении или отправке фотографий сексуального характера".

"В сообщениях используется машинное обучение на устройстве для анализа вложений изображений и определения того, является ли фотография откровенной сексуальной. Эта функция разработана таким образом, чтобы Apple не получала доступа к сообщениям", - сказала Apple.

234

Когда изображение в сообщениях помечено флажком, "фотография будет размыта, и ребенок будет предупрежден, ему будут предоставлены полезные ресурсы и заверено, что все в порядке, если он не хочет просматривать эту фотографию". Система позволит родителям получить сообщение, если дети просматривают помеченную фотографию, и "аналогичные меры защиты доступны, если ребенок пытается отправить фотографии откровенного сексуального характера. Ребенок будет предупрежден перед отправкой фотографии, и родители смогут получить сообщение, если ребенок решит отправить его", - говорится в сообщении Apple.

Apple заявила, что обновит Siri и поиск, чтобы "предоставлять родителям и детям расширенную информацию и помощь, если они столкнутся с небезопасными ситуациями". Системы Siri и поиска будут "вмешиваться, когда пользователи выполняют поиск по запросам, связанным с CSAM", и "объяснять пользователям, что интерес к этой теме вреден и проблематичен, и предоставлять ресурсы от партнеров, чтобы получить помощь в решении этой проблемы".

Центр демократии и технологий назвал сканирование фотографий в сообщениях "бэкдором", написав:

Механизм, который позволит Apple сканировать изображения в сообщениях, не является альтернативой бэкдору — это бэкдор. Сканирование на стороне клиента на одном "конце" связи нарушает безопасность передачи, а информирование третьей стороны (родителя) о содержании сообщения подрывает его конфиденциальность. Организации по всему миру предостерегают от сканирования на стороне клиента, поскольку оно может использоваться правительствами и компаниями для контроля за содержанием частных сообщений.

Технология Apple для анализа изображений

Техническое резюме Apple по обнаружению CSAM включает в себя несколько обещаний, которые касаются конфиденциальности пользователей.

"Apple ничего не узнает об изображениях, которые не соответствуют известной базе данных CSAM", - говорится в нем. "Apple не может получить доступ к метаданным или визуальным производным для совпадающих изображений CSAM, пока не будет превышен порог совпадений для учетной записи фотографий iCloud".

Технология хэширования Apple называется NeuralHash, и она "анализирует изображение и преобразует его в уникальный номер, специфичный для этого изображения. Только другое изображение, которое кажется почти идентичным, может дать такое же число; например, изображения, которые отличаются размером или качеством перекодирования, все равно будут иметь одинаковое значение нейронной хэш-функции", - написали в Apple.

Прежде чем iPhone или другое устройство Apple загрузит изображение в iCloud, "устройство создаст криптографический ваучер безопасности, который кодирует результат сопоставления. Он также шифрует нейронную сеть изображения и визуальную производную. Этот ваучер загружается в фотографии iCloud вместе с изображением".

Используя "пороговый секретный доступ", система Apple "гарантирует, что содержимое ваучеров безопасности не может быть интерпретировано Apple, если учетная запись фотографий iCloud не пересекает порог известного содержимого CSAM", - говорится в документе. "Только при превышении порогового значения криптографическая технология позволяет Apple интерпретировать содержимое ваучеров безопасности, связанных с соответствующими изображениями CSAM".

Отмечая вероятность ложного срабатывания 1 к 1 триллиону, Apple заявила, что "вручную просматривает все отчеты, отправленные в NCMEC, чтобы обеспечить точность отчетности". Пользователи смогут "подать апелляцию на восстановление своей учетной записи", если они считают, что их учетная запись была ошибочно помечена.

Как отмечалось ранее, вы можете прочитать техническое резюме здесь. Apple также опубликовала более подробное и подробное объяснение криптографической технологии "пересечение частных наборов", которая определяет, соответствует ли фотография базе данных CSAM, не раскрывая результат.

Вас могут заинтересовать:

Подписаться
Уведомить о
2 комментариев
Новые
Старые Популярные
Межтекстовые Отзывы
Посмотреть все комментарии