План по сканированию фотографий Apple столкнулся с глобальной негативной реакцией со стороны правозащитных групп

Более 90 групп политиков из США и всего мира подписали открытое письмо, в котором призвали Apple отказаться от своего плана, согласно которому устройства Apple будут сканировать фотографии на предмет материалов о сексуальном насилии над детьми (CSAM).

"Нижеподписавшиеся организации, приверженные гражданским правам, правам человека и цифровым правам по всему миру, обращаются к Apple с призывом отказаться от объявленных 5 августа 2021 года планов по внедрению средств наблюдения в iPhone, iPad и другие продукты Apple », - говорится в письме генеральному директору Apple.

Тим Кук сказал сегодня.

«Хотя эти возможности предназначены для защиты детей и сокращения распространения материалов о сексуальном насилии над детьми (CSAM), мы обеспокоены тем, что они будут использоваться для цензуры защищенной речи, угрожать конфиденциальности и безопасности людей во всем мире и иметь катастрофические последствия. последствия для многих детей ".

1627719940

Центр демократии и технологий (CDT) объявил о письме, а содиректор проекта CDT по безопасности и наблюдению Шэрон Брэдфорд Франклин сказала:" Мы можем ожидать, что правительство примет преимущества наблюдения, которые Apple встраивает в iPhone, iPad и компьютеры. Для то, чтобы требовать Apple сканировать и блокировать изображения нарушений прав человека, политических протестов и другой контент, который следует защищать как свободное выражение, что составляет основу свободное и демократическое общество ".

Открытое письмо подписали группы с шести континентов (Африки, Азии, Австралии, Европы, Северной Америки и Южной Америки). Среди подписантов из США - Американский союз гражданских свобод, Фонд электронных границ, Fight for the Future, Технологическое партнерство и институт ЛГБТ, Институт открытых технологий Новой Америки, STOP (Проект по надзору за технологиями наблюдения) и Проект секс-работников. Центра городского правосудия. Подписавшиеся также включают группы из Аргентины, Бельгии, Бразилии, Канады, Колумбии, Доминиканской Республики, Германии, Ганы, Гватемалы, Гондураса, Гонконга, Индии, Японии, Кении, Мексики, Непала, Нидерландов, Нигерии, Пакистана, Панамы, Парагвая. , Перу, Сенегал, Испания, Танзания и Великобритания. Полный список подписывающих лиц находится здесь.

Сканирование фотографий и сообщений iCloud

Две недели назад Apple объявила, что устройства с включенными фотографиями iCloud будут сканировать изображения перед их загрузкой. IPhone загружает каждую фотографию в iCloud сразу после того, как она была сделана, поэтому сканирование произойдет почти сразу, если пользователь ранее включил iCloud Photos.

В Apple заявили, что технология "анализирует изображение и преобразует его", присваивает уникальный номер, характерный для этого изображения и помечает фотографию, когда ее хэш идентичен или почти идентичен хэшу любого из тех, что появляются в базе данных известного CSAM. Об учетной записи будет сообщаться в Национальный центр по делам пропавших без вести и эксплуатируемых детей (NCMEC), только когда будет обнаружено около 30 фотографий CSAM. Это пороговое значение, установленное Apple, чтобы гарантировать, что вероятность неправильной отметки данного объекта составляет менее одного триллиона в год.

Apple также добавляет, что инструмент в приложение «Сообщения», который будет «анализировать вложения изображений и определять, является ли фотография откровенно сексуальной», не предоставляет Apple доступа к самим сообщениям. Система будет необязательной для родителей и, если она будет включена, то будет «предупреждать детей и их родителей о получении или отправке фотографий откровенно сексуального характера».

Представители Apple заявляли, что новые системы будут развернуты в конце этого года в обновления iOS 15, iPadOS 15, watchOS 8 и macOS Monterey.

«Фонд цензуры, слежки и преследований»

Обе системы сканирования относятся к лицам, подписывающим открытые письма. В письме о сканировании сообщений, которое могут разрешить родители, говорится:

Алгоритмы, предназначенные для обнаружения материалов откровенно сексуального характера, заведомо ненадежны. Они склонны ошибочно отмечать произведения искусства, информацию о здоровье, образовательные ресурсы, пропагандистские сообщения и другие изображения. Права детей на отправку и получение такой информации защищены Конвенцией ООН о правах ребенка. Более того, система, разработанная Apple, предполагает, что задействованные «родительские» и «дочерние» учетные записи на самом деле принадлежат взрослому, который является родителем ребенка, и что эти люди поддерживают здоровые отношения. Что может быть не всегда; Взрослый может быть регистратором учетной записи, и последствия уведомления родителей в некоторых случаях могут угрожать безопасности и благополучию ребенка.

Особому риску подвержены ЛГБТК + молодые люди, состоящие на семейных счетах с неблагонадежными родителями. В результате этого изменения iMessages больше не будет обеспечивать конфиденциальность и неприкосновенность частной жизни для этих пользователей, даже через систему сквозного зашифрованного обмена сообщениями, в которой только отправитель и предполагаемые получатели имеют доступ к отправленной информации.

Как только эта функция бэкдора будет встроена, правительства смогут заставить Apple распространить уведомление на другие учетные записи и выявлять изображения, которые являются нежелательными по причинам, отличным от сексуального характера.

О планах Apple по сканированию фотографий. для CSAM группы написали:

Как только эта возможность будет встроена в продукты Apple, компания и ее конкуренты столкнутся с огромным давлением - и, возможно, законными требованиями - от правительств всего мира сканировать фотографии не только для CSAM, но и других изображений, которые правительство считает нежелательными. Эти изображения могут быть нарушениями прав человека, политическими протестами, изображениями, которые компании помечают как «террористические» или насильственные экстремистские материалы, или даже нелестные изображения тех самых политиков, которые будут оказывать давление на компанию, чтобы они отсканировали их.

И это давление может распространиться на все изображения, хранящиеся на устройстве, а не только на загруженные в iCloud. Таким образом, Apple заложит основу для цензуры, слежки и преследований на глобальном уровне.

В Apple заявили, что откажутся от требований правительства расширить сканирование фотографий за пределы CSAM. Но отказаться от этих требований может быть сложно, особенно в авторитарных странах с плохой репутацией в области прав человека. Apple не сообщила никаких сроков, когда она принесет технологию сканирования в страны за пределами США.

Получив неожиданно быструю в целом негативную реакцию со стороны экспертов по безопасности и защитников конфиденциальности, в Apple заявили, что недостаточно хорошо объяснили, как это будет работать. Apple предоставили более подробную информацию - например, что ее база данных CSAM будет состоять только из «хэшей, предоставленных как минимум двумя организациями по безопасности детей, работающими в разных суверенных юрисдикциях». Дальнейшие объяснения Apple были неверно истолкованы некоторыми новостными организациями как изменение в планах, но, похоже, компания не внесла существенных изменений в план с момента его объявления.

Старший вице-президент Apple по разработке программного обеспечения утверждал, что новая система Apple является «достижением уровня техники в области конфиденциальности», потому что она будет сканировать фотографии »самым надежным способом защиты конфиденциальности, который мы можем себе представить, и наиболее доступным для аудита и проверяемым способом. "

" Если вы посмотрите на любую другую облачную службу, в настоящее время они сканируют фотографии, просматривая каждую фотографию в облаке и анализируя ее. Мы же хотели иметь возможность обнаруживать такие фотографии в облаке, не глядя на фотографии людей, и именно для этого разработали такую архитектуру », - сказал Федериги The Wall Street Journal. По его словам, система Apple «гораздо более конфиденциальна, чем все, что было сделано в этой области раньше».

Источник: arstechnica

Вас могут заинтересовать:

Подписаться
Уведомить о
0 комментариев
Межтекстовые Отзывы
Посмотреть все комментарии