План Apple по сканированию iPhone в США вызывает тревогу

Apple объявила о планах сканировать iPhone на предмет жестокого обращения с детьми , что сразу же вызвало обеспокоенность по поводу конфиденциальности пользователей.

Apple заявляет, что ее система автоматизирована, не сканирует сами изображения, использует некоторую форму системы хеш-данных для выявления материалов о сексуальном насилии над детьми и заявляет, что у нее есть некоторые средства защиты от сбоев для защиты конфиденциальности.

Защитники конфиденциальности предупреждают, что теперь, когда Apple создала такую ​​систему, Apple встала на тернистый путь к неумолимому расширению сканирования контента на устройствах и составления отчетов, которые могут — и, вероятно, будут — использоваться некоторыми странами.

Что делает система Apple

В системе есть три основных элемента, которые будут скрываться в iOS 15, iPadOS 15 и macOS Monterey, когда они появятся в конце этого года.

1. Сканирование ваших изображений

Система Apple сканирует все изображения, хранящиеся в iCloud Photos, чтобы определить, соответствуют ли они базе данных CSAM, хранящейся в Национальном центре пропавших без вести и эксплуатируемых детей (NCMEC).

Изображения сканируются на устройстве с использованием базы данных известных хэшей изображений CSAM, предоставленных NCMEC и другими организациями по безопасности детей. Apple преобразует эту базу данных в нечитаемый набор хэшей, который надежно хранится на устройствах пользователей.

Когда изображение сохраняется в iCloud Photos, происходит процесс сопоставления. Apple получает предупреждение в случае, если учетная запись превышает пороговое значение, состоящее из нескольких экземпляров известного содержимого CSAM. В случае предупреждения данные проверяются вручную, учетная запись отключается и об этом информируется NCMEC.Однако система не идеальна. Компания заявляет, что вероятность неправильной пометки учетной записи составляет менее одного триллиона. У Apple более миллиарда пользователей, а это означает, что вероятность того, что кто-то будет неправильно идентифицирован каждый год, выше 1/1000. Пользователи, которые считают, что они были помечены ошибочно, могут подать апелляцию.

Изображения сканируются на устройстве.

2. Сканирование ваших сообщений

Система Apple использует машинное обучение на устройстве для сканирования изображений в сообщениях, отправленных или полученных несовершеннолетними, на предмет содержания откровенно сексуального характера, предупреждая родителей, если такие изображения обнаружены. Родители могут включить или отключить систему, и любой такой контент, полученный ребенком, будет размыт.

Если ребенок попытается отправить контент откровенно сексуального характера, он будет предупрежден, и родители смогут об этом сообщить. Apple заявляет, что не получает доступа к изображениям, которые сканируются на устройстве.

3. Наблюдая за тем, что вы ищете

Третья часть состоит из обновлений Siri и Search. Apple заявляет, что теперь они предоставят родителям и детям расширенную информацию и помогут, если они столкнутся с опасными ситуациями. Siri и Search также будут вмешиваться, когда люди делают то, что считается поисковыми запросами, относящимися к CSAM, объясняя, что интерес к этой теме проблематичен.

Apple любезно сообщает нам, что ее программа «амбициозна», и ее усилия будут «со временем развиваться и расширяться».

Немного технических данных

Компания опубликовала обширный технический документ, который объясняет немного больше о ее системе. В документе стараются убедить пользователей, что компания ничего не узнает об изображениях, не соответствующих базе данных,

Технология Apple под названием NeuralHash анализирует известные изображения CSAM и преобразует их в уникальный номер, специфичный для каждого изображения. Только другое изображение, которое кажется почти идентичным, может дать такое же число; например, изображения, которые отличаются по размеру или качеству транскодирования, по-прежнему будут иметь одинаковое значение NeuralHash.

Когда изображения добавляются в Фото iCloud, они сравниваются с этой базой данных для определения совпадения.

Если совпадение обнаружено, создается ваучер криптографической безопасности, который, насколько я понимаю, также позволит обозревателю Apple расшифровать и получить доступ к нарушающему изображению в случае достижения порогового значения такого контента и необходимости действий.

«Apple может узнать релевантную информацию об изображении только после того, как учетная запись будет иметь больше, чем пороговое количество совпадений CSAM, и даже в этом случае только для совпадающих изображений», — заключается в документе.

Apple не уникальна в этом

Не только Apple обязана делиться изображениями CSAM с властями. По закону любая американская компания, которая обнаруживает такие материалы на своих серверах, должна сотрудничать с правоохранительными органами для расследования. Facebook, Microsoft и Google уже имеют технологии, которые сканируют такие материалы, передаваемые через электронную почту или платформы обмена сообщениями.

Разница между этими системами и этой заключается в том, что анализ выполняется на устройстве, а не на серверах компании.

Apple всегда заявляла, что ее платформы обмена сообщениями являются зашифрованными, но это становится небольшой семантической претензией, если содержимое устройства человека сканируется еще до того, как шифрование будет выполнено.

Защита детей — это, конечно, то, что поддерживают самые рациональные люди. Но защитников конфиденциальности беспокоит то, что некоторые правительства теперь могут попытаться заставить Apple искать другие материалы на устройствах людей.

Например, правительство, которое запрещает гомосексуальность, может требовать такой контент. Что произойдет, если ребенок-подросток в стране, которая запрещает небинарную сексуальную активность, попросит у Siri помощи, чтобы сделать камингаут? А как насчет незаметных устройств для прослушивания окружающей среды, таких как HomePods?

И пока неясно, как Apple сможет защитить себя от подобной нестабильности.

Защитники конфиденциальности чрезвычайно встревожены

Большинство защитников конфиденциальности не поддерживает веру в приверженность Apple обеспечению конфиденциальности пользователей.

Как может любой пользователь почувствовать, что конфиденциальность защищена, если само устройство шпионит за ним, и они не могут контролировать это.

Фонд Electronic Frontier Foundation (EFF) предупреждает, что этот план эффективно создает лазейку в безопасности.

«Все, что потребуется, чтобы расширить узкую лазейку, которую создает Apple, — это расширение параметров машинного обучения для поиска дополнительных типов контента или настройка флагов конфигурации для сканирования не только детских, но и любых учетных записей. Это не скользкая дорожка; это полностью построенная система, которая просто ждет, пока внешнее давление внесет малейшие изменения».

Когда Apple разрабатывает технологию, способную сканировать зашифрованный контент, вы не можете просто сказать: «Что ж, мне интересно, что правительство Китая будет делать с этой технологией».

Альтернативные аргументы

Есть и другие аргументы. Одним из наиболее убедительных из них является то, что серверы у интернет-провайдеров и поставщиков электронной почты уже сканируются на предмет наличия такого контента, и что Apple создала систему, которая сводит к минимуму участие человека и отмечает проблему только в том случае, если она определяет несколько совпадений между базой данных CSAM и контент на устройстве.

Нет сомнений в том, что в группе риска дети.

Из почти 26 500 беглецов, о которых было сообщено NCMEC в 2020 году, каждый шестой, вероятно, стал жертвой торговли детьми в целях сексуальной эксплуатации. CyberTipline получил более 21,7 миллиона отчетов, связанных с той или иной формой CSAM в 2020 году.

Создавая систему защиты детей от таких вопиющих преступлений, Apple устраняет аргумент, который некоторые могли бы использовать для оправдания бэкдоров устройств в более широком смысле.

Большинство из нас согласны с тем, что детей следует защищать, но сможет ли Apple противостоять любой ползучей миссии со стороны правительств?

Этот последний вызов является самой большой проблемой, учитывая, что Apple, когда ее подталкивают, всегда будет следовать законам правительств стран, в которых она ведет бизнес.

«Какими бы благие намерения не одолевали Apple, с помощью этого, компания развертывает массовую слежку по всему миру», — предупредил известный защитник конфиденциальности  Эдвард Сноуден. Если они могут сканировать CSAM сегодня, «они могут сканировать что угодно завтра».

Подписывайтесь на наш Telegram, чтобы всегда быть в курсе самых последних и горячих новостей  @like_freedman

Автор: Ньют Саламандр, аналитик Freedman Сlub Crypto News

5 1 голос
Рейтинг статьи

Ньют Саламандр

Вас это может удивить, но я пишу о последних новостях из мира криптовалют.

Подписаться
Уведомить о
guest

0 комментариев
Межтекстовые Отзывы
Посмотреть все комментарии
0
Оставьте комментарий! Напишите, что думаете по поводу статьи.x