Apple начнёт локально проверять фото на iPhone на предмет жестокого обращения с детьми — FT

Сперва функцию внедрят в США, утверждают источники.

О том, что Apple планирует реализовать опцию сканирования локальных медиатек пользователей iPhone, издание Financial Times и специалист в области криптографии Мэтью Грин.

  • Функция neuralMatch будет локально сканировать фотографии пользователей на iPhone без передачи данных в облачное хранилище. Если система определит, что владелец iPhone хранит незаконные изображения, она предупредит сотрудников Apple.
  • Специалисты Apple обучили нейросеть neuralMatch на 200 000 изображениях, предоставленных Национальным центром поиска пропавших и эксплуатируемых детей США. Функция будет сравнивать фотографии пользователей с базой данных снимков с помощью алгоритмов хэширования.
  • Каждый загружаемый в iCloud снимок будет получать метку, которая укажет — подозрительный ли кадр или нет. Как только определённое количество фотографий будут помечены подозрительными, Apple расшифрует такие снимки и обратится в органы при необходимости.
  • Профессор Университета Джона Хопкинса и криптограф Мэтью Грин написал, что сразу несколько его источников подтвердили планы Apple. По его словам, инструмент может помочь с поиском незаконных снимков, но если он попадёт в руки мошенников, то они могут использовать его в своих интересах. Кроме того, он подчеркнул, что алгоритмы хэширования могут выдавать ложные результаты.
  • Apple уже сканирует фотографии в iCloud на предмет насилия над детьми, о чём компания рассказала в январе 2020 года, не уточнив, какую именно технологию она использует. Многие компании, включая Facebook, Twitter и Google, применяют для этой цели систему PhotoDNA, которая проверяет изображения по базе данных ранее распознанных снимков используя технологию хэширования.
  • Apple может рассказать подробности о технологии neuralMatch в ближайшие дни, сообщили источники Financial Times.

Ранее пользователи iPhone обнаружили в бета-версии iOS 15 неанонсированную функцию, которая автоматически удаляет блики с фотографий уже после съёмки.

 

https://vc.ru/



Проф–криптограф Мэтью Грин из Университета Джона Хопкинса о новой технологии массовой слежки (тред).


Это будет работать так, что ваш телефон загрузит базу данных «отпечатков пальцев» для всех плохих изображений (детское порно, видео о вербовке террористов и т. Д.). Он будет проверять каждое изображение на вашем телефоне на соответствие. Отпечатки пальцев неточны, поэтому по ним можно обнаружить близкие совпадения.

Тот, кто контролирует этот список, может искать любой контент на вашем телефоне, и у вас действительно нет никакого способа узнать, что в этом списке, потому что он невидим для вас (и просто кучка непрозрачных чисел, даже если вы взломаете свой телефон, чтобы получить список.)

Теория заключается в том, что вы будете доверять Apple, если она будет размещать только действительно плохие изображения. Скажем, изображения подготовлены Национальным центром пропавших без вести и эксплуатируемых детей (NCMEC). Вам лучше доверять им, потому что доверие — это все, что у вас есть.

(Есть и другие более причудливые подходы, которые разделяют базу данных, так что ваш телефон ее даже не видит — в некоторых случаях базы данных на самом деле являются коммерческой тайной. Это не меняет функциональности, но делает систему еще более сложной для проверки. Apple может использовать что–то вроде этого.)

Но есть вещи похуже, чем опасаться злонамеренного поведения Apple. Я упомянул, что эти перцептивные хеш–функции были «неточными». Это сделано специально. Они предназначены для поиска изображений, которые выглядят как плохие изображения, даже если они были изменены, сжаты и т. Д.

Это означает, что, в зависимости от того, как они работают, кто–то может создать проблемные изображения, которые «соответствуют» совершенно безобидным изображениям. Как политические образы преследуемых групп. Об этих безобидных изображениях будет сообщено поставщику.

Я не могу представить, чтобы кто–то сделал это только ради лулза (кашель, 8chan). Просто чтобы повеселиться с тем, кто им не нравится.

Но в мире есть действительно плохие люди, которые сделали бы это специально.

Если вы думали, что эппл делает что–то удачное с просмотром хешей фотографий — почитайте что делает евросоюз с их программой chatcontrol. По сути, в ближайшие месяцы корпорации работающие в евросоюзе должны будут внедрить систему, повозоляющую активно следить за вашими чатами в самом широком смысле. Вот самые критичные пункты:

  • — все ваши чаты и емейлы будут автоматически обработаны в поисках подозрительонго контента. Это будет происходить всегда, для всех и автоматически.
  • — если контент выглядит подозрительно — он передается на отсмотр живым людям, причем они не обязаны работать в корпорации, это может быть и аутсорс какой–то

  • — если и живым людям контент кажется подозрительным — он передается в государственные органы, которые будут разбираться и расследовать все сами
  • — данные о вашей переписке могут быть переданы другим странам

Везде используется термин “подозрительный контент”, без уточнения что это такое. Если такие нормы примут, не знаю как вы а я с чатами окончательно уйду в даркнет. Большая часть моей переписки это общение с друзьями и семьей, но я не хочу чтобы кто–то это все читал www.patrick–breyer.de/en/posts/message–screening/?lang=en

  • avatar
  • .
  • +11

0 комментариев

Только зарегистрированные и авторизованные пользователи могут оставлять комментарии.