20.04.2024

Нет, Apple не будет смотреть ваши фото. Но остаётся ряд вопросов

Недавно Apple рассказала, что будет сканировать фотографии пользователей на предмет насилия над детьми. Это вызвало большой резонанс: технологию посчитали вмешательством в личное пространство. В том числе потому, что не все поняли принцип её работы. Разбираемся, как всё устроено на самом деле.

1 (22)

Что входит в новую программу Apple по защите детей?

Apple планирует пресекать распространение материалов с сексуальным насилием над детьми с помощью трёх функций безопасности:

  • При получении или отправлении откровенного контента через «Сообщения» ребёнку будет показано предупреждение, а сами снимки окажутся размыты. Если юный пользователь всё же просмотрит их, родители получат уведомление.
  • При сохранении фото в iCloud Photos система проверит, нет ли совпадений с базой данных.
  • Siri и «Поиск» научатся помогать пользователям в небезопасных ситуациях, предлагая ресурсы, где можно сообщить об эксплуатации детей.

Нововведения появятся в iOS 15, iPadOS 15 и macOS Monterey и поначалу заработают только в США. Однако новость всколыхнула весь мир.

Как будет работать сканирование фотографий?

Apple уверяет, что её система не нарушает пользовательскую конфиденциальность. Вот как она будет искать на снимках запрещённый контент.

2 (3)

На гаджет владельца загружается база ресурсов, которые содержат контент с детским насилием. В США такой перечень ведёт некоммерческая организация «Национальный центр пропавших без вести и эксплуатируемых детей».

Фотографии хранятся в виде хешей — набора уникальных символов, который не позволяет восстановить исходный материал, но при этом идентичен для тех же данных при многократной генерации. Хеши можно сличать между собой. Даже если обрезать или изменить картинку, она будет содержать тот же набор ключевых символов.

Каждое изображение, которое готовится к загрузке в iCloud Photos, тоже превращается в хеш для сопоставления. Это позволяет сравнить пользовательский снимок с незаконными кадрами, причём не отдавая алгоритму личные фото.

3 (2)

Когда система обнаружит сильное совпадение, сотрудник Apple вручную оценит наличие нелегальных материалов. Если он подтвердит нарушение правил, учётная запись заблокируется, а информация будет направлена в правоохранительные органы.

Ещё раз. Apple не будет искать детородные органы на снимках ваших детей.

Сравнение производится только с уже известным запрещённым контентом. Аналогичная функция ещё с 2019 года работает в iCloud Photos для загруженных в облако картинок. Теперь всё это происходит локально на устройстве владельца. 

А что думают специалисты?

Несмотря на заверения Купертино в безопасности технологии, IT-эксперты уверены в обратном. Исполнительный директор Open Privacy Research Society задаётся таким вопросом: «Сколько времени пройдёт, прежде чем базу данных расширят за счёт террористического контента?» А исследователь в области безопасности и конфиденциальности Надим Кобейси напомнил, что FaceTime в Саудовской Аравии отключен из-за запрета на шифрование звонков. Значит, «яблочная» компания может изменить своим принципам и в случае сканирования контента.

4 (1) (1)

Эксперты и обеспокоенные пользователи подписали открытое письмо к Apple, в котором призвали корпорацию немедленно отказаться от внедрения системы контроля за фото. К документу присоединились более 7400 человек, включая Эдварда Сноудена.

А на ваш взгляд, связана ли инициатива Apple с заботой о пользователях? Или же это очередной шаг корпорации по ограничению конфиденциальности?

Поделиться ссылкой: