Apple не будет сканировать фотографии владельцев iPhone

Apple временно откажется от внедрения алгоритма сканирования снимков пользователей смартфонов iPhone на предмет сексуального насилия над детьми (CSAM).

Представитель Apple уточнил, что основываясь на отзывах пользователей своей продукции, компания решила взять дополнительное время, чтобы собрать больше информации для внесения необходимых улучшений.

В корпорации добавили, что всё равно считают алгоритм CSAM необходимым для защиты детей. Поэтому в любом случае стоит ожидать его внедрение, хоть и в неопределённый срок. Кстати, ранее оказалось, что Apple сканирует почту iCloud на наличие насилия над детьми с 2019 года.

Предыстория

В начале августа стало известно, что технология CSAM появится в «яблочных» гаджетах этой осенью с выходом операционных систем iOS 15, iPadOS 15, macOS Monterey и watchOS 8. Алгорит должен был работать следующим образом:

  • Сканировать изображения, отправленные и полученные в приложении «Сообщения». При обнаружении наготы снимок будет автоматически размыт, а пользователь будет предупрежден о том, что фотография может содержать частные части тела.
  • Если ребенок младше 13 лет отправляет или получает подозрительное изображение, «родители получат уведомление», если устройство ребенка подключено к Family Sharing.
  • Siri будет «вмешиваться», когда пользователи попытаются искать темы, связанные с сексуальным насилием над детьми.

Несмотря на утверждение компании о сохранении конфиденциальности, большинство владельцев «яблочных» гаджетов отнеслись к технологии CSAM крайне отрицательно.

Подписаться
Уведомить о
guest
0 комментариев
Межтекстовые Отзывы
Посмотреть все комментарии
IPTVCLUB.TEAM
Logo
Сбросить пароль