• XSS.stack #1 – первый литературный журнал от юзеров форума

iPhone будет «стучать» на своего хозяина, если он сделает криминальное фото

INC.

REVERSE SIDE OF THE MEDAL
Эксперт
Регистрация
02.02.2008
Сообщения
3 950
Реакции
1 872
В смартфонах компании Apple в скором будущем появится функция сканирования фотографий на предмет наличия среди них незаконных снимков, пишет профильный портал 9to5Mac. Эту информацию подтверждает в своем Twitter и эксперт по информационной безопасности (ИБ) и по совместительству доцент Института ИБ Джона Хопкинса Мэтью Грин (Matthew Green).

Apple разрабатывает систему сканирования снимков, которая будет искать в iCloud фотографии с любой эксплуатацией несовершеннолетних, включая насилие над детьми или детскую порнографию. Спрашивать у владельцев гаджетов разрешение на подобную слежку компания не собирается.

Особенности технологии

Apple опубликовала на своем сайте информацию о принципе работы нового сканера. Она утверждает, что поиск «запрещенки» в фотографиях пользователей будет основан на сопоставлении хэш-сумм изображений с базами данных известных изображений сексуального насилия над детьми. Доступ к этим базам Apple предоставил целый ряд профильных организаций, включая Национальный центр по делам пропавших без вести и эксплуатируемых детей США (NCMEC).

Система Apple будет иметь некое пороговое значение «опасных» снимков, после превышения которого компания получит информацию об этом. Она уверяет, что система работает безупречно, заявляя, что вероятность ошибочной интерпретации снимка составляет один случай на триллион.

После превышения этого неназванного порогового значения специалисты Apple будут вручную проверять каждый отчет по каждой фотографии. Если на снимках действительно будет обнаружена «запрещенка», они заблокируют профиль пользователя и передадут все полученные данные в NCMEC.

У пользователя будет возможность оспорить решение о блокировке, если, по его мнению, она была ошибочной. Как будет организован процесс оспаривания, остается неизвестным.

О снимках смогут узнать все

Пока нет данных о том, как именно новые алгоритмы Apple будут определять возраст людей на фотографиях. Например, нет представления о том, как Apple сможет отличить фотографии 18-летней девушки, считающейся взрослой и совершеннолетней и решившей запечатлеть себя в неглиже вместе со своим бойфрендом, выглядящим старше своего возраста, от 17-летней.

По данным 9to5Mac, система проверки фотографий будет работать локально, то есть непосредственно на устройстве пользователя, без предварительной загрузки файлов на удаленный сервер. Однако абсолютно снимок, который покажется ей подозрительным, будет незамедлительно отправлен на проверку третьим лицам.

На основании этого можно предположить, что упомянутая выше 18-летняя девушка, решившая запечатлеть себя в нижнем белье (или без него) на камеру своего iPhone, рискует без своего желания «поделиться» таким селфи с неизвестным ей человеком. Также есть риск, что этот неизвестный человек организует (умышленно или случайно) появление таких кадров в свободном доступе в интернете.

Риск нарушения приватности огромен

После появления информации о новых попытках Apple влезть в частную жизнь владельцев своих гаджетов эксперты по кибербезопасности забили тревогу. В числе первых высказался и упомянутый Мэтью Грин.

«Такой инструмент может оказаться благом для поиска детской порнографии в мобильниках людей. Но вообразите, во что он может превратиться в руках авторитарного правительства?», – написал Грин в своем Twitter, назвав затею Apple плохой.

fb3f7951cb.jpg

«Это абсолютно отвратительная идея, поскольку она приведет к децентрализованной массовой слежке за нашими телефонами и ноутбуками», – заявил изданию Financial Times профессор техники обеспечения безопасности в Кембриджском университете Росс Андерсон (Ross Anderson). С ним полностью согласен и аналитик в области информационной безопасности Алек Маффетт (Alec Muffett). «Apple отступает от приватности, чтобы сделать возможным “1984” год», – сказал он, имея в виду известнейшее произведение Дж. Оруэлла «1984» в жанре антиутопии. Маффет назвал решение Apple «тектоническим сдвигом» и «огромным и регрессивным шагом к личной конфиденциальности». К слову, Маффет ранее работал в компании Facebook, известной регулярными утечками данных десятков миллионов пользователей.

Слежка за сообщениями

Несмотря на все риски приватности, озвученные экспертами, Apple пока не собирается отказываться от задуманного. Более того, она не станет ограничиваться слежкой за одним лишь фотографиями.

Apple также возьмет под свой контроль и переписку пользователя. Новые алгоритмы будут настроены на поиск откровенных снимков, отправленных и полученных через приложение «Сообщения».

Если на телефон ребенка придет сообщение с ню-фотографией, новая система Apple без промедлений «смажет» его, чтобы ничего нельзя было разглядеть. Попутно компания уведомит родителей ребенка о поступлении на его мобильник такого «контента».

Как избежать контроля

Систему слежки Apple внедрит в iOS 15, пишет Financial Times. Пока неизвестно, смогут ли пользователи самостоятельно отключить ее.

На момент публикации материала единственным способом оставить любопытство Apple неудовлетворенным являлся полный отказ от хранения снимков в памяти своих гаджетов и в iCloud. Также можно отказаться от использования приложения «Сообщения» и перейти в мессенджеры сторонних разработчиков.
 
И как они давно уже не догадались до такого предлога?
Думаю этот предлог они начали использовать дабы прикрыть себя в будущем от суд. проблем. Очень сильно сомневаюсь что до этого времени они не анализировали фотопленку своих пользователей.
 
Получается теперь коммерческая организация официально взяла на себя полицейские функции, которые должны быть только у гос.структур.
А как будут действовать суды при анкапе?
 
Пожалуйста, обратите внимание, что пользователь заблокирован
Думаю этот предлог они начали использовать дабы прикрыть себя в будущем от суд. проблем. Очень сильно сомневаюсь что до этого времени они не анализировали фотопленку своих пользователей.
Да скорее всего уже протестировали на своих пользователях, как обычно без их ведома…
Я в этом уверен на 100%
 
А как будут действовать суды при анкапе?
Пока не ясно вообще к чему эти телодвижения у эппла вообще. А то производитель устройств и ПО и до этого разве не мог "отстукивать куда надо" или выступать экспертом в судах? Толи цену себе набивают, типа у них и картинки и месяги "мутные" не проскочат. Или это так они послабляют защиту приватности своих юзеров. И это еще на фоне недавней новости, что в гугле сотрудник читал переписку детей и даже булил их (если не ошибаюсь).
 
Пожалуйста, обратите внимание, что пользователь заблокирован
Ну, Google уже давно сканит вложенные в письма изображения, а с тем что умеют алгоритмы/нейронки Google Photos вообще сложно представить что они не делают то же самого.
 
И как они давно уже не догадались до такого предлога?
Помню читал именно о такой функции очень давно. Может сейчас просто раскрыли секрет общественности, видимо пришлось оправдаться почему сливают данные. =)
Теперь автоматом кто против слежки, будет считаться злоумышленником.

Началось это объяснение с конца 2019 года.

Apple сканирует фотографии в iCloud на предмет жестокого обращения с детьми​

Обработка изображений*Облачные сервисыIT-компании

su5grkuqjjqgtnm-_qjuhfig6yi.jpeg


Apple в постоянном режиме с помощью специального программного обеспечения проводит автоматический скрининг всего контента, загружаемого в облачный сервис iCloud пользователями. ПО анализирует данные на предмет сексуального насилия над несовершеннолетними. Об этом рассказала Джейн Хорват, старший директор Apple по вопросам конфиденциальности, на выставке CES 2020.

«Apple использует технологию сопоставления изображений, чтобы помочь найти и сообщить о материалах о сексуальном насилии над детьми. Подобно спам-фильтрам в электронной почте наши системы используют электронные подписи для поиска подозрительных изображений. Учетные записи, которые используются для хранения таких фотографий, нарушают наши условия обслуживания и подлежат незамедлительному удалению», — пояснила представитель компании.

Джейн Хорват не уточнила, как именно анализируется облачный контент пользователей в Apple. Многие IT-компании, например, Facebook, Twitter и Google, используют систему PhotoDNA от Microsoft, в которой части анализируемых изображений сравниваются с базой данных ранее идентифицированных изображений.


В самом конце 2019 года Apple внесла изменения в свою политику конфиденциальности, добавив, что может осуществлять предварительный просмотр или сканирование загруженного контента для выявления потенциально незаконного контента, в том числе контента с сексуальным насилием.

Ранее в августе 2019 года Apple приостановила программу оценки качества Siri, в которой речь пользователей прослушивали реальные люди.
 
Последнее редактирование:
я ничего криминального не фоткаю, так что продолжаю пользоваться.
Проблема не в этом, а в том что у них теперь есть оф разрешение и повод. Ведь чтобы что-нибудь найти в коллекции, ее нужно сначала проитерировать. Ничего не нашли, но в белье покопались. Вроде и ничего, но осадочек остался. В обычном кейсе это прямое нарушение твоих прав, а сейчас можно и нарушить «ради высшей цели» ахахах. Все это показуха, при реальной борьбе все делалось бы максимально скрытно, чтобы бескомпромиссно схватить за яйца. Никто никого бы не предупреждал. Просто выбивают себе права под видом благой цели
 
Пожалуйста, обратите внимание, что пользователь заблокирован
Если на телефон ребенка придет сообщение с ню-фотографией, новая система Apple без промедлений «смажет» его, чтобы ничего нельзя было разглядеть. Попутно компания уведомит родителей ребенка о поступлении на его мобильник такого «контента».

16ти летние подростки обменивающиеся обнаженкой будут очень рады
 
Помню читал именно о такой функции очень давно. Может сейчас просто раскрыли секрет общественности, видимо пришлось оправдаться почему сливают данные. =)
Теперь автоматом кто против слежки, будет считаться злоумышленником.

Началось это объяснение с конца 2019 года.

Apple сканирует фотографии в iCloud на предмет жестокого обращения с детьми​

Обработка изображений*Облачные сервисыIT-компании

su5grkuqjjqgtnm-_qjuhfig6yi.jpeg


Apple в постоянном режиме с помощью специального программного обеспечения проводит автоматический скрининг всего контента, загружаемого в облачный сервис iCloud пользователями. ПО анализирует данные на предмет сексуального насилия над несовершеннолетними. Об этом рассказала Джейн Хорват, старший директор Apple по вопросам конфиденциальности, на выставке CES 2020.

«Apple использует технологию сопоставления изображений, чтобы помочь найти и сообщить о материалах о сексуальном насилии над детьми. Подобно спам-фильтрам в электронной почте наши системы используют электронные подписи для поиска подозрительных изображений. Учетные записи, которые используются для хранения таких фотографий, нарушают наши условия обслуживания и подлежат незамедлительному удалению», — пояснила представитель компании.

Джейн Хорват не уточнила, как именно анализируется облачный контент пользователей в Apple. Многие IT-компании, например, Facebook, Twitter и Google, используют систему PhotoDNA от Microsoft, в которой части анализируемых изображений сравниваются с базой данных ранее идентифицированных изображений.


В самом конце 2019 года Apple внесла изменения в свою политику конфиденциальности, добавив, что может осуществлять предварительный просмотр или сканирование загруженного контента для выявления потенциально незаконного контента, в том числе контента с сексуальным насилием.

Ранее в августе 2019 года Apple приостановила программу оценки качества Siri, в которой речь пользователей прослушивали реальные люди.
Я и забыл про это)))
 
Просто не юзать айфонопомойку(сам с айфоном)... и дело не в запрещенке, а в том, что они будут чекать все мои фото(и не только фото) на запрещенку...
Google на андроид, ничем не лучше. Но верно, лучше на андроид использовать прошивку lineageos без google apps.
 
16ти летние подростки обменивающиеся обнаженкой будут очень рады
16 летние это как взрослые люди по виду, многие выглядят старше 16, в свои 16. Натолкнуло на мысли =) Интересно как действительно будет работать алгоритм? На обнажённые фото маленьких людей реагировать или будет искать привязанных к батарее маленьких людей? Есть же люди маленького роста и миниатюрные девушки =) Не против такого алгоритма, если он будет искать пропавших детей по фото или видео, остальной контент не затрагивая, либо удаляя через время. Но как мы знаем такое невозможно, прикрутили одну функцию, значит затронет всех. Как борьба с терроризмом, всё для нашей "безопасности" =) Они не говорят как будут ментам выдавать данные, а лишь полагаются на политику удаления противоправного файла. Ради удаления файлов клиента, целую систему слежки запустят? Не, не поверим.
P.S: нет у iphone кнопки отключения icloud? Тогда было бы проще, просто не хранить в облаке свои файлы.
 
Последнее редактирование:
16 летние это как взрослые люди по виду, многие выглядят старше 16, в свои 16. Натолкнуло на мысли =) Интересно как действительно будет работать алгоритм? На обнажённые фото маленьких людей реагировать или будет искать привязанных к батарее маленьких людей? Есть же люди маленького роста и миниатюрные девушки =) Не против такого алгоритма, если он будет искать пропавших детей по фото или видео, остальной контент не затрагивая, либо удаляя через время. Но как мы знаем такое невозможно, прикрутили одну функцию, значит затронет всех. Как борьба с терроризмом, всё для нашей "безопасности" =) Они не говорят как будут ментам выдавать данные, а лишь полагаются на политику удаления противоправного файла. Ради удаления файлов клиента, целую систему слежки запустят? Не, не поверим.
P.S: нет у iphone кнопки отключения icloud? Тогда было бы проще, просто не хранить в облаке свои файлы.
А кто хранит в облаке свои фотки ? те кто там же хранит и пароли?
 
И как они давно уже не догадались до такого предлога?
Hello I'm new here I want to ask if I can get any software that can help me remove iPhone passcode from screen or can remove iPhone is disabled from screen thanks
 
Пожалуйста, обратите внимание, что пользователь заблокирован
Ну оно всегда так, начинается с якобы супер благих намерений. Как Роскомпозор начинал - борьба с педофилами. Ты же не поддерживаешь педофилов? Значит, не должен быть против. Так и здесь.
А вообще, давно уже пора отказаться от этого мусорского говна под названием айфон , хз почему многим понты дороже всего. Северу вроде как тоже изза айфона взяли.
 


Напишите ответ...
  • Вставить:
Прикрепить файлы
Верх