Обяснено: Как Apple ще сканира за изображения за експлоатация на деца на устройства и защо повдига вежди - Ноември 2022

Първоначално се очаква да пуснат на живо в Съединените щати, функциите включват използване на нова технология за ограничаване на разпространението на CSAM онлайн, особено чрез платформата на Apple.

В публикация в блог Apple обясни, че ще използва приложения за криптография чрез iOS и iPadOS, за да съпостави известни CSAM изображения, съхранявани в iCloud Photo.

Apple обяви това актуализациите на софтуера по-късно тази година ще донесат нови функции това ще помогне за предпазването на децата от хищници, които използват комуникационни инструменти, за да ги наемат и експлоатират, и ще ограничи разпространението на материали за сексуално насилие над деца (CSAM).





Първоначално се очаква да пуснат на живо в Съединените щати, функциите включват използване на нова технология за ограничаване на разпространението на CSAM онлайн, особено чрез платформата на Apple.

След това ще има защита на устройството за децата от изпращане или получаване на чувствително съдържание, с механизми за предупреждаване на родителите, в случай че потребителят е на възраст под 13 години. Apple също ще се намеси, когато Siri или Search се използват за търсене на теми, свързани с CSAM .





Каква технология прави Apple, за да предотврати разпространението на CSAM онлайн?

В публикация в блог Apple обясни, че ще използва приложения за криптография чрез iOS и iPadOS, за да съпостави известни CSAM изображения, съхранявани в iCloud Photo. Технологията ще съпостави изображения в iCloud на потребителя с известни изображения, предоставени от организации за безопасност на децата. И това се прави без реално да се вижда изображението и само като се търси нещо като съвпадение на пръстов отпечатък. В случай, че има съвпадения, които преминават праг, Apple ще докладва тези случаи на Националния център за изчезнали и експлоатирани деца (NCMEC).

Apple поясни, че нейната технология държи на поверителността на потребителите и следователно базата данни се трансформира в нечетлив набор от хешове, които се съхраняват сигурно на устройствата на потребителите. Той добави, че преди всяко изображение да бъде качено в iCloud, операционната система ще го съпостави с известните CSAM хешове, използвайки криптографска технология, наречена пресичане на частен набор. Тази технология също ще определи мач, без да разкрива резултата.



В този момент устройството създава криптографски ваучер за безопасност с резултата от мача и допълнителни криптирани данни и го записва в iClouds с изображението. Технологията за споделяне на тайни прагове гарантира, че тези ваучери не могат да бъдат интерпретирани от Apple, освен ако акаунтът на iCloud Photos не прекрачи прага на известно CSAM съдържание. Този праг, твърди блогът, е въведен, за да осигури изключително високо ниво на точност и осигурява по-малко от един на един трилион шанс на година за неправилно маркиране на даден акаунт. Така че е малко вероятно едно изображение да предизвика сигнал.



Но ако прагът е надвишен, Apple може да интерпретира съдържанието на ваучерите за безопасност и ръчно да прегледа всеки отчет за съвпадение, да деактивира акаунта на потребителя и да изпрати отчет до NCMEC. Apple каза, че потребителите ще могат да обжалват, ако смятат, че са били маркирани погрешно.

Как работят другите функции?

Новата комуникационна безопасност на Apple за Messages ще замъгли чувствителното изображение и ще предупреди детето за естеството на съдържанието. Ако е активирано от бекенда, на детето може също да се каже, че родителите му са били предупредени за съобщението, което е прегледало. Същото ще важи, ако детето реши да изпрати чувствително съобщение. Apple каза, че Messages ще използва машинно обучение на устройството, за да анализира прикачените изображения и да определи дали снимката е сексуално изрична и че Apple няма да получи достъп до съобщенията. Функцията ще дойде като актуализация на акаунти, създадени като семейства в iCloud за най-новите версии на операционната система.
Освен това с актуализацията, когато потребителят се опита да потърси потенциални CSAM теми, Siri и Search ще обяснят защо това може да бъде вредно и проблематично. Потребителите също така ще получат насоки как да подадат доклад за експлоатация на деца, ако поискат това.



Също така в Обяснено| Обяснено: Как и защо Google ще предложи повече защита на децата онлайн

Защо Apple прави това и какви опасения се повдигат?

Големите технологични компании от години са подложени на натиск да се борят с използването на тяхната платформа за експлоатация на деца. Много доклади през годините подчертават как не е направено достатъчно, за да спре технологията да направи CSAM съдържание по-широко достъпно.

Въпреки това, съобщението на Apple беше посрещнато с критики, като мнозина подчертаха как това е точно видът технология за наблюдение, която много правителства биха искали да имат и обичат да злоупотребяват. Фактът, че това идва от Apple, която отдавна е привърженик на поверителността, изненада мнозина.



Освен това експерти по криптография като Матю Грийн от университета Джон Хопкинс изразиха опасения, че системата може да бъде използвана за рамкиране на невинни хора, изпращащи им изображения, предназначени да задействат съвпаденията за CSAM. Изследователите са успели да направят това доста лесно, каза той пред NPR, добавяйки, че е възможно да се заблуждават подобни алгоритми.

Но The New York Times цитира главния директор по поверителността на Apple Ерик Нойеншвандер, който казва, че тези функции няма да означават нищо различно за редовните потребители.



Ако съхранявате колекция от CSAM материали, да, това е лошо за вас, каза той пред изданието.

бюлетин| Кликнете, за да получите най-добрите обяснения за деня във входящата си кутия

Други големи технологични компании имат ли подобни технологии?

да. Всъщност Apple е сравнително късно навлизане на сцената, тъй като Microsoft, Google и Facebook предупреждават правоприлагащите органи за изображения на CSAM. Apple изостава, защото всяка подобна технология би била в противоречие с нейния много рекламиран ангажимент за поверителността на потребителите. В резултат на това през 2020 г., когато Facebook съобщи за 20,3 милиона нарушения на CSAM на NCMEC, Apple можеше да докладва само за 265 случая, съобщава The New York Times.

Едва сега успя да намери технологичното място, което да направи това, без да засяга редовните потребители или поне да ги плаши. Въпреки това, както показа първоначалната реакция, това все още е ходене по напрегнато въже.