măr a anunțat astăzi că odată cu lansarea de iOS 15 și iPad 15 , va începe scanarea Fotografii iCloud în S.U.A. să caute materiale cunoscute pentru abuzul sexual asupra copiilor (CSAM), cu intenții de a raporta constatările Centrului Național pentru Copii Dispăruți și Exploatați (NCMEC).
Înainte de momentul în care Apple și-a detaliat planurile, știrile despre inițiativa CSAM s-au scurs, iar cercetătorii de securitate au început deja să-și exprime îngrijorarea cu privire la modul în care noul protocol de scanare a imaginilor de la Apple ar putea fi utilizat în viitor, după cum a menționat Timpuri financiare .
Apple folosește un sistem „NeuralHash” pentru a compara imaginile CSAM cunoscute cu fotografiile de pe cele ale unui utilizator iPhone înainte de a fi încărcate pe iCloud. Dacă există o potrivire, fotografia respectivă este încărcată cu un voucher de siguranță criptografic, iar la un anumit prag, se declanșează o revizuire pentru a verifica dacă persoana are CSAM pe dispozitivele sale.
camera iphone 11 pro max vs iphone 12 pro max
În prezent, Apple își folosește tehnologia de scanare și potrivire a imaginilor pentru a căuta abuzuri asupra copiilor, dar cercetătorii se tem că, în viitor, ar putea fi adaptat pentru a scana alte tipuri de imagini care sunt mai îngrijorătoare, cum ar fi semnele antiguvernamentale la proteste.
Într-o serie de tweet-uri, cercetătorul în criptografie de la Johns Hopkins Matthew Green a spus că scanarea CSAM este o „idee foarte proastă”, deoarece, în viitor, s-ar putea extinde la scanarea fotografiilor criptate end-to-end, mai degrabă decât doar conținutul care este încărcat pe iCloud. Pentru copii, Apple este implementarea unei funcții de scanare separată care caută conținut sexual explicit direct în iMessages, care sunt criptate de la capăt la capăt.
De asemenea, Green și-a exprimat îngrijorarea cu privire la hashurile pe care Apple intenționează să le folosească, deoarece ar putea exista „coliziuni”, în cazul în care cineva trimite un fișier inofensiv care partajează un hash cu CSAM și ar putea duce la un semnal fals.
Apple, la rândul său, spune că tehnologia sa de scanare are un „nivel extrem de ridicat de acuratețe” pentru a se asigura că conturile nu sunt semnalate incorect, iar rapoartele sunt revizuite manual înainte de iCloud contul este dezactivat și un raport este trimis către NCMEC.
Green crede că implementarea Apple va împinge alte companii de tehnologie să adopte tehnici similare. „Acesta va rupe barajul”, a scris el. „Guvernele vor cere asta de la toată lumea”. El a comparat tehnologia cu „instrumentele pe care regimurile represive le-au implementat”.
Acestea sunt lucruri rele. Nu vreau să fiu de partea pornografiei infantile și nu sunt un terorist. Dar problema este că criptarea este un instrument puternic care oferă confidențialitate și nu poți avea o confidențialitate puternică în timp ce supraveghezi fiecare imagine pe care o trimite cineva. — Matthew Green (@matthew_d_green) 5 august 2021
Cercetătorul de securitate Alec Muffett, care a lucrat anterior la Facebook, a spus că decizia Apple de a implementa acest tip de scanare a imaginilor a fost un „pas uriaș și regresiv pentru confidențialitatea individuală”. „Apple renunță la confidențialitate pentru a permite 1984”, a spus el.
Ross Anderson, profesor de inginerie de securitate la Universitatea din Cambridge, a declarat că aceasta este o „idee absolut îngrozitoare” care ar putea duce la „supravegherea în masă distribuită” a dispozitivelor.
După cum au subliniat mulți pe Twitter, mai multe companii de tehnologie fac deja scanări de imagini pentru CSAM. Google, Twitter, Microsoft, Facebook și alții folosesc metode de hashing a imaginilor pentru a căuta și raporta imagini cunoscute de abuz asupra copiilor.
Și dacă vă întrebați dacă Google scanează imagini pentru imagini de abuz asupra copiilor, am răspuns că în povestea pe care am scris-o acum opt ani: asta face **DIN 2008**. Poate stați toți și puneți-vă pălăriile la loc. pic.twitter.com/ruJ4Z8SceY - Charles Arthur (@charlesarthur) 5 august 2021
De asemenea, este de remarcat faptul că Apple a fost deja scanarea unui anumit conținut pentru imaginile de abuz asupra copiilor înainte de lansarea noii inițiative CSAM. În 2020, șeful Apple pentru confidențialitate, Jane Horvath, a declarat că Apple a folosit tehnologia de screening pentru a căuta imagini ilegale și apoi dezactivează conturile dacă sunt detectate dovezi ale CSAM.
cum uit o rețea wifi pe Mac-ul meu
Apple în 2019 și-a actualizat politicile de confidențialitate să rețineți că ar scana conținutul încărcat pentru „conținut potențial ilegal, inclusiv material de exploatare sexuală a copiilor”, așa că anunțurile de astăzi nu sunt complet noi.
Notă: Datorită naturii politice sau sociale a discuției pe această temă, firul de discuție se află în nostru Știri politice forum. Toți membrii forumului și vizitatorii site-ului sunt bineveniți să citească și să urmărească firul, dar postarea este limitată la membrii forumului cu cel puțin 100 de postări.
Etichete: Confidențialitate Apple , Funcții Apple pentru siguranța copiilor
Posturi Populare