Apple News

Apple introduce noi funcții de siguranță pentru copii, inclusiv scanarea bibliotecilor de fotografii ale utilizatorilor pentru materiale cunoscute despre abuz sexual

Joi, 5 august 2021, 13:00 PDT de Joe Rossignol

Apple azi a previzualizat noi funcții de siguranță pentru copii care va veni pe platformele sale cu actualizări de software mai târziu în acest an. Compania a spus că funcțiile vor fi disponibile în SUA doar la lansare și vor fi extinse în timp în alte regiuni.





caracteristica de siguranță a comunicațiilor iPhone

Siguranța comunicațiilor

În primul rând, aplicația Mesaje de pe iPhone, iPad și Mac va primi o nouă funcție de siguranță în comunicare pentru a avertiza copiii și părinții lor atunci când primesc sau trimit fotografii cu caracter sexual explicit. Apple a spus că aplicația Messages va folosi învățarea automată de pe dispozitiv pentru a analiza fișierele atașate de imagini, iar dacă se determină că o fotografie este explicită din punct de vedere sexual, fotografia va fi neclară automat și copilul va fi avertizat.



Apple Watch seria 6 oxigen din sânge

Când un copil încearcă să vadă o fotografie marcată ca sensibilă în aplicația Mesaje, va fi avertizat că fotografia poate conține părți private ale corpului și că fotografia poate fi dăunătoare. În funcție de vârsta copilului, va exista și o opțiune ca părinții să primească o notificare în cazul în care copilul lor continuă să vizualizeze fotografia sensibilă sau dacă aleg să trimită o fotografie sexual explicită unui alt contact după ce a fost avertizat.

Apple a spus că noua funcție de siguranță a comunicațiilor va veni în actualizări pentru iOS 15, iPadOS 15 și macOS Monterey în cursul acestui an pentru conturile configurate ca familii în iCloud. Apple s-a asigurat că conversațiile iMessage vor rămâne protejate cu criptare end-to-end, făcând comunicațiile private imposibil de citit de Apple.

Scanarea fotografiilor pentru materiale de abuz sexual asupra copiilor (CSAM)

În al doilea rând, începând cu acest an, cu iOS 15 și iPadOS 15, Apple va putea detecta imaginile cunoscute de material de abuz sexual asupra copiilor (CSAM) stocate în iCloud Photos, permițând Apple să raporteze aceste cazuri Centrului Național pentru Copii Dispăruți și Exploatați (NCMEC). , o organizație non-profit care lucrează în colaborare cu agențiile de aplicare a legii din SUA.

Apple a spus că metoda sa de detectare a CSAM cunoscut este concepută având în vedere confidențialitatea utilizatorilor. În loc să scaneze imagini în cloud, Apple a spus că sistemul va efectua potriviri pe dispozitiv cu o bază de date de hash-uri de imagini CSAM cunoscute furnizată de NCMEC și de alte organizații pentru siguranța copiilor. Apple a spus că va transforma în continuare această bază de date într-un set ilizibil de hashuri care este stocat în siguranță pe dispozitivele utilizatorilor.

Tehnologia de hashing, numită NeuralHash, analizează o imagine și o convertește într-un număr unic specific acelei imagini, potrivit Apple.

„Scopul principal al hash-ului este de a se asigura că imaginile identice și similare vizual duc la același hash, în timp ce imaginile care sunt diferite una de cealaltă duc la hashuri diferite”, a spus Apple într-o nouă lucrare albă „Expanded Protections for Children”. „De exemplu, o imagine care a fost ușor decupată, redimensionată sau convertită de la culoare în alb-negru este tratată identic cu originalul și are același hash”.

organigrama Apple Csam
Înainte ca o imagine să fie stocată în Fotografii iCloud, Apple a spus că se efectuează un proces de potrivire pe dispozitiv pentru acea imagine cu setul ilizibil de hash-uri CSAM cunoscute. Dacă există o potrivire, dispozitivul creează un voucher de siguranță criptografic. Acest voucher este încărcat pe iCloud Photos împreună cu imaginea, iar odată ce un prag nedezvăluit de potriviri este depășit, Apple este capabil să interpreteze conținutul voucherelor pentru meciurile CSAM. Apple examinează apoi manual fiecare raport pentru a confirma că există o potrivire, dezactivează contul iCloud al utilizatorului și trimite un raport către NCMEC. Apple nu împărtășește care este pragul său exact, dar asigură un „nivel extrem de ridicat de acuratețe”, astfel încât conturile să nu fie semnalate incorect.

Apple a spus că metoda sa de detectare a CSAM cunoscut oferă „beneficii semnificative de confidențialitate” față de tehnicile existente:

• Acest sistem este o modalitate eficientă de a identifica CSAM cunoscut stocat în conturile iCloud Photos, protejând în același timp confidențialitatea utilizatorilor.
• Ca parte a procesului, utilizatorii nu pot afla nimic despre setul de imagini CSAM cunoscute care este folosit pentru potrivire. Acest lucru protejează conținutul bazei de date împotriva utilizării rău intenționate.
• Sistemul este foarte precis, cu o rată de eroare extrem de scăzută, mai mică de un cont la un trilion pe an.
• Sistemul păstrează mult mai mult confidențialitatea decât scanarea bazată pe cloud, deoarece raportează doar utilizatorii care au o colecție de CSAM cunoscute stocate în iCloud Photos.

Tehnologia de bază a sistemului Apple este destul de complexă și a publicat un rezumat tehnic cu mai multe detalii.

„Protecția extinsă de la Apple pentru copii este un schimbător de joc. Cu atât de mulți oameni care folosesc produse Apple, aceste noi măsuri de siguranță au potențial de salvare a vieții copiilor care sunt atrași online și ale căror imagini îngrozitoare circulă în materiale de abuz sexual asupra copiilor”, a declarat John Clark, președintele și CEO al Centrului Național pentru Dispăruți. & Copii exploatați. „La Centrul Național pentru Copii Dispăruți și Exploatați, știm că această crimă poate fi combătută doar dacă suntem constrânși în devotamentul nostru pentru protejarea copiilor. Putem face acest lucru doar pentru că partenerii tehnologici, cum ar fi Apple, intensifică și își fac cunoscută dedicarea. Realitatea este că intimitatea și protecția copilului pot coexista. Aplaudăm Apple și așteptăm cu nerăbdare să lucrăm împreună pentru a face din această lume un loc mai sigur pentru copii.'

Îndrumare CSAM extinsă în Siri și Căutare

iphone csam siri
În al treilea rând, Apple a spus că va extinde îndrumările în Siri și Spotlight Search pe toate dispozitivele, oferind resurse suplimentare pentru a ajuta copiii și părinții să rămână în siguranță online și să primească ajutor în situații nesigure. De exemplu, utilizatorii care îl întreabă pe Siri cum pot raporta CSAM sau exploatarea copiilor vor fi indicați către resurse pentru unde și cum să depună un raport.

Actualizările pentru Siri și Search vor veni la sfârșitul acestui an într-o actualizare pentru iOS 15, iPadOS 15, watchOS 8 și macOS Monterey, potrivit Apple.

Notă: Datorită naturii politice sau sociale a discuției pe această temă, firul de discuție se află în nostru Știri Politice forum. Toți membrii forumului și vizitatorii site-ului sunt bineveniți să citească și să urmărească firul, dar postarea este limitată la membrii forumului cu cel puțin 100 de postări.

Etichete: Confidențialitate Apple , Funcții Apple pentru siguranța copiilor