Apple News

Apple publică întrebări frecvente pentru a rezolva preocupările legate de detectarea CSAM și scanarea mesajelor

Luni, 9 august 2021, 2:50 PDT de Tim Hardwick

Apple a publicat o întrebare frecventă intitulată „Protecție extinsă pentru copii”, care are ca scop atenuarea preocupărilor privind confidențialitatea utilizatorilor cu privire la noua detectare CSAM în Fotografii iCloud și siguranța comunicării pentru funcțiile Messages pe care compania le are anunțat săptămâna trecută .





confidențialitatea Apple
„De când am anunțat aceste funcții, multe părți interesate, inclusiv organizațiile de confidențialitate și organizațiile pentru siguranța copiilor și-au exprimat sprijinul față de această nouă soluție, iar unii au adresat întrebări”, se arată în Întrebări frecvente. „Acest document are rolul de a aborda aceste întrebări și de a oferi mai multă claritate și transparență în proces.”

Unele discuții au estompat distincția dintre cele două caracteristici, iar Apple se străduiește foarte mult document pentru a le diferenția, explicând că siguranța comunicării în Messages „funcționează doar pentru imaginile trimise sau primite în aplicația Messages pentru conturile de copii configurate în Family Sharing”, în timp ce detectarea CSAM în ‌iCloud Photos‌ „afectează numai utilizatorii care au ales să folosească ‌iCloud Photos‌ pentru a-și stoca fotografiile... Nu există niciun impact asupra altor date de pe dispozitiv.'



Din întrebările frecvente:

macbook pro 2021 16 inch data lansării

Aceste două caracteristici nu sunt aceleași și nu folosesc aceeași tehnologie.

Siguranța comunicării în Messages este concepută pentru a oferi părinților și copiilor instrumente suplimentare pentru a-și proteja copiii de trimiterea și primirea de imagini cu caracter sexual explicit în aplicația Messages. Funcționează numai pentru imaginile trimise sau primite în aplicația Mesaje pentru conturile de copii configurate în Family Sharing. Analizează imaginile de pe dispozitiv și, prin urmare, nu modifică garanțiile de confidențialitate ale Messages. Când un cont de copil trimite sau primește imagini cu caracter sexual explicit, fotografia va fi neclară și copilul va fi avertizat, va fi prezentat cu resurse utile și va fi asigurat că este în regulă dacă nu dorește să vadă sau să trimită fotografia. Ca măsură suplimentară de precauție, copiilor mici li se poate spune că, pentru a se asigura că sunt în siguranță, părinții lor vor primi un mesaj dacă îl văd.

A doua caracteristică, detectarea CSAM în iCloud Photos, este concepută pentru a menține CSAM dezactivat iCloud Photos fără a furniza informații Apple despre orice alte fotografii decât cele care se potrivesc cu imaginile CSAM cunoscute. Deținerea imaginilor CSAM este ilegală în majoritatea țărilor, inclusiv în Statele Unite. Această funcție afectează numai utilizatorii care au ales să folosească iCloud Photos pentru a-și stoca fotografiile. Nu afectează utilizatorii care nu au ales să folosească iCloud Photos. Nu există niciun impact asupra altor date de pe dispozitiv. Această caracteristică nu se aplică mesajelor.

Restul documentului este împărțit în trei secțiuni (îngroșate mai jos), cu răspunsuri la următoarele întrebări frecvente:

cand a iesit macbook-ul

cum să resetați din fabrică iPhone 12
    Siguranța comunicării în Mesaje
  • Cine poate folosi siguranța comunicării în Mesaje?
  • Înseamnă asta că Messages va partaja informații cu Apple sau cu forțele de ordine?
  • Aceasta întrerupe criptarea end-to-end în Messages?
  • Această funcție îi împiedică pe copiii din casele abuzive să caute ajutor?
  • Vor fi anunțați părinții fără ca copiii să fie avertizați și să li se ofere posibilitatea de a alege?
  • Detectare CSAM
  • Înseamnă asta că Apple va scana toate fotografiile stocate pe mine? iPhone ?
  • Va descărca acest lucru imagini CSAM pe ‌iPhone‌ să compar cu fotografiile mele?
  • De ce face Apple asta acum?
  • Securitate pentru detectarea CSAM pentru fotografii iCloud
  • Poate sistemul de detectare CSAM în ‌iCloud Photos‌ să fie folosit pentru a detecta alte lucruri decât CSAM?
  • Ar putea guvernele să forțeze Apple să adauge imagini non-CSAM la lista hash?
  • Pot fi „injectate” imagini non-CSAM în sistem pentru a semnala conturi pentru alte lucruri decât CSAM?
  • Va detecta CSAM în ‌iCloud Photos‌ semnalați în mod fals oamenii nevinovați în fața forțelor de ordine?

Cititorii interesați ar trebui să consulte documentul pentru răspunsurile complete ale Apple la aceste întrebări. Cu toate acestea, merită remarcat faptul că, pentru acele întrebări la care se poate răspunde cu un binar da/nu, Apple le începe pe toate cu „Nu”, cu excepția următoarelor trei întrebări din secțiunea intitulată „Securitate pentru detectarea CSAM pentru ‌ Fotografii iCloud‌:'

Poate fi folosit sistemul de detectare CSAM din iCloud Photos pentru a detecta alte lucruri decât CSAM?
Procesul nostru este conceput pentru a preveni acest lucru. Detectarea CSAM pentru fotografii iCloud este construită astfel încât sistemul să funcționeze numai cu hash-uri de imagine CSAM furnizate de NCMEC și alte organizații pentru siguranța copiilor. Acest set de hashuri de imagini se bazează pe imagini achiziționate și validate pentru a fi CSAM de către organizațiile pentru siguranța copiilor. Nu există nicio raportare automată către forțele de ordine, iar Apple efectuează o analiză umană înainte de a face un raport către NCMEC. Ca rezultat, sistemul este conceput doar pentru a raporta fotografii care sunt cunoscute CSAM în Fotografii iCloud. În majoritatea țărilor, inclusiv în Statele Unite, pur și simplu deținerea acestor imagini este o crimă, iar Apple este obligat să raporteze orice situație despre care aflăm autorităților competente.

Ar putea guvernele să forțeze Apple să adauge imagini non-CSAM la lista hash?
Apple va refuza orice astfel de cereri. Capacitatea de detectare CSAM a Apple este creată exclusiv pentru a detecta imaginile CSAM cunoscute stocate în iCloud Photos care au fost identificate de experții de la NCMEC și de alte grupuri pentru siguranța copiilor. Ne-am confruntat înainte cu solicitări de a construi și implementa modificări impuse de guvern care degradează confidențialitatea utilizatorilor și am refuzat cu fermitate aceste cereri. Vom continua să le refuzăm pe viitor. Să fim clari, această tehnologie se limitează la detectarea CSAM stocate în iCloud și nu vom accepta cererea niciunui guvern de a o extinde. În plus, Apple efectuează o analiză umană înainte de a face un raport către NCMEC. În cazul în care sistemul semnalează fotografii care nu se potrivesc cu imaginile CSAM cunoscute, contul nu va fi dezactivat și niciun raport nu va fi depus la NCMEC.

Pot fi „injectate” imagini non-CSAM în sistem pentru a semnala conturi pentru alte lucruri decât CSAM?
Procesul nostru este conceput pentru a preveni acest lucru. Setul de hashuri de imagini utilizate pentru potrivire provine din imagini cunoscute, existente ale CSAM, care au fost achiziționate și validate de organizațiile pentru siguranța copiilor. Apple nu adaugă la setul de hashuri de imagine CSAM cunoscute. Același set de hashe-uri este stocat în sistemul de operare al fiecărui utilizator de iPhone și iPad, astfel încât atacurile direcționate împotriva anumitor persoane nu sunt posibile conform designului nostru. În cele din urmă, nu există nicio raportare automată către forțele de ordine, iar Apple efectuează o analiză umană înainte de a face un raport către NCMEC. În cazul puțin probabil în care sistemul semnalează imagini care nu se potrivesc cu imaginile CSAM cunoscute, contul nu ar fi dezactivat și niciun raport nu va fi depus la NCMEC.

Apple s-a confruntat cu critici semnificative din partea susținătorilor confidențialității, a cercetătorilor în securitate, a experților în criptografie, a cadrelor universitare și a altora pentru decizia sa de a implementa tehnologia odată cu lansarea iOS 15 și iPad 15 , așteptată în septembrie.

Acest lucru a dus la o scrisoare deschisă criticând planul Apple de a scana iPhone-urile pentru CSAM în ‌iCloud Photos‌ și imagini explicite în mesajele copiilor, care a câștigat peste 5.500 de semnături la momentul scrierii. Apple a primit și critici de la WhatsApp, deținută de Facebook, al cărui șef Will Cathcart am sunat „abordarea greșită și un regres pentru intimitatea oamenilor din întreaga lume”. Tim Sweeney, CEO-ul Epic Games, de asemenea atacat decizia, susținând că „a încercat din greu” să vadă mișcarea din punctul de vedere al Apple, dar a ajuns la concluzia că „în mod inevitabil, acesta este un program spion guvernamental instalat de Apple pe baza unei prezumții de vinovăție”.

„Oricât de bine intenționat, Apple lansează supravegherea în masă în întreaga lume cu asta.” spus denunțătorul proeminent Edward Snowden, adăugând că „dacă pot scana pentru porno pentru copii astăzi, pot scana pentru orice mâine”. Fundația non-profit Electronic Frontier, de asemenea criticat Planurile Apple, afirmând că „chiar și o ușă din spate bine documentată, atent gândită și cu sferă îngustă este încă o ușă din spate”.

Apple Watch seria 3 dimensiunea benzii
Etichete: Confidențialitate Apple , Funcții Apple pentru siguranța copiilor