‘Cumpagnia di Privacidad’ Apple Pianifica di Monitorà Tutti l’iPhone di i Stati Uniti Per Evidenza di Porn Porn
'Cumpagnia di Privacidad' Apple Pianifica di Monitorà Tutti l'iPhone di i Stati Uniti Per Prudenza di Porn Porn
Cum'è u vechju dettu dice: Se ùn fate micca qualcosa di illegale, allora ùn avete nunda da teme da a sorveglianza.
I telefoni intelligenti agiscenu dighjà cum'è dispositivi di traccia chì trasmettenu u locu di i so pruprietari, ma Apple hà da aprì a porta à forme assai più avanzate di sorveglianza volontaria basata su smartphone lancendu un novu prugramma pensatu per rilevà è segnalà l'utenti di l'iPhone chì si trovanu avè figlioli pornografia – cunnisciuta da l'acronimu di parlà accademicu CSAM – chì significa Materiali di Abusu Sessuale in i zitelli. Secunnu una manata di accademici chì anu offertu una sneak preview di i piani di a sucietà – poi sparghjenu subitu i fasgioli in Twitter, è in interviste cù a stampa.
U novu sistema, chjamatu "neuralMatch", hè previstu di esse svelatu da Apple più tardi sta settimana. U lugiziale hè previstu di esse installatu in i iPhones americani per via di un aghjurnamentu di lugiziale. Sicondu u FT, u sistema automatizatu pò avvisà proattivamente una squadra di revisori umani se crede chì CSAM sia presente nantu à l'iPhone di un utilizatore. Se i revisori ponu verificà u materiale, l'infurzazioni di a legge saranu contattate.
Hè cusì chì "neuralMatch" funzionerà, per u FT:
L'algoritmu neuralMatch di Apple scanserà continuamente e foto chì sò salvate nantu à l'iPhone di un utilizatore americanu è sò state ancu caricate in u so sistema di backup iCloud. E foto di l'utenti, cunvertite in una stringa di numeri attraversu un prucessu chjamatu "hashing", seranu paragunate cù quelle di una basa di dati di maghjine cunnisciute di abusu sessuale di zitelli.
[…]
U sistema hè statu furmatu nantu à 200.000 immagini d'abusu sessuale raccolte da u Centru Naziunale senza prufittu per i zitelli mancanti è sfruttati.
Un accademicu chì hè statu offertu in anteprima di u lugiziale hà spiegatu perchè questu puderia creà gravi risichi per a privacy. Apple hà ottenutu assai stampa pusitiva per u so impegnu à a privacy di l'utilizatori – ricordate quandu hà rifiutatu di crepà un iPhone appartenendu à unu di i tiratori di San Bernardino? Ebbè, sta tecnulugia di crittografia hè diventata un mal di testa perenne per l'applicazione di a legge. Ghjennaghju scorsu, Apple hà abbandunatu tranquillamente i piani per permette à l'utenti di crittografà cumpletamente e so backup iCloud à causa di lagnanze da l'infurzazioni di a legge.
Avà, Apple hà trovu un mezu mezu: assumerà a respunsabilità di a pulizza di i iPhones – bè, almenu à un certu gradu. Per fà quessa, a sucietà lancia un novu strumentu di apprendimentu machine chì scanserà i iPhones per e immagini chì currispondenu à certi "hash perceptuali" cunnisciuti per rapprisentà a pornografia infantile. Ma cum'è l'accademici si sò lagnati, puderebbenu esse ingannati.
In più, l'utile chì hè adupratu oghje per scopre a pornografia infantile puderia un ghjornu esse abusatu da guverni autoritari (cum'è u PCC). È una volta chì Apple s'impegna à aduprà stu tippu di surviglianza, i guverni a dumandaranu à tutti.
Aghju avutu una cunferma indipendente da parechje persone chì Apple rilascia un strumentu latu cliente per a scansione CSAM dumane. Questa hè una mala idea.
– Matthew Green (@matthew_d_green) 4 d'Agostu, 2021
Quessi strumenti permetteranu à Apple di scansà e vostre foto di l'iPhone per e foto chì currispondenu à un hash perceptuale specificu, è di segnalalli à i servitori Apple se troppi apparisce.
– Matthew Green (@matthew_d_green) 5 d'Agostu, 2021
Inizialmente capiscu chì questu serà adupratu per fà scansione di u latu di u cliente per e foto archiviate in nuvola. Eventualmente puderia esse un ingrediente chjave per aghjunghje a sorveglianza à i sistemi di messageria criptata.
– Matthew Green (@matthew_d_green) 5 d'Agostu, 2021
A capacità di aghjunghje sistemi di scansione cusì à i sistemi di messageria E2E hè stata una "dumanda" maiò da l'applicazione di a legge in u mondu. Eccu una lettera aperta firmata da l'ex AG William Barr è altri guverni occidentali. https://t.co/mKdAlaDSts
– Matthew Green (@matthew_d_green) 5 d'Agostu, 2021
Stu tipu di strumentu pò esse un vantaghju per truvà pornografia infantile in i telefuni di e persone. Ma imaginate ciò chì puderia fà in manu à un guvernu autoritariu? https://t.co/nB8S6hmLE3
– Matthew Green (@matthew_d_green) 5 d'Agostu, 2021
A manera chì Apple face stu lanciu, anu da cumincià cù e fotò non E2E chì a ghjente hà digià spartutu cù u nuvulu. Dunque ùn "ferisce" a privacy di nimu.
Ma duvete dumandà perchè qualcunu svilupperebbe un sistema cum'è questu se scansà e foto E2E ùn era micca u scopu.
– Matthew Green (@matthew_d_green) 5 d'Agostu, 2021
Ma ancu sè credi chì Apple ùn permetterà micca di sfruttà abusivamente sti strumenti ci hè ancu assai da preoccupassi. Questi sistemi s'appoghjanu nantu à una basa di dati di "hashes media problematiche" chì voi, cum'è cunsumadore, ùn pudete micca rivedere.
– Matthew Green (@matthew_d_green) 5 d'Agostu, 2021
Hashes chì utilizanu un algoritmu di hashing neurale novu è pruprietariu chì Apple hà sviluppatu, è hà ottenutu NCMEC d'accordu di aduprà.
Ùn sapemu micca assai di questu algoritmu. È se qualchissia pò fà collisioni?
– Matthew Green (@matthew_d_green) 5 d'Agostu, 2021
Immaginate chì qualcunu vi mandi un fugliale puliticu perfettamente innocu chì sparte cun un amicu. Ma quellu fugliale hà un hash cun qualchì fugliale di pornografia cunnisciuta? pic.twitter.com/YdNVB0xfCA
– Matthew Green (@matthew_d_green) 5 d'Agostu, 2021
Queste maghjine sò da un'inchiesta cù una funzione hash assai più simplice di quella nova chì Apple hà sviluppatu. Mostranu cume l'apprendimentu automaticu pò esse adupratu per truvà tali collisioni. https://t.co/N4sIGciGZj
– Matthew Green (@matthew_d_green) 5 d'Agostu, 2021
L'idea chì Apple hè una sucietà di "privacy" li hà compru assai bona stampa. Ma hè impurtante ricurdà chì questa hè a stessa sucietà chì ùn crittograferà micca i vostri backup iCloud perchè u FBI li mette pressione. https://t.co/tylofPfV13
– Matthew Green (@matthew_d_green) 5 d'Agostu, 2021
U verde ùn hè micca l'unicu 'espertu' chì oppone l'idea. "Hè una idea assolutamente spaventosa, perchè hà da cunduce à una vigilanza in massa distribuita di … i nostri telefoni è laptop", hà dettu Ross Anderson, prufessore di ingegneria di sicurezza à l'Università di Cambridge. Un altru cercadore hà dettu ch'ellu hè solu uni pochi di passi alluntanati da a surviglianza in stile '1984'.
Ancu se u FT hà sappiutu truvà almenu un accademicu dispostu à difende l'approcciu di Apple.
U sistema d'Apple hè menu invasivu in quantu a screening hè fatta à u telefunu, è "solu s'ellu ci hè un match hè una notificazione rinviata à quelli chì cercanu", hà dettu Alan Woodward, prufessore di sicurezza informatica à l'Università di Surrey. "Stu approcciu decentralizatu hè nantu à u megliu approcciu chì puderete adoprà sè andate per sta strada."
Eppuru, altri anu avvistatu chì u sistema hè solu uni pochi di passi rimossi da a sorveglianza in stile '1984'. Alec Muffett, circadore di securità è difensore di a privacy chì anzianu travagliava in Facebook è Deliveroo, hà dettu chì a mossa di Apple era "tettonica" è un "passu enorme è regressivu per a privacy individuale". "Apple ritrova a privacy per attivà u 1984".
Tyler Durden Ven, 08/06/2021 – 04:22
Questa hè una traduzzione automatica da l’inglese di un post publicatu nantu à ZeroHedge à l’URL http://feedproxy.google.com/~r/zerohedge/feed/~3/D4FJJ2tmITI/apple-plans-monitor-all-us-iphones-evidence-child-porn u Fri, 06 Aug 2021 01:22:00 PDT.