“IL SISTEMA ANTI-ABUSI SUI MINORI DI APPLE È UNA TRAGEDIA” – EDWARD SNOWDEN MENA DURO SUL SISTEMA DI MONITORAGGIO AUTOMATICO DELLA "MELA", CHE PER SCOVARE EVENTUALI FOTO PEDOPORNOGRAFICHE SCANNERIZZERÀ TUTTE LE IMMAGINI DEGLI SMARTPHONE: “RIDEFINIRÀ IN MODO PERMANENTE CIÒ CHE APPARTIENE A TE E CIÒ CHE APPARTIENE A LORO” – NON SOLO UN PROBLEMA DI PRIVACY, MA ANCHE UNA SCELTA DI FACCIATA: “LA FUNZIONE PUÒ ESSERE EVITATA SEMPLICEMENTE DISABILITANDO I...”
-Giuseppe Migliorino per "www.iphoneitalia.com"
La funzione di rilevamento CSAM di Apple è l’argomento dell’ultimo editoriale di Edward Snowden su Substack, con l’ex consulente dell’intelligence americana che definisce la strategia dell’azienda una “tragedia”.
Edward Snowden rinuncia a parlare delle confutazioni tecniche del sistema CSAM di Apple e va al sodo, dicendo che la soluzione “ridefinirà in modo permanente ciò che appartiene a te e ciò che appartiene a loro.
La funzione, che dovrebbe essere implementata con iOS 15 questo autunno, eseguirà l’hashing e abbinerà le foto degli utenti caricate su iCloud con un database CSAM di immagini pedopornografiche estratto da almeno due entità diverse. È importante sottolineare che, a differenza dei sistemi esistenti, la tecnologia di Apple effettua tutta l’elaborazione sul dispositivo. Questo, secondo Snowden, “cancellerà il confine che divide quali dispositivi funzionano per te e quali dispositivi funzionano per loro“
Una volta stabilito il precedente secondo cui è appropriato anche per un’azienda ‘pro-privacy’ come Apple realizzare prodotti che tradiscono i propri utenti, Apple stessa perderà ogni controllo su come viene applicato tale precedente.
L’implementazione di Apple delle funzionalità di rilevamento CSAM ha più a che fare con l’immagine del marchio che con la protezione dei bambini o la conformità alle normative, visto che la funzione può essere evitata semplicemente disabilitando i caricamenti di iCloud Photo. Anche l’idea che Apple introdurrà la misura in preparazione della crittografia end-to-end su iCloud è ridicola. L’implementazione di un tale sistema non avrebbe importanza, perché iPhone avrà già una capacità di sorveglianza integrata.
Come altri critici, Snowden teme che i governi abusino del sistema costringendo Apple a espandere la funzione CSAM sul dispositivo o imponendo che sia sempre attiva su tutti gli utenti: “Non esiste un limite tecnologico fondamentale a quanto al precedente che Apple sta stabilendo, il che significa che l’unico freno è la politica aziendale fin troppo flessibile di Apple, qualcosa che i governi capiscono fin troppo bene“.
Apple da parte sua afferma che non si piegherà alle richieste del governo di espandere il sistema oltre la sua direttiva originale legate solo alle immagini pedopornografiche.