La decisione di Apple di eliminare il suo strumento di scansione fotografica CSAM suscita nuove polemiche (e nuove riflessioni sul pessimo chatcontrol)
Apple ha risposto alla Heat Initiative, delineando le ragioni per cui ha abbandonato lo sviluppo della funzionalità di scansione CSAM di iCloud e si è invece concentrata su una serie di strumenti e risorse sul dispositivo per gli utenti, noti collettivamente come funzionalità di sicurezza della comunicazione. La risposta dell’azienda alla Heat Initiative, che Apple ha condiviso con WIRED questa mattina, offre uno sguardo raro non solo alla sua logica per concentrarsi sulla sicurezza delle comunicazioni, ma alle sue visioni più ampie sulla creazione di meccanismi per eludere le protezioni della privacy degli utenti, come la crittografia, per monitorare dati. Questa posizione è rilevante per il dibattito sulla crittografia più in generale, soprattutto perché paesi come il Regno Unito valutano l’approvazione di leggi che imporrebbero alle aziende tecnologiche di essere in grado di accedere ai dati degli utenti per conformarsi alle richieste delle forze dell’ordine.
“Il materiale pedopornografico è ripugnante e ci impegniamo a spezzare la catena di coercizione e influenza che rende i bambini suscettibili ad esso”,
ha scritto Erik Neuenschwander, direttore della privacy degli utenti e della sicurezza dei bambini di Apple, nella risposta dell’azienda a Heat Initiative. Ha aggiunto, tuttavia, che dopo aver collaborato con una serie di ricercatori sulla privacy e sulla sicurezza, gruppi per i diritti digitali e sostenitori della sicurezza dei bambini, la società ha concluso che non poteva procedere con lo sviluppo di un meccanismo di scansione CSAM, nemmeno uno costruito appositamente per preservare la #privacy. .