ROMA. – Dopo gli altri colossi della rete come Google e Facebook anche Apple scende in campo contro la pedopornografia, andando a cercare possibili foto direttamente nei dispositivi degli utenti. L’azienda di Cupertino ha annunciato che scansionerà le immagini caricate dai propri utenti in iCloud e salvate sui dispositivi, segnalando alle autorità competenti eventuali abusi.
Il metodo messo a punto, spiega l’azienda in un post sul proprio sito, è basato su codici cifrati e non mette a rischio la privacy. Ma l’iniziativa ha già suscitato negli Stati Uniti qualche polemica nelle associazioni per il diritto alla protezione dei dati personali.
Il sistema trasformerà le foto in un gruppo di simboli che verrà confrontato con un database fornito da alcune associazioni contro la pedopornografia, come il National Center for Missing and Exploited Children, ed è in grado di riconoscerle anche se ci sono stati dei piccoli cambiamenti alle immagini come tagli o applicazione di filtri. Un software aggiuntivo, spiega Apple, farà delle ulteriori verifiche, tali da rendere la probabilità di errore inferiore ad una su un trilione.
Una eventuale corrispondenza farà scattare un avviso e farà intervenire degli operatori che verificheranno se effettivamente le foto fanno parte del database. In questo caso l’account dell’utente verrà chiuso e scatterà la segnalazione alle autorità. “Il metodo – assicura Apple – è stato progettato avendo sempre in mente la privacy dell’utente”.
L’iniziativa, però, ha già suscitato qualche polemica tra gli esperti di privacy e sicurezza che hanno espresso preoccupazione per il fatto che il sistema potrebbe essere ampliato per scansionare i telefoni, più in generale, alla ricerca di altri contenuti come quelli politici. Apple ha “inviato un segnale molto chiaro, è sicuro costruire sistemi che scansionano i telefoni degli utenti alla ricerca di contenuti proibiti – dice Matthew Green, ricercatore di sicurezza presso la Johns Hopkins University – Questo romperà la diga: i governi lo richiederanno a tutti”.
La nuova funzione sarà disponibile negli Stati Uniti con uno dei prossimi aggiornamenti del software iOS, e si inserisce in un programma più ampio per il contrasto al fenomeno. Oltre al nuovo software l’azienda inserirà in Message un nuovo strumento basato sull’intelligenza artificiale che scansionerà i messaggi e avvertirà ragazzini e adulti se stanno ricevendo o inviando foto sessualmente esplicite.
“Inoltre Apple sta espandendo le funzioni di Siri e della ricerca per fornire risorse addizionali che aiutino gli utenti a restare sicuri online e ad avere aiuto in situazioni pericolose – spiega sempre Cupertino – Ad esempio chi chiederà a Siri come segnalare un abuso verrà indirizzato al sito dove potrà farlo”.
Sono diversi i ‘big’ della tecnologia che hanno messo in campo risorse contro la pedopornografia. In diversi paesi, ad esempio, Google invia un ‘warning’ all’utente se fa una ricerca con parole chiave sensibili e anche i contenuti di YouTube vengono scandagliati regolarmente con un mix di algoritmi e operatori specializzati e formati. Facebook invece ha in campo una serie di strumenti informatici che rimuovono automaticamente contenuti pericolosi: nel 2020 hanno permesso di segnalare 20 milioni di immagini riconducibili ad abusi.
(di Pier David Malloni/ANSA)