a cura del Professor Avvocato Roberto De Vita e dell’Avvocato Marco Della Bruna, articolo precedentemente pubblicato sul periodico specializzato “De Vita Law”, https://www.devita.law/intelligenza-artificiale-contrasto-abusi-minori/ – L’intelligenza artificiale sta emergendo come un potente strumento per il contrasto agli abusi sui minori online, che rispetto al periodo pre-pandemico destano una crescente preoccupazione. Il mondo digitale, infatti, offre molteplici opportunità per l’apprendimento, l’intrattenimento e la comunicazione, ma presenta anche gravi rischi per la sicurezza dei più giovani. Tra questi, i più preoccupanti sono le diffusioni di immagini derivanti da abuso sessuale di minori (child sexual abuse materials, CSAM) e i comportamenti predatori che ne anticipano la realizzazione.
GLI ABUSI ONLINE
Secondo l’UNICEF, una bambina su 5 e un bambino su 13 vengono abusati o sfruttati sessualmente e le interazioni online sono ormai al centro di quasi tutti gli episodi riscontrati. Il fenomeno degli abusi online, infatti, è in triste e spaventosa crescita e nel solo 2022 ha registrato un picco di 32 milioni di report di casi sospetti. Tra questi vi sono sia diffusioni di materiali su minori (come foto e video), sia episodi di cosiddetto grooming: pratiche di manipolazione volte a sfruttare e abusare le persone. Quest’ultime hanno registrato un aumento dell’82% dei casi nel corso dell’ultimo anno, di cui la sextortion è stata manifestazione principale.
Il fenomeno interessa molto l’Unione Europea, da cui arriva il 68% dei report del 2022. A fronte di questi dati spaventosi, esistono già rilevanti iniziative intraprese per contrastare il fenomeno: la Commissione europea, in particolare, ha presentato nel 2022 una proposta di regolamento volta a introdurre obblighi di prevenzione e contrasto di tutti i fenomeni di abuso su minori in rete. In particolare, gli obiettivi sarebbero garantire l’individuazione, la segnalazione e la rimozione degli abusi sessuali su minori online; migliorare la certezza del diritto, la trasparenza e la responsabilità e garantire la tutela dei diritti fondamentali; ridurre la proliferazione e gli effetti degli abusi sessuali sui minori attraverso l’armonizzazione delle norme e un maggiore coordinamento degli sforzi. Quest’ultimo sarebbe assicurato tramite l’istituzione di una nuova agenzia specializzata: l’EU centre on child sexual abuse (EUCSA).
DIGITAL SERVICES ACT, AI ACT, ONLINE SAFETY BILL
A ulteriore riprova dell’accresciuta sensibilità sul tema, si affiancano le recenti approvazioni del Digital Services Act e dell’AI Act da parte del Parlamento europeo, così come l’Online Safety Bill al momento in discussione nel Regno Unito: iniziative legislative che discendono dalla comune preoccupazione di garantire la sempre più incerta sicurezza degli utenti in rete e a cui presto potrebbe fare seguito l’approvazione della proposta di Regolamento europeo sulla prevenzione e il contrasto agli abusi sessuali e allo sfruttamento sessuale dei minori. Emblema di tale incertezza è anche la recente decisione della Corte Suprema degli Stati Uniti di non risolvere il risalente dibattito sulla immunità delle piattaforme rispetto al contenuto pubblicato dagli utenti, sul quale probabilmente interverrà nei prossimi anni il Congresso. Tuttavia, l’evidente ampiezza del materiale da monitorare nella vastità della rete non consente un efficace (né efficiente) controllo di carattere manuale, né da parte delle piattaforme né delle forze dell’ordine. Ad esempio, il solo materiale di abuso “autoprodotto”, cioè foto e video espliciti realizzati dagli stessi minori, nel 2021 è cresciuto del 374% rispetto ai livelli pre-pandemici, rendendo ancora più difficili interventi e controlli non automatizzati .
IL CONTRIBUTO DELL’INTELLIGENZA ARTIFICIALE
Al contrario, l’IA offre un’ampia gamma di possibilità per identificare e contrastare l’abuso sessuale di minori su Internet. Attraverso l’analisi dei contenuti digitali, infatti, può individuare immagini e video sospetti, rilevando automaticamente segnali e caratteristiche che indicano la presenza di abusi sessuali. Questa capacità di analisi rapida ed efficiente consentirebbe di identificare e rimuovere contenuti illegali in modo tempestivo, riducendo l’esposizione dei minori a immagini dannose o la diffusione di materiale che li riguarda. Infatti, un altro campo di applicazione dell’IA è la prevenzione degli abusi sessuali online. Attraverso l’analisi in tempo reale del comportamento degli utenti in rete, può identificare modelli e segnali che possono indicare l’interazione di un minore con eventuali soggetti abusanti. Monitorando le chat, i messaggi e le attività online, infatti, l’IA può individuare modelli di comportamento sospetti e anche avvisare automaticamente genitori, tutori o operatori della sicurezza in modo da intervenire tempestivamente per proteggere il minore coinvolto. La collaborazione tra le aziende tecnologiche e le forze dell’ordine è altresì fondamentale per garantire l’efficacia dell’IA nella protezione online dei minori. Le aziende possono, infatti, sviluppare e implementare strumenti di IA che analizzino automaticamente i contenuti caricati sulle loro piattaforme, segnalando immediatamente contenuti illegali o sospetti ai responsabili della moderazione e alle autorità competenti.
LE NAZIONI UNITE E IL PROGETTO AI4SC
Un esempio dell’applicazione dell’IA per un efficace contrasto agli abusi sui minori in rete arriva dalle Nazioni Unite: nel 2020 lo United Nations Interregional Crime and Justice Research Institute’s (UNICRI) Centre for AI and Robotics e il Ministero dell’Interno degli Emirati Arabi Uniti hanno lanciato il progetto AI for Safer Children(AI4SC). Nell’ambito di tale iniziativa, è stato realizzato il AI for Safer Children Global Hub, una piattaforma centralizzata per forze di polizia in tutto il mondo disegnata per il contrasto agli abusi su minori, con l’ambizione di ricavarne un modello per ulteriori problemi legati a materiale a rischio, dalle fake news alla propaganda estremista. Il Global Hub mette dunque a disposizione delle forze di polizia un catalogo di strumenti di intelligenza artificiale utilizzabili per le indagini, consentendo la selezione rispetto alle specifiche necessità investigative; propone una formazione specializzata sugli abusi minorili e sui risvolti riguardanti la salute mentale delle vittime; consente il networking tra agenzie di diversi Paesi in modo da creare un rafforzamento della comunità internazionale di law enforcement attraverso la condivisione delle esperienze in materia di intelligenza artificiale (il progetto conta 270 investigatori da 72 Paesi).
LA NECESSITÀ DI UN APPROCCIO INTEGRATO
Tuttavia, l’uso dell’IA per la protezione dei minori online solleva anche importanti questioni etiche; è essenziale garantire che l’IA sia utilizzata in modo responsabile e che vengano rispettati i diritti individuali degli utenti . L’analisi automatizzata dei contenuti potrebbe implicare la raccolta e l’elaborazione di grandi quantità di dati personali, il che richiede un’adeguata protezione e sicurezza delle informazioni. Lo stesso progetto AI4SC è basato su una specifica strategia legale ed etica, basata su dei principi fondamentali tra cui un approccio responsabile nell’acquisto, sviluppo ed impiego della tecnologia di intelligenza artificiale, in modo da non comprimere le libertà fondamentali degli individui. Allo stesso modo, l’operato degli investigatori e delle tech companies che collaborano con il progetto è improntato ai principi della Convenzione dei diritti del fanciullo del 1989. Inoltre, l’IA non può essere l’unico strumento nella protezione online dei minori. È necessaria una combinazione di sforzi tra genitori, educatori, operatori della sicurezza online e legislatori per creare un ambiente sicuro per i minori su Internet. La sensibilizzazione sulle minacce online, l’educazione digitale e la promozione di comportamenti sicuri online sono altrettanto importanti per garantire la protezione dei minori. I materiali di informazione come quelli diffusi da aziende come Thorn (anche nell’ambito dei numerosi fenomeni di non-consensual pornography) possono consentire un avvicinamento più sicuro per i minori (e i loro genitori) alla loro inevitabile vita online. A questi, possono essere utilmente affiancati strumenti di identificazione e prevenzione dei fenomeni di CSAM facilmente accessibili per piattaforme private o forze di polizia e che hanno già avuto un impatto significativo.
UN IMPORTANTE SVILUPPO NEL CAMPO DELLA SICUREZZA DIGITALE
Il software privato Safer, ad esempio, vanta l’identificazione di un milione di casi e mette a disposizione dei propri utenti un database di 32 milioni di codici hash identificativi di materiali di abuso già individuati in rete anche da altri programmi. L’utilizzo dell’intelligenza artificiale per la protezione online dei minori e il contrasto alla diffusione di immagini derivanti da abuso sessuale si sta dunque già dimostrando un importante sviluppo nel campo della sicurezza digitale. Tuttavia, è fondamentale ribadire la necessità di un impiego etico, che garantisca la protezione degli individui soggetti ai controlli e la sicurezza dei dati personali elaborati. Pertanto, attraverso una collaborazione (digitale) efficace tra piattaforme del web e forze dell’ordine, da un lato, e una corretta formazione sulla vita in rete, dall’altro, sarà possibile realizzare un ambiente online sicuro per i minori, consentendo loro di avvalersi dei vantaggi della tecnologia in modo protetto.