a cura del professor avvocato Roberto De Vita e dell’avvocato Marco Della Bruna, pubblicato su “devita.law” https://www.devita.law/supreme-court-internet-liability/ – Al centro della questione è la Sezione 230 del Communications Decency Act del 1996 che ha fornito negli ultimi tre decenni una sorta di immunità alle piattaforme online per il contenuto generato dagli utenti: se un utente pubblica un contenuto offensivo, diffamatorio o comunque illecito su una piattaforma, infatti, questa non ne può essere ritenuta responsabile.
LA CONTROVERSIA SULL’IMMUNITÀ ALLE PIATTAFORME ONLINE
Nonostante le grandi aspettative riposte nella pronuncia sul caso Gonzalez v. Google, la Corte Suprema ha scelto di non intervenire direttamente sull’applicabilità della norma alle complesse dinamiche degli algoritmi che selezionano i contenuti sulla base dei gusti degli utenti. Al contrario, ha manifestato il disagio istituzionale di essere chiamata a pronunciarsi su un tema che richiederebbe finalmente l’intervento del Congresso. Tuttavia, nella sentenza emessa contestualmente in un caso ad esso collegato (Twitter v. Taamneh), i Giudici hanno offerto interessanti spunti di riflessione sui profili di responsabilità delle piattaforme per le attività svolte dagli utenti – seppur sotto il diverso profilo giuridico del favoreggiamento del terrorismo.
LA SEZIONE 230 DEL COMMUNICATION DECENCY ACT
Negli anni Novanta, il Communication Decency Act aveva inizialmente rischiato di diventare un bavaglio per il giovanissimo Internet, ancora largamente privo di qualsiasi genere di argine normativo. Il legislatore statunitense, infatti, aveva sentito la necessità di colmare tale lacuna estendendo la disciplina sulle comunicazioni «oscene e indecenti» rivolte a minori di diciotto anni e sul divieto di distribuzione di materiali «palesemente offensivi» che fossero disponibili anch’essi per minori di diciotto anni. In origine, la preoccupazione dominante rispetto ai contenuti disponibili su Internet riguardava l’accesso incontrollato alla pornografia da parte dei minori. Nelle prime fasi dell’iter legislativo, infatti, non erano sorte particolari attenzioni nei confronti delle possibili ripercussioni sugli operatori del web.
Al contrario, l’origine dell’emendamento che ha introdotto la Sezione 230 va rintracciata in due decisioni assunte da giudici di New York in quegli anni. Nella prima, Cubby, Inc., v. CompuServe (1991), venne affermato che CompuServe non potesse essere ritenuta responsabile per i commenti diffamatori pubblicati in uno dei forum di detta società, in quanto non esaminava i contenuti prima che venissero pubblicati, ma si limitava ad ospitarli sulla propria piattaforma. Nel 1995, invece, in Stratton Oakmont, Inc., v. Prodigy Services Co. la conclusione fu diversa: poichè Prodigy svolgeva attività di moderazione sulle sue bacheche online e cancellava determinati messaggi per «offensività e cattivo gusto», venne affermato che potesse essere ritenuta responsabile per i contenuti pubblicati sulla sua piattaforma.
L’EMENDAMENTO REPUBBLICANO AL CONGRESSO
Due rappresentanti repubblicani al Congresso, Ron Wyden e Chris Cox, proposero dunque un emendamento per escludere la responsabilità dei provider per i contenuti pubblicati dagli utenti, anche nel caso in cui venisse svolta attività di moderazione sulla piattaforma. «No provider or user of an interactive computer service shall be treated as the publisher or speaker of any information provided by another information content provider». Secondo alcuni autori statunitensi, su queste ventisei parole sono state poste le basi per lo sviluppo della mastodontica industria americana del web. Inoltre, la Sezione 230 prevede anche che «Nessun fornitore o utente di un servizio interattivo per computer sarà ritenuto responsabile per (A) qualsiasi azione volontariamente intrapresa in buona fede per limitare l’accesso o la disponibilità di materiale che il fornitore o l’utente ritenga osceno, lascivo, sudicio, eccessivamente violento, molesto o altrimenti discutibile, se tale materiale è protetto costituzionalmente; o (B) qualsiasi azione intrapresa per consentire o rendere disponibili ai fornitori di contenuti informativi o ad altri i mezzi tecnici per limitare l’accesso al materiale descritto nel paragrafo» [traduzione a cura dell’autore]. Venivano così risolte entrambe le possibili interpretazioni rispetto all’operato attivo o passivo dei provider nei confronti dei contenuti degli utenti, limitandone in ogni caso la responsabilità.
EFFETTI DEL COMMUNICATIONS DECENCY ACT
In seguito all’approvazione del Communications Decency Act, tuttavia, seguirono numerose proteste da parte di associazioni per i diritti civili, che mettevano in dubbio la costituzionalità del resto della normativa e dei divieti in essa contenuti, considerati in contrasto con il Primo Emendamento, che protegge la libertà di pensiero e di espressione. Nel 1997, dunque, il caso Reno v. American Civil Liberties Union arrivò di fronte alla Corte Suprema, che dichiarò incostituzionale le parti del testo che limitavano i contenuti «osceni e indecenti»”, temendo che potessero rientrare nella definizione anche materiali sulla salute, come le tecniche per la prevenzione della diffusione dell’AIDS. Nonostante fossero venuti meno i divieti inizialmente introdotti dal Communications Decency Act, la Sezione 230 rimase in vigore, mantenendo la condizione di immunità dei provider per ogni genere di contenuto pubblicato dai loro utenti. Ciò ha permesso alle piattaforme di Internet di crescere e prosperare più facilmente senza essere soffocate da costose verifiche dei contenuti e senza dover limitare la libertà di espressione online. Tuttavia, negli ultimi anni, si sono succedute numerose ed aspre critiche verso la Sezione 230, poiché consente alle piattaforme di tollerare contenuti diffamatori, disinformazione e incitamenti alla violenza. Inoltre, diversi autori sostengono che se da un lato le piattaforme garantiscono il diritto di libera espressione, dall’altro non fanno ancora abbastanza per rimuovere i contenuti offensivi e proteggere gli utenti.
I PRECEDENTI CASI
Nel recente passato, la questione ha stimolato interessanti valutazioni da parte dei giudici della Corte Suprema, in particolare nei casi Force v. Facebook Inc.(2019) e Malwarebytes, Inc. v. Enigma Software Group USA, LLC. (2019). Il primo, in particolare, riguardava la vicenda di un agente di polizia ucciso da un gruppo terroristico affiliato all’ISIS. La madre ha accusato Facebook di aver fornito supporto ai terroristi, consentendo loro di utilizzare la piattaforma per la diffusione del loro messaggio di propaganda e per l’organizzazione degli attacchi. Alla base della presunta responsabilità della piattaforma vi sarebbe soprattutto il funzionamento dell’algoritmo e la tendenza a creare echo-chambers, favorendo il rinvenimento di contenuti compatibili con le idee o i gusti degli utenti. La US Second Circuit Appeals Court aveva dunque statuito (per la prima volta) che la Sezione 230 protegge le piattaforme come Facebook anche da eventuali azioni civili intentate da vittime di terrorismo. In seguito al ricorso presentato dai parenti delle vittime, la Corte Suprema aveva tuttavia respinto la richiesta di esaminare la questione.
LA «DISSENTING OPINION» DEL GIUDICE KATZMAN
Nonostante ciò, la dissenting opinion del giudice Katzman aveva evidenziato come il ruolo «attivo» di talune piattaforme nelle scelte degli utenti fosse meritevole di maggiore considerazione: «Evidenze sempre maggiori suggeriscono che i provider abbiano progettato i loro algoritmi per guidare gli utenti verso contenuti e persone con cui gli utenti stessi siano d’accordo e che lo abbiano fatto troppo bene, spingendo le anime sensibili sempre più in basso verso percorsi oscuri». [traduzione a cura dell’autore]. La questione della responsabilità dell’internet provider, dunque, dopo essere stata nuovamente respinta dalla Corte nel successivo Malwarebytes, Inc. v. Enigma Software Group USA, LLC. (in cui la dissenting opinion del Giudice Thomas citava quella del Giudice Katzman in Force v. Facebook Inc.), è ora finalmente giunta di fronte ai Giudici nell’ambito di tre differenti casi: Gonzalez v. Google , Twitter v. Taamneh e Clayborn v. Twitter.
GONZALEZ V. GOOGLE
Nohemi Gonzalez, una cittadina statunitense, veniva uccisa nell’attacco terroristico del Bataclan di Parigi, nel 2015. Il giorno seguente, l’ISIS rivendicava la paternità dell’attacco, rilasciando una dichiarazione scritta e un video di YouTube. Il padre della Gonzalez, quindi, agiva contro Google, Twitter e Facebook, sostenendo, tra le altre, che Google avesse aiutato e favorito il terrorismo internazionale consentendo all’ISIS di utilizzare la sua piattaforma, in particolare YouTube, «per reclutare membri, pianificare attacchi terroristici, lanciare minacce terroristiche, instillare paura e intimidire le popolazioni civili». Sosteneva inoltre che proprio l’utilizzo di algoritmi informatici che suggeriscono contenuti per gli utenti in base alla loro cronologia di visualizzazione aiutasse l’ISIS a diffondere il suo messaggio. Inoltre, il sistema di monetizzazione di Google su YouTube avrebbe anche fatto sì che l’algoritmo valutasse e approvasse contenuti provenienti dall’ISIS, comportando una condivisione di guadagni con soggetti riconducibili all’organizzazione terroristica. Nei primi due gradi di giudizio la motion to dismiss di Google veniva accolta, come avvenuto nei precedenti casi.
TWITTER V. TAAMNEH
Il secondo caso in decisione origina invece dall’attacco terroristico al Reina di Istanbul del 2017 e riguarda le accuse di favoreggiamento nei confronti di Google, Twitter e Facebook, per non aver adottato misure significative per prevenire l’uso dei loro servizi per scopi di terrorismo. In questo caso, dopo l’iniziale rigetto in primo grado, la Court of Appeals for the Ninth Circuit ha ribaltato la decisione, ritenendo che vi fosse un collegamento diretto tra la diffusione del messaggio dell’ISIS da parte delle piattaforme social e i danni causati alle vittime degli attacchi.
GONZALEZ V. GOOGLE: LA DECISIONE
I casi citati sono stati trattati congiuntamente dalla Corte Suprema, che ha racchiuso le motivazioni sulla Sezione 230 nella sentenza Gonzalez, mentre ha utilizzato la sentenza Twitter per pronunciarsi sulla responsabilità per favoreggiamento come enucleabile dal testo dell’Anti-Terrorism Act. Secondo quanto riportato dai media statunitensi, in udienza i giudici della Corte Suprema avevano già manifestato notevole perplessità di fronte all’opportunità di decidere sul futuro di Internet, laddove dovrebbe essere il legislatore ad intervenire per determinare una simile svolta: «Isn’t it better to keep it the way it is, for us, and to put the burden on Congress to change that and they can consider the implications and make these predictive judgments?» Negli ultimi anni sono state presentate numerose proposte di riforma, sia da parte di parlamentari repubblicani che democratici, alcune per eliminare del tutto il testo, altre per modificarlo. Ed infatti, stupisce ben poco che la decisione dei Giudici supremi sia stata di non pronunciarsi affatto sul tema dell’applicazione della Sezione 230: «(…) pensiamo che sia sufficiente riconoscere che gran parte (se non tutto) del ricorso dei querelanti sembri essere respinto sulla base della nostra decisione su Twitter o dalle determinazioni non contestate della Corte del Nono Circuito di cui in seguito. Ci rifiutiamo quindi di affrontare l’applicazione di §230 a una denuncia che sembra poter rivendicare poche (se del caso) pretese di risarcimento». [traduzione a cura dell’autore]
La Corte Suprema, dunque, si è espressa esclusivamente sul tema dell’applicabilità della responsabilità per favoreggiamento di cui all’Anti-Terrorism Act (in Twitter v. Taamneh), evitando di affrontare in maniera diretta il delicato tema che ha agitato per mesi gli osservatori (avvocati e non solo).
LE MOTIVAZIONI DI TWITTER V. TAAMNEH
Nello specifico, dalle motivazioni espresse nel caso Twitter dal Justice Thomas possono essere tratti due spunti interessanti, in termini di valutazione della responsabilità dei provider rispetto alle modalità di gestione dei contenuti. Nel percorso argomentativo, la sentenza si confronta con la rilevanza della consapevolezza, in capo al provider, della presenza di clienti/utenti che utilizzano il servizio fornito per scopi illeciti (ad es. la presenza dell’ISIS su YouTube). A tal proposito, la Corte Suprema si è affidata al concetto di neutralità dell’azione del provider (già utilizzato dalla Corte d’Appello del 9° Circuito rispetto all’operato dell’algoritmo) ed ha evidenziato come non si possa trasformare una “distante inerzia” in consapevole e sostanziale assistenza all’attività terroristica; ha dunque ritenuto insufficiente, di per sé, l’osservazione per cui le piattaforme in esame fanno qualcosa in più che trasmettere informazioni per miliardi di persone (tramite l’analisi delle preferenze degli utenti).
Inoltre, con riferimento specifico a Google e al sistema di monetizzazione di YouTube, i ricorrenti non avrebbero portato evidenze concrete di un contributo notevole fornito all’ISIS o ai suoi appartenenti, né in termini di importo delle somme corrisposte, né rispetto al numero di account e contenuti approvati dalla piattaforma. Pertanto, non sarebbe possibile sostenere che Google abbia prestato assistenza all’ISIS, né nell’attacco di Istanbul del 2017, né nelle altre attività di natura terroristica dell’organizzazione.
IL FUTURO DI INTERNET
La decisione quasi pilatesca della Corte Suprema incontra certamente il favore di chi, come gli attivisti per i diritti digitali, sostiene che la Sezione 230 debba rimanere parte dell’ordinamento statunitense; avrebbe infatti permesso una maggiore libertà di espressione online, favorendo la possibilità di connettersi e comunicare in modi che non erano possibili in precedenza. Inoltre, avrebbe consentito alle piattaforme online di rimuovere contenuti offensivi senza necessariamente censurare la libertà di espressione. Tuttavia, l’orientamento delle Corti statunitensi che sostiene la neutralità delle piattaforme online è difficilmente condivisibile, proprio alla luce del noto funzionamento degli algoritmi di analisi delle preferenze degli utenti. Questi casi, infatti, hanno dimostrato nuovamente l’importanza di trovare un equilibrio tra la libertà di espressione e la protezione degli utenti online. Le piattaforme hanno il potere di raggiungere milioni di persone in tutto il mondo, ma da questo potere deriva anche la responsabilità di assicurarsi che il contenuto pubblicato su di esse non danneggi gli utenti, o quantomeno di adoperarsi concretamente in tal senso.
Inoltre, è emersa ulteriormente la diffusa percezione della necessità di una maggiore regolamentazione e supervisione delle piattaforme online. Se da un lato la Sezione 230 ha fornito per lungo tempo un’immunità funzionale allo sviluppo di Internet, dall’altro permangono le preoccupazioni per la sicurezza degli utenti e sulla diffusione di contenuti che comportano pericoli tanto online quanto offline. Il ruolo e le scelte dei provider assumono sempre maggiore centralità, soprattutto alla luce del funzionamento degli algoritmi a cui si affidano. È dunque necessario, prima e ben più di una pronuncia giurisdizionale, un intervento normativo che affronti il problema con lo sguardo critico del nostro decennio e che possa soddisfare le (spesso) contrapposte esigenze di sicurezza e libertà di espressione.