g-docweb-display Portlet

Audizione del Presidente del Garante per la protezione dei dati personali, Prof. Pasquale Stanzione - Indagine conoscitiva sulla natura, cause e sviluppi recenti del fenomeno dei discorsi d'odio

Stampa Stampa Stampa
PDF Trasforma contenuto in PDF

 

VIDEO DELL'AUDIZIONE

 

Audizione del Presidente del Garante per la protezione dei dati personali, Prof. Pasquale Stanzione - Indagine conoscitiva sulla natura, cause e sviluppi recenti del fenomeno dei discorsi d'odio

Senato della Repubblica - Commissione straordinaria per il contrasto dei fenomeni di intolleranza, razzismo, antisemitismo e istigazione all’odio e alla violenza

(13 luglio 2021)

 

1. Età della rabbia e viralità della rete

Ringrazio, anzitutto, la Commissione per quest’occasione di confronto e per la sensibilità dimostrata rispetto alle implicazioni, in ordine alla protezione dati, del fenomeno dei discorsi d’odio, (non nato con, ma certamente) aggravato dalla rete.

Essa, infatti, con la sua strutturale disintermediazione ha certamente, da un lato, moltiplicato esponenzialmente le possibilità di libera espressione e di accesso all’informazione, rappresentando per questo un potente strumento di progresso democratico. Dall’altro, tuttavia, ha anche favorito una polarizzazione sociale mai così forte in quella che è stata definita l’età della rabbia, in gran parte anche per effetto dell’ “engagement”, della viralità della condivisione e del funzionamento degli algoritmi.

Essi tendono, infatti, a valorizzare nella stessa presentazione dei contenuti quelli più attrattivi di like e visualizzazioni, ovvero generalmente quelli più estremi, meno mediati dalla riflessione razionale e molto spesso più aggressivi e discriminatori. Questo tipo di contenuti si rivela frequentemente e paradossalmente, capace di aggregare consensi riversando sul “nemico opportuno” di turno quel senso di revanscismo e invidia sociale diffuso, per le ragioni più diverse, in un’ampia quota del pubblico della rete. Inutile notare che ad assurgere al ruolo di capro espiatorio sono generalmente minoranze, soggetti particolarmente vulnerabili o comunque percepiti, per le ragioni più varie, come altro-da-noi (per origine etnica, genere, credo religioso o politico, ecc.). E, come sempre in contesti caratterizzati dall’indebolimento dei legami sociali, la contrapposizione all’altro rafforza, nella sua percezione, l’identità di chi esclude; funziona da dispositivo identitario tanto quanto è discriminatorio.

Quello dei discorsi d’odio è dunque, evidentemente, un fenomeno complesso, le cui radici profonde e molteplici implicano soluzioni non certo unilaterali e tantomeno riduzioniste, ma fondate su di una strategia di protezione integrata e multidisciplinare. La tutela penale – che sotto il profilo sostanziale è tendenzialmente completa, salvo alcune integrazioni di cui si dirà- deve necessariamente combinarsi con quella, essenzialmente civilistica, di natura remediale. Il public e il private enforcement devono convergere, massimizzando lo standard di protezione, parallelamente a un ampio ventaglio di misure preventive che agiscano sulle cause (prossime e remote) del problema e non si limitino all’epifenomeno, prevenendo la formazione di quegli stereotipi, culturali e sociali, che lo alimentano.

Non va poi sottovalutato il profilo processuale, non tanto per la carenza di strumenti investigativi quanto per la intrinseca difficoltà di superare ostacoli tecnici reali, quali il ricorso al deep web o comunque a sistemi che rendono pressoché impossibile od oltremodo difficile identificare gli utenti reali o cancellano immediatamente i contenuti scambiati. Non a caso, nel nostro ordinamento, il ricorso a mezzi tesi ad impedire l’identificazione dei dati di accesso alle reti telematiche costituisce un’aggravante, circoscritta tuttavia ai soli delitti contro la libertà sessuale (art. 609-duodecies c.p.) e che ben potrebbe, dunque, essere estesa ad ulteriori fattispecie.

Non è, del resto, agevole neppure l’enforcement, nella misura in cui la localizzazione in Stati esteri di molti gestori (i quali soli, spesso, dispongono delle informazioni utili all’identificazione dell’agente), rende necessario avviare complesse attività di cooperazione giudiziaria al fine di ottenere gli elementi indispensabili a fini investigativi.

2. Possibili soluzioni e proposte normative interne

A fronte di questa intrinseca difficoltà di accertamento propria degli illeciti in rete, è necessario:

a) rendere effettiva la tutela remediale soprattutto in forma specifica (rimozione in particolare), che consente anche di limitare gli effetti della permanenza in rete di contenuti lesivi, prevenendone l’aggravamento;

b) responsabilizzare utenti e provider, garantendo al contempo mezzi più agevoli di identificazione degli autori dei contenuti offensivi;

c) investire sulla pedagogia digitale quale consapevolezza, da parte di tutti gli utenti del web, delle implicazioni spesso irrimediabili che ogni loro “click” ha sulla dignità di persone in carne ed ossa, anche se smaterializzate dietro un profilo social.

In ordine al primo profilo, come dimostrano i casi dell’oblio e del cyberbullismo, il meccanismo fondato sulla richiesta al gestore di rimozione e la successiva istanza al Garante in caso di inerzia o rigetto, è un utile strumento di tutela dei diritti della personalità on line. Esso coniuga, infatti, l’esigenza della pronta rimozione dei contenuti (soprattutto in caso di adesione spontanea del provider) con la riserva all’autorità pubblica della decisione in ultima istanza, nel contraddittorio delle parti. Si tratta di un complessivo bilanciamento che risponde alle esigenze sottolineate dalla Corte di giustizia e dalla Corte europea dei diritti dell’uomo, quest’ultima in particolare con alcune sentenze che hanno sancito addirittura, in capo agli Stati, un obbligo positivo di assicurare misure idonee a tutelare la dignità personale (cfr., in particolare, Delfi c. Estonia del 2015).

Sarebbe certamente opportuno, dunque, estendere all’hate speech il modello di tutela remediale affidato al Garante rispetto al cyberbullismo, così responsabilizzando, pur a legislazione vigente, le piattaforme rispetto agli illeciti commessi on line dagli utenti e soprattutto intervenendo in senso ablativo sui contenuti lesivi in tempi stringenti, prima che il gioco delle condivisioni virali renda impossibile contenerne gli effetti, come nel tragico caso di Tiziana Cantone. In questo senso si muove, apprezzabilmente, la pdl Boldrini (AC 2936), come già la pdl Moretti-Sanna della scorsa legislatura e il ddl Zanda per quanto riguarda la disinformazione.

La pdl Boldrini, in particolare, sul modello della legge tedesca sui social network-,circoscrive la nozione di contenuto illecito con riferimento alle fattispecie, anche di natura istigativa, generalmente ravvisabili nei discorsi d’odio, al fine di coniugare esigenze di tutela e di determinatezza della fattispecie. Si potrebbe, sotto questo profilo, anche valutare di riespandere (come prima della riforma di cui al d.lgs. 101/2018) l’ambito applicativo del delitto di trattamento illecito di dati personali (art. 167 del Codice), che offrirebbe una tutela ad ampio spettro rispetto a molteplici forme di lesione dell’identità e della dignità, realizzate abusando dei dati personali. In tal senso, tra i requisiti di illiceità speciale suscettibili di integrare il delitto andrebbe reintrodotto il consenso (espunto, salvo per il telemarketing, dalla riforma del 2018), così coprendo molteplici ipotesi (le più frequenti) di violazioni della persona perpetrate in rete.

In ogni caso, rispetto ai contenuti illeciti, la proposta di legge obbliga le piattaforme ad adottare procedure agevoli per la segnalazione e la verifica della natura degli stessi, con procedure particolarmente celeri, da parte di un organismo di autoregolamentazione ma con competenza decisionale definitiva del Garante, in caso di rigetto dell’istanza di rimozione.  Sulla scorta della giurisprudenza sull’ingiunzione dinamica, si sancisce poi, in capo al gestore, l’obbligo di assicurare che il contenuto illecito rimosso o bloccato non sia nuovamente pubblicato. Un sistema in parte analogo (e modellato sulla legge sul cyberbullismo) è, poi, previsto per i contenuti che, ancorché non integrati specifici estremi di reato, siano comunque lesivi della dignità. Anche in tal caso le istanze di rimozione – soggette a decisione in tempi particolarmente celeri – possono essere presentate, anche dal minore ultra14enne, al Garante ove la richiesta al gestore non sia stata risolutiva.

L’attribuzione, al Garante, della funzione di decisione in ultima istanza delle richieste non soddisfatte dai gestori assicura, in particolare, che un bilanciamento così delicato quale quello tra dignità e libertà di espressione non sia rimesso alla decisione autonoma di un mero soggetto privato quale la piattaforma. E’ questo il punto più delicato della tutela della persona (e in particolare della dignità) on line: promuovere la cooperazione attiva delle piattaforme, pur senza renderle arbitre delle libertà fondamentali.

3. Il Digital Services Act e la responsabilizzazione delle piattaforme

Innovazioni di sistema deriveranno, proprio sotto questo profilo, dal Digital Services Act: la proposta di regolamento europeo che recepisce alcune delle più rilevanti misure introdotte – anche in ordine alle procedure di rimozione dei contenuti illeciti – dalla legge tedesca sui social network, dalla loi Avia di giugno scorso come emendata dal Conseil Constitutionnel, nonché da discipline unionali di settore. Il DSA introduce alcuni obblighi, soprattutto di carattere proattivo, in capo alle piattaforme on line, diversamente modulati sulla base del numero di utenti attivi, nel segno di una loro responsabilizzazione di tipo preventivo. Ribadendo - e, anzi, rafforzando con una nuova Good Samaritan Clause – l’esenzione di responsabilità secondaria dei gestori rispetto agli illeciti commessi dagli utenti sulle proprie piattaforme e il doveroso divieto di monitoraggio generale e preventivo sui contenuti, il DSA compensa tuttavia questo safe harbor con degli obblighi di regolamentazione tali da minimizzare il rischio di violazioni o da contenerne, comunque, gli effetti pregiudizievoli. A tal fine s’impone l’istituzione (diversamente modulata in ragione, appunto, della rilevanza della piattaforma) di procedure interne di decisione delle istanze di rimozione di contenuti illeciti o comunque contrari alle policies aziendali, con obblighi di motivazione e reclamabilità delle scelte adottate, nonché con la devoluzione delle controversie ad organi di AdR dotati di requisiti adeguati di indipendenza. 

In tal senso, si “positivizza” il percorso compiuto dalla giurisprudenza nel segno di una maggiore responsabilizzazione del gestore (si pensi alla figura pretoria dell’hosting attivo), volta a impedire che la rete, con la forza della condivisione virale e l’ubiquitarietà dei suoi servizi, divenga la cassa di risonanza di violazioni le più diverse dei diritti individuali. Del resto, la rinuncia all’introduzione di una forma, sia pur limitata, di responsabilizzazione del gestore rischia di riflettere uno slittamento dell’idea di libertà su quella di anomia, ignorando che l’assenza di regolazione, in un contesto privo di ogni limite all’espansione del potere privato, non produce eguaglianza ma subalternità agli imperativi del mercato.

Il crinale stretto su cui si muove il Digital Services Act è il mantenimento dell’opzione di fondo sottesa alla direttiva 2000/31, ovvero il regime generale di responsabilità (solo) condizionata del gestore– con il correlativo divieto di monitoraggio generale dei contenuti- coniugato, tuttavia, con una serie di obblighi procedurali e sostanziali espressivi tanto del principio di accountability quanto del canone di responsibility.

In tale contesto, è significativa la scelta della Commissione di non cedere al modello della responsabilità oggettiva della piattaforma per i contenuti diffusi dagli utenti, pur non rinunciando a una revisione della disciplina in senso maggiormente rigorista. La cifra di questa novella legislativa risiede, dunque, nel passaggio dalla (sola) responsabilità alla responsabilizzazione, che potrebbe avere effetti determinanti – come si è notato anche nei lavori prodromici alla redazione del draft di DSA - anche sul terreno dell’hate speech, .

L’obbligo di motivazione delle decisioni adottate e la loro reclamabilità dovrebbero contribuire a rendere più trasparente l’esercizio, da parte delle piattaforme, del potere di rimozione, che se non adeguatamente circoscritto e reso appunto ‘visibile’ e sindacabile, rischia di attribuire  loro un ruolo arbitrale sui diritti in rete.

Nell’attesa dell’approvazione, non certo immediata, del DSA, soluzioni quali quelle proposte dalla pdl Boldrini potrebbero contribuire non soltanto ad anticipare quel percorso di responsabilizzazione suggerito dalla disciplina europea, ma anche offrire un’essenziale tutela alle vittime elettive dell’intolleranza.

Nessuno di questi interventi potrà, tuttavia, mai dirsi risolutivo in assenza di una capillare e strategica educazione (al) digitale, che assume un ruolo determinante nella prevenzione dei fenomeni variamente distorsivi della rete, tra i quali anche l’hate speech. E’ un aspetto dirimente soprattutto per la formazione delle future generazioni, che per quanto native digitali necessitano ancora di una profonda sensibilizzazione verso i rischi cui la rete ci espone e da cui la rete stessa deve essere liberata, perché torni ad essere quello spazio di libertà e democrazia di cui abbiamo sempre più bisogno.