Senato della Repubblica | XVIII LEGISLATURA |
COMUNICATO ALLA PRESIDENZA IL 13 NOVEMBRE 2019
Modifiche agli articoli 604-bis e 604-ter del codice penale e ulteriori misure volte alla prevenzione e al contrasto del linguaggio d'odio
Onorevoli Senatori. – Il principio della libertà di espressione, diritto fondamentale ed inalienabile dell'uomo, consacrato all'articolo 21 della nostra Costituzione, costituisce il pilastro dei moderni ordinamenti democratici. L'articolo 19 della Dichiarazione universale dei diritti dell'uomo del 1948 recita: « Ogni individuo ha diritto alla libertà di opinione e di espressione incluso il diritto di non essere molestato per la propria opinione e quello di cercare, ricevere e diffondere informazioni e idee attraverso ogni mezzo e senza riguardo a frontiere ». Dello stesso tenore l'articolo 10 della Convenzione europea dei diritti dell'uomo (CEDU): « Ogni individuo ha diritto alla libertà di espressione. Tale diritto include la libertà di opinione e la libertà di ricevere o di comunicare informazioni o idee senza che vi possa essere ingerenza da parte delle autorità pubbliche e senza limiti di frontiera. La libertà dei media e il loro pluralismo sono rispettati ».
Trattasi, in ogni caso, di una libertà che deve necessariamente bilanciarsi con il rispetto di beni ed interessi primari, parimenti protetti e garantiti dalle moderne Carte costituzionali, in particolare con il rispetto della dignità umana. Nell'ottica di tale bilanciamento il linguaggio espressivo, al pari di qualsiasi altra azione umana, deve essere necessariamente limitato nel momento in cui eccede e stravolge le finalità sociali e giuridiche poste alla base del riconoscimento della libertà medesima.
Nell'ambito di tali premesse, si vuole e si deve inquadrare il fenomeno dell’hate speech, inteso comunemente come discorso finalizzato ad incitare o promuovere odio, violenza e intolleranza attraverso epiteti che denotano disprezzo nei confronti di individui o gruppi, in ragione della loro connotazione razziale, etnica, religiosa, di genere, ovvero per il loro orientamento sessuale o per la loro condizione personale.
Più nel dettaglio, a mente della raccomandazione di politica generale n. 15 della European Commission against Racism and Intolerance (ECRI), adottata in data 8 dicembre 2015, pubblicata il successivo 21 marzo 2016, rientra nel concetto di hate speech: « il fatto di fomentare, promuovere o incoraggiare, sotto qualsiasi forma, la denigrazione, l'odio o la diffamazione nei confronti di una persona o di un gruppo, nonché il fatto di sottoporre a soprusi, insulti, stereotipi negativi, stigmatizzazione o minacce una persona o un gruppo e la giustificazione di tutte queste forme o espressioni di odio testé citate, sulla base della “razza”, del colore della pelle, dell'ascendenza, dell'origine nazionale o etnica, dell'età, dell’handicap, della lingua, della religione o delle convinzioni, del sesso, del genere, dell'identità di genere, dell'orientamento sessuale e di altre caratteristiche o stato personale ».
Il discorso d'odio, malgrado non sia espressamente richiamato nelle Carte e nei Trattati sui diritti umani, deve essere ricondotto al principio di uguaglianza di cui all'articolo 3 della Costituzione italiana, oltreché al divieto di discriminazione, sancito dall'articolo 7 della Dichiarazione universale dei diritti dell'uomo del 1948 e dalla Convenzione ONU sull'eliminazione di tutte le forme di discriminazione razziale, adottata il 21 dicembre del 1965, ratificata in Italia ai sensi della legge 13 ottobre 1975, n. 654, la quale impone agli Stati membri di introdurre leggi che vietino i discorsi incitanti all'odio, nonché, sempre al livello internazionale, dal Patto internazionale per i diritti civili e politici, firmato a New York nel 1966, il quale, all'articolo 20, paragrafo 2, impone di vietare per legge « qualsiasi appello all'odio nazionale, razziale o religioso che costituisca incitamento alla discriminazione, all'ostilità o alla violenza ».
In ambito europeo, il primario riferimento al divieto di discriminazione è rinvenibile all'articolo 14 della CEDU, a mente del quale: « Il godimento dei diritti e delle libertà riconosciuti nella presente Convenzione deve essere assicurato senza nessuna discriminazione, in particolare quelle fondate sul sesso, la razza, il colore, la lingua, la religione, le opinioni politiche o quelle di altro genere, l'origine nazionale o sociale, l'appartenenza a una minoranza nazionale, la ricchezza, la nascita od ogni altra condizione », nonché all'articolo 21 della Carta dei diritti fondamentali dell'Unione europea (CDFUE).
Si tratta, ad ogni buon conto, di un fenomeno di drammatica attualità, tutt'altro che nuovo, il quale investe ogni ambito, ivi compresa la politica e lo sport. Sono, infatti, all'ordine del giorno gli episodi di insulti e di cori razzisti che, come un vero e proprio virus, infettano le piazze e gli stadi di tutta Italia.
Non vi è dubbio, tuttavia, che negli ultimi anni la diffusione della propaganda d'odio sia stata alimentata ed esasperata, in particolare, dalla diffusione di internet e dei social network.
La velocità istantanea di diffusione dei messaggi, l'attitudine di detti strumenti a raggiungere milioni di destinatari, la capacità del contenuto offensivo di sopravvivere per un lungo arco di tempo oltre la sua immissione, l'apparente anonimato della comunicazione, la mancanza di un contatto fisico diretto con la vittima costituiscono, indubbiamente, tutti caratteri idonei a potenziare l'offensività del discorso d'odio. Un'aggressione verbale che nasce virtuale, ma che finisce con il divenire reale, generando una vera e propria ostilità verso l'altro, prodromica alla commissione di veri e propri crimini d'odio.
La portata allarmante di un siffatto scenario sociologico, come anche rilevato dalle recenti vicende di cronaca, impone un tempestivo intervento legislativo, in ossequio al Protocollo addizionale alla Convenzione di Budapest sulla criminalità informatica, aperto alla firma a Strasburgo il 28 gennaio 2003, relativo all'incriminazione dei comportamenti di natura razzista e xenofoba diffusi tramite l'utilizzo di sistemi informatici. Tale intervento si pone, altresì, in linea con la decisione-quadro 2008/913/GAI del Consiglio, del 28 novembre 2008, sulla lotta contro talune forme ed espressioni di razzismo e xenofobia mediante il diritto penale, da leggere, sempre ai fini dell'azione normativa in parola, in combinato con la risoluzione del Parlamento europeo del 14 marzo 2013, con la quale si è evidenziata l'esigenza di revisionare la citata decisione del 2008, includendo ulteriori categorie potenzialmente vulnerabili e, quindi, meritevoli di tutela.
In ambito europeo, sino ad oggi, sono stati diversi gli interventi attuati al fine di contenere e contrastare il dilagare del fenomeno; da ultimo, l'avvio nel 2015 di un internet forum che ha riunito i Ministri degli interni degli Stati membri dell'Unione europea, nonché i rappresentanti dei principali fornitori dei servizi via internet, del Parlamento europeo e di Europol e il Coordinatore europeo per la lotta al terrorismo.
Fra gli interventi messi in atto in ambito europeo si annovera, anche, l'accordo raggiunto tra la Commissione europea e i principali intermediari di servizi internet (Facebook, Twitter, Microsoft, Youtube e, successivamente, Instagram, Google+, Snapchat e Dailymotion), con il quale è stato elaborato un codice di condotta finalizzato a contrastare l'incitamento all'odio online. Con la firma del codice le piattaforme informatiche si sono impegnate, anche mediante apposita formazione del proprio personale, ad elaborare procedure interne, chiare ed efficienti, che permettano di esaminare la maggior parte delle richieste di rimozione di contenuti che incitano all'odio (entro 24 ore), procedendo, se ne ricorrono i presupposti, a cancellare tali contenuti o a renderli inaccessibili. Con la sottoscrizione dell'accordo de quo, le aziende informatiche e la Commissione europea si sono altresì prefissate l'obiettivo di elaborare e promuovere programmi educativi che incoraggino il lecito pensiero critico, anche mediante l'adozione di linee guida indirizzate alla comunità degli utenti della rete, che precisino il divieto di ogni forma di istigazione all'odio e alla violenza.
Tuttavia, dai risultati del primo monitoraggio del 2016, condotto da dodici organismi indipendenti con sede in vari Stati membri dell'Unione, è emerso che a fronte di oltre 600 segnalazioni, solo nel 28,2 per cento dei casi il contenuto illecito è stato rimosso. La percentuale di rimozione, all'esito della seconda rilevazione compiuta e pubblicata nel giugno 2017, è aumentata di circa il 30 per cento rispetto all'anno precedente, tuttavia, dalla stessa, è emerso che soltanto alcune delle piattaforme digitali hanno sviluppato un sistema di procedure tempestive, chiare ed efficienti per la segnalazione e, quindi, per la conseguenziale rimozione dei contenuti illeciti. Il trend del 2017 è sostanzialmente analogo a quello del terzo monitoraggio (gennaio 2018), ove si registra ancora un aumento dei casi di rimozione, ma anche una profonda diversità tra i sistemi di rimozione adottati dalle singole società digitali, diversità che, come è facilmente intuibile, non assicura una tutela effettiva ed omogenea degli utenti.
A fronte di siffatti risultati, non certamente soddisfacenti, in data 1° marzo 2018, la Commissione europea ha adottato la raccomandazione UE 2018/334, contenente una serie di misure operative per contrastare efficacemente i contenuti illegali online: « to effectively tackle illegal content online ».
Porgendo uno sguardo al contesto nazionale, merita di essere menzionata la Carta italiana dei diritti in internet, che costituisce uno strumento indispensabile per dare fondamento costituzionale a princìpi e diritti nella dimensione sovranazionale cybernetica, sempre nell'ottica di trovare un difficile (ma essenziale) equilibrio fra la necessità di salvaguardare la libertà di manifestazione del pensiero e la dignità umana dall'incitamento all'odio, alla discriminazione e alla violenza.
Tuttavia, senza voler togliere pregio agli interventi sopra menzionati, i dati statistici compiuti negli ultimi anni dimostrano l'aumento esponenziale del fenomeno dell’hate speech online.
Vox – Osservatorio italiano sui diritti, in collaborazione con alcune università del territorio nazionale, ha recentemente presentato la quarta edizione della Mappa dell'intolleranza, dalla quale emergono dati in continua crescita rispetto alle precedenti edizioni.
La rilevazione, che ha esaminato il periodo marzo–maggio 2019, mette in evidenza i bersagli più colpiti dagli haters, ossia i migranti, gli ebrei, i musulmani, le donne, gli omosessuali, i diversamente abili.
Spicca nella classifica dell'intolleranza la combinazione migranti/musulmani/ebrei. L'odio contro i migranti registra un più 15,1 per cento rispetto allo scorso anno e sul totale dei tweet che hanno ad oggetto i migranti, quelli di odio sono ben il 66,7 per cento. L'intolleranza contro gli ebrei, di fatto quasi inesistente fino al 2018, quest'anno registra un più 6,4 per cento (76,1 per cento sul totale dei tweet sugli ebrei). Cresce del più 6,9 per cento anche l'intolleranza contro i musulmani.
Dati alla mano, circa il 60 per cento dei tweet ha al centro migranti, ebrei e musulmani e, tra questi, il totale dei tweet di odio è altissimo. Si badi che l'anno scorso tale percentuale si attestava intorno al 36,92 per cento.
Tra i soggetti più colpiti anche le donne. Donne comuni, sportive, donne dello spettacolo o che rivestono un ruolo istituzionale, continuamente oggetto di messaggi carichi di odio. Tra i tweet analizzati nel predetto periodo, in relazione al genere femminile, per un totale di 55.347 tweet, il 27 per cento risulta essere carico di odio e di discriminazione. Il trend è in aumento rispetto all'anno 2018 (più 1,7 per cento).
Seguono nella mappa dell'intolleranza i disabili (tra i tweet analizzati, per un totale di 23.499, quelli negativi rilevati sono stati ben 16.676) e, da ultimo, gli omosessuali (5 per cento dei tweet complessivamente analizzati).
Il linguaggio d'odio, in particolare quello razziale, perversa non solo nel web, ma anche nelle piazze, in occasioni di manifestazioni pubbliche, ovvero negli stadi durante gli eventi sportivi. Si tratta, a ben vedere, di contesti tali che, analogamente al web, sono destinati ad ampliare in modo esponenziale la portata offensiva del fenomeno e che, quindi, non possono essere trascurati ai fini che qui interessano.
L’hate speech ha diverse facce, ognuna delle quali va conosciuta ed affrontata, mettendo in campo interventi di politica legislativa a difesa delle categorie più colpite dai predicatori di odio.
Interventi che, alla stregua di quanto già previsto in altri settori di disciplina, debbono coinvolgere anche i gestori dei siti internet e dei social media, stante la constatata inadeguatezza di una strategia di contrasto al fenomeno fondata esclusivamente sull'autoregolamentazione.
La questione, a ben vedere, si inserisce nell'ambito del più ampio dibattito che ha interessato, nell'ultimo ventennio, la dottrina e la giurisprudenza, circa la possibilità di configurare una responsabilità dell’internet provider per i fatti commessi online attraverso il suo server oppure mediante gli accessi alla rete che egli concede agli utenti.
Si tratta di una tema alquanto complesso ed eterogeneo, da esaminarsi alla stregua del contesto normativo vigente, caratterizzato dall'assenza di disposizioni che configurino un generale obbligo per il provider di impedimento dei reati degli utenti. Ed invero, l'articolo 17 del decreto legislativo 9 aprile 2003, n. 70, attuativo della direttiva europea 2000/31/CE dell'8 giugno 2000 sul commercio elettronico, ha espressamente escluso l'esistenza di un obbligo generale di sorveglianza da parte del provider sui contenuti caricati dagli utenti, nonché l'onere per lo stesso di ricercare fatti o circostanze sintomatici di attività illecite.
Pertanto, in assenza di una norma generale di incriminazione suppletiva che stabilisca una clausola di equivalenza tra il non interrompere gli effetti di un reato e la sua realizzazione commissiva, non sembra giuridicamente possibile, in quanto lesivo del principio costituzionale di legalità in materia penale, imputare un soggetto per non aver interdetto la protrazione dell'offesa al bene giuridico.
Ma vi è di più. La responsabilità per omesso impedimento del reato presuppone che questo non sia stato già consumato, circostanza che, nell’hate speech online, si realizza, per granitica giurisprudenza, nel momento in cui l'autore delle espressioni illecite attiva il collegamento.
Tale evidenza normativa impone di intervenire ex post, con la previsione in capo ai gestori dei siti internet e social media di obblighi di collaborazione, di inibizione e di rimozione dei contenuti illeciti a seguito di segnalazione, escludendo la possibilità di ravvisare una partecipazione del provider – ancorché nella forma omissiva – alla condotta d'odio.
Infine, considerata la portata sociologica e culturale del fenomeno trattato, si avverte la necessità di orientare l'azione legislativa non solo in ottica repressiva, ma anche preventiva, mediante l'avvio di un percorso educativo all'interno delle istituzioni scolastiche, allo scopo di informare e sensibilizzare i più giovani e le loro famiglie sui rischi della rete e sui cybercrime.
In coerenza con quanto sopra esposto, il presente disegno di legge consta di quattro articoli.
L'articolo 1 chiarisce le finalità del disegno di legge in oggetto che, in attuazione della decisione quadro 2008/913/GAI e in ossequio alla risoluzione del Parlamento europeo del 14 marzo 2013, si pone l'obiettivo di prevenire, contrastare e sanzionare il fenomeno dell’hate speech, ampliando il novero delle categorie meritevoli di tutela. Il comma 2 del medesimo articolo 1, per la definizione di « gestori dei siti internet », opera un espresso rinvio all'articolo 1, comma 3, legge 29 maggio 2017, n. 71.
L'articolo 2 interviene sugli articoli 604-bis e 604-ter del codice penale – senza, tuttavia, modificare la qualificazione del reato in quanto già ritenuta idonea a garantire un perfetto bilanciamento tra le contrapposte libertà costituzionali coinvolte – ampliando il novero delle categorie bersagliate dai discorsi d'odio ed introducendo all'articolo 604-bis del codice penale, mediante la lettera d) del comma 1, la circostanza aggravante nel caso in cui le condotte in rilevo siano commesse a mezzo web, ovvero in occasione di manifestazioni pubbliche o aperte al pubblico. La ratio è quella di prevedere un inasprimento di pena nel caso in cui la condotta d'odio sia posta in essere con mezzi ovvero in contesti tali da ampliare in modo esponenziale la portata offensiva del fenomeno discriminatorio.
L'articolo 3 si compone di quattro commi; il comma 1, sulla scorta di recenti interventi legislativi, legittima i gestori dei siti internet e dei social media, a seguito di apposita segnalazione, ad impedire l'accesso ai siti o a rimuovere i contenuti o espressioni rientranti nell'ambito di previsioni di cui all'articolo 604-bis del codice penale, come novellato dalla presente legge. Il comma 2 detta una procedura alternativa qualora il gestore non provveda alla rimozione o inibizione, prevedendo la possibilità di rivolgere analoga istanza di cui al comma 1 all'autorità giudiziaria competente e all'Osservatorio per la sicurezza contro gli atti discriminatori. Il comma 3 sancisce l'obbligo dei gestori di comunicare alle Forze di polizia tutte le informazioni utili all'individuazione degli autori degli illeciti e di adottare, a seguito di provvedimento dell'autorità giudiziaria procedente, le misure dirette ad impedire l'accesso ai contenuti dei siti o a rimuovere i contenuti medesimi. Il comma 4, infine, prevede l'applicazione di una sanzione amministrativa pecuniaria nel caso in cui i gestori dei siti internet e dei social media non provvedano all'adempimento degli obblighi di cui al comma 3.
L'articolo 4, da ultimo, in ottica di prevenzione, stabilisce che le risorse economiche scaturenti dall'eventuale applicazione della sanzione amministrativa di cui all'articolo 3, comma 4, della presente legge, confluiscano nel fondo di cui all'articolo 12 della legge 18 marzo 2008, n. 48, e siano stanziate per il finanziamento di progetti educativi qualificati di contrasto agli illeciti penali di cui all'articolo 604-bis del codice penale, come novellato dalla presente legge, da attuare nelle scuole secondarie di primo e secondo grado.
Art. 1.
(Finalità e definizioni)
1. La presente legge, in attuazione della decisione quadro 2008/913/GAI del Consiglio, del 28 novembre 2008, sulla lotta contro talune forme ed espressioni di razzismo e xenofobia mediante il diritto penale, e in ossequio alla risoluzione del Parlamento europeo del 14 marzo 2013 sul rafforzamento della lotta contro il razzismo, la xenofobia e i reati generati dall'odio, si pone l'obiettivo di prevenire e contrastare l'utilizzo e la diffusione di espressioni e contenuti diretti a propagandare idee fondate sulla superiorità o sull'odio razziale, etnico, religioso o di genere, ovvero ad istigare alla commissione di atti di discriminazione per motivi razziali, etnici, nazionali, religiosi o di genere, ovvero fondati sull'orientamento sessuale o sulla disabilità, in particolare mediante la rete internet, i social network o altre piattaforme telematiche, ovvero nel corso di manifestazioni in luogo pubblico o aperto al pubblico.
2. Ai fini della presente legge, per gestori dei siti internet si intendono i soggetti di cui all'articolo 1, comma 3, della legge 29 maggio 2017, n. 71.
Art. 2.
(Modifiche agli articoli 604-bis e 604-ter
del codice penale)
1. All'articolo 604-bis del codice penale sono apportate le seguenti modificazioni:
a) al primo comma, la lettera a) è sostituita dalla seguente:
« a) con la reclusione fino ad un anno e sei mesi o con la multa fino a 6.000 euro chi propaganda idee fondate sulla superiorità o sull'odio razziale, etnico o di genere, ovvero istiga a commettere o commette atti di discriminazione per motivi razziali, etnici, nazionali, religiosi o di genere, ovvero fondati sull'orientamento sessuale o sulla disabilità »;
b) al primo comma, lettera b), le parole: « o religiosi » sono sostituite dalle seguenti: « , religiosi o di genere, ovvero fondati sull'orientamento sessuale o sulla disabilità »;
c) al secondo comma, le parole: « o religiosi » sono sostituite dalle seguenti: « , religiosi o di genere, ovvero fondati sull'orientamento sessuale o sulla disabilità »;
d) dopo il secondo comma è inserito il seguente:
« La pena è aumentata fino alla metà se le condotte di cui ai commi precedenti sono commesse mediante la rete internet, i social network o altre piattaforme telematiche ovvero nel corso di manifestazioni in luogo pubblico o aperto al pubblico ».
2. All'articolo 604-ter, primo comma, del codice penale, le parole: « o religioso » sono sostituite dalle seguenti: « , religioso o di genere, ovvero fondate sull'orientamento sessuale o sulla disabilità ».
Art. 3.
(Obblighi e sanzioni)
1. Chiunque rilevi espressioni o contenuti illeciti ai sensi dell'articolo 604-bis del codice penale, come modificato dall'articolo 2 della presente legge, diffusi attraverso la rete internet o altre piattaforme telematiche, può farne segnalazione, con indicazione del relativo URL (Uniform Resource Locator), al gestore del sito internet o del social media, formulando espressa istanza per l'adozione di tutte le misure dirette ad impedire l'accesso ai contenuti dei siti o a rimuovere i contenuti medesimi.
2. Qualora, entro le ventiquattro ore successive al ricevimento dell'istanza di cui al comma 1, il gestore del sito internet o del social media non abbia comunicato di avere assunto l'incarico di provvedere all'inibizione o alla rimozione dei contenuti segnalati e, comunque, entro quarantotto ore non vi abbia provveduto, ovvero nel caso in cui non sia possibile identificare il gestore del sito internet o del social media, la richiesta di cui al comma 1, mediante segnalazione, può essere presentata all'autorità giudiziaria competente e all'Osservatorio per la sicurezza contro gli atti discriminatori.
3. I gestori dei siti internet e dei social media hanno l'obbligo di comunicare alle Forze di polizia tutte le informazioni utili all'individuazione degli autori degli illeciti segnalati o comunque rilevati e di adottare, a seguito di provvedimento dell'autorità giudiziaria procedente, tutte le misure dirette a impedire l'accesso ai contenuti dei siti o a rimuovere i contenuti medesimi.
4. La violazione da parte dei gestori dei siti internet e dei social media degli obblighi di cui al comma 3 comporta l'applicazione di una sanzione amministrativa pecuniaria da 15.000 euro a 50.000 euro.
Art. 4.
(Progetti educativi per il contrasto all'odio di genere. Finanziamento del fondo di cui all'articolo 12 della legge n. 48 del 2008)
1. Per l'attuazione delle finalità di cui all'articolo 1, il Ministero dell'istruzione, entro trenta giorni dalla data di entrata in vigore della presente legge, adotta linee guida volte alla predisposizione di progetti educativi qualificati, da svolgere nelle scuole secondarie di primo e secondo grado, al fine di prevenire e contrastare il linguaggio d'odio, in tutte le sue forme e manifestazioni.
2. Le risorse economiche derivanti dall'applicazione della sanzione amministrativa di cui all'articolo 3, comma 4, della presente legge sono destinate al fondo di cui all'articolo 12 della legge 18 marzo 2008, n. 48, per il finanziamento dei progetti educativi di cui al comma 1 del presente articolo.