PIATTAFORME DIGITALI E CENSURA ONLINE

Torino, 23 febbraio 2023

Progetto di ricerca dell’Università di Torino
in collaborazione con il Centro Nexa su Internet e Società

Lo stato dell’arte della regolamentazione sulla moderazione dei contenuti in rete è in continuo divenire. Negli ultimi anni, l’Unione Europea ha portato avanti numerosi interventi volti a creare un quadro normativo uniforme e completo, che possa bilanciare il diritto alla libertà di espressione e il contenimento di attività illegali.

L’assenza di un generale obbligo di sorveglianza della piattaforma, dapprima delineato nella Direttiva 31/2000 e poi aggiornato con il Digital Services Act Package (DSA), crea un regime di responsabilità molto particolare per i fornitori di servizi della società dell’informazione. Tali providers sono esenti da responsabilità per i contenuti condivisi dagli utenti sulla propria piattaforma a meno che, venuti a conoscenza della loro natura illecita, non agiscano rapidamente per rimuoverli. Come specificato nel DSA, il concetto di “contenuto illegale” è da intendersi come riflesso delle norme vigenti nell’ambiente online, ricomprendendo l’incitamento all’odio ma escludendo la disinformazione, che deve essere considerata contenuto dannoso sebbene non illecito. Atti di soft law come il Code of Conduct in Countering Illegal Hate Speech Online, adottato nel 2016, o il Code of Practice on Discrimination (2018), sebbene siano accordi non vincolanti tra le parti, hanno avuto un impatto nel creare degli standard di monitoraggio dei contenuti online, tendendo verso una cultura di “auto-regolamentazione”.

Questo scenario da un lato delinea la volontà dell’Unione Europea di regolare le piattaforme digitali, ma solleva anche forti perplessità sugli strumenti adottati. Se è vero che i fornitori di servizi hanno dei doveri di trasparenza nella moderazione dei contenuti, è anche vero che gli utenti non hanno gli strumenti per incidere sull’attività dei provider, soprattutto nel contesto più ampio della difesa di diritti costituzionalmente garantiti come la libertà di espressione e di informazione. Da ciò deriva la volontà dei ricercatori di questo progetto di raccogliere un numero significativo di casi studio per comprendere le politiche adottate dalle piattaforme nei confronti dei loro utenti, le modalità di moderazione e i contenuti maggiormente oggetto di censura.

La ricerca si concentra sull’Italia e prenderà in considerazione le maggiori piattaforme online di condivisione dei contenuti. Per la raccolta dei casi di studio verrà distribuito un questionario sui casi di “censura digitale” in Italia. I risultati della ricerca verranno consolidati in una pubblicazione e presentati in workshops e seminari aperti al pubblico.

Il progetto è coordinato da Maurizio Borghi, professore ordinario al Dipartimento di Giurisprudenza dell’Università di Torino e co-direttore del Centro Nexa, e da Beatrice Balzola, borsista al Dipartimento di Giurisprudenza dell’Università di Torino e alumna del Centro Nexa.