Digital Services Act: È Possibile Parlare Di Censura?

Digital Services Act e censura: con l'entrata in vigore del Regolamento si è sostenuto da più parti che il DSA sia una normativa volta a censurare i contenuti non in linea con una qualche opinione o linea politica. In altre parole, uno strumento per imporre alle piattaforme, ad esempio i social network, la cancellazione di contenuti non conformi. In questo articolo vediamo le ragioni di tale posizione e cerchiamo di capire se il Digital Services Act si presti o meno alla censura.


Per una analisi complessiva del DSA leggi il nostro articolo sul Digital Services Act.



La libertà di espressione: un diritto fondamentale dell'Unione

Conviene iniziare con il notare che la libertà di espressione e d'informazione è tutelata dalla Carta dei diritti fondamentali dell'Unione Europea. Pertanto, qualora dovessimo concludere che il Digital Services Act limiti la libertà di espressione, legittimando la censura, questo lo porrebbe in diretto contrasto con uno dei diritti fondamentali riconosciuti dal Diritto dell'Unione Europea.

Ogni persona ha diritto alla libertà di espressione. Tale diritto include la libertà di opinione e la libertà di ricevere o di comunicare informazioni o idee senza che vi possa essere ingerenza da parte delle autorità pubbliche e senza limiti di frontiera.

Articolo 11 - Carta dei diritti fondamentali dell'Unione Europea.

Quali contenuti possono essere rimossi secondo il DSA?

Il Digital Service Act prevede la rimozione, ed altri provvedimenti restrittivi, a proposito di:

  1. contenuti incompatibili con i termini di utilizzo della piattaforma;
  2. contenuti illegali.

Contenuti incompatibili con i termini d'uso delle piattaforme

Circa i contenuti contrari ai termini d'uso della piattaforma, rientra tra le facoltà di un soggetto privato, quale il fornitore della piattaforma, adottare delle policy su cosa è possibile pubblicare e cosa no. In tal caso però, questa non è certo una novità: ai social network è ben nota la rimozione di contenuti ritenuti, a torto o a ragione, incompatibili con i propri termini d'uso.

Mentre tale pratica può certo tradursi in censura, non certo una buona pubblicità per aziende il cui core business è basato sulla comunicazione tra gli utenti, è anche vero che questo ha poco a che vedere con il Digital Services Act: sono le piattaforme ad individuare i contenuti non ammessi e a disporne la rimozione.

Contenuti illegali

Quanto ai contenuti illegali, sono tali se violano una norma: è il contrasto con questa a determinarne la rimozione. L'individuazione dei contenuti da rimuovere non è compiuta dal Digital Service Act, ma dalle norme che li qualificano come illegali. Il regolamento non individua direttamente cosa non è possibile pubblicare.

Tuttavia, il generico riferimento ad una norma, magari dal contenuto vago, potrebbe non bastare: bollare del materiale come illegale, senza solide basi o precisi riferimenti normativi, al solo fine di giustificarne la rimozione, equivarrebbe comunque a censura. Pertanto, a tal proposito bisognerà prestare attenzione a come verrà applicato il regolamento: quali saranno i contenuti considerati illegali, e quali norme si riterranno violate ogniqualvolta delle informazioni pubblicate online saranno rimosse in applicazione del regolamento.

Digital Services Act e censura: cosa dicono i critici

Disinformazione: una scusa per la censura?

Uno dei motivi che ha indotto a parlare di censura con riferimento al Digital Services Act sta forse nel concetto di disinformazione; tra le finalità del regolamento sui servizi digitali c'è infatti la lotta alla disinformazione. Dal dibattito su censura e Digital Services Act emerge infatti l'argomento secondo cui il ricorso ad un concetto vago come "disinformazione" possa legittimare la rimozione di contenuti in base alle opinioni da questi espressi, configurando il più classico degli esempi di censura; tutto ciò, con buona pace della libertà di espressione.

Si osserva che una affermazione è vera o falsa, un contenuto è illegale se in contrasto con una norma; ma che cos'è la disinformazione, e come rileva ai fini dell'applicazione del regolamento?

A guardar bene, il termine "disinformazione" viene usato con una certa frequenza nei considerando, dunque nella parte introduttiva, ma neanche una volta tra gli articoli del regolamento: non si tratta di un dettaglio privo di rilevanza, dal momento che ai considerando compete la descrizione degli obiettivi di una normativa, ma sono privi di contenuto normativo. Questo, da un punto di vista giuridico, limita il temuto impatto che un termine vago come disinformazione possa avere in sede di applicazione della disciplina.

Tuttavia, ci limitiamo a notare che nei considerando il riferimento più concreto alla disinformazione viene fatto in tema di valutazione dei rischi sistemici, adempimento che spetta alle piattaforme di grandi dimensioni. A tal proposito:

Nel valutare i rischi sistemici individuati nel presente regolamento, tali fornitori dovrebbero concentrarsi anche sulle informazioni che non sono illegali ma contribuiscono ai rischi sistemici individuati nel presente regolamento. Tali fornitori dovrebbero pertanto prestare particolare attenzione al modo in cui i loro servizi sono utilizzati per diffondere o amplificare contenuti fuorvianti o ingannevoli, compresa la disinformazione.

Considerando n° 84

Indipendentemente dall'impatto concreto che i considerando potranno avere sulla applicazione del DSA, è degno di nota che si introduca la nuova normativa dichiarando l'intenzione di attenzionare informazioni che non sono illegali sulla base di attributi vaghi come fuorvianti o ingannevoli e, di nuovo, la disinformazione. Poco promettente come introduzione.

Meccanismi di risposta alle crisi e moderazione dei contenuti

Tra i motivi di preoccupazione espressi in ordine a Digital Service Act e censura c'è l'impatto dei meccanismi di risposta alle crisi sulle procedure di moderazione. L'articolo 36 infatti prevede che in caso di situazioni di crisi la Commissione possa imporre alle piattaforme di grandi dimensioni di adottare determinate misure, e tra queste:

l'adeguamento delle procedure di moderazione dei contenuti, compresa la velocità e la qualità del trattamento delle segnalazioni concernenti tipi specifici di contenuti illegali e, se del caso, la rapida rimozione dei contenuti oggetto della notifica o la disabilitazione dell'accesso agli stessi.

Articolo 35 - paragrafo 1 - lettera c)

La criticità riscontrata risiede nel potere riconosciuto ad un soggetto politico, quale la Commissione, di imporre alle piattaforme una stretta sui meccanismi di moderazione e dunque nuovi limiti per le informazioni pubblicabili online e la libertà di espressione degli utenti.

Misure contro la censura nel Digital Services Act

Dobbiamo però a questo punto osservare che, nel sostenere l'argomento secondo cui la finalità del Digital Services Act sia la censura, si è forse mancato di notare come il regolamento, pur prevedendo a certe condizioni la rimozione di informazioni pubblicate online, contiene anche disposizioni a tutela della libertà di espressione, ad esempio consentendo all'utente di chiedere conto di eventuali restrizioni, o richiamando le piattaforme al rispetto dei diritti fondamentali e dunque anche di quello alla libertà di espressione dei propri utenti.

Termini e condizioni: quali sono i contenuti non ammessi?

Tanto per cominciare, i termini d'uso della piattaforma devono chiarire quali sono i contenuti che possono essere oggetto di interventi di moderazione, oltre che le modalità e gli strumenti a tal fine adottati. Abbiamo in precedenza affermato che le piattaforme siano libere di redigere i termini di uso e di vietare la pubblicazione di alcuni contenuti:

I prestatori di servizi intermediari includono nelle loro condizioni generali informazioni sulle restrizioni che impongono in relazione all'uso dei loro servizi per quanto riguarda le informazioni fornite dai destinatari del servizio.

Articolo 14 - paragrafo 1

Tuttavia, l'articolo 14 dispone anche:

I prestatori di servizi intermediari agiscono in modo diligente, obiettivo e proporzionato nell'applicare e far rispettare le restrizioni di cui al paragrafo 1, tenendo debitamente conto dei diritti e degli interessi legittimi di tutte le parti coinvolte, compresi i diritti fondamentali dei destinatari del servizio, quali la libertà di espressione, la libertà e il pluralismo dei media, e altri diritti e libertà fondamentali sanciti dalla Carta.

Articolo 14 - paragrafo 4

Vedremo come verrà osservato tale obbligo nel redigere i termini d'uso: tanto più generica sarà l'elencazione di cosa non è lecito pubblicare, tanto meno efficace sarà la norma, lasciando spazio ad interventi di moderazione per i motivi più svariati. Anche a tal proposito, si vedrà in sede di applicazione del regolamento quale sarà il grado di precisione richiesto alle piattaforme nell'individuare e comunicare agli utenti cosa non possono pubblicare: detto altrimenti, se verranno tollerate elencazioni generiche volte a conservare per le piattaforme una ampia discrezionalità circa quali contenuti rimuovere.

Attività di moderazione

Il regolamento interviene sulle attività di moderazione, introducendo degli obblighi per le piattaforme.

Obbligo di motivazione

Per le misure restrittive che comportano:

  • restrizioni alla visibilità di informazioni specifiche fornite dal destinatario del servizio, comprese la rimozione di contenuti, la disabilitazione dell'accesso ai contenuti o la retrocessione dei contenuti;
  • sospensione o chiusura dell'account;
  • demonetizzazione dei contenuti.

le piattaforme devono motivare le restrizioni all'utente che le subisce, indicando:

  1. quale norma è stata violata nel caso di contenuto illegale, menzionando la base giuridica invocata e una spiegazione delle ragioni per cui l'informazione è considerata contenuto illegale in applicazione di tale base giuridica.
  2. quali termini della piattaforma sono stati violati se il contenuto non è illegale ma in contrasto con i termini d'uso, dovendo indicare la clausola contrattuale invocata e una spiegazione delle ragioni per cui le informazioni sono ritenute incompatibili con tale clausola.

Digital Services Act e shadow banning

Vale la pena notare che nel menzionare restrizioni alla visibilità di informazioni specifiche fornite dal destinatario del servizio, il regolamento impone l'obbligo di motivazione anche per una pratica piuttosto subdola adottata dai social network, nota come shadow banning: i contenuti non vengono rimossi, ma la loro visibilità presso gli altri utenti viene limitata.

Perché subdola? Perché l'utente non viene informato di alcun provvedimento contro la sua attività online, né ha modo di accorgersene dal momento che continua a vedere online quanto ha pubblicato; inoltre, anche arrivando a sospettare l'esistenza di un qualche limite alla visibilità del materiale pubblicato, l'utente non ha modo di saperne le ragioni, essendo lo shadow banning eseguito in base ad un algoritmo che non è dato conoscere.

Considerando anche gli obblighi di trasparenza introdotti in materia di algoritmi, che abbiamo trattato nel nostro precedente articolo sul Digital Services Act, ed assumendo una puntuale applicazione del regolamento, c'è da aspettarsi che lo shadow banning non sarà più praticabile.

Diritto di reclamo

Contro le misure di moderazione, e dunque la rimozione del materiale pubblicato su una piattaforma o social network, l'utente può presentare un reclamo: si noti che viene richiesto che il reclamo venga gestito con la supervisione di personale adeguatamente qualificato e non avvalendosi esclusivamente di strumenti automatizzati.

Ci sembra una disposizione di una certa rilevanza, tale da indurre a prendere sul serio i reclami presentati dagli utenti: la piattaforma non può cavarsela con una risposta automatica in cui si limita a confermare l'intervento di moderazione, ad esempio la cancellazione di un video o testo pubblicato da un utente.

Contro la decisione sul reclamo l'utente può ricorrere ad un organismo extragiudiziale, appositamente certificato dal Coordinatore dei Servizi Digitali, (figura questa che gli Stati membri dovranno istituire entro il 17 Febbraio 2024), oppure presso gli organi giurisdizionali competenti in base al diritto applicabile.

Diritto di risarcimento per restrizioni illecite

Il Digital Services Act prevede un diritto al risarcimento per l'utente che abbia subìto un danno dalla violazione del regolamento da parte di una piattaforma.

I destinatari del servizio hanno il diritto di chiedere un risarcimento, conformemente al diritto dell'Unione e nazionale, ai fornitori di servizi intermediari relativamente a danni o perdite subiti a seguito di una violazione degli obblighi stabiliti dal presente regolamento da parte dei fornitori di servizi intermediari.

Articolo 54

Anche tale previsione ci sembra degna di nota.

Un possibile scenario è quello della demonetizzazione di un video: questo non viene rimosso, ma l'autore non riceve la somma che gli sarebbe spettata, solitamente commisurata alla visibilità riscossa dal video.Pertanto, l'utente subirà un danno economico dalla demonetizzazione, immediato e crediamo facilmente quantificabile: ove la restrizione si dovesse rivelare ingiustificata o adottata in violazione del regolamento, l'utente potrà chiedere il risarcimento del danno subìto dalla demonetizzazione.

Conclusioni

Un dibattito sulla censura, in particolare in occasione di interventi normativi che incidono sulla libertà di espressione, non è mai da sottovalutare: è anzi quantomai necessario in un'epoca, come quella attuale, caratterizzata dalla disponibilità di mezzi tecnologici che danno a tale libertà una dimensione senza precedenti, rendendola allo stesso tempo anche piuttosto fragile.

Pur muovendosi su un terreno delicato, il Digital Services Act fornisce all'utente strumenti che consentono di tutelarsi dalla censura online a suo danno: la tutela della libertà di espressione passerà anche attraverso l'uso consapevole ed informato di questi strumenti da parte degli utenti. Sull'efficacia poi degli stessi, così come delle altre disposizioni del Digital Services Act, bisognerà attendere la concreta applicazione del regolamento nei prossimi mesi.


Vincenzo Lalli

Vincenzo Lalli

Di formazione legale, appassionato da sempre di tecnologia ed informatica; esperienza professionale acquisita a cavallo tra i due mondi, finora piuttosto lontani tra loro. Mi dedico ad esplorare le crescenti interazioni tra il Diritto e la tecnologia, e a dare il mio contributo alla causa dell'innovazione nel settore legale; a tal fine, ho dato vita ad Avvocloud.net.

Contatti

Creative Commons License