YouTube il censore, l’analisi dei prof. Bassini e Mula

YouTube il censore, l’analisi dei prof. Bassini e Mula

L’oscuramento delle pagine Facebook delle organizzazioni di estrema destra, il bando di Donald Trump da Twitter (prima dell’avvento di Elon Musk) e ora lo stop, per una settimana, al canale YouTube della fondazione Einaudi dopo la pubblicazione di un video di un intervento di Antonio Martino, morto il 5 marzo 2022, in cui – come racconta qui Andrea Cangini – si esprimeva contro l’uso del green pass e l’obbligo vaccinale. Tre episodi molto diversi tra loro che però attengono all’utilizzo pubblico dei social e, soprattutto, alla difficoltà nel compiere, sulle piattaforme online, quello che in qualsiasi altro luogo (fisico) sarebbe considerato il legittimo esercizio della libertà di esprimere un’opinione. Giusta o sbagliata, condivisibile o deprecabile, che sia. I tre episodi raccontano – o meglio, ricordano – una questione irrisolta: come si articola il rapporto tra i colossi (privati, naturalmente) del web – i grandi social network in questo caso – e la libertà di pensiero, sancita da tutte le costituzioni democratiche? La domanda ha molteplici risposte. Nessuna definitiva.

Come ha spiegato in questa intervista ad HuffPost il professor Luciano Floridi, i social network fanno parte di una terra di mezzo – né pubblica, né privata – che è l’infosfera. Necessiterebbero di regole nuove, partendo dal presupposto che non possono essere ingabbiati in quelle due categorie classiche. Ma fino a quando continueremo a ragionare in termini di pubblico e privato – leggi alla mano, non possiamo fare diversamente – degli interrogativi resteranno aperti. Di questi abbiamo parlato con Marco Bassini, docente di Fundamental Rights and Artificial Intelligence all’Università di Tilburg, nei Paesi Bassi e con Davide Mula, avvocato e professore aggiunto dell’InnoLawLab dell’Università europea di Roma.

“L’equilibrio è difficile da trovare – spiega ad HuffPost Bassini, – perché tutte le piattaforme nascono come soggetti privati, con l’idea di poter stabilire autonomamente le ‘regole della casa’. La situazione è diventata più complessa quando si è passati da un cyberspazio popolato da una moltitudine di piccole comunità virtuali a un ‘ecosistema’ di (pochi) giganti del web, che hanno una crescente dominanza economica ma anche influenza giuridica”. E, verrebbe da aggiungere, portano con sé una contraddizione: “Restano – argomenta il docente – ancora piattaforme private, ma questa connotazione è sempre più stretta rispetto alla realtà dei fatti. Perché, è evidente, se una grande piattaforma digitale esclude un utente o un contenuto dalla propria comunità al giorno d’oggi incide sull’esercizio della libertà di espressione”.

Per il ruolo che hanno assunto le piattaforme digitali nel quotidiano di ogni cittadino, ma anche delle istituzioni pubbliche, si tende spesso a dimenticarsi della loro natura privatistica: “Li usiamo come luoghi pubblici ai quali abbiamo la necessità di accedere per dire la nostra. In alcuni casi, addirittura, li usiamo come piattaforme di lavoro. Il problema, però, è che pur sempre di luoghi privati si tratta. O meglio, di uno spazio vissuto come sostanzialmente pubblico, ma regolato da meccanismi privati”, spiega invece Mula.

Come si gestisce, però, questo dato di fatto? La soluzione è tutt’altro che semplice: “Come per ogni diritto, il rispetto della libertà di espressione si impone in primo luogo in capo agli Stati – spiega Bassini – un soggetto privato, invece, agisce in base a un contratto e quindi, in teoria, secondo regole proprie, anche quando limita la libertà di espressione, per esempio moderando i contenuti pubblicati dai suoi utenti (che quelle regole hanno precedentemente accettato). Dal momento che, però, parliamo di mezzi così importanti si pone un tema: le piattaforme online vanno considerate fornitori di servizi pubblici? Sono degli attori parastatali? Se fossero soggetti o servizi pubblici dovrebbero sottostare ai vincoli che si applicano agli altri attori pubblici. E, quindi, ad esempio, dovrebbero prendere atto del fatto che un discorso critico, un’opinione anche discutibile, non vìola alcuna disposizione di legge. E così come lo Stato non può impedire l’espressione di quell’opinione, non potrebbe farlo neanche la piattaforma”. Allora stato, però, non è così. Perché, argomenta Bassini: “Per la loro conformazione, le piattaforme possono riservarsi il diritto di moderare contenuti secondo i propri termini di servizio, per esempio rimuovendo contenuti non necessariamente illeciti secondo l’ordinamento ma contrari ai propri termini d’uso. Detto ciò, i social sono ben consapevoli di quanto sia importante assicurare agli utenti uno spazio libero e aperto, e tendono a promuovere il pluralismo delle idee”. Ma come fanno a garantirlo? Il docente spiega: “È lo stesso legislatore, in Europa, a richiedere che le piattaforme che mettono a disposizione la loro infrastruttura per la condivisione dei contenuti non siano gravate da un obbligo di selezione alla fonte. In questo modo si tiene fede alla distinzione tra il lavoro degli editori e quello degli intermediari; ciò posto, le piattaforme sono tenute a valutare le segnalazioni di violazioni che ricevono rispetto ai contenuti dei loro utenti”.

Il caso emblematico della censura alla Fondazione Einaudi

Secondo Mula, si dovrebbe agire a monte: “Le policy non sono così chiare, non prevedono meccanismi di reclamo efficaci. Prendiamo il caso della fondazione Einaudi: se anche un singolo video avesse davvero violato le politiche anti Covid della piattaforma, ciò non avrebbe comunque giustificato la sospensione dell’intero canale”. E, invece, è proprio quello che è accaduto: per una settimana il canale YouTube della Fondazione Einaudi è stato inaccessibile. Oscurato, come se avesse contenuti universalmente riconosciuti come inaccettabili: “Nella moderazione delle segnalazioni – spiega ancora l’avvocato – non si dovrebbe dare troppo spazio all’Intelligenza artificiale”. Perché, prosegue l’esperto, il processo è il seguente: “Quando arriva la segnalazione di un contenuto che non corrisponde la policy della piattaforma, l’intelligenza artificiale legge il messaggio, se rileva la ricorrenza di determinate parole viene disposta la rimozione. Bisognerebbe prevedere una sorta di ‘appello’, per impugnare la decisione e fare in modo che il caso fosse valutato da una persona in carne e ossa e non dall’intelligenza artificiale”.

Insomma: un essere umano è in grado di valutare il contesto, di capire, ad esempio, che la frase pronunciata dal prof. Martino altro non era che un’opinione liberamente espressa. L’intelligenza artificiale si limita a bannare il post intercetta una frase che, per usare le parole che YouTube ha scritto alla Fondazione Einaudi, contraddice “il parere di esperti appartenenti ad autorità sanitarie locali o all’Oms”. Con buona pace dell’articolo 21 della Costituzione. Peraltro, aggiunge Mula, “ci troviamo in un contesto in cui quel messaggio (l’opinione di Martino, ndr) non è più attuale, dal momento che non ci troviamo più nella fase in cui i vaccini erano obbligatori o caldamente consigliati”. La decisione di YouTube, insomma, è discutibile da qualunque versante la si guardi. Anche perché, è l’altro spunto che offre Mula, “così una piattaforma digitale interviene nella dinamica della ricostruzione storica di un dibattito pubblico”.

Il caso della fondazione Einaudi, argomenta ancora Bassini, è emblematico: “È un segnale preoccupante. Non parliamo di un quisque de populo ma di un intellettuale (che perdipiù è stato titolare di rilevantissime cariche pubbliche) che ha espresso un’opinione. Una decisione come quella che ha preso Youtube è una deriva pericolosa”. Secondo il docente, bisogna chiedersi se non sia insanabile il conflitto tra due visioni della rete internet: da un lato, un web più democratico e trasparente , dall’altro un web più ordinato. “Possiamo immaginare – continua Bassini – che ci sia un web che funziona, almeno nella moderazione dei contenuti, come un soggetto pubblico. A questo punto, solo i contenuti illeciti finirebbero per essere rimossi dal web. In altri termini: gli standard applicabili ai social sarebbero gli stessi degli attori pubblici. Sarebbe certo il risultato più desiderabile a garanzia della libertà di espressione (espressivo forse di una sfiducia verso la capacità di autoregolazione delle piattaforme). Dall’altra parte, però, c’è forse l’opzione di un web più ordinato ma meno “democratico” e trasparente, in cui per esempio una maggiore moderazione nei contenuti aiuterebbe a combattere la disinformazione. Certo, se poi a essere silenziato è un soggetto come la Fondazione Einaudi, c’è un problema…”.

Da tempo si discute di come normare i social, proprio per evitare che possa essere limitata la libertà di espressione degli utenti. Per ora è stata trovata una strada europea: il Digital services act. “Si tratta – spiega ancora Bassini – di un regolamento approvato a ottobre 2022, le cui previsioni entreranno progressivamente a regime e avranno efficacia dal febbraio 2024. Il Digital services act non cancella l’idea che la piattaforma non sia un editore e non elimina la libertà di moderazione dei contenuti. Quello che fa, invece, è affrontare soprattutto la dimensione della trasparenza. Si chiede, quindi, alle piattaforme di assolvere alcuni obblighi di diligenza rispetto al modo in cui gestiscono i contenuti. In questo modo, per esempio, non si impedisce la rimozione di contenuti ma si insiste sulla motivazione e sulla giustificazione di queste scelte””.

Ma il fatto che le piattaforme del web siano multinazionali, pone problemi per l’applicazione della legge italiana? Per Bassini non è esattamente così: “Le piattaforme sono nate negli Stati Uniti e, almeno culturalmente, in linea di principio, si dovrebbero ispirare al primo emendamento della Costituzione Usa e non dovrebbero interferire nel libero confronto delle idee. Al giudice italiano non è impedito di intervenire, come abbiamo visto in alcuni casi che hanno riguardato l’oscuramento delle pagine social di alcune formazioni di estrema destra. Anche lì, però, le decisioni non sono state univoche: si è spaziati da provvedimenti che hanno affermato che i social hanno una ‘speciale responsabilità’ di garantire la libertà di espressione degli utenti, dovendosi così astenere dal rimuovere contenuti non previamente dichiarati illeciti da un giudice a pronunce che hanno invece sottolineato la doverosità di un intervento dei social per eliminare dal web contenuti ritenuti illeciti, silenziando alcuni attori politici. Insomma, una gran confusione. Ma la vera domanda è: è ancora libero un mercato in cui il potere di moderazione è affidato più alle piattaforme che ai giudici?”. La domanda, al momento, è destinata a rimanere con una pluralità di risposte. Ad ogni modo, secondo il docente, il regolamento europeo va nel verso giusto: “Imporre l’osservanza una serie di misure, anche di carattere procedimentale, soprattutto alle piattaforme online di grandi dimensioni (che possono avere un impatto molto significativo sull’opinione pubblica, favorendo la circolazione di contenuti virali) è un primo strumento per rendere valutabile e più trasparente l’operato dei social. Anche all’esterno”.

Posto che rendere le piattaforme online soggetti pubblici è impresa persa in partenza, c’è una terza via? Per l’avvocato Mula, l’Unione europea dovrebbe fare da sé: un social made in Ue. “Bisognerebbe pensare formule alternative ai social americani. Se è così vivida l’esigenza di un social su cui confrontarsi, potrebbe rendere gli utenti più tranquilli l’idea di agire su una piattaforma posta sotto lo sguardo attento dell’Ue”.

Huffington Post

Share