fbpx
Close
Type at least 1 character to search
Torna su

Il labirinto della libertà d’espressione20 min read

Il labirinto della libertà d’espressione

Sui social media il confine tra free speech e tutela individuale diventa un luogo di battaglia in cui si deciderà parte del futuro democratico

di Andrea Daniele Signorelli

Per molti versi, sembra di essere tornati al 2016: l’annus horribilis dei social network, durante il quale – dopo essere stati considerati per anni uno strumento di diffusione della democrazia e della libertà – vennero travolti dallo scandalo Cambridge Analytica e accusati di aver contribuito alla Brexit e all’elezione di Donald Trump. Dopo quelle vicende e le accuse – giunte anche dai livelli istituzionali più alti – di aver fatto poco o nulla per proteggere gli utenti da disinformazione, troll russi, propaganda e fake news, i social network sono stati costretti a cambiare rotta. 

Nonostante le difficoltà incontrate nel periodo del Covid e delle elezioni statunitensi del 2020 (durante le quali hanno faticato ad arginare la diffusione di teorie del complotto e non solo), Facebook, Twitter, YouTube e le altre piattaforme hanno comunque mostrato, negli ultimi anni, un netto cambio di approccio: le squadre di moderatori sono state rafforzate, sono stati varati comitati indipendenti per il controllo dei contenuti e si è arrivati a mettere al bando anche figure di primissimo piano che avevano violato in vari modi i termini di servizio (tra cui, eclatante, il caso proprio di Donald Trump).

“Le aziende che guidano i social media stanno rinunciando al loro ruolo di controllori della disinformazione politica, abbandonando gli sforzi più aggressivi relativi al monitoraggio delle falsità che circolano online”

Non è durata a lungo. Nell’ultimo anno, e in particolar modo dall’arrivo di Elon Musk alla guida di Twitter (poi diventato X), le cose sono infatti nuovamente cambiate. “Le aziende che guidano i social media stanno rinunciando al loro ruolo di controllori della disinformazione politica, abbandonando gli sforzi più aggressivi relativi al monitoraggio delle falsità che circolano online”, si legge sul Washington Post. “Una tendenza che potrebbe influenzare profondamente le elezioni presidenziali statunitensi del 2024”.

Le azioni che, negli ultimi 12 mesi, hanno segnalato il ritorno a una politica del “non intervento” sono inequivocabili: subito dopo l’acquisizione di Twitter, Elon Musk ha prima licenziato Vijaya Gadde, responsabile del dipartimento Trust and Safety (che difende gli utenti da truffe, molestie e contenuti offensivi) e poi, durante i successivi licenziamenti che hanno coinvolto oltre 6mila dipendenti, ha decimato la squadra di moderatori incaricata di rimuovere le fake news o ridurne la visibilità.

Non è solo X/Twitter ad aver cambiato approccio: Meta ha indebolito il ruolo dei fact checkers consentendo agli utenti di scegliere se vedere o meno notizie etichettate come false, mentre YouTube ha smesso di rimuovere i video in cui si afferma che le elezioni statunitensi del 2020 siano state “truccate”. L’elenco delle azioni intraprese dalle principali piattaforme che hanno indebolito il contrasto alla disinformazione e alle molestie online potrebbe continuare, ma il concetto è chiaro: i social network stanno gradualmente alzando bandiera bianca.

Da questo punto di vista, l’arrivo di Musk alla guida di Twitter, e la sua esplicita volontà di ridurre al minimo il controllo dei contenuti, ha rappresentato una sorta di liberi tutti. Lo ha ammesso lo stesso Mark Zuckerberg, che durante un’intervista dello scorso giugno ha spiegato come i drastici tagli decisi da Musk abbiano spianato la strada alle altre piattaforme: “È stato probabilmente positivo per il nostro settore che Musk abbia fatto questi cambiamenti”, ha affermato il fondatore di Meta, che da allora ha effettivamente licenziato oltre 20mila persone, indebolendo i dipartimenti che si occupano della moderazione dei contenuti.

La marcia indietro delle piattaforme è stata probabilmente motivata (o giustificata) anche da un senso di frustrazione: “Per i democratici non cancelliamo abbastanza contenuti, per i repubblicani ne cancelliamo troppi. Dopo tutto quello che abbiamo fatto ci gridano comunque sempre addosso. Non ne vale più la pena”, ha raccontato l’ex responsabile della public policy di Facebook Katie Harbath.

Le barricate dell’Unione Europea

Questo ritorno al passato e l’apparente resa di Facebook, X, YouTube e gli altri nei confronti della disinformazione rischia però di entrare in collisione con l’Unione Europea e con il suo nuovo regolamento: il Digital Services Act (DSA). A partire dallo scorso agosto, le 19 principali piattaforme tra social, e-commerce e motori di ricerca dovranno infatti aderire alle leggi della UE che le obbligano, tra le altre cose, a monitorare attentamente i contenuti che circolano al loro interno. 

“L’Europa è adesso la prima giurisdizione al mondo dove le piattaforme online non beneficiano più di un ‘free pass’ per determinare le loro stesse regole”, ha spiegato il commissario europeo Thierry Breton. In sintesi estrema, tutte le piattaforme con almeno 45 milioni di utenti sul territorio europeo (e a partire da febbraio anche quelle più piccole) sono obbligate a implementare misure per prevenire abusi e per permettere a terze parti indipendenti di verificare le attività di contrasto a hate speech, pedopornografia, disinformazione e altro.

Il DSA obbliga inoltre le piattaforme a rimuovere rapidamente i contenuti illegali presenti sulle pagine web e a evidenziare quando testi, foto o video sono creati con l’intelligenza artificiale. In caso di violazioni sono previste multe fino al 6% del fatturato globale, con la possibilità di messa al bando in caso di recidiva.

Secondo Julia Angwin (fondatrice di The Markup, testata specializzata in tecnologia e società), il DSA rappresenta “lo sforzo più ampio per tenere a bada lo strapotere di Big Tech. Per la prima volta, le piattaforme dovranno rispondere al pubblico in una miriade di modi. (…) La riforma richiede anche di poter sottoporre a verifica i loro algoritmi, per determinare in che modo influenzano la democrazia, i diritti umani e la salute mentale e fisica dei minori e degli altri utenti”.

“La riforma richiede anche di poter sottoporre a verifica i loro algoritmi, per determinare in che modo influenzano la democrazia, i diritti umani e la salute mentale e fisica dei minori e degli altri utenti”

Il tempismo con cui l’Unione Europea ha varato questa legge fa pensare che la priorità sia proteggere le elezioni europee del prossimo giugno dalle ondate di disinformazione viste in passato e che oggi sono tornate a colpire (è il caso per esempio delle fake news su Gaza).

Il varo del DSA ha però riaperto un irrisolto e antichissimo dibattito: chi decide, in democrazia, che cosa sia o non sia disinformazione? Può davvero essere un’istituzione sovranazionale (e con noti deficit democratici) come l’Unione Europea a dettare che comportamento debbano avere i social media nei confronti dell’informazione? 

La stessa Unione Europea ha risposto ad alcuni di questi dubbi, specificando per esempio che il DSA non definisce ciò che è illegale online, ma fa invece riferimento “alle leggi esistenti a livello europeo o nazionale. Se un contenuto è illegale soltanto in alcuni stati membri, dovrebbe allora essere rimosso soltanto in quei territori”. Per quanto invece riguarda i contenuti “dannosi ma non illegali” (in particolare fake news e disinformazione), la UE specifica che “le nuove regole impongono la rimozione soltanto dei contenuti illegali, rispettando appieno la libertà d’espressione”. Per quanto riguarda “disinformazione, bufale, manipolazione e danni ai gruppi vulnerabili”, il DSA richiede che le piattaforme “eseguano una valutazione annuale del rischio ed eseguano delle corrispondenti mitigazioni del rischio”. Queste misure, però, “dovranno essere attentamente bilanciate con il rispetto della libertà d’espressione”.

Censura o difesa dell’informazione?

Il fatto che l’Unione Europea senta la necessità di sottolineare in più occasioni come il DSA non metta a rischio la libertà d’espressione è parso ad alcuni commentatori una ambigua excusatio non petita. “In nome della lotta alla disinformazione, la Commissione Europea vuole alterare ciò che si può dire o condividere su internet, la piazza pubblica del Ventunesimo secolo”, ha scritto per esempio il ricercatore Normal Lewis su Euronews. “La Brexit e poi l’elezione di Donald Trump rappresentano una rivolta culturale che ha scosso Bruxelles alle fondamenta. La genesi del DSA è quindi spiegata dal rifiuto dei valori delle élite dominanti da parte di una considerevole sezione dell’elettorato”.

Secondo Lewis, la motivazione dichiarata di combattere la disinformazione e proteggere la democrazia celerebbe invece la volontà delle “élite europee” di evitare che gli elettori entrino in contatto con informazioni sgradite: “L’attacco alla disinformazione è solo una parola in codice per celare il disprezzo delle élite per i cittadini, considerati così stupidi da poter essere ingannati dai messaggi sui social media che dicono loro per chi votare o chi odiare”.

È una lettura quasi complottista o comunque eccessiva. Il timore che uno strumento come il DSA – o i simili che sono in procinto di essere varati in altre parti del mondo – possa portare ad abusi è però stato sollevato sul New Yorker anche dalla docente di Legge Genevieve Lakier ed è la ragione per cui la ong Electronic Frontier Foundation l’ha sottoposto a un attentissimo scrutinio.

Per molti versi, il DSA rappresenta in effetti un curioso cortocircuito: la difesa della libertà d’espressione e le battaglie contro la propaganda e la disinformazione sono state storicamente condotte dalla società civile proprio per proteggere i cittadini dagli abusi dei governi. Adesso sono invece i governi che – almeno in teoria – si adoperano per proteggerci dalla disinformazione e propaganda che circola sulle piattaforme.

“Le piattaforme sono diventate arbitri della libertà d’espressione incredibilmente potenti”, ha spiegato sempre Lakier. “Abbiamo in gran parte ceduto a esse il controllo della sfera pubblica digitale. Penso che adesso ci sia la consapevolezza che, quando un governo critica le piattaforme o fa pressione affinché cambino le loro policy, ciò rappresenta una forma di supervisione politica o democratica: un modo per promuovere il welfare pubblico”.

Adesso sono invece i governi che – almeno in teoria – si adoperano per proteggerci dalla disinformazione e propaganda che circola sulle piattaforme.

Sarebbe sicuramente sbagliato continuare a cedere a delle piattaforme private il controllo della sfera pubblica digitale. Allo stesso tempo, fidarsi ciecamente che i governi facciano pressione sui social solo ed esclusivamente per “promuovere il welfare pubblico” sarebbe altrettanto pericoloso. Un caso recente è quello che ha coinvolto Biden: le pressioni della Casa Bianca sulle piattaforme affinché rimuovessero alcuni contenuti relativi ai vaccini e al Covid erano una legittima forma di contrasto alla disinformazione o rappresentavano invece (come hanno inizialmente sostenuto i giudici statunitensi) un orwelliano tentativo di dare vita a un “ministero della verità”?

A far capire la difficoltà di muoversi in questo campo minato è anche il modo molto diverso in cui gli stati democratici affrontano il problema della disinformazione e dell’hate speech online. Negli Stati Uniti, per esempio, i pubblici ufficiali hanno il divieto di eliminare commenti legali – anche se offensivi o razzisti – dai loro account social, perché così facendo violerebbero la libertà d’espressione degli utenti. In Francia, invece, il candidato del Rassemblement National (il partito di Marine Le Pen) Julien Sanchez è stato condannato per “incitamento all’odio religioso” proprio per non aver cancellato dei commenti offensivi dal suo account Facebook.

I social come “piazza pubblica” digitale

I social network hanno insomma riaperto il vaso di Pandora: quali sono i confini della libertà d’espressione? E ancor prima: che cos’è la libertà d’espressione? Secondo quanto si legge all’articolo 11 della Carta dei diritti fondamentali dell’Unione Europea, “Ogni individuo ha diritto alla libertà di espressione. Tale diritto include la libertà d’opinione e la libertà di ricevere o di comunicare informazioni o idee senza che vi possa essere ingerenza da parte delle autorità pubbliche e senza limiti di frontiera”.

Ci sono però dei limiti: “L’esercizio di queste libertà, poiché comporta doveri e responsabilità, può essere sottoposto alle restrizioni o sanzioni che sono previste dalla legge e che costituiscono misure necessarie, in una società democratica, alla sicurezza nazionale, all’integrità territoriale o alla pubblica sicurezza, alla difesa dell’ordine e alla prevenzione dei reati, alla protezione della salute o della morale, alla protezione della reputazione o dei diritti altrui”.

Come si difende la morale? Quand’è che la sicurezza nazionale deve prevalere sulla libertà d’espressione?

Come si difende la morale? Quand’è che la sicurezza nazionale deve prevalere sulla libertà d’espressione? Come bilanciare la libertà d’espressione e la protezione dei diritti altrui? Domande difficilissime che non hanno risposte univoche, ma che mostrano chiaramente come anche la libertà d’espressione, proprio per poter essere goduta appieno, debba essere soggetta a controversi, ambigui e a volte dilemmatici limiti.

Sfumature complesse, che sfuggono a un autoproclamato “free speech absolutist” come Elon Musk, secondo il quale ogni paletto posto alla libertà d’espressione è una insopportabile prevaricazione. Poiché, stando a quanto da lui stesso affermato, i social “sono una piazza pubblica de facto”, difendere la libertà d’espressione significa, sempre secondo Musk, garantire la libertà di dire qualunque cosa.

Un’interpretazione semplicistica e grossolana, che fa piazza pulita dei tantissimi aspetti complessi e problematici che, come abbiamo superficialmente visto, rendono i confini tra difesa della libertà d’espressione e lotta contro disinformazione e hate speech spesso sfumati. 

C’è però un altro elemento problematico: la diffusa equiparazione tra social network e piazze pubbliche. Un’equiparazione fatta anche dai giudici statunitensi che hanno vietato a Donald Trump di bloccare utenti sgraditi dal suo account Twitter: “Ciò che abbiamo sostenuto nella nostra causa contro Trump”, ha spiegato Jameel Jaffer, direttore del Knight First Amendment Institute della Columbia University, “è che proprio come non puoi cacciare qualcuno da un parco perché non ti piace ciò che dice, allo stesso modo il presidente Trump non può cacciarti dal suo account Twitter perché non gli piace ciò che dici (…) Penso che il ruolo di Facebook e delle altre piattaforme social in quanto piazze pubbliche digitali sia a questo punto accettato”, ha concluso Jaffer. Ma è davvero così? Davvero dei social network gestiti da colossi privati possono essere equiparati a dei luoghi pubblici? 

Tra i tantissimi elementi che rendono questo paragone controverso ce n’è uno particolarmente evidente: le piattaforme social sono gestite da colossi privati a caccia di profitti (a differenza delle piazze pubbliche), ed è proprio per questo che le “piazze digitali” sono state progettate, a livello infrastrutturale, per massimizzare l’engagement degli utenti e il tempo trascorso al loro interno. 

Una massimizzazione che, puntando su ciò che più attrae e “triggera” le persone, è andato a scapito della discussione civile e ha reso i social il luogo degli scontri, delle incomprensioni, dei flame, delle shit storm e di tutto ciò che genera grandi quantità di like, reazioni e commenti. Il deterioramento del dibattito sui social è insomma stato ingegnerizzato a scopi di lucro: una colossale differenza rispetto alle dinamiche che si verificano altrove.

Milioni di utenti lamentano insomma di essere penalizzati quando trattano argomenti sensibili o sgraditi, mentre Elon Musk può permettersi di amplificare algoritmicamente, con uno schiocco di dita, la visibilità dei propri tweet, approfittando della posizione di padrone della baracca.

Un discorso simile vale per lo shadowbanning, ovvero la pratica di limitare la visibilità di contenuti leciti ma che trattano argomenti sensibili o sgraditi alle piattaforme (com’è il caso della penalizzazione dei post che parlano di Gaza). Una pratica svolta senza nemmeno avvisare chi ne è vittima e che, nel mondo fisico, sarebbe l’equivalente di togliere il megafono a qualcuno che sta tenendo un comizio su argomenti sgraditi senza che nemmeno se ne renda conto.

Milioni di utenti lamentano insomma di essere penalizzati quando trattano argomenti sensibili o sgraditi, mentre Elon Musk può permettersi di amplificare algoritmicamente, con uno schiocco di dita, la visibilità dei propri tweet, approfittando della posizione di padrone della baracca. Qualcosa che, ovviamente, in una piazza pubblica non potrebbe mai accadere. E che mostra quanto le piattaforme stiano rinunciando alla moderazione dei contenuti in nome del “free speech”, ma non abbiamo alcuna esitazione a dirigere e manipolare le conversazioni social se interessate (per varie ragioni) a farlo.

E quindi: piazze pubbliche che pubbliche non sono, impossibile ricerca dell’equilibrio definitivo tra difesa della libertà d’espressione e lotta alla disinformazione, governi che vogliono proteggerci dalle fake news ma rischiano di abusare dei loro poteri e piattaforme che invece se ne lavano le mani a meno che non ci siano di mezzo i soldi. 

In mezzo, i cittadini/utenti. Che dopo aver affrontato la tempesta social di Donald Trump, della Brexit, di QAnon, del Covid e altro speravano che il peggio fosse passato. Salvo scoprire di essere, invece, ancora al punto di partenza.


Leggi anche:  La tragedia dei primi della classe

Dylarama è una newsletter settimanale gratuita, che esce ogni sabato e raccoglie una selezione di link, storie e notizie su un tema che ha a che fare con tecnologia, scienza, comunicazione, lavoro creativo e culturale.



di

Giornalista classe 1982, si occupa del rapporto tra nuove tecnologie, politica e società. Scrive per La Stampa, Wired, Esquire, Il Tascabile e altri. Nel 2017 ha pubblicato “Rivoluzione Artificiale: l’uomo nell’epoca delle macchine intelligenti” per Informant Edizioni.

DylaramaIscriviti alla newsletter

Dylarama è una newsletter settimanale gratuita, che esce ogni sabato e raccoglie una selezione di link, storie e notizie su un tema che ha a che fare con tecnologia, scienza, comunicazione, lavoro creativo e culturale.