Lo strano senso della Commissione europea per la disinformazione

Di Andrea Venanzoni
15 Ottobre 2023
Con la scusa di combattere le fake news su Hamas e Israele l'Europa bastona Elon Musk con il Digital Services Act. Ma il sistema di censure preventive voluto dall'Ue non depura il dibattito, lo orienta ideologicamente
Manifestazione pro Hamas Milano Commissione europea
Manifestazione pro Hamas a Milano, il 10 ottobre (foto Ansa)

Mohammad Tawhidi è un influencer di origini iraniane, molto attivo sui social nel ruolo di autoproclamato imam, avendo alle spalle anni di studio universitario, non completato, di dottrina islamica. Da anni svolge una encomiabile opera di condanna dell’integralismo islamista e cerca di rendere effettive le premesse per un dialogo interreligioso. Sin da quando le atrocità commesse da Hamas in Israele sono emerse alla luce del sole e hanno iniziato a punteggiare le cronache, Tawhidi, conosciuto sulle piattaforme digitali come The Imam of Peace, ha duramente condannato le azioni commesse dai terroristi palestinesi. Un suo post apparso su Instagram e decisamente inequivocabile, con il quale venivano equiparate le brutali azioni omicide di Hamas alla condotta dell’Isis, è stato rimosso da Meta.

La regolazione imposta dall’Ue alle piattaforme social

Da anni ormai, sull’onda montante delle condizioni di utilizzo interne alle piattaforme e alla etero-regolazione imposta dall’Unione Europea, le piattaforme social, che hanno investito il mondo dell’informazione e della comunicazione con un impatto senza precedenti, sono state chiamate a una sorveglianza capillare e scrupolosa sui contenuti postati dagli utenti: la lotta a discorsi di odio, fake news e disinformazione si è fatta sempre più serrata, sin da quando istituzioni europee, e non solo europee, politici, accademici, opinionisti, si sono resi conto di quanta influenza venga esercitata dalle piattaforme sulla modellazione dell’opinione pubblica, sul dibattito pubblico e in conseguenza sui flussi elettorali.

Da ultimo, l’entrata in vigore del Digital Services Act (DSA), che rende ancora più stringente e serrata la richiesta di eliminare contenuti falsi o tesi alla disinformazione ha costituito un ennesimo banco di prova per i social network.

A cosa serve il Digital Services Act

Nonostante il DSA non definisca e non perimetri i confini costitutivi della disinformazione, atteggiamento normativo discutibile perché nella evanescenza si può sempre annidare l’arbitrio, e non indichi linee di azione, demandando, esternalizzando nei fatti, alle stesse piattaforme social la gestione di moderazione dei contenuti, la rilevanza della cancellazione e della eradicazione dei contenuti falsi, mistificatori, è centrale e vitale secondo i burocrati di Bruxelles. Vitale per la tenuta sistemica dell’Unione Europea e dei suoi valori democratici, è scritto nel DSA. Vitale per il mantenimento dello status quo della attuale burocrazia euro-unitaria, viene però da sospettare.

Non dimentichiamo che nel 2024 si voterà per il rinnovo degli organi dell’Unione e quindi anche i suoi attuali vertici sono sensibili alle sirene della campagna elettorale permanente. Infatti, mentre a Tahwidi veniva rimosso da Instagram un contenuto inequivocabilmente devoluto a riaffermare la oggettiva natura terroristica di Hamas, il commissario Ue per il mercato interno e i servizi Thierry Breton si lasciava andare a uno scarsamente commendevole siparietto, postando su X la lettera che la Commissione avrebbe indirizzato a Elon Musk, lamentando la massiva presenza di contenuti falsi a proposito della aggressione inumana dei terroristi di Hamas in danno dei civili israeliani, massacrati pochi giorni fa, e della reazione israeliana che sta assediando Gaza.

Musk ha risposto a Breton, sempre sulle pagine del suo social, chiedendogli di indicare di quali violazioni al DSA e alle regole di condotta si stesse parlando. Breton, in maniera polemica e discutibile, visto il ruolo che ricopre, ha invertito l’onere probatorio rispondendo che deve essere Musk a dirlo, nella sua risposta alla Commissione.

Elon Musk non piace alla Commissione europea

I rapporti tra l’attuale Commissione e Musk non sono esattamente cordiali. Il proprietario di X patrocina una forma di libertà che trascende i limitati, burocratici, iper-regolati confini che la Commissione ha voluto imprimere al sistema europeo. Inoltre, gli attuali componenti della Commissione vedono in lui la potenziale punta di diamante di una ondata conservatrice capace di mettere in crisi la narrazione euro-unitaria, in tema di politica economica, conflitto in Ucraina e rapporti con la Russia, immigrazione, elezioni americane ed europee.

Musk ha espresso sostegno o comunque simpatia per Trump. Sostiene, dando loro evidenza mediante il repost dei loro contenuti, influencer conservatori o genericamente di destra come Matt Walsh o Andy Ngo. Si ricordino poi le ultime uscite pubbliche di Musk, che ha parlato di immigrazione come una autentica invasione e della attività delle ong come una lesione della sovranità dell’Italia, chiedendo se i contribuenti tedeschi fossero a conoscenza di tutto ciò e innescando la piccata reazione della Germania che come noto ne finanzia alcune.

Musk trattato come i canali filorussi?

Naturalmente, per quanto discutibili possano apparire certe uscite del patron di Tesla, parimenti discutibile è il silenzio serbato dalla Commissione quando Facebook e gli altri social ricadenti nelle mani proprietarie di Zuckerberg silenziavano, mediante cancellazione massiva di post o addirittura pagine, i discorsi e le argomentazioni dei conservatori o dei gruppi religiosi pro vita.

DSA alla mano, se la Commissione dovesse perseverare nella sua richiesta, ritenendo X fonte di massiva disinformazione, si potrebbe arrivare a comminare una sanzione di enorme consistenza parametrata al fatturato della piattaforma social, e laddove la condotta lamentata dovesse persistere si potrebbe persino arrivare all’oscuramento di X nei Paesi aderenti alla Ue, come avvenuto al canale filorusso RT. Uno scenario da Cina, in pratica. Perché finirebbe con l’equiparare il social di Musk ai canali finanziati direttamente dal Cremlino o a siti strutturalmente e scientemente devoluti all’inquinamento del dibattito pubblico.

Su X c’è più informazione che disinformazione

Che su X siano apparsi anche contenuti palesemente falsi è indubbio. Immagini, foto o video tratti da precedenti conflitti o atrocità che arrivano da altre latitudini, spacciati per footage attuale di provenienza israeliana o palestinese, pongono un problema, ma la risposta al problema non può essere censoria.

Anche perché su X, oltre a questi contenuti discutibili o palesemente falsi o decontestualizzati, sono attivi migliaia di giornalisti professionisti, di istituzioni, di giornali e TV professionali, di militanti, politici, intellettuali. Non è direttamente X a creare i contenuti, ma si limita ad ospitarli. Una arena immensa, reticolare in cui dibattono individui, gruppi, associazioni, e che ci consente, per la prima volta nella storia dell’informazione, di ascoltare anche la voce, oscena, dei carnefici, e quella delle vittime.

In questi giorni, grazie a persone attive su X, abbiamo assistito alla evoluzione brutale di attacchi senza precedenti, alle atrocità commesse dai miliziani, alla costruzione di un ampio dibattito, in cui le ragioni degli uni sono bilanciate e sottoposte a vaglio critico, come avviene per le richieste di contestualizzazione o di dialettica delle contrapposte ragioni degli altri.

Il caso dei bambini israeliani e le notizie su X

Prendiamo la vicenda, allucinante e agghiacciante, dei bambini israeliani che sarebbero stati decapitati dai terroristi di Hamas. Certo e pacificamente ammesso che siano stati uccisi, si discute se si sia arrivati all’estremo ulteriore della decapitazione. Un dibattito forse morboso, in alcuni casi strumentale, si pensi a chi cerca di smontare tutta la credibilità di chi parla di atrocità palestinesi facendo leva sulla non confermata decapitazione e glissando per convenienza sul fatto che decine di bambini siano stati comunque massacrati, ma che si inserisce in un dispositivo mastodontico di comunicazione che unisce tra loro migliaia di voci, spesso dissonanti tra loro, video, foto, analisi.

In questo momento X è il migliore aggregatore di informazioni e notizie, che si compongono tra loro in un arabesco che assomma e sintetizza canali istituzionali, dalla Bbc alla Rai, dalla Cnn a Mediaset, alle riprese e ai commenti di freelance o anche di semplici cittadini, secondo le linee tematiche di citizen journalism.

Attraverso X abbiamo scorto i lineamenti infernali dell’orrore, assistendo quasi da dentro al vortice intriso di sangue e violenza di quanto sta accadendo in Israele, come già prima ad X era stato affidato il grido di libertà degli iraniani.

Certo, vi sono echo chambers, bias ideologici, falsità, rischi di information overload, tutto quel che volete ma questo non è un problema di X e di certo l’approccio della Commissione non è quello giusto per sviluppare un sano dibattito.

Cancellare i contenuti controversi non aiuta il dibattito

Ecco, prendiamo l’approccio della Commissione, DSA alla mano. Partendo proprio dal contenuto cancellato all’influencer iraniano, le piattaforme che vi aderiscono acriticamente, spaventate dalle sanzioni draconiane, non si porranno problemi e i loro algoritmi cancelleranno qualunque contenuto potenzialmente controverso: badate bene, non falso, non osceno, non violento, ma semplicemente controverso. Questa eradicazione dei contenuti produce silenzio nel dibattito, non pluralismo. Navigando su Facebook, mare piatto e calmissimo, viene quasi da dubitare che qualcosa di atroce stia avvenendo in Medio Oriente.

Consideriamo un manifestante iraniano che voglia richiamare l’attenzione del mondo sulla repressione attuata dal regime degli ayatollah contro innocenti ragazze e ragazzi che protestano, a rischio della vita: è molto probabile che utilizzi anche le immagini delle violenze commesse dalla polizia morale iraniana, o che si lanci in un grido disperato di aiuto che un qualche fact-checker “indipendente”, contesterà e rubricherà a contenuto falso, decontestualizzato.

Il social, ritenendo disputato e controverso il contenuto, pur di non finire sotto il tallone delle sanzioni previste dal DSA lo cancellerà, silenziando in questo caso non la disinformazione ma la voce della libertà. Una china pericolosa.

La mancata autorità dei mass media

D’altronde, a chi dovesse lamentare che il laissez faire farebbe solo prosperare disinformazione di massa, viene naturale replicare che la credulità diffusa non è colpa dei social media ma della incapacità culturale del nostro stesso sistema.

Se i cittadini sono divenuti sempre più permeabili a qualunque forma di contenuto falso, è anche colpa di modalità di istruzione non al passo coi tempi, di una sempre più palese atrofizzazione del senso critico, di un dibattito intellettuale misero e grigio, di una politica chiusa ombelicalmente su se stessa e incapace di stimolare dibattito.

Colpa anche della sempre più evidente mancanza di autorità dei mass media mainstream: il tramonto della informazione statica dei mass media tradizionali non è stato propiziato solo dalla accelerazione della comunicazione online e dai processi di disintermediazione, che hanno elevato virtualmente chiunque a opinionista o comunicatore, ma dall’aver spesso e volentieri spacciato per notizie delle opinioni ed essere stati caratterizzati da evidentissimi pregiudizi ideologici, minando essi stessi la loro credibilità indulgendo in partigianeria, faziosità, sciatteria, scarsa cura redazionale. Ciò vale anche per le istituzioni europee.

Il discutibile approccio della Commissione europea

Da un lato accusano Musk di far prosperare la disinformazione, dall’altro lato non riescono a trovare una voce comune per spingersi un pochino oltre le mere e rituali condanne di carta dello sterminio realizzato da Hamas.

La Commissione sembra quasi lasciar intendere, oscenamente, che non importa tanto combattere la violenza o lavorare alacremente affinché essa non si riproponga divenendo mezzo ordinario di risoluzione delle controversie, quanto piuttosto focalizzarsi su come venga veicolata una informazione e sull’utilizzo strumentalmente politico che potrebbe emergere da questa. Un approccio discutibile, cieco, debole, fazioso.

Articoli correlati

0 commenti

Non ci sono ancora commenti.