Come già per i superalcolici, il tabacco, le patatine fritte, le bevande gassate, i grassi idrogenati, lo zucchero e, buon ultimo, l’olio di palma, il proibizionismo delle buone intenzioni è pronto ad abbattersi su un nuovo nemico della salute fisica e mentale degli individui incapaci di badare al loro bene: le fake news.
Ho sempre sospettato di chi mi dava consigli per il mio bene, per questo nella vita ho fatto tanti errori. Ma almeno mi sono sentito libero di farli.
Che il grande allarme sulle fake news diventi il punto di partenza per imporre sul web una certa idea di verità, decisa per lo più da poche piattaforme attraverso algoritmi ovviamente proprietari quanto opachi, oggi è meno un’ipotesi distopica che una tendenza fondata. Negare visibilità a versioni alternative o paradossali dei fatti potrebbe essere il primo passo verso una sorta di totalitarismo digitale.
Ma che cosa significhi fake news, termine oramai usato anche dalla casalinga per apostrofare un’offerta farlocca del supermercato sotto casa, per certo più non si sa: chi etichetta così anche gli slogan degli avversari politici, chi ci mette dentro anche le teorie cospirative, chi lo confonde con la propaganda, chi definisce fake news un fatto che vuole negare, chi lo usa perché è il termine del momento e produce tanta attenzione e tanti click.
L’utilizzo indiscriminato del termine fake news è diventato un grande alibi per dimenticare la cause reali della crisi del giornalismo e tralasciare la memoria delle manipolazioni, della propaganda, delle interpolazioni di testi e fotografie che hanno inciso in tante ricostruzioni storiche, come anche degli articoli un tanto al chilo, delle bufale per far abboccare i giornalisti tonni, degli educational tours con molte occasioni di divertimento che a volte sono entrate nella mitologia della professione giornalistica. Bei tempi andati insomma, quando si affogavano i cormorani nel petrolio al fin di smuovere i delicati animi degli occidentali (fino ad allora poco toccati da abusi, crudeltà e decine di migliaia di esecuzioni arbitrarie) o quando il segretario di Stato USA Colin Powell mostrava in Consiglio di Sicurezza dell’ONU le mitiche boccettine di polvere bianca, e ancora non si sa se fosse talco o forfora di Bush Jr. Ma tant’è, all’epoca la parola fakenews non era stata inventata e poi la diffusione delle contronotizie era fatta da grandi società di comunicazione come Hill&Knowlton con l’ausilio di tanti giornalisti finanziariamente “embedded”, mica dal primo pischello smanettone ubicato in chissà quale villaggio dei Balcani. Fino a dieci anni fa l’informazione era ancora un circuito abbastanza limitato e controllabile, un club quasi esclusivo e ancora relativamente benestante dove ci si conosceva, ci si scambiava favori e, almeno a certi livelli, tutti conoscevano gli altarini degli altri. Ecco, mi chiedo quanto gli allarmi per le fake news e il livore per l’informazione via social media che diffondono tanti paludati giornalisti non siano le reazioni di chi vede svanire il mondo confortevole in cui viveva.
Con questa persuasione ho seguito con distacco il tema fino a quando non ho letto un meditabondo appello di Gramellini alla regolazione dei social. Il vate nazionale del buon senso il 17 maggio scorso ha dichiarato: “che le porte dei «social», spalancate sul male del mondo, hanno urgente bisogno di una serratura”. Ora, vada per i grandi esperti di politica e media, vada per i professori universitari di comunicazione e sociologia, ma la presa di posizione di Gramellini preoccupa perché, a differenza di chi studia davvero l’argomento, il suo pensiero è letto dai politici perché ritenuto rappresentativo di qualche milione di italiani che si considerano buoni, civili e riflessivi e così tanti politici, anche le versioni reali e decuplicate di Cetto la Qualunque, tengono in gran conto il giudizio dei tremebondi lettori di Gramellini.
Ma il fatto è che per scrivere un editoriale alla Gramellini ci vogliono pochi minuti, mentre per verificare il caso Blue Whale ci vogliono ore o giorni di verifiche. Non mancano sul web le penne brillanti, invece scarseggiano i redattori capaci di ricercare le fonti e verificare le notizie con rapidità e autorevolezza.
Definizione delle fake news
Ma ora cerchiamo di definire l’ambito e il concetto delle fake news, che possiamo definire come contenuti non fattuali, dal tono spesso sensazionalistico e con una titolazione roboante, costruiti con logica di click baiting, diffusi via web prevalentemente attraverso i media sociali.
Le fake news trovano spazio all’interno della grande divaricazione che il web sociale ha creato tra informazione e contenuti, con questi ultimi diventati strumenti principi del web marketing. I contenuti per il web non sono necessariamente informativi, ma sono costruiti con logiche di web marketing per incrementare il traffico o le page views. Anche l’informazione di qualità può essere riorganizzata per veicolare più traffico attraverso titoli enfatici, per ottenere più page views reimpaginando i contenuti in slideshow, per essere più facilmente condivisibile via social media utilizzando, per esempio, immagini efficaci ma non sempre in linea con l’oggetto dell’informazione.
In generale un contenuto per il web è innanzitutto ottimizzato per essere trovato dai crawler e condiviso facilmente via social media. Per certi contenuti sarebbe più corretto parlare di fake contents che di fake news, ovvero di contenuti che nemmeno si pongono il problema della veridicità (Il culo photoshoppato della Kardashan, non è una fake news, ma un fake content che produce traffico e visibilità monetizzabili).
L’ecosistema delle fake news strictu sensu è caratterizzato da variabili di mercato e da variabili sociali.
Le Variabili di mercato riguardano:
- Basse barriere di accesso al mercato dei contenuti digitali, sia dal punto economico (poche centinaia di euro per realizzare un sito web di buona qualità grafica) che organizzativo (grazie ai Content Management Systems gratuiti) e distributivo (costo marginale zero della distribuzione digitale)
- Declino della circolazione dei grandi media, a causa dei costi di produzione e di distribuzione e al declino della raccolta pubblicitaria
- Modelli attuali di pay-per-view e pay-per-click che premiano i volumi di traffico a discapito della qualità dell’informazione (un articolo di informazione o di riflessione di qualità verrà quasi sempre penalizzato rispetto a un contenuto ottimizzato per essere cliccato e condiviso)
Tra le variabili sociali possiamo elencare
- Incremento della fruizione di contenuti enfatici, polemici o leggeri attraverso i media sociali e in particolare Facebook.
- Declino della fiducia nei grandi media
- I fenomeni di echo chamber o filter bubble, che spingono verso un processo di ripetizione e di rafforzamento di determinati contenuti all’interno di cluster relazionali
- Diffusione di teorie cospirative e incremento dell’attitudine a credere a verità considerate “alternative”
La censura attraverso gli algoritmi
Non è la prima volta che l’intellighenzija italiana si lancia ardimentosamente a provare a regolare le “fake news”. Prima si è provato proponendo un comitato di esperti (un evergreen italiano), che non si sa se si sarebbe riunito a cadenza mensile o trimestrale per verificare contenuti diffusi settimane o mesi prima e dimenticati in poche ore. Poi il 21 aprile a Montecitorio si son tenuti ben quattro tavoli di lavoro, promossi dalla Presidenta della Camera, per “arginare la disinformazione”. Ma verso chi si rivolgono gli strali delle menti illuminate convocate dalla Boldrini? Da una parte verso i produttori di fake news, siano essi ubicati a San Cataldo, provincia di Caltanissetta, a gestire il famigerato senzacensura.eu, o in Macedonia o Romania a disinformare a vantaggio di Trump o rifugiati in Bulgaria a fare gli imprenditori della bufala. Dall’altra parte ci sono le grandi piattaforme come Google e Facebook, alle quali anche il giurista statunitense Vivek Wadhwa ha indirizzato i suoi strali in un articolo sul Washington Post del 12 aprile intitolato “What Google and Facebook must do about one of their biggest problems” invitando le due grandi porte del web a indirizzarsi verso una “positive direction” e a rendere accessibili non i codici, ma almeno i filtri di selezione. Wadhwa ha dimenticato che se ci sono aziende che non vogliono apparire sui siti di fake news ce ne sono tante altre che si rivolgono proprio a quel target. A questo appello ha indirettamente risposto nel corso dell’ultima edizione di F8 Developers di Facebook Adam Mosseri, VP di News Feed, il quale ha evidenziato i quattro parametri su cui lavora la selezione di notizie di Facebook: Inventory, Signals, Predictions, Score. All’interno di “hundreds of thousands of data points” processati da Facebook, dei quattro parametri che riordinano I contenuti quello di maggiore interesse è Predictions, ovvero l’insieme degli algoritmi di predizione che Facebook usa per proporci i contenuti che hanno più alta possibilità di spingerci a una reazione/interazione.
Dall’esposizione di Mosseri sembra che Facebook punti solo a incrementare la capacità di engagement delle informazioni/contenuti distribuiti nel News feed. In questo senso Facebook si presenta in maniera agnostica rispetto ai contenuti che diffonde: la costruzione della filter bubble o della echo chamber non si baserebbe su considerazioni di tipo politico, ma avrebbe l’unico intento di farci restare più tempo possibile sulla piattaforma per alimentarla con Like, commenti e contenuti (con tutti gli enormi interrogativi che pone questo modello di estrazione del valore dalle persone).
Ma che l’interpretazione di Mosseri sia volutamente ingenua e reticente è dimostrato dal rapporto “Information Operations and Facebook” dello scorso 27 aprile. In esso si esplicita un obiettivo politico chiaro, sulla falsariga del Manifesto di Zuckerberg, quello di “make the world more open and connected”, con la rivendicazione del ruolo in “facilitating public discourse”.
Le ”Information Operations” sono definite come “actions taken by organized actors (governments or non-state actors) to distort domestic or foreign political sentiment, most frequently to achieve a strategic or geopolitical outcome” attraverso “fake news, disinformation or networks of fake account” con obiettivi principalmente di carattere politico e non di monetizzazione. Quindi un documento assolutamente politico e non di carattere tecnico, che pone al primo punto della sua strategia di contrasto la lotta al “Targeted Data Collection”, in sostanza ai “leaks” di dati politicamente sensibili che possono essere attivati anche attraverso i profili Facebook. Per chi crede che Wikileaks, al di là delle ambiguità e delle controversie, abbia consentito negli ultimi anni di conoscere alcuni aspetti del sistema di sorveglianza e degli arcana imperii globali, la posizione di Facebook appare assolutamente schierata a favore della segretezza e a tutela di una parte dell’establishment mondiale, ben lontana dai principi di promozione di un mondo aperto e di libera espressione dei sbandierati da Zuckerberg.
Le tecniche che presenta la società di Menlo Park per tutelare la sua dimensione informativa finiscono per essere risultare di sostegno ad alcune narrazioni (e abusi) di alcune classi dominanti globali. Prendiamo un esempio, la violazione degli account di posta della presidentessa del Democratic National Committee Debbie Wasserman Schultz da parte di hacker russi più o meno strettamente controllati dal Cremlino. Una operazione di spionaggio politico internazionale che ha svelato come i vertici del partito democratico americano giocassero scorrettamente ai danni di Bernie Sanders, ovvero ai danni di colui che tutti i sondaggi davano vincente contro Donald Trump. Queste rivelazioni hanno certamente incrementato, come era loro fine, la sfiducia nelle istituzioni politiche, ma sulla base di fatti veritieri che hanno portato alle dimissioni della Wasserman Schultz, a scuse formali del DNC verso Sanders, il quale aveva anche citato in giudizio il DNC. Eppure il rapporto di Facebook a pagina 8 si preoccupa dei “fake accounts” che potrebbero “undermine the status quo (grassetto mio) of civil or political insistitutions”: un’esplicita presa di posizione che evidenzia l’approccio conformistico di questi meccanismi che potremmo definire di “information patroling” che attiverà nei prossimi mesi Facebook. A tal riguardo Facebook assicura a pagina 12 che continuerà a lavorare con i governi per fornire formazione e a collaborare con le agenzie governative di cibersicurezza: una scelta di campo chiara a sostegno dei governi in carica, ovunque essi si trovino e comunque essi operino. Postulare e promuovere un confronto aperto tra i suoi utenti e collaborare con governi autocratici che perseguono chi vuole esprimersi liberamente potrebbe apparire una contraddizione oppure rappresentare i due assi di una rete di controllo globale pronta ad attivarsi per sanzionare o a imprigionare chiunque apponga un Like o faccia un commento considerato sovversivo ad Ankara o al Cairo, ad esempio. Un ambiente relazionale in cui si potrà parlare con tutti di quasi tutto purché non cambi lo status quo del mondo reale.
Ma, si dirà, le fake news ci hanno portato Trump e qualche contromisura bisogna pur prenderla. Ebbene, tanto il citato rapporto di Facebook quanto l’eccellente ricerca “Social Media and Fake News in the 2016 Election“ dei ricercatori della Stanford University Hunt Allcott e Matthew Gentzkow evidenziano che non vi è alcuna correlazione certa tra la vittoria di Donald Trump e la diffusione di fake news a sostegno delle sue posizioni. Mentre sul tema delle presidenziali USA il citato rapporto di Facebook dichiara che “we have no evidence of any Facebook accounts being compromised as part of this (information operations) activity”, il rapporto di Allcott e Gentzkow, pur confermando che Facebook era stato il principale veicolo di diffusione delle 156 fake news monitorate durante il periodo pre-elettorale, dimostra come l’impatto delle fake news in termini di capacità di indirizzo e di cambiamento delle opinioni politiche è estremamente limitato. Altri fattori, come l’orientamento politico, la dieta mediatica e il livello di istruzione, risultano molto più incidenti.
Le fake news come fallimento della governance liberal e globalista
In una recente intervista Eli Pariser ha dichiarato: ““The filter bubble explains a lot about how liberals didn’t see Trump coming, but not very much about how he won the election” e si chiede: “Is the truth loud enough?” Ma chi o cosa dovrebbe decidere cosa è la verità?
A mio avviso il dibattito globale sulle fake news può essere interpretato anche come un alibi che le élite mondiali liberal e globaliste stanno diffondendo per giustificare vari fallimenti delle loro scelte di personale politico e di governance. L’incapacità di queste élite di costruire quella che Gramsci chiamava la “connessione sentimentale” con il popolo, che oggi si esprime tanto attraverso i social media e in special modo Facebook, finisce per essere attribuita alle fake news, all’hate speech, ai leaks, alle information operations pianificate da stati esteri, ma raramente vi è un’autocritica sulle proposte politiche e sulla qualità della comunicazione e dello stesso personale politico proposto da queste élite liberal. Brexit e Trump sono due dei vari esiti di questa disconnessione tra gente comune e classi dirigenti globaliste. Di converso bisognerebbe chiedersi se l’efficacia di Sanders e Corbyn su Facebook sia solo merito del loro social media manager o anche l’effetto della loro proposta politica.
La risposta verso cui certe élite sembrano orientarsi per far fronte ai fallimenti della loro governance tende alla censura da stato etico, con l’aggravio di voler ricorrere agli algoritmi delle grandi corporation del web per fini strettamente politici. In realtà gli studi più recenti non mostrano una particolare capacità di orientare il dibattito pubblico da parte delle fake news. Esse vanno intese in molti casi più come una gratificazione psicologica per persone che vogliono ulteriori conferme dei loro pregiudizi, occasioni di svago più che armi di propaganda politica. Uno svago pettegolo e malizioso quanto si vuole, ma un indice della libertà di espressione di una società.
Immaginiamo un ministero della verità che decida di togliere dalle edicole Cronaca Vera e Novella 3000. Non sarebbe un attentato alla libertà di stampa, a una stampa che da sempre è anche svago e può essere letta senza alcun impegno intellettuale e senza impegnarsi in alcuna verifica fattuale?
Qualche Solone liberal dirà: “ma nessuno vi vuole togliere il cazzeggio pettegolo dal parrucchiere o sotto l’ombrellone! La questione riguarda i temi seri, dalla politica alle affermazioni pseudo scientifiche”. Ecco, anche se gli algoritmi di verifica della veridicità di un fatto o di un’affermazione venissero applicati solo (solo?) a questioni politiche e asserzioni scientifiche, ci sarebbe molto da preoccuparsi. Se la politica è il presente della storia sarebbe inquietante che il dibattito politico venisse indirizzato dagli algoritmi delle grandi piattaforme. Quale storia avremmo?
Aggiungiamo il fatto che mentre la storia viene da secoli riscritta grazie a documenti inediti e interpretazioni innovative dei fatti, un documento digitale una volta cancellato non può più venire recuperato. E anche sulle affermazioni pseudoscientifiche bisognerebbe riflettere con meno conformismo. Isaac Newton era un geniale scienziato quanto un alchimista appassionato: qualche algoritmo di ricerca potrebbe retrocedere tutti gli articoli sulle ricerche di un Isaac Newton contemporaneo perché parte di esse sarebbe patentemente controversa.
La storia del giornalismo, da Winchell e Pulitzer in poi, è un continuo confronto tra watchdogging e propaganda, tra impegno e svago, tra terze pagine e pagine rosa, tra scoop e violazioni della privacy, un coacervo di manipolazione, idealismo, servilismo e impegno civico. E ci sarà sempre un tipo di pubblico che all’Etica nicomachea di Aristotele preferirà la lettura delle amorali vicissitudini di Fabrizio Corona. L’importante è avere una politica che voglia fare in modo che tutti abbiano gli strumenti per comprendere il valore delle diverse intraprese.
Al contrario, una politica che si illuderà di usare gli algoritmi di aziende commerciali per poter cancellare una parte della realtà che trova sgradevole rischierà di vedersi cancellata da questi stessi algoritmi.