Tag: politica

Non toglieteci anche le Fake News!

Social minds

Non toglieteci anche le Fake News!

Come già per i superalcolici, il tabacco, le patatine fritte, le bevande gassate, i grassi idrogenati, lo zucchero e, buon ultimo, l’olio di palma, il proibizionismo delle buone intenzioni è pronto ad abbattersi su un nuovo nemico della salute fisica e mentale degli individui incapaci di badare al loro bene: le fake news.

Ho sempre sospettato di chi mi dava consigli per il mio bene, per questo nella vita ho fatto tanti errori. Ma almeno mi sono sentito libero di farli.

Che il grande allarme sulle fake news diventi il punto di partenza per imporre sul web una certa idea di verità, decisa per lo più da poche piattaforme attraverso algoritmi ovviamente proprietari quanto opachi, oggi è meno un’ipotesi distopica che una tendenza fondata.  Negare visibilità a versioni alternative o paradossali dei fatti potrebbe essere il primo passo verso una sorta di totalitarismo digitale.

Ma che cosa significhi fake news, termine oramai usato anche dalla casalinga per apostrofare un’offerta farlocca del supermercato sotto casa, per certo più non si sa: chi etichetta così anche gli slogan degli avversari politici, chi ci mette dentro anche le teorie cospirative, chi lo confonde con la propaganda, chi definisce fake news un fatto che vuole negare, chi lo usa perché è il termine del momento e produce tanta attenzione e tanti click.

L’utilizzo indiscriminato del termine fake news è diventato un grande alibi per dimenticare la cause reali della crisi del giornalismo e tralasciare la memoria delle manipolazioni, della propaganda, delle interpolazioni di testi e fotografie che hanno inciso in tante ricostruzioni storiche, come anche degli articoli un tanto al chilo, delle bufale per far abboccare i giornalisti tonni, degli educational tours con molte occasioni di divertimento che a volte sono entrate nella mitologia della professione giornalistica. Bei tempi andati insomma, quando si affogavano i cormorani nel petrolio al fin di smuovere i delicati animi degli occidentali (fino ad allora poco toccati da abusi, crudeltà e decine di migliaia di esecuzioni arbitrarie) o quando il segretario di Stato USA Colin Powell mostrava in Consiglio di Sicurezza dell’ONU le mitiche boccettine di polvere bianca, e ancora non si sa se fosse talco o forfora di Bush Jr. Ma tant’è, all’epoca la parola fakenews non era stata inventata e poi la diffusione delle contronotizie era fatta da grandi società di comunicazione come Hill&Knowlton con l’ausilio di tanti giornalisti finanziariamente “embedded”, mica dal primo pischello smanettone ubicato in chissà quale villaggio dei Balcani. Fino a dieci anni fa l’informazione era ancora un circuito abbastanza limitato e controllabile, un club quasi esclusivo e ancora relativamente benestante dove ci si conosceva, ci si scambiava favori e, almeno a certi livelli, tutti conoscevano gli altarini degli altri. Ecco, mi chiedo quanto gli allarmi per le fake news e il livore per l’informazione via social media che diffondono tanti paludati giornalisti non siano le reazioni di chi vede svanire il mondo confortevole in cui viveva.

Con questa persuasione ho seguito con distacco il tema fino a quando non ho letto un meditabondo  appello di Gramellini alla regolazione dei social. Il vate nazionale del buon senso il 17 maggio scorso ha dichiarato: “che le porte dei «social», spalancate sul male del mondo, hanno urgente bisogno di una serratura”. Ora, vada per i grandi esperti di politica e media, vada per i professori universitari di comunicazione e sociologia, ma la presa di posizione di Gramellini preoccupa perché,  a differenza di chi studia davvero l’argomento, il suo pensiero è letto dai politici perché ritenuto rappresentativo di qualche milione di italiani che si considerano buoni, civili e riflessivi e così tanti politici, anche le versioni reali e decuplicate di Cetto la Qualunque, tengono in gran conto il giudizio dei tremebondi lettori di Gramellini.

Ma il fatto è che per scrivere un editoriale alla Gramellini ci vogliono pochi minuti, mentre per verificare il caso Blue Whale ci vogliono ore o giorni di verifiche. Non mancano sul web le penne brillanti, invece scarseggiano i redattori capaci di ricercare le fonti e verificare le notizie con rapidità e autorevolezza.

Definizione delle fake news

Ma ora cerchiamo di definire l’ambito e il concetto delle fake news, che possiamo definire come contenuti non fattuali, dal tono spesso sensazionalistico e con una titolazione roboante, costruiti con logica di click baiting, diffusi via web prevalentemente attraverso i media sociali.

Le fake news trovano spazio all’interno della grande divaricazione  che il web sociale ha creato tra informazione e contenuti, con questi ultimi diventati strumenti principi del web marketing. I contenuti per il web non sono necessariamente informativi, ma sono costruiti con logiche di web marketing per incrementare il traffico o le page views. Anche l’informazione di qualità può essere riorganizzata per veicolare più traffico attraverso titoli enfatici, per ottenere più page views reimpaginando i contenuti in slideshow, per essere più facilmente condivisibile via social media utilizzando, per esempio, immagini efficaci ma non sempre in linea con l’oggetto dell’informazione.

In generale un contenuto per il web è innanzitutto ottimizzato per essere trovato dai crawler e condiviso facilmente via social media. Per certi contenuti sarebbe più corretto parlare di fake contents che di fake news, ovvero di contenuti che nemmeno si pongono il problema della veridicità (Il culo photoshoppato della Kardashan, non è una fake news, ma un fake content che produce traffico e visibilità monetizzabili).

L’ecosistema delle fake news strictu sensu è caratterizzato da variabili di mercato e da variabili sociali.

Le Variabili di mercato riguardano:

  1. Basse barriere di accesso al mercato dei contenuti digitali, sia dal punto economico (poche centinaia di euro per realizzare un sito web di buona qualità grafica) che organizzativo (grazie ai Content Management Systems gratuiti) e distributivo (costo marginale zero della distribuzione digitale)
  2. Declino della circolazione dei grandi media, a causa dei costi di produzione e di distribuzione e al declino della raccolta pubblicitaria
  3. Modelli attuali di pay-per-view e pay-per-click che premiano i volumi di traffico a discapito della qualità dell’informazione (un articolo di informazione o di riflessione di qualità verrà quasi sempre penalizzato rispetto a un contenuto ottimizzato per essere cliccato e condiviso)

Tra le variabili sociali possiamo elencare

  1. Incremento della fruizione di contenuti enfatici, polemici o leggeri attraverso i media sociali e in particolare Facebook.
  2. Declino della fiducia nei grandi media
  3. I fenomeni di echo chamber o filter bubble, che spingono verso un processo di ripetizione e di rafforzamento di determinati contenuti all’interno di cluster relazionali
  4. Diffusione di teorie cospirative e incremento dell’attitudine a credere a verità considerate “alternative”

 La censura attraverso gli algoritmi

Non è la prima volta che l’intellighenzija italiana si lancia ardimentosamente a provare a regolare le “fake news”. Prima si è provato proponendo un comitato di esperti (un evergreen italiano), che non si sa se si sarebbe riunito a cadenza mensile o trimestrale per verificare contenuti diffusi settimane o mesi prima e dimenticati in poche ore. Poi il 21 aprile a Montecitorio si son tenuti ben quattro tavoli di lavoro, promossi dalla Presidenta della Camera, per “arginare la disinformazione”. Ma verso chi si rivolgono gli strali delle menti illuminate convocate dalla Boldrini? Da una parte verso i produttori di fake news, siano essi ubicati a San Cataldo, provincia di Caltanissetta, a gestire il famigerato senzacensura.eu, o in Macedonia o Romania a disinformare a vantaggio di Trump o rifugiati in Bulgaria a fare gli imprenditori della bufala. Dall’altra parte ci sono le grandi piattaforme come Google e Facebook, alle quali anche il giurista statunitense Vivek Wadhwa ha indirizzato i suoi strali in un articolo sul Washington Post del 12 aprile intitolato “What Google and Facebook must do about one of their biggest problems” invitando le due grandi porte del web a indirizzarsi verso una “positive direction” e a rendere accessibili non i codici, ma almeno i filtri di selezione. Wadhwa ha dimenticato che se ci sono aziende che non vogliono apparire sui siti di fake news ce ne sono tante altre che si rivolgono proprio a quel target. A questo appello ha indirettamente risposto nel corso dell’ultima edizione di F8 Developers di Facebook Adam Mosseri, VP di News Feed, il quale ha evidenziato i quattro parametri su cui lavora la selezione di notizie di Facebook: Inventory, Signals, Predictions, Score. All’interno di “hundreds of thousands of data points” processati da Facebook, dei quattro parametri che riordinano I contenuti quello di maggiore interesse è Predictions, ovvero l’insieme degli algoritmi di predizione che Facebook usa per proporci i contenuti che hanno più alta possibilità di spingerci a una reazione/interazione.

Dall’esposizione di Mosseri sembra che Facebook punti solo a incrementare la capacità di engagement delle informazioni/contenuti distribuiti nel News feed. In questo senso Facebook si presenta in maniera agnostica rispetto ai contenuti che diffonde: la costruzione della filter bubble o della echo chamber non si baserebbe su considerazioni di tipo politico, ma avrebbe l’unico intento di farci restare più tempo possibile sulla piattaforma per alimentarla con Like, commenti e contenuti (con tutti gli enormi interrogativi che pone questo modello di estrazione del valore dalle persone).

Ma che l’interpretazione di Mosseri sia volutamente ingenua e reticente è dimostrato dal rapporto “Information Operations and Facebook” dello scorso 27 aprile. In esso si esplicita un obiettivo politico chiaro, sulla falsariga del Manifesto di Zuckerberg, quello di “make the world more open and connected”, con la rivendicazione del ruolo in “facilitating public discourse”.

Le ”Information Operations” sono definite come “actions taken by organized actors (governments or non-state actors) to distort domestic or foreign political sentiment, most frequently to achieve a strategic or geopolitical outcome” attraverso “fake news, disinformation or networks of fake account” con obiettivi principalmente di carattere politico e non di monetizzazione. Quindi un documento assolutamente politico e non di carattere tecnico, che pone al primo punto della sua strategia di contrasto la lotta al “Targeted Data Collection”, in sostanza ai “leaks” di dati politicamente sensibili che possono essere attivati anche attraverso i profili Facebook. Per chi crede che Wikileaks, al di là delle ambiguità e delle controversie, abbia consentito negli ultimi anni di conoscere alcuni aspetti del sistema di sorveglianza e degli arcana imperii globali, la posizione di Facebook appare assolutamente schierata a favore della segretezza e a tutela di una parte dell’establishment mondiale, ben lontana dai principi di promozione di un mondo aperto e di libera espressione dei sbandierati da Zuckerberg.

Le tecniche che presenta la società di Menlo Park per tutelare la sua dimensione informativa finiscono per essere risultare di sostegno ad alcune narrazioni (e abusi) di alcune classi dominanti globali. Prendiamo un esempio, la violazione degli account di posta della presidentessa del Democratic National Committee Debbie Wasserman Schultz da parte di hacker russi più o meno strettamente controllati dal Cremlino. Una operazione di spionaggio politico internazionale che ha svelato come i vertici del partito democratico americano giocassero scorrettamente ai danni di Bernie Sanders, ovvero ai danni di colui che tutti i sondaggi davano vincente contro Donald Trump. Queste rivelazioni hanno certamente incrementato, come era loro fine, la sfiducia nelle istituzioni politiche, ma sulla base di fatti veritieri che hanno portato alle dimissioni della Wasserman Schultz, a scuse formali del DNC verso Sanders, il quale aveva anche citato in giudizio il DNC. Eppure il rapporto di Facebook a pagina 8 si preoccupa dei “fake accounts” che potrebbero “undermine the status quo (grassetto mio) of civil or political insistitutions”: un’esplicita presa di posizione che evidenzia l’approccio conformistico di questi meccanismi che potremmo definire di “information patroling” che attiverà nei prossimi mesi Facebook. A tal riguardo Facebook assicura a pagina 12 che continuerà a lavorare con i governi per fornire formazione e a collaborare con le agenzie governative di cibersicurezza: una scelta di campo chiara a sostegno dei governi in carica, ovunque essi si trovino e comunque essi operino. Postulare e promuovere un confronto aperto tra i suoi utenti e collaborare con governi autocratici che perseguono chi vuole esprimersi liberamente potrebbe apparire una contraddizione oppure rappresentare i due assi di una rete di controllo globale pronta ad attivarsi per sanzionare o a imprigionare chiunque apponga un Like o faccia un commento considerato sovversivo ad Ankara o al Cairo, ad esempio. Un ambiente relazionale in cui si potrà parlare con tutti di quasi tutto purché non cambi lo status quo del mondo reale.

Ma, si dirà, le fake news ci hanno portato Trump e qualche contromisura bisogna pur prenderla. Ebbene, tanto il citato rapporto di Facebook quanto l’eccellente ricercaSocial Media and Fake News in the 2016 Election dei ricercatori della Stanford University Hunt Allcott e Matthew Gentzkow evidenziano che non vi è alcuna correlazione certa tra la vittoria di Donald Trump e la diffusione di fake news a sostegno delle sue posizioni. Mentre sul tema delle presidenziali USA il citato rapporto di Facebook dichiara che “we have no evidence of any Facebook accounts being compromised as part of this (information operations) activity”, il rapporto di Allcott e Gentzkow, pur confermando che Facebook era stato il principale veicolo di diffusione delle 156 fake news monitorate durante il periodo pre-elettorale, dimostra come l’impatto delle fake news in termini di capacità di indirizzo e di cambiamento delle opinioni politiche è estremamente limitato. Altri fattori, come l’orientamento politico, la dieta mediatica e il livello di istruzione, risultano molto più incidenti.

Le fake news come fallimento della governance liberal e globalista

In una recente intervista Eli Pariser ha dichiarato: ““The filter bubble explains a lot about how liberals didn’t see Trump coming, but not very much about how he won the election” e si chiede: “Is the truth loud enough?” Ma chi o cosa dovrebbe decidere cosa è la verità?

A mio avviso il dibattito globale sulle fake news può essere interpretato anche come un alibi che le élite mondiali liberal e globaliste stanno diffondendo per giustificare vari fallimenti delle loro scelte di personale politico e di governance. L’incapacità di queste élite di costruire quella che Gramsci chiamava la “connessione sentimentale” con il popolo, che oggi si esprime tanto attraverso i social media e in special modo Facebook, finisce per essere attribuita alle fake news, all’hate speech, ai leaks, alle information operations pianificate da stati esteri, ma raramente vi è un’autocritica sulle proposte politiche e sulla qualità della comunicazione e dello stesso personale politico proposto da queste élite liberal. Brexit e Trump sono due dei vari esiti di questa disconnessione tra gente comune e classi dirigenti globaliste. Di converso bisognerebbe chiedersi se l’efficacia di Sanders e Corbyn su Facebook sia solo merito del loro social media manager o anche l’effetto della loro proposta politica.

La risposta verso cui certe élite sembrano orientarsi per far fronte ai fallimenti della loro governance tende alla censura da stato etico, con l’aggravio di voler ricorrere agli algoritmi delle grandi corporation del web per fini strettamente politici. In realtà gli studi più recenti non mostrano una particolare capacità di orientare il dibattito pubblico da parte delle fake news. Esse vanno intese in molti casi più come una gratificazione psicologica per persone che vogliono ulteriori conferme dei loro pregiudizi, occasioni di svago più che armi di propaganda politica. Uno svago pettegolo e malizioso quanto si vuole, ma un indice della libertà di espressione di una società.

Immaginiamo un ministero della verità che decida di togliere dalle edicole Cronaca Vera e Novella 3000. Non sarebbe un attentato alla libertà di stampa, a una stampa che da sempre è anche svago e può essere letta senza alcun impegno intellettuale e senza impegnarsi in alcuna verifica fattuale?

Qualche Solone liberal dirà: “ma nessuno vi vuole togliere il cazzeggio pettegolo dal parrucchiere o sotto l’ombrellone! La questione riguarda i temi seri, dalla politica alle affermazioni pseudo scientifiche”. Ecco, anche se gli algoritmi di verifica della veridicità di un fatto o di un’affermazione venissero applicati solo (solo?) a questioni politiche e asserzioni scientifiche, ci sarebbe molto da preoccuparsi. Se la politica è il presente della storia sarebbe inquietante che il dibattito politico venisse indirizzato dagli algoritmi delle grandi piattaforme. Quale storia avremmo?

Aggiungiamo il fatto che mentre la storia viene da secoli riscritta grazie a documenti inediti e interpretazioni innovative dei fatti, un documento digitale una volta cancellato non può più venire recuperato.  E anche sulle affermazioni pseudoscientifiche bisognerebbe riflettere con meno conformismo.  Isaac Newton era un geniale scienziato quanto un alchimista appassionato: qualche algoritmo di ricerca potrebbe retrocedere tutti gli articoli sulle ricerche di un Isaac Newton contemporaneo perché parte di esse sarebbe patentemente controversa.

La storia del giornalismo, da Winchell e Pulitzer in poi, è un continuo confronto tra watchdogging e propaganda, tra impegno e svago, tra terze pagine e pagine rosa, tra scoop e violazioni della privacy, un coacervo di manipolazione, idealismo, servilismo e impegno civico. E ci sarà sempre un tipo di pubblico che all’Etica nicomachea di Aristotele preferirà la lettura delle amorali vicissitudini di Fabrizio Corona. L’importante è avere una politica che voglia fare in modo che tutti abbiano gli strumenti per comprendere il valore delle diverse intraprese.

Al contrario, una politica che si illuderà di usare gli algoritmi di aziende commerciali per poter cancellare una parte della realtà che trova sgradevole rischierà di vedersi cancellata da questi stessi algoritmi.

Il Manifesto di Mark Zuckerberg: Facebook come nuovo modello di politica

Algoritmi

Il Manifesto di Mark Zuckerberg: Facebook come nuovo modello di politica

In principio fu Face Mash, niente più che una versione di Hot or Not per gli studenti di Harvard. Ma sin dall’inizio Mark Zuckerberg ha voluto dilatare gli ambiti del suo progetto a dimensioni esistenziali sempre più ampie, prima con thefacebook per le università e poi con Facebook per tutti. E da qui in poi è storia.

Dunque chi considera il manifesto “Building Global Community” un indizio della volontà di Zuckerberg di darsi alla politica attiva, magari in funzione anti Trump, semplicemente ne sottovaluta le ambizioni.

Il documento è totalmente politico, ma in un senso ancora più radicale, e pone implicitamente delle domande su cosa ne sarà della politica nell’epoca del superamento dei partiti di massa novecenteschi, dell’indebolimento degli stati-nazione, della digitalizzazione, dell’intelligenza artificiale e dell’automatizzazione delle funzioni cognitive.

I cinque obiettivi ideali di sviluppo delle communities che propone Zuckerberg (supportive, safe, informed, civically-engaged, inclusive) intendono proporre il social network come una metacomunità, al tempo stesso sovraordinata e coordinata con le altre comunità che, idealmente, dovrebbe sostenere e alimentare. Questi obiettivi sono eminentemente politici, e alcuni risultati di coinvolgimento politico ed elettorale raggiunti in varie parti del mondo vengono esplicitamente citati. Nel Manifesto, Facebook si propone dunque non come un elemento corrosivo delle istituzioni pubbliche tradizionali ma come un loro puntello. Ma qui emerge la prima contraddizione, ovvero come un’ambiente relazionale digitale, i cui algoritmi puntano a massimizzare il coinvolgimento degli utenti e a gratificarli per il tempo speso in esso, possa spingere verso l’impegno civico diretto nel mondo reale, che richiede tempo, attenzione e continuità di impegno a quegli stessi utenti cui chiede spasmodicamente attenzione per ricavarne il suo fatturato.

Si torna dunque a chiedersi che cosa è Facebook. Il successo di Facebook sta proprio nella sua estrema plasticità, che ha posto a tanti il problema della sua definizione, se fosse la società una media company, o una tech company o una entertainment company o una utility. Facebook può proporsi e può essere fruito per informare e disinformare, per offrire e cercare collaborazione, per autopromuoversi e vendere, per divertirsi e fare nuove amicizie, per raccontarsi e cercare conforto, per dibattere e litigare, per ritrovare o indugiare in vite altrui e lascio ai lettori allungare l’elenco. Di fronte a questa estrema variegatezza di opzioni, Zuckerberg per 14 volte chiama la sua creatura “infrastruttura sociale”, senza definire in dettaglio cosa con questo intenda e semmai rifugiandosi in una definizione riduttiva, che lo esonera dal prendere una posizione chiara rispetto a tutta una serie di problematiche, dalle fake news alle filter bubbles, che pure tocca nel testo. Infrastruttura è un termine che in prima battuta potrebbe sembrare neutro e che rimanda a servizi che in italiano definiremmo di pubblica utilità, quali autostrade, energia elettrica, acqua e banda larga. Ma la decisione su allacciare o no una comunità o un singolo a questi servizi è puramente politica, come politica fu la scelta di far passare l’autostrada del Sole da Arezzo o di nazionalizzare l’energia elettrica per poterla garantire a tutti a prescindere dal ritorno economico. Così come garantire l’acqua potabile tramite condotta o tramite autobotti non è la stessa cosa. Questa scelta di rifugiarsi nel corner delle utilities consente a Zuckerberg di proporsi al contempo come la neutra infrastruttura relazionale di base del nostro tempo e di sostenere la information diversity come principio guida di molte scelte presenti e soprattutto future di content curation. Tuttavia come questa strategia di information diversity vorrà plasmare, o almeno modificare, la dieta informativa di quasi due miliardi di persone? Se io ho idee di sinistra (per quel che possa significare oggi), finiranno per apparirmi in Home notizie e opinioni neoliberiste o addirittura esplicitamente di destra per promuovere il common understanding? Si useranno gli interessi comuni, lo sport, per spingere persone diverse a incrociarsi? Lo stesso Zuckerberg sembra temere un’ulteriore polarizzazione delle posizioni. Ma poi perché io, con le mie convinzioni, giuste o meno che siano ma costruite in decenni di letture, studio ed esperienze, devo essere disciplinato al “common understanding” come lo ha in testa Zuckerberg? Ecco dunque un’altra contraddizione: i Community Standards, lungi dall’essere mera netiquette e buona fede nelle relazioni che si instaurano, finiscono per diventare i principi ideologici da accettare tout court per fruire di una rete di quasi due miliardi di persone.

In una stesura precedente del testo alcune scelte fondamentali in tema di individuazione e analisi di post controversi o signals di pericoli venivano devolute ai sistemi di intelligenza artificiale: “The long term promise of AI is that in addition to identifying risks more quickly and accurately than would have already happened, it may also identify risks that nobody would have flagged at all — including terrorists planning attacks using private channels, people bullying someone too afraid to report it themselves, and other issues both local and global. It will take many years to develop these systems.”. La versione finale invece è molto più vaga e meno inquietante: “Looking ahead, one of our greatest opportunities to keep people safe is building artificial intelligence to understand more quickly and accurately what is happening across our community,“. Già prima che scoppiasse il tormentone delle fake news, Facebook aveva già provato a scaricare sugli algoritmi la questione dell’arbitrarietà della selezione delle notizie, ma di certo negli ultimi mesi anche un pubblico meno esperto inizia a essere consapevole che gli algoritmi sono un prodotto di programmatori umani e come tale soggetto a scelte arbitrarie ed errori di natura umana. Tuttavia quando ambisci a proporti come l’infrastruttura globale di base per produrre e alimentare comunità, ovvero senso di appartenenza, il ricorso all’intelligenza artificiale per indirizzare o censurare dei flussi di comunicazione suscita inquietudine, perché si tende a rendere le responsabilità opache e meno verificabili.

Preferisco da sempre definire Facebook un ambiente relazionale proprio perché ambiente è un termine molto più complesso, plastico e dinamico di infrastruttura e perché il social network mette a valore i processi cognitivi e relazionali dei suoi utenti.

In questo contesto discutibile per quanto riguarda la tutela e il riconoscimento del lavoro cognitivo di un ambiente tutto basato sugli users’ generated contents, il Manifesto di Zuckerberg prova ad evocare alcune tematiche dell’etica comunicativa di Jurgen Habermas quando definisce Facebook una “source of news and public discourse” con l’obiettivo di “creating a large-scale democratic process to determine standards with AI to help enforce them (the Community Standards). In certi passaggi Zuckerberg sembra immaginare una comunità dialogica e razionale (qualcosa di molto distante dalle risse digitali cui assistiamo quasi tutti i giorni, specialmente su temi politici), un processo dunque intersoggettivo dove, in assenza di orientamenti espliciti dei singoli, prevarrà la maggioranza dei rispondenti nel contesto di riferimento del singolo utente “like a referendum”, scrive esplicitamente il co-fondatore. Eppure questo meccanismo potrebbe aggravare le filter bubbles, perché, ad esempio, se io, irritato per le scelte del momento di un partito o di un’associazione o di una persona, decido di disattivare le notifiche relative ad essi, rischio di vederli sparire per sempre dal mio orizzonte informativo, data l’improbabilità che ogni qualche mese io i metta a rivedere le impostazioni del mio profilo. Quanti saranno i rispondenti a questi simil-referendum? E questi rispondenti saranno i più saggi e olimpici tra gli utenti? E se alla fine i risultati di qualche simil-referendum contrastassero i Community Standards cosa prevarrà, in una community che aspira a promuovere un processo democratico su larga scala (senza definirne forme e contenuti, per ora)? E infine, quale idea di democrazia digitale ha in testa Facebook, quando si propone su scala globale tanto in paesi dalla cultura democratica e dal confronto civico avanzatissimi quanto in paesi dove vige solo un principio di autorità che si diffonde verticalmente dal capo del governo al villaggio? Da quanto si intuisce l’approccio sarà glocale, una visione globale che a livello di singoli paesi o regioni interverrà sempre di più per promuovere campagne, idee e orientamenti definiti dal vertice della società. Che ruolo e che peso andranno ad avere le culture, e i poteri locali, eletti o riconosciuti come legittimi dalla maggioranza della popolazione di un dato paese, di fronte alle possibili interferenze o a candidati sostenuti da Facebook?

Di fronte alle ambizioni di Facebook e Google di inglobare e indirizzare il mondo delle informazioni e quello delle relazioni grazie ai loro algoritmi, sembra riemergere, in versione digitale, il classico conflitto dell’epoca moderna tra totalità e libertà. L’uomo moderno borghese come lo conosciamo nel suo individualismo è il risultato della rottura della totalità che si fondava su un principio ultramondano. I traumi soggettivi e i conflitti sociali che attraversano la modernità sono la conseguenza e la nostalgia di quella totalità. Ma Google e Facebook sembrano puntare a promuovere una nuova totalità (o almeno destinata alla totalità dei soggetti connessi), assorbendo e omogeneizzando ogni differenza nell’irenico “common understanding”, in cui si dissolve l’alterità e l’idea di pensare diversamente dai “Community Standards”. Si può davvero escludere che queste tendenze dei due giganti del web relazionale non implichino delle tendenze totalitarie, almeno rispetto a certi ambiti per essi essenziali come il controllo delle informazioni e delle relazioni, ovvero gran parte del web come lo conosciamo oggi?

In questo orizzonte cosa resterà della libertà degli individui? Una politica dominata da Facebook e Google sarà ancora capace di pensare categorie radicalmente diverse e alternative al presente?

Alcuni riferimenti:

Building Global Community, https://www.facebook.com/notes/mark-zuckerberg/building-global-community/10154544292806634/

The Guardian, 2016: the year Facebook became the bad guy, https://www.theguardian.com/technology/2016/dec/12/facebook-2016-problems-fake-news-censorship

Will Oremus, FutureTense, Facebook’s New “Manifesto” Is Political. Mark Zuckerberg Just Won’t Admit It. http://www.slate.com/blogs/future_tense/2017/02/17/the_problem_with_mark_zuckerberg_s_new_facebook_manifesto_it_isn_t_political.html

Annalee Newitz, Ars Techica, Op-ed: Mark Zuckerberg’s manifesto is a political trainwreck, https://arstechnica.com/staff/2017/02/op-ed-mark-zuckerbergs-manifesto-is-a-political-trainwreck/

Andrew Griffin, The Indipendent, Facebook is developing tools to read through people’s private messages, Mark Zuckerberg manifesto suggests, http://www.independent.co.uk/life-style/gadgets-and-tech/news/facebook-mark-zuckerberg-globalisation-manifesto-read-artificial-intelligence-robot-terrorist-a7586166.html

Vai alla barra degli strumenti