Categoria: Algoritmi

Il mondo dato di Cosimo Accoto

Algoritmi Biblioteca

Il mondo dato di Cosimo Accoto

Un mondo nuovo, al contempo remoto e usuale, sta emergendo attraverso le infinite declinazioni del codice e le applicazioni del digitale. Un mondo dove nulla è già dato perché il dato cambia e si ricombina incessantemente. Un mondo dove cambierà la condizione umana, dal momento che non solo esperiremo sempre più il mondo come dati e interfacce, ma soprattutto saranno sempre più algoritmi e codici a guidare le scelte di miliardi di persone connesse.

Come dice Alex Pentland citato da Cosimo Accoto: “usiamo concetti analogici in un mondo digitale”. Ecco dunque che la filosofia digitale non è lo studio delle manifestazioni del digitale, come la sociologia lo è dei fenomeni sociali e la etnologia delle popolazioni, ma si pone l’obiettivo di sviluppare nuovi concetti capaci di cogliere, spiegare e, possibilmente, incidere sul processo di digitalizzazione del mondo.

Siamo dunque in una fase in cui i concetti tradizionali dimostrano i loro limiti a fronte di una trasformazione dello stesso loro orizzonte di applicazione, nuovi concetti stentano a venire definiti, anche perché non si conosce l’esito degli svariati indirizzi della digitalizzazione e perché vi è, anche, un problema dromologico, ovvero tale è la velocità della trasformazione che le poche menti finora impegnate nella sua analisi non riescono a stare al passo. Ma quella di cui oggi si sente l’urgenza è proprio una riflessione critica. Una delle istanze di partenza del denso “Il mondo dato” di Cosimo Accoto è la volontà di “capire la struttura filosofica del capitalismo informazionale”. Per quanto siano oramai molti i testi di critica degli effetti sulle persone e sulla società della digitalizzazione, un approccio analitico e speculativo al codice, inteso sia nella comprensione della sua ontologia e delle sue possibili teleologie, è appena agli esordi del suo percorso.

Di fronte a questo scenario mi soffermo su alcune alcune questioni che pone Accoto, evidenziando come la trasformazione digitale tenda ad erodere i presupposti e la utilizzabilità di alcuni concetti classici della tradizione filosofica occidentale.

.

Il labirinto dei dati

“ (…) questo grandissimo libro, che continuamente ci sta aperto innanzi agli occhi (io dico l’Universo) (…) è scritto in lingua matematica, e i caratteri son triangoli, cerchi ed altre figure geometriche, senza i quali mezzi è impossibile intenderne umanamente parola; senza questi è un aggirarsi vanamente per un oscuro labirinto.” (Il Saggiatore, 1623)

Se Galileo Galilei vedeva il mondo come matematica e geometria, oggi noi conosciamo e prevediamo il mondo sotto forma di dati e codici. Alla scoperta scientifica delle leggi della natura considerate immutabili subentra la costruzione di una realtà basata su diversi software che possono utilizzare dati diversi e interpretarli diversamente: “un software può trasformare una stanza da letto in una unità ospedaliera personalizzata”, evidenzia Accoto, e un software può anche costruire infinite bolle informative e di intrattenimento calibrate sull’analisi delle scelte pregresse e imminenti del suo fruitore. Per certi versi si realizza nel mondo ordinario lo stesso mutamento radicale che nella fisica si è prodotto quando si è passati dall’ordinato mondo newtoniano al principio di indeteminazione alla base della fisica quantistica.

Il dato dunque non è solo un elemento statico, finito, ma è anche in contemporanea un processo perché sempre nuovi possono essere le modalità per rilevarlo, per rappresentarlo, per analizzarlo, per utilizzarlo. Se i dati vengono spesso proposti in interfacce “user-friedly”, essi comportano sempre una opacità perché restano quasi sempre opache le modalità di acquisizione e di processamento. Di noi stessi oggi non sappiamo quanti dati esistono, come essi vengono prodotti e per cosa vengono utilizzati. Il nostro corpo digitale produce dati diversi a seconda dei codici, dei campi, degli algoritmi da cui viene attraversato.

L’ideologia predominante del capitalismo informazionale propone i dati e gli algoritmi come neutrali e oggettivi, quando invece essi sono sempre frutto di un processo tecnico e sociale, che impatta sulle vite delle persone e determina le loro scelte. In questo senso dato e algoritmo diventano centrali anche nella vita politica, o meglio nella biopolitica, perché essi incidono costantemente non solo sulle scelte strumentali, ma sul vissuto della persona e sulla sua percezione di sé. La coscienza personale e sociale è costruita oggi tanto socialmente quanto informazionalmente, a maggior ragione quando una parte dell’umanità vive una fetta consistente della sua socialità attraverso ambienti relazionali digitali. Se storicamente la questione filosofica verteva sull’interpretazione del mondo, nel momento in cui il mondo dei dati e degli algoritmi è gestibile da determinate entità commerciali si pone una nuova questione: chi può verificare in ultima istanza dati e algoritmi che rappresentano il mondo e sulla base di quali principi.

.

Il velo di Maya digitale

L’interpretazione tradizionale del mondo ha visto distinti e spesso contrapposti un soggetto e un oggetto. Non vi è spazio per ripercorrere tutte le modalità in cui si è presentata questa diade alla base del pensiero filosofico occidentale ma dalle forme più ingenue di realismo alle forme più scaltre di idealismo (inarrivabile l’incipit del Die Welt: “Per lui diventa allora chiaro e ben certo, ch’egli non conosce né il sole né la terra, ma appena un occhio, il quale vede un sole, una mano, la quale sente una terra; che il mondo da cui è circondato non esiste se non come rappresentazione, vale a dire sempre e dappertutto in rapporto ad un altro, a colui che rappresenta, il quale è lui stesso”) vi è sempre stato qualcosa di opposto o proiettato dal soggetto al suo esterno, un Gegenstaend in tedesco, dove “l’oggetto” è appunto “l’opposto”: il mondo si dà nella sua alterità rispetto al soggetto. Al contrario nel digitale non viviamo più solo un’esperienza meramente oppositiva o dialettica con il mondo, ma anche immersiva, capace di oltrepassare questa classica diade. In questo flusso costante di dati di cui siamo produttori e fruitori veniamo rilevati da sensori non umani, i quali spesso ci chiedono di inter(re)agire. I video a realtà virtuale e immersivi a 360° con le relative apparecchiature come Oculus rift già presentano una nuova modalità di intrattenimento che presto si diffonderà anche agli ambiti professionali. Questa dimensione immersiva, in cui, per la prima volta volta, le persone sono oggetto di rilevazione, valutazione e giudizio da parte di macchine algoritmiche, costituisce una novità nella storia umana.

Si potrebbe dire che le interfacce tendono a levigare il mondo, a semplificarne e a eliminarne la complessità, la contraddittorietà, la conflittualità. Gli algoritmi tendono a tessere un“velo di Maya” digitale: un mondo immateriale, dove le problematiche connesse alla materialità del prodotto (l’usura di un disco musicale, lo smarrimento di un biglietto aereo o ferroviario, la fatica e le condizioni reali di produttori o distributori) tendono a sparire o a essere tralasciate.

Un mondo meno materiale può diventare un mondo meno conflittuale e dunque più omologato e conformista?

.

La coscienza dell’algoritmo

In un articolo fondamentale del 1974 Thomas Nagel si chiedeva “Che cosa si prova a essere un pipistrello?” Contro i riduzionisti Nagel poneva la questione della coscienza come problema insormontabile come anche quello dell’impossibilità di conoscere cosa prova un essere dotato di apparati sensori radicalmente diversi dai nostri o privi del nostro sistema simbolico.

Se chiedersi cosa si prova ad essere una macchina algoritmica è un’analogia forzata, non credo lo sia porsi il problema dell’interazione con un mondo che sarà popolato sempre più da codici e processi che simuleranno una coscienza. Una macchina semplice come una chatbot può già oggi, nelle versioni più evolute, simulare offesa, sollecitudine, insofferenza, pazienza, ecc.

Vero è che domandarsi se un sottomarino sa nuotare è una domanda malposta, ma noi non interagiamo con i sottomarini, mentre sempre più spesso interagiremo con macchine algoritmiche che simuleranno una coscienza e queste relazioni avverranno sempre più in età prescolare. Ecco: chiedersi se e come cambierà la consapevolezza delle persone e le loro abilità relazionali in un mondo dove interagiranno sempre più con agenti non umani non è una domanda peregrina.

.

Il superamento del soggetto?

Nelle società moderne liberali, la costruzione sociale della soggettività si basa sull’assunto dell’individualità e su un presupposto di libertà che guida le sue azioni.

In un mondo costruito su quella che Antoniette Rouvroy chiama la governamentalità algoritmica, questi due classici concetti dell’età moderna tendono a indebolirsi se non a svanire. La scissione del concetto classico di individuo in corpo e mente digitali, consente di dimenticare nell’analisi la coscienza del soggetto, definisce la dividualità come un produttrice di profili digitalizzabili composti da migliaia di dati raccolti con modalità e sensori diversi temporaneamente assembleati e riassemblati in base alle necessità di analisi, archiviabili e riutilizzabili indefinitivamente e senza controlli.

La libertà delle scelte sarà sempre più prevista in percorsi predefiniti. Oggi la frontiera del marketing è la customer analytics, analisi predittive fondate su un data behaviourism, come lo chiama la Rouvroy, orientato ad anticipare, formattare e selezionare il futuro potenziale dei nostri corpi e delle nostre menti, almeno come essi vengono rappresentati digitalmente: “l’estrazione di dati e le tecniche di profilaggio seducono le industrie e le istituzioni governative con la promessa del tempo reale e del rilevamento automatico, dunque presumibilmente “oggettivo”, nonché dell’ordinamento e della valutazione a lungo termine degli invisibili rischi e opportunità portati dagli individui”, ha detto la Rouvroy nella conferenza Transmediale – All Watched Over by Algorithms”. Il processo di codifica digitale della vita sociale rischia a scindere gli individui in dividualità, necessarie alla produzione incessante di dati che alimentano l’economia e la riproduzione socio-culturale, e al controllo attraverso le tecniche di analisi dei Big Data.

Qualche web marketing guru pronto a proporre la sua ricetta iperpragmatica potrebbe tacciare queste riflessioni come mere ruminazioni teoriche. Ma proprio oggi la copertina dell’Economist dimostra che quel che fino a ieri era un ristretto dibattito accademico oggi diventa oggetto di dibattito pubblico globale. Perché, come diceva Hegel citato da Accoto “”La filosofia è il proprio tempo appreso con il pensiero” e per comprendere consapevolemente il proprio tempo non esiste (ancora?) alcun algoritmo cui affidarsi.

.

Riferimenti bibliografici

Gilles Deleuze, Postscript on the Societies of Control, 1992

Floridi, L. (2016) The Fourth Revolution How the Infosphere Is Reshaping Human Reality. Oxford University Press, USA

Antoniette Rouvroy, The end(s) of critique : data-behaviourism vs. due-process., 2012

Lev Manovich, Software takes Command, 2013

Paul Virilio, The Information Bomb. London: Verso, 2000

Thomas Nagel, Cosa si prova a essere un pipistrello?, The Philosophical Review, ottobre 1974
Non lasciamo internet solo ai marketers!

Algoritmi

Non lasciamo internet solo ai marketers!

Più pervasivi dei virus, più roboanti dei clickbait, più clamorosi delle fakenews, tra le tante calamità che affliggono il web registriamo una figura sempre più diffusa: il web marketing guru.

Se nel Simposio di Platone eros è frutto dell’incontro di Poros, abbondanza, e Penia, scarsità, il webmarketing guru è diretta conseguenza dell’abbondanza di egotismo e della scarsità di clienti affidabili e liquidi. Così il web marketing guru è costretto ad aggiornare furiosamente il suo blog, twitta nel flusso dell’ashtag del momento, posta video alle sei del mattino dei suoi primi piani stralunati o irridenti, trolla su Facebook peggio di un ubriaco attaccabrighe (per farsi notare sui media sociale non c’è niente di meglio che trollare), con un unico obiettivo: conquistare visibilità, essere riconosciuto come un esperto e infine acquisire nuovi clienti pronti ad abbeverarsi alla fonte delle sue competenze e della sua saggezza. Un hype totalizzante avvolge ogni performance del web marketing guru, perché il punto è lì: gran parte di essi fa personal branding e non ricerca, non studia ma riciccia o traduce analisi e idee altrui (anche quando pubblica interi libri), propone la vetrina del suo opinabile successo come un modello di vita che è più un’aspirazione da vendere a qualche potenziale cliente, sotto sotto considerato un beota.

Fatti salvi gli esperti veri, che lavorano e studiano sodo e per questo hanno poco tempo per esibire il loro superego digitale, ci sarebbe da derubricare il fenomeno dei web marketing guru a una sorta di folclorismo digitale se essi non condizionassero parecchio la percezione che si ha di internet nel senso comune, tra semplificazionismo tecnocentrico, motivazionismo d’accatto, esibizionismo inautentico.

Ma che tipo di idea di internet viene proposta?

Gran parte dei web marketing guru nostrani partono dall’assunto che le tecnologie digitali sono neutrali e non il frutto di processi sociali ed economici in cui soggetti molto potenti impongono i loro valori e i loro principi attraverso lo sviluppo dei codici. Si confonde a volte internet con le piattaforme oggi predominanti, dando questa predominanza per scontata e immodificabile. Un po’ come quei liberisti ingenui che credono che il cosiddetto libero mercato sia un fatto di natura da non mettere in discussione, i web marketing guru di casa nostra finiscono per proporre una visione di internet meramente tecnica, ludica, strumentale o commerciale, in genere pressoché acritica rispetto alle implicazioni e alle conseguenze dello sviluppo di internet, della digitalizzazione e dell’intelligenza artificiale. Specchio di questo riduttivismo è lo stesso panorama politico nazionale, che si divide tra esaltazioni e allarmismi, crociate per le buone intenzioni e scaltrezza nell’uso delle tecniche di web marketing.

Ma si possono individuare almeno altre tre modalità di pensare internet e la digitalizzazione.

Il digitale come leva strategica

La seconda modalità è quella delle grandi società di consulenza e delle grandi realtà del digitale, che studiano davvero la trasformazione in corso, sia pure per trarne benefici economici. A differenza delle figure raccontate sopra, in questo caso vi sono studi e analisi originali e anche la possibilità di confrontarsi con le problematiche dei grandi operatori globali dei vari settori che hanno le risorse per testare lo sviluppo di soluzioni effettivamente innovative. Nei contributi teorici e negli studi dei grandi robber barons dell’epoca digitale come delle società di consulenza il tema dell’impatto delle tecnologie digitali su società, economia, cultura e politica viene posto in termini tutt’altro che ingenui, semmai con l’intenzione di condizionare comportamenti, attitudini e scelte delle persone in modo permanente.

La digital disruption o digital transformation sono oggi il principale motore di creazione del valore e la principale selling proposition delle società di consulenza globali. Ma naturalmente le componenti di analisi e di riflessione sono sempre finalizzate a incrementare l’efficienza, commerciale od organizzativa, dei clienti. Dunque, un internet analizzato in maniera spesso profonda ma presentato per lo più nel suo aspetto strumentale.

In queste due prime modalità cosa resta dell’Internet idealizzato per tre decenni da tutta una corrente libertaria e utopica? Questa idea di internet sembra perdere spazi, pressata com’è dall’ambizione dei grandi operatori, dal pragmatismo delle società di consulenza e dall’indifferenza dei supposti guru. La pervasività commerciale dei grandi operatori, l’estrazione dei dati dagli utenti e la messa a valore dei loro contenuti e dei loro comportamenti, il modellamento delle realtà informative di singoli e intere comunità, la trasformazione dei rapporti sociali dovuta alla scomparsa di intere categorie professionali, lo sviluppo di agenti artificiali che incideranno sempre di più nell’ecosistema digitale, la progressiva atrofia di certe funzioni cerebrali esonerate dall’attivarsi grazie alle funzioni di un comune smartphone sono temi che i supposti “guru” non toccano e le grandi società evitano.

Le distopie del digitale

In questo senso il recente intervento di Tim Berners-Lee evidenzia come la grande prospettiva di un web egualitario e promotore di un pensiero libero di accedere a un massa sterminata di informazioni si stia stemperando in un ambiente in cui l’utente è sottoposto a controlli invasivi da parte di Stati o di imprese private, a contenuti che creano una post-realtà senza significato, a sollecitazioni commerciali meglio definibili come manipolazioni, a uno sfruttamento inconsapevole della sua produzione cognitiva.

Il populismo di fasce sociali sempre più emarginate da dinamiche sociali reali di cui tante volte si accusa il web di alimentare non è che una conseguenza dello smantellamento delle filiere produttive e relazionali tradizionali operato dalla tanto celebrata digital disruption.

La terza modalità è proprio quella di un pensiero che si pone criticamente rispetto alle conseguenze della digitalizzazione. Si tratta di un’ampia lista di autori che ci hanno offerto in questi anni una visione sanamente problematica e profonda di internet e del digitale è lunga e vanno almeno citati (non per importanza) Jaron Lanier, Nicholas Carr, Evgeni Morozov, Eli Pariser, Manfred Spitzer, Andrew Keen.

Rispetto all’ottimismo di maniera di tanti web marketing guru ci troviamo qui nel mondo del dubbio, dell’inquietudine, della distopia. Ma ritengo che proprio un eccesso di idee ottimistiche abbia creato alcuni dei problemi di cui oggi si dibatte. L’idea che una trasformazione epocale di ogni ambito dell’umano potesse essere gestita come l’ingresso di un nuovo media nel mercato della comunicazione (per nulla libero, tra l’altro). L’idea che le libertà degli individui siano tutte uguali. L’idea che la digitalizzazione fosse un salto tecnologico capace di creare nuovi posti di lavoro in numero equivalente a quanti ne distrugge. L’idea del messianesimo tecnologico capace di risolvere le disfunzionalità degli esseri umani.

A chi accusa gli autori che raggruppo in questo approccio di essere degli apocalittici digitali, rammento che vi era molta più insofferenza verso il monopolio del software, pieno di bachi, di Microsoft negli anni Novanta che oggi rispetto al monopolio della conoscenza e della consapevolezza che alcuni grandi attori della rete hanno, almeno in parte, già insediato.

I tempi della trasformazione sono talmente rapidi e la trasformazione stessa così radicale che credere che la società globale riesca a trovare un nuovo equilibrio da sola come ha fatto di fronte ad altri salti tecnologici (in secoli di adattamenti e spesso attraverso vere tragedie) è meno ingenuo che pavido dal punto di vista intellettuale e politico.

Pensare il senso e le possibilità del digitale

Erasmo da Rotterdam era entusiasta della tipografia del suo amico Aldo Manunzio e di certo non intendeva negoziare il processo di produzione in serie dei suoi libri. Allo stesso modo quando è stata introdotta l’elettricità nessuno pensò che bisognava fondare una filosofia dell’energia elettrica. Internet non è (solo) una tecnologia, da accettare, rifiutare o da negoziare. Internet, inteso come vettore del processo di digitalizzazione del mondo, è l’epitome del nuovo mondo in cui vivrà l’umanità essa stessa trasformata da tale processo. E allora la domanda da porsi è: quando profondamente si è finora riflettuto su internet e sul digitale?

Si entra in un campo in cui gli strumenti tradizionali della riflessione filosofica aiutano ma non sono esaustivi. Una certa competenza tecnica, ovvero la conoscenza di come funzionano codici, algoritmi, programmi eseguibili e applicazioni, è essenziale per poterne comprenderne l’estensione, l’impatto e gli effetti. È vero che spesso non è l’ingegnere che comprende l’impatto sulla società di una tecnologia di sua competenza, ma la complessità di tale impatto non può essere compresa pienamente se non si acquisiscono almeno parte delle competenze tecniche dell’ingegnere. Una tecnologia può essere indirizzata quando si riescono a capire le categorie concettuali che essa impone e le sue implicazioni.

Tra chi ha compreso che internet non è un tubo possiamo annoverare Pedro Domingos, Benjamin B. Bratton, Ramesh Srinivasan, Luciano Floridi, Byung-Chul Han, Lawrence Scott, Jerry Kaplan, Cosimo Accoto.

Dunque la riflessione generale sulle categorie di pensiero, le trasformazioni sociali e la stessa consapevolezza di sè che introducono e a volte impongono internet e il digitale non è qualcosa di astratto, speculazione teorica guardata con sufficienza dagli idraulici del web, che dovrebbero sapere come il benessere economico degli idraulici sia il risultato indiretto anche degli studi di chi si è impegnato nella comprensione della fisica dell’acqua.

L’attuale crisi della politica è frutto di un deficit di comprensione delle implicazioni della trasformazione digitale. Come evidenzia Jerry Kaplan nel suo Humans need no apply: “Al momento il dibattito pubblico manca di concetti e di esempi che descrivano adeguatamente cosa sta succedendo a causa dell’accelerazione del progresso tecnologico, e dunque tanto meno può guidarci a soluzioni ragionevoli”. La politica quindi non offre soluzioni perché spesso non riesce nemmeno a definire chiaramente i problemi dell’epoca digitale: il populismo identitario e il tecnocraticismo elitista sono materiali di risulta emergenti dalla demolizione delle proposte politiche novecentesche nel nuovo scenario creato dalla diade globalizzazione-digitalizzazione.

Questa quadruplice ripartizione delle modalità di comprendere e usare il digitale vuole dunque essere meno una graduatoria di qualità quanto un modesto appello: stiamo rischiando di entrare troppo rapidamente in un mondo per il quale non abbiamo ancora costruito i concetti e le parole adatte a comprenderlo e a viverlo.

A differenza di quanto proclama qualche assertivo web marketing guru, rischiamo di perdere ben altro che qualche succoso cliente o la svolta della carriera: quel che credevamo di sapere su noi stessi.

.

Riferimenti bibliografici:

Ramesh Srinivasan, Whose Global Village: Rethinking How Technology Shapes Our World, New York University Press, 2017

Benjamin B. Bratton, The Stack, The MIT Press, 2016

Luciano Floridi, The Fourth Revolution How the Infosphere Is Reshaping Human Reality. Oxford University Press, 2016.

Lawrence Scott, The four-dimensional human, Windmill books, 2015

Alex Pentland, Social Physics: How Good Ideas Spread, Penguin Books, 2014

Pedro Domingos, The Master Algorithm: How the Quest for the Ultimate Learning Machine Will Remake Our World, Basic Books, 2015

Jerry Kaplan, Humans Need no Apply: A Guide to Wealth and Work in the Age of Artificial Intelligence, Yale University Press, 2015

Jaron Lanier, Who owns the future?, Simon & Schuster, 2013

Nicholas Carr, The Shallows: what Internet is doing to our brains, W W Norton & Company, 2010

Evgeni Morozov, To Save Everything, Click Here: The Folly of Technological Solutionism, Public Affairs Books, 2014

Eli Pariser, The Filter Bubble: How the New Personalized Web Is Changing What We Read and How We Think, The Penguin Press, 2011

Manfred Spitzer, Cyberkrank! Wie das digitalisierte Leben unsere Gesundheit ruiniert, Droemer Verlag, 2015

Andrew Keen, The Internet is Not the Answer, Atlantic Monthly Press, 2014

Habeas mentem: libertà e diritti negli ambienti digitali

Algoritmi

Habeas mentem: libertà e diritti negli ambienti digitali

Dall’autunno del Medioevo fino al secolo scorso il conflitto tra poteri temporali e poteri religiosi si è giocato soprattutto sul corpo delle persone. Ai precetti religiosi che imponevano dalla prima infanzia all’estrema vecchiezza finalità totalizzanti del corpo, con il principio dell’habeas corpus il potere laico ha contrapposto i limiti del suo stesso arbitrio, rinunziando a disporre dei corpi dei propri cittadini senza basi giuridiche e giustificazione pubblica.

Ma proprio quando la rivendicazione dei diritti del corpo come soggetto politico portatore di diritti universali sembra un dato acquisito, almeno in molti paesi dell’Occidente, abbiamo iniziato a renderci conto che la grande battaglia per i diritti nei prossimi anni riguarderà non più il corpo ma la mente.

E’ possibile definire un “Habeas mentem” dell’epoca digitale?

Ovviamente separare il corpo dalla mente, l’emozionalità dalla razionalità, significa incorrere in quello che Antonio Damasio chiama l’errore di Cartesio. Eppure, così come il corpo diventa sempre più metaforico e bisognoso di attenzione rispetto all’invasività dei sistemi di monitoraggio e di controllo digitale, così anche la mente, di certo intesa come metafora, richiede un nuovo sistema di tutele e protezioni affinché possa continuare a costruire e scegliere liberamente le categorie concettuali con le quali vuole essere nel mondo. La proposta di ricerca dovrebbe sviluppare un percorso di riflessioni che partano, da un punto di vista storico, da un corpo fisico che rivendica la sua libertà per approdare a un corpo digitale che rivendica il suo presidio sui dati che produce fino alla tutela di una mente immersa in ambienti digitali relazionali e cognitivi che non solo puntano a indurre specifiche reazioni a certi stimoli ma che oggi, grazie agli sviluppi del neuromarketing, possono anche tracciare e prevedere l’attività neuronale.

La rivendicazione del diritto alla tutela della mente dalla manipolazione e dallo sfruttamento inconsapevole assume un significato ancora più forte nel capitalismo cognitivo, dove il fattore produttivo principale diventano le capacità cognitive degli individui lungo una scala che va, per sommi capi, dalla semplice attenzione, alla relazione, al problem solving, fino alle varie forme di creatività. L’habeas mentem è il diritto di rivendicare che le attività mentali e cognitive non vengano messe a valore senza un esplicito consenso dell’individuo o la esplicita possibilità di rinunciare a certe funzioni di certi ambienti relazionali o piattaforme cognitive senza dover essere penalizzati o esclusi da essi.

Ogni piattaforma digitale, sia essa primariamente relazionale o informazionale (per quanto i termini vanno intesi come strettamente interrelati), è di per sé anche un ambiente produttivo, capace, attraverso la loro trasformazione in dati, di mettere a valore attese, ricerche, interessi, emozioni, contenuti degli utenti. La produzione cognitiva non è più appannaggio di una classe ristretta intellettuale (ricercatori, scienziati, accademici, ecc.) ma grazie alle nuove tecnologie da ogni utente le piattaforme riescono ad estrarre informazioni e conoscenza. Se dunque è pacificamente acquisito che quando entriamo in queste piattaforme io e la mia mente veniamo messi sempre al lavoro, nel senso che stiamo creando valore per chi controlla la piattaforma, dunque la mente diventa, in un certo senso, “ostaggio” della piattaforma perché sottoposta al suo modello esperienziale e di produzione di valore, dovremo ora capire quali sono e quali potrebbero essere i meccanismi di tutela, gli ambiti di libertà e le vie di uscita da questi ambienti.

Quali sono dunque i confini inviolabili della mente nell’epoca degli ambienti relazionali, delle piattaforme cognitive, del neuromarketing e del marketing esperienziale? Può iniziare ad essere elaborato un insieme di indicazioni che consentono al soggetto di sottrarsi al controllo e allo sfruttamento delle sue dimensioni cognitive e psichiche da parte degli ambienti relazionali o della piattaforma cognitiva senza perdere i benefici e opportunità dell’epoca digitale?

La mente esposta

Già da decenni la sfida della comunicazione commerciale non è più sulla persuasione o sulla propaganda, ma su attenzione e su cambiamento di attitudini. Per fare questo non bastano più le vecchie teorie o tecniche di un epoca di mass media, ma un approccio granulare che richiede una conoscenza sempre più dettagliata non solo delle scelte del soggetto, ma anche dei processi mentali che lo presidiano, al fine di comprenderli ma anche di condizionarli, se non addirittura prevederli.

Neuromarketing e marketing esperienziale puntano a penetrare e condizionare la mente degli individui con un livello di profondità e raffinatezza impensabile fino a pochi anni fa grazie al ricorso a biometriche, elettroencefalogrammi, risonanze magnetiche funzionali, facial coding, eye-tracking e altre tecniche di lettura delle reazioni neuronali all’emozioni e agli stimoli sensori. La sfida è quella di cogliere non solo il cosa, ma il perché di una scelta , sia essa d’acquisto, di opinione o di adesione. Finora il limite di queste ricerche era legato alla loro complessità e ai costi delle apparecchiature. Inoltre si trattava di sperimentazioni in ambienti controllati, quindi distanti dalla vita quotidiana, dove un singolo stimolo si trova a dover competere per l’attenzione con tanti altri in un flusso esperienziale senza soluzione di continuità. Tuttavia la digitalizzazione delle esperienze e la dilatazione delle funzioni disponibili negli ambienti relazionali digitali stanno rapidamente cambiando lo scenario. In concreto: se già oggi la comune geolocalizzazione dei cellulari consente di ricostruire esattamente i percorsi dei visitatori di un supermercato e speciali sensori possono rilevare come reagisce la mente agli stimoli di quello spazio fisico, la migrazione verso il commercio elettronico e la pervasività di piattaforme e di ambienti relazionali comporterà un controllo e una prevedibilità della mente delle persone molto più efficace. Sempre più l’esperienza del mondo sarà mediata non solo tecnologie (wearables, IoT) ma da intere piattaforme come ambienti relazionali (Facebook) o strumenti di iperinformazione (Siri, Cortana). Che ne sarà di una mente quasi costantemente immersa in tali ambienti e le cui reazioni verranno registrate e analizzate in tempo reale da decine di sensori? Bisogna dunque chiedersi come potrà essere condizionata la mente umana quando le conoscenze e le tecniche avanzate di neuromarketing verranno applicate regolarmente in un ambiente totalmente digitale, definito nelle opzioni possibili e monitorato dai suoi creatori, in cui l’utente avrà a disposizione un set di opzioni preliminarmente approvate come accettabili.

Cosa significa gratuito?

Si porrà con estrema urgenza la domanda su cui si interrogano i circoli più avveduti di critica del digitale: chi lavorà per chi in una relazione tra soggetti umani e piattaforme digitale e, tra umani e intelligenza artificiale? Se una piattaforma si definisce gratuita dovrebbe garantire a ogni individuo la possibilità di fruire di un servizio a prescindere da quanto egli lascia alla piattaforma in termini di dati o di attività cognitiva e relazionale, inconscia o meno. Nell’epoca del digitale la gratuità non può essere collegata banalmente all’esistenza o meno di una transazione monetaria: il valore sono dati e contenuti, dunque uno scambio gratuito dovrebbe essere anche e soprattutto quello che non presuppone un trasferimento di dati (quindi di valore digitale) dall’utente alla piattaforma.

In realtà non accade così e le macchine algoritmiche non solo succhiano costantemente dati dai loro utenti, ma richiedono spesso esplicitamente di mettere a lavoro facoltà superiori dell’intelligenza umana. Nel caso di 2Captcha veniamo richiesti non solo di dimostrare di non essere dei robot, ma anche di mettere a disposizione gratuitamente le capacità di riconoscimento delle immagini della nostra mente per risolvere i problemi di attribuzione dei loro data base. E’ possibile dunque limitare una tendenza che porta a vedere gli umani come produttori gratuiti di dati senza diritti, neanche a sapere come questi dati verranno usati e da chi? Anche la scoperta che le gratifiche dei Like attivano il nucleus accumbens, il sistema neuronale collegato a piacere e dipendenze, suscita inquietudine per come può essere utilizzata.

Riprogrammare ai buoni sentimenti

Ma la mente non solo viene fatta lavorare gratuitamente, ma può essere facilmente condizionata e manipolata nelle sue persuasioni e scelte. Per quanto sia assolutamente ovvio che la mente umana è stata da sempre oggetto di propaganda e manipolazione, nell’era del digitale a questa modalità passiva, di mero consenso ai messaggi, si sostituisce l’abilitazione a produrre e diffondere quella stessa propaganda e la possibilità reale di riprogrammare le attitudini e le preferenze degli individui.

La stessa Facebook, sulla base del recente manifesto di Mark Zuckerberg, sembra voler disciplinare i suoi utenti in base a determinati valori di dialogo e tolleranza.

Immaginiamo allora, ad esempio, una delle tante persone che postano su Facebook contenuti razzisti, magari ripresi da uno dei tanti siti web che spacciano di continuo notizie false o manipolate, facendole poi riverberare su qualche centinaio di persone: una delle cose che su Facebook più allarma gli ingenui nemici delle parole ostili. Immaginiamo che Facebook, per ridurre questo obbrobrio, decida di proporre sulla timeline di questa persona sempre meno contenuti razzisti e sempre più contenuti, inoffensivi, che suscitano altrettanto attenzione da parte di questa persona, quali aggiornamenti di stato di amici non razzisti, immagini dei figli delle sue amiche, notizie generiche dei suoi luoghi di origine, notizie sulla sua squadra del cuore, ecc. Quanto sarebbe legittima e accettabile la riprogrammazione della bolla informativa e, indirettamente, della mente di un utente, che magari inizierebbe ad avere una diversa percezione della presunta gravità di certi fenomeni? Questo disciplinamento della mente di certi utenti, ancorché oggi già possibile e fatto intravedere da Zuckerberg, sarebbe legittimo? Non viola esso il diritto degli individui ad avere e rafforzare opinioni diverse da quelle più tranquillizzanti e condivise ma comunque proprie?

Già oggi le piattaforme incorporano dei pattern di relazione tra i partecipanti definiti a priori e tecnicamente non è complesso ipotizzare pattern anche di tipo cognitivo in qualche modo promossi dalla piattaforma. Le soluzioni all’allarme delle fake news, che comunque esistono da quando esiste il pettegolezzo del villaggio, potrebbero sfociare in esiti molto più distopici di quanto auspicano le anime belle.

Un punto di partenza

Non solo l’argomento seminale di questo post, ma anche le competenze dell’autore non consentono se non di porre certe questioni in forma di interrogativo.

Il dibattito finora è stato in termini di tutela e accesso ai dati e in termini di trasparenza e negoziabilità degli algoritmi. In realtà questi due approcci appaiono limitati. Il tema della privacy appare roba da nonni pudichi a una generazione di Millenials abituati a cercare conferme attraverso la vetrinizzazione della loro esistenza, mentre, d’altra parte, il dato è un concetto dinamico: da un dato oggi considerato non invasivo in futuro si potrebbero trarre informazioni estremamente riservate sulla vita e sul futuro di una persona. Che gli algoritmi debbano garantire maggiore trasparenza è una questione oramai sul tappeto in paesi come gli USA o la Germania, ma se pure si arrivasse a qualche risultato, i grandi player del digitale sarebbero sempre in grado di apportare modifiche sostanziali e ritornare subito molti passi avanti rispetto alla legislazione.

Definire i diritti di base del proprio essere digitali contro gli arbitri delle grandi piattaforme appare dunque una questione legata all’indirizzo futuro dell’umanità. Per definire l’habeas corpus la tradizione occidentale ha impiegato circa quattrocento anni. Rispetto alla velocità del progresso dell’intelligenza artificiale e alla pervasività delle piattaforme, per l’habeas mentem anche quattro anni potrebbero essere troppi.

.

Riferimenti di lettura:

Antonio Damasio, L’errore di Cartesio, Adelphi, 1995

UCLA Newsroom, The teenage brain on social media, 31 maggio 2016, [Link]

Gerald Zaltman, How Customers Think: Essential Insights into the Mind of the Market, Harward Business School Press, 2003

Michel Foucaldt, Nascita della biopolitica, Feltrinelli, 2005

Hilke Plassmann, Vinod Venkatraman, Scott Huettel, and Carolyn Yoon (2015) Consumer Neuroscience: Applications, Challenges, and Possible Solutions. Journal of Marketing Research: August 2015, Vol. 52, No. 4, pp. 427-435.

Lisa-Charlotte Wolter, David Hensel and Judith Znanewitz. 2017. A Guideline for Ethical Aspects in Conducting Neuromarketing Studies. Ethics and Neuromarketing, 65-87.

Lawrence Scott, The four-dimensional human, Windmill books, 2015.

Pedro Domingos, The Master Algorithm,  Basic Books, 2015

Kate Connoly,  Angela Merkel: internet search engines are distorting perceptions, The Guardian, 27 ottobre 2016 [Link]

Cosimo Accoto, Il mondo dato, EGEA, 2017.

Il Manifesto di Mark Zuckerberg: Facebook come nuovo modello di politica

Algoritmi

Il Manifesto di Mark Zuckerberg: Facebook come nuovo modello di politica

In principio fu Face Mash, niente più che una versione di Hot or Not per gli studenti di Harvard. Ma sin dall’inizio Mark Zuckerberg ha voluto dilatare gli ambiti del suo progetto a dimensioni esistenziali sempre più ampie, prima con thefacebook per le università e poi con Facebook per tutti. E da qui in poi è storia.

Dunque chi considera il manifesto “Building Global Community” un indizio della volontà di Zuckerberg di darsi alla politica attiva, magari in funzione anti Trump, semplicemente ne sottovaluta le ambizioni.

Il documento è totalmente politico, ma in un senso ancora più radicale, e pone implicitamente delle domande su cosa ne sarà della politica nell’epoca del superamento dei partiti di massa novecenteschi, dell’indebolimento degli stati-nazione, della digitalizzazione, dell’intelligenza artificiale e dell’automatizzazione delle funzioni cognitive.

I cinque obiettivi ideali di sviluppo delle communities che propone Zuckerberg (supportive, safe, informed, civically-engaged, inclusive) intendono proporre il social network come una metacomunità, al tempo stesso sovraordinata e coordinata con le altre comunità che, idealmente, dovrebbe sostenere e alimentare. Questi obiettivi sono eminentemente politici, e alcuni risultati di coinvolgimento politico ed elettorale raggiunti in varie parti del mondo vengono esplicitamente citati. Nel Manifesto, Facebook si propone dunque non come un elemento corrosivo delle istituzioni pubbliche tradizionali ma come un loro puntello. Ma qui emerge la prima contraddizione, ovvero come un’ambiente relazionale digitale, i cui algoritmi puntano a massimizzare il coinvolgimento degli utenti e a gratificarli per il tempo speso in esso, possa spingere verso l’impegno civico diretto nel mondo reale, che richiede tempo, attenzione e continuità di impegno a quegli stessi utenti cui chiede spasmodicamente attenzione per ricavarne il suo fatturato.

Si torna dunque a chiedersi che cosa è Facebook. Il successo di Facebook sta proprio nella sua estrema plasticità, che ha posto a tanti il problema della sua definizione, se fosse la società una media company, o una tech company o una entertainment company o una utility. Facebook può proporsi e può essere fruito per informare e disinformare, per offrire e cercare collaborazione, per autopromuoversi e vendere, per divertirsi e fare nuove amicizie, per raccontarsi e cercare conforto, per dibattere e litigare, per ritrovare o indugiare in vite altrui e lascio ai lettori allungare l’elenco. Di fronte a questa estrema variegatezza di opzioni, Zuckerberg per 14 volte chiama la sua creatura “infrastruttura sociale”, senza definire in dettaglio cosa con questo intenda e semmai rifugiandosi in una definizione riduttiva, che lo esonera dal prendere una posizione chiara rispetto a tutta una serie di problematiche, dalle fake news alle filter bubbles, che pure tocca nel testo. Infrastruttura è un termine che in prima battuta potrebbe sembrare neutro e che rimanda a servizi che in italiano definiremmo di pubblica utilità, quali autostrade, energia elettrica, acqua e banda larga. Ma la decisione su allacciare o no una comunità o un singolo a questi servizi è puramente politica, come politica fu la scelta di far passare l’autostrada del Sole da Arezzo o di nazionalizzare l’energia elettrica per poterla garantire a tutti a prescindere dal ritorno economico. Così come garantire l’acqua potabile tramite condotta o tramite autobotti non è la stessa cosa. Questa scelta di rifugiarsi nel corner delle utilities consente a Zuckerberg di proporsi al contempo come la neutra infrastruttura relazionale di base del nostro tempo e di sostenere la information diversity come principio guida di molte scelte presenti e soprattutto future di content curation. Tuttavia come questa strategia di information diversity vorrà plasmare, o almeno modificare, la dieta informativa di quasi due miliardi di persone? Se io ho idee di sinistra (per quel che possa significare oggi), finiranno per apparirmi in Home notizie e opinioni neoliberiste o addirittura esplicitamente di destra per promuovere il common understanding? Si useranno gli interessi comuni, lo sport, per spingere persone diverse a incrociarsi? Lo stesso Zuckerberg sembra temere un’ulteriore polarizzazione delle posizioni. Ma poi perché io, con le mie convinzioni, giuste o meno che siano ma costruite in decenni di letture, studio ed esperienze, devo essere disciplinato al “common understanding” come lo ha in testa Zuckerberg? Ecco dunque un’altra contraddizione: i Community Standards, lungi dall’essere mera netiquette e buona fede nelle relazioni che si instaurano, finiscono per diventare i principi ideologici da accettare tout court per fruire di una rete di quasi due miliardi di persone.

In una stesura precedente del testo alcune scelte fondamentali in tema di individuazione e analisi di post controversi o signals di pericoli venivano devolute ai sistemi di intelligenza artificiale: “The long term promise of AI is that in addition to identifying risks more quickly and accurately than would have already happened, it may also identify risks that nobody would have flagged at all — including terrorists planning attacks using private channels, people bullying someone too afraid to report it themselves, and other issues both local and global. It will take many years to develop these systems.”. La versione finale invece è molto più vaga e meno inquietante: “Looking ahead, one of our greatest opportunities to keep people safe is building artificial intelligence to understand more quickly and accurately what is happening across our community,“. Già prima che scoppiasse il tormentone delle fake news, Facebook aveva già provato a scaricare sugli algoritmi la questione dell’arbitrarietà della selezione delle notizie, ma di certo negli ultimi mesi anche un pubblico meno esperto inizia a essere consapevole che gli algoritmi sono un prodotto di programmatori umani e come tale soggetto a scelte arbitrarie ed errori di natura umana. Tuttavia quando ambisci a proporti come l’infrastruttura globale di base per produrre e alimentare comunità, ovvero senso di appartenenza, il ricorso all’intelligenza artificiale per indirizzare o censurare dei flussi di comunicazione suscita inquietudine, perché si tende a rendere le responsabilità opache e meno verificabili.

Preferisco da sempre definire Facebook un ambiente relazionale proprio perché ambiente è un termine molto più complesso, plastico e dinamico di infrastruttura e perché il social network mette a valore i processi cognitivi e relazionali dei suoi utenti.

In questo contesto discutibile per quanto riguarda la tutela e il riconoscimento del lavoro cognitivo di un ambiente tutto basato sugli users’ generated contents, il Manifesto di Zuckerberg prova ad evocare alcune tematiche dell’etica comunicativa di Jurgen Habermas quando definisce Facebook una “source of news and public discourse” con l’obiettivo di “creating a large-scale democratic process to determine standards with AI to help enforce them (the Community Standards). In certi passaggi Zuckerberg sembra immaginare una comunità dialogica e razionale (qualcosa di molto distante dalle risse digitali cui assistiamo quasi tutti i giorni, specialmente su temi politici), un processo dunque intersoggettivo dove, in assenza di orientamenti espliciti dei singoli, prevarrà la maggioranza dei rispondenti nel contesto di riferimento del singolo utente “like a referendum”, scrive esplicitamente il co-fondatore. Eppure questo meccanismo potrebbe aggravare le filter bubbles, perché, ad esempio, se io, irritato per le scelte del momento di un partito o di un’associazione o di una persona, decido di disattivare le notifiche relative ad essi, rischio di vederli sparire per sempre dal mio orizzonte informativo, data l’improbabilità che ogni qualche mese io i metta a rivedere le impostazioni del mio profilo. Quanti saranno i rispondenti a questi simil-referendum? E questi rispondenti saranno i più saggi e olimpici tra gli utenti? E se alla fine i risultati di qualche simil-referendum contrastassero i Community Standards cosa prevarrà, in una community che aspira a promuovere un processo democratico su larga scala (senza definirne forme e contenuti, per ora)? E infine, quale idea di democrazia digitale ha in testa Facebook, quando si propone su scala globale tanto in paesi dalla cultura democratica e dal confronto civico avanzatissimi quanto in paesi dove vige solo un principio di autorità che si diffonde verticalmente dal capo del governo al villaggio? Da quanto si intuisce l’approccio sarà glocale, una visione globale che a livello di singoli paesi o regioni interverrà sempre di più per promuovere campagne, idee e orientamenti definiti dal vertice della società. Che ruolo e che peso andranno ad avere le culture, e i poteri locali, eletti o riconosciuti come legittimi dalla maggioranza della popolazione di un dato paese, di fronte alle possibili interferenze o a candidati sostenuti da Facebook?

Di fronte alle ambizioni di Facebook e Google di inglobare e indirizzare il mondo delle informazioni e quello delle relazioni grazie ai loro algoritmi, sembra riemergere, in versione digitale, il classico conflitto dell’epoca moderna tra totalità e libertà. L’uomo moderno borghese come lo conosciamo nel suo individualismo è il risultato della rottura della totalità che si fondava su un principio ultramondano. I traumi soggettivi e i conflitti sociali che attraversano la modernità sono la conseguenza e la nostalgia di quella totalità. Ma Google e Facebook sembrano puntare a promuovere una nuova totalità (o almeno destinata alla totalità dei soggetti connessi), assorbendo e omogeneizzando ogni differenza nell’irenico “common understanding”, in cui si dissolve l’alterità e l’idea di pensare diversamente dai “Community Standards”. Si può davvero escludere che queste tendenze dei due giganti del web relazionale non implichino delle tendenze totalitarie, almeno rispetto a certi ambiti per essi essenziali come il controllo delle informazioni e delle relazioni, ovvero gran parte del web come lo conosciamo oggi?

In questo orizzonte cosa resterà della libertà degli individui? Una politica dominata da Facebook e Google sarà ancora capace di pensare categorie radicalmente diverse e alternative al presente?

Alcuni riferimenti:

Building Global Community, https://www.facebook.com/notes/mark-zuckerberg/building-global-community/10154544292806634/

The Guardian, 2016: the year Facebook became the bad guy, https://www.theguardian.com/technology/2016/dec/12/facebook-2016-problems-fake-news-censorship

Will Oremus, FutureTense, Facebook’s New “Manifesto” Is Political. Mark Zuckerberg Just Won’t Admit It. http://www.slate.com/blogs/future_tense/2017/02/17/the_problem_with_mark_zuckerberg_s_new_facebook_manifesto_it_isn_t_political.html

Annalee Newitz, Ars Techica, Op-ed: Mark Zuckerberg’s manifesto is a political trainwreck, https://arstechnica.com/staff/2017/02/op-ed-mark-zuckerbergs-manifesto-is-a-political-trainwreck/

Andrew Griffin, The Indipendent, Facebook is developing tools to read through people’s private messages, Mark Zuckerberg manifesto suggests, http://www.independent.co.uk/life-style/gadgets-and-tech/news/facebook-mark-zuckerberg-globalisation-manifesto-read-artificial-intelligence-robot-terrorist-a7586166.html

Il robot che pensa è anche responsabile?

Algoritmi

Il robot che pensa è anche responsabile?

Oggi il Parlamento europeo ha respinto la piattaforma “Civil law rules on roboticsche puntava a costruire un percorso di risposta alle conseguenze sociali, economiche, giuridiche, politiche e culturali dello sviluppo dell’automazione e dell’inteligenza artificiale.

La questione immediatamente evidenziata dai media è stata quella relativa al reddito universale di cittadinanza, che il rapporto promosso dall’eurodeputata socialista lussemburghese Mady Delvaux indica come una strada necessaria per far fronte alla scarsità di occupazione continua e di qualità che l’automazione comporta. 

In realtà il rapporto approvato il 12 gennaio scorso dalla commissione affari giuridici dell’europarlamento parla anche di molto altro: dalle “tradizionali” questioni relative alla protezione e alla manipolazione di dati personali da parte di soggetti non umani fino all’autocoscienza dei sistemi robotici e alla possibilità che future scoperte scientifiche e future consapevolezze sulla condizione dei viventi sulla Terra siano frutto dell’intelligenza artificiale e non più o non solo del pensiero umano. Appare chiaro che nella mappa della conoscenza umana ci troviamo in un “hic sunt leones” di cui quotidianamente si allarga l’estensione.

Se la tradizione filosofica, morale e giuridica occidentale ha sempre collegato pensiero e responsabilità, per cui solo l’individuo pensante e consapevole può essere ritenuto pienamente responsabile delle sue azioni, si pone per la prima volta nella storia dell’umanità la necessità di definire gli ambiti di responsabilità di sistemi elaborativi e cognitivi non umani e, di riflesso, la necessità di tutelare i soggetti umani, come quelli algoritmici, dai danni che possono loro ingliggere errori, omissioni o malfunzionamenti dei sistemi cognitivi non umani.

I parametri in base ai quali il Rapporto definisce i robot “autonomi e intelligenti” sono quattro: senzienza, attraverso lo scambio di sensazioni e dati con l’ambiente; autoapprendimento; supporto fisico; plasticità/reattività del suo comportamento e/o azioni al contesto in cui opera. Questi sistemi cognitivi con o senza supporto fisico pongono rischi per l’essere umano, che può ritrovarsi ad essere sfruttato per i dati che da egli si possono estrarre, come anche condizionato o abusato fisicamente. Il rapporto propone la creazione di un’Agenzia Europea per la robotica e l’intelligenza artificiale che dovrebbe fornire ai decisori pubblici gli strumenti tecnici, etici e regolatori per affrontare questo nuovo scenario.

Verso la robotologia?

Uno scenario in cui molto probabilmente si svilupperà a breve un’etologia dei robot e dei sistemi cognitivi non umani, una scienza che, sul calco del termine antropologia, potremmo chiamare robotologia.  Ma la robotologia non sarà una scienza separata dall’antropologia e dalle altre scienze umane tradizionali. Infatti sempre più corpi umani ospiteranno al loro interno o sulla loro superficie componenti, integrazioni o estensioni delle proprie membra: dal miglioramento della vista grazie a chip installati nell’occhio (per esempio in situazioni belliche) a lettori di attività e intenzioni cerebrali per chi è vittima di malattie paralizzanti. Fino a che punto queste estensioni algoritmiche dei sensi umani possono trasformare la percezione di sé? Fino a che punto la coscienza, l’emozionalità come anche il pensiero più razionale saranno condizionati da queste protesi interattive?

E se il robot già oggi può mentire e bleffare, chi gli comminerà la pena per i danni che provocherà e chi pagherà per questi danni? Il robot verrà disattivato (finquando gli umani potranno farlo) per questo? I programmatori degli algoritmi di autoapprendimento verranno ritenuti colpevoli oppure la società che li ha ingaggiati?  Chi risarcirà i danneggiati, umani o algoritmici? I premi di un’eventuale assicurazione contro i danni provocati da robot e algoritmi da chi verranno pagati?

Si svilupperà una cultura robotica autonoma da quella umana? I sistemi cognitivi non umani svilupperanno delle forme di comunicazione innovative tra di loro e in base ad esse si scambieranno e tramanderanno pratiche, competenze e scoperte?

Un reddito minimo per la sopravvivenza dell’umanità?

L’eurodeputata Mary Delvaux ha dichiarato che la sua preoccupazione è che “gli umani non vengano dominati dai robot”. E a chi pensa a una distopia tipo il Pianeta delle Scimmie con i robot al posto dei nostri cugini primati bisogna ricordare che ogni esonero di funzioni lavorative e cognitive umane che una macchina o una tecnologia attua è già essa una forma di dominio. L’esonero da tante funzioni lavorative, la liberazione dal lavoro promessa da secoli attraverso le macchine, sta gettando milioni di persone nella schiavitù della disoccupazione o della sottocupazione. Ecco perché la proposta di un salario minimo universale, sostenuto anche da Elon Musk, di certo non un agitatore politico. Ma la questione è ancora più complessa. Oltre un secolo di propaganda scientifica e manipolazione del consenso ci hanno insegnato che persuasioni distorte o convinzioni artificialmente costruite condizionano le persone molto di più che le fruste o i bastoni. In un mondo in cui sistemi cognitivi non umani potrebbero arrivare a decidere cosa far sapere e come, cosa scoprire o inventare, cosa scegliere nelle politiche pubbliche, come vivere e pensare, vi saranno ambiti in cui gli esseri umani potranno perseguire una autonoma ricerca di pensiero e di scelte di vita?

Bocciando il rapporto, gli eurodeputati hanno dato la risposta più banale possibile, il rifugio in un mondo sorpassato di schemi mentali su lavoro, economia e società che essi stessi, anche nel loro quotidiano di consumatori, stanno inconsciamente contribuendo a superare. Essi hanno dimostrato di trovarsi ancora nella fase di negazione o del rifiuto delle conseguenze che la trasformazione digitale ci sta imponendo. Mentre  l’opinione pubblica e i politici più conservatori vedono il reddito di base come un regalo agli scansafatiche, esso potrebbe essere uno strumento fondamentale per garantire autonomia agli individui rispetto alla dittatura degli algoritmi, un modo per garantire il futuro all’umanità come l’abbiamo conosciuta finora.

Certo, qualcuno potrebbe obiettare, come in una commedia di G.B. Shaw, che la memoria dell’umanità è una memoria di infamie, ma sono almeno infamie che abbiamo imparato a conoscere e (a volte) a riconoscere. Delle possibili infamie dell’era dell’intelligenza artificiale potremmo addirittura non accorgecene.

L’immaterialità della moneta e il processo di astrazione del valore

Algoritmi Antologia Biblioteca

L’immaterialità della moneta e il processo di astrazione del valore

In un mondo sempre più composto da elementi immateriali (servizi, funzioni, ) come si trasforma il rapporto tra merce e denaro? Il denaro per sua natura è un’astrazione parzialmente rappresentata dalle monete che sono apparse nella storia dell’umanità (dalle conchiglie al solidus da 4,5 grammi d’oro, dalle banconote alle transazioni NFC), che serviva a rappresentare un sistema di scambi tra le persone che quasi sempre prendeva la forma di una merce materiale (un’automobile, un utensile) o di un valore computabile (l’ora di lavoro pagata un tot).

Al contrario, oggi siamo entrati in una fase in cui non solo la moneta, ma gran parte dei beni di cui fruiamo o cui diamo maggior importanza per la nostra esistenza o per il nostro percorso futuro è rappresentato da elementi immateriali, quali un servizio di comunicazione, un software o un app, il cui costo viene deciso da chi lo eroga in maniera spesso del tutto scollegata dai costi materiali storici di produzione ed eventualmente erogato gratuitamente in funzione dell’appropriazione di altri beni, estratti dagli utenti sotto forma di dati computabili, o di valorizzazioni finanziarie future non legate ai metodi tradizionali di valutazione delle merci fisiche.

In questo senso si crea una situazione speculare tra un capitalismo che valorizza la capacità di produrre valore da astrazioni (i dati) di scelte, comportamenti o attributi delle persone,  e un capitalismo finanziarizzato che produce valore da denaro in gran parte dematerializzato. L’avvento delle monete deterritorializzate basate su blockchains estremizza il processo già in corso con la finanza globale e tende a costruire dei territori virtuali, digitali, di cui queste monete garantiranno la cittadinanza solo ai loro possessori.

Il processo di astrazione della moneta e delle vite è tra i temi al centro delle riflessioni dell’ultimo libro di Christian Marazzi  Che cos’è il plusvalore? (Casagrande Ed., Bellinzona), di cui ripubblico un passaggio ripreso da cheFare, che ringrazio. (B.C.)

Felix Martin, storico del denaro, ha scritto un libro stupendo (Denaro. La storia vera: quello che il capitalismo non ha capito, Utet, Torino, 2014) in cui parla della scoperta della comunità sull’isola di Yap nel Pacifico da parte di un antropologo, William H. Furness, che all’inizio del Novecento ne studiò usi e costumi, fondamentali per il pensiero di John M. Keynes e persino dell’ultimo Milton Friedman. Questa comunità, mai colonizzata nonostante i vari tentativi di missionari e britannici – i quali morirono nell’impresa – disponeva soltanto di tre beni presenti sull’isola: il merluzzo, il cocco e il cetriolo di mare. È una classica comunità nella quale si poteva ipotizzare il baratto, con poche persone che si scambiano solo tre merci.

Continue reading

Un algoritmo ci seppellirà?

Algoritmi

Un algoritmo ci seppellirà?

(Questo testo è stato già pubblicato su Digidig.it)

Uno spettro si aggira per il web: lo spettro dell’algoritmo!

La sterlina crolla per qualche secondo? Forse è stato un errore umano, ma fa più clamore evidenziare che, forse, la colpa è di un non ben specificato e impersonale algoritmo.

La cosiddetta “Buona Scuola” è accusata di aver determinato esodi di docenti di portata addirittura biblica?  Le scelte sono state fatte da un algoritmo, quindi prendetevela con lui, se riuscite a trovarlo.

Se invece siete algoritmicamente licenziosi potreste applicare l’algoritmo del pene elaborato da Le Iene e verificare se il risultato corrisponde alle misure effettive (senza barare però) in questo nuovo sistema metrico genitale.

Visto che per essere notati bisogna usare le parole del momento, anche l’ottuagenario Rino Formica, in una recente intervista dove critica apertamente Matteo Renzi, ci rivela che “Non prendiamo atto di una realtà: quella di essere governati in ultima istanza da un’algoritmo”. Le ultime cinque parole erano linkate e quindi vi ho cliccato per capire finalmente chi o cos’è questo famigerato algoritmo: mi son ritrovato su una pagina dello stessa testata dal titolo “Goldman Sachs e Renzi preparano l’arrivo della troika”. Quindi una bella confusione: quelle dinamiche che non si capiscono proprio bene e che fino a dodici-diciotto mesi fa venivano attribuite senza dubbio alla malefica finanza globale, ora vengono attribuite alla forza dell’inquietante Algoritmo. Un indefesso complottista potrebbe teorizzare dunque che i soliti banchieri e massoni adesso si chiamano tra loro algoritmi. A quando G.A.D.U. verrà interpretato come Grande Algoritmo Dell’Universo?

Ecco dunque la parola del momento: l’algoritmo, pronto per ogni spiegazione, che fa entrare nelle pagine importanti di ogni testata, apre le porte delle conversazioni suppostamente intelligenti, fa sentire contemporanei e aggiornati, con un tono anche un po’ esoterico o almeno da esperto, ché ci dà un tono in più. Facile il rischio che un concetto relativamente semplice, ma dalle applicazioni infinite e anche estremamente complesse e pervasive, finisca per essere banalizzato da semplificazioni giornalistiche e dal sentito dire delle chiacchiere in società.

Algoritmi tra tecnica e ideologia

In questo senso vi è poi un’altra tendenza, soprattutto di una certa sinistra, a sostituire oggi la tradizionale parola capitale con la parola algoritmo, creando un feticcio intellettuale opaco e concettualemente inutile.  Insomma, una classica reificazione, come mette in guardia Tarleton Gillespie, dalle maglie talmente larghe da farci stare tutto e senza trattenere niente. Come quando Karl Popper, nella Vienna degli anni Trenta, notava come i marxisti riuscissero a spiegare tutto con la loro teoria, dalle crisi economiche ai cambiamenti di costume. Proprio lì Popper iniziò ad elaborare la sua teoria della falsificabilità dei postulati scientifici.  Dopotutto è sempre più facile riverniciare il proprio vocabolario che dotarsi di concetti nuovi per comprendere le trasformazioni che ci attraversano.

Il punto sta tutto qua: o algoritmo è la buzzword del momento, destinata a tramontare non appena ne arriverà un’altra, oppure esso è il termine che indica la trasformazione radicale dei processi di vita, di pensiero e di relazione che è in corso, e allora non basta citare gli algoritmi, ma bisognebbe studiarli, non dico saperli scrivere, ma almeno saper leggere quelli pubblici per capirne le loro implicazioni.

Eppure, quanti tra coloro che parlano e scrivono di algoritmi saprebbero almeno interpretarli in versione formalizzata, ovvero come essi effettivamente funzionano? E alla fin fine, se non sai leggerli come puoi ambire a negoziarli? Chiunque si occupa di coding sa che ogni comando ha senso solo se applicato a un dataset. Ovunque oggi si ragiona di algoritmi e molto meno di dati. Mi sa che i discorsi sui dati, elemento cardine della nostra epoca, hanno giornalisticamente già stufato, ma, come vedremo alla fine di questo testo, dalla loro tutela potrebbero nascere nuove modalità di fruizione del web.

digital-saladUn algoritmo, nella sua declinazione meno formalizzata, non è che un insieme di istruzioni. Una ricetta può essere considerata un algoritmo. Il consiglio classico dei ricettari che invita ad aggiungere sale se all’assaggio l’impasto è sciapito sarebbe in informatica un tipico comando IF o condizionale. Le indicazioni per preparare un’insalata primavera possono essere intuitivamente assimilabili a quelle per trovare soluzioni e risposte attingendo da più repository di dati. In questo senso un’insalata primavera con quattro uova sode, quattro piselli e due foglie di lattuga non può più chiamarsi insalata primavera, così come un sistema algoritmico complesso non riesce più a restituire risposte e soluzioni pregnanti se non utilizza e incrocia grandi volumi di dati quanto più diversificati e calibrati per ampiezza e profondità. La necessità di utilizzare sempre più dati per far sì che i suoi risultati siano pregnanti porta Google oggi a utilizzare oltre 200 signals, che i suoi algoritmi analizzano per restituire risposte che tanti, ingenuamente, considerano definitive. Per concludere con la similitudine, immaginate di avere sotto casa un negozio di insalate denominato “Big G” che offre oltre 200 prodotti liberamente miscelabili, dalla classica lattughina ai più esotici grani di melograno o di papavero e a tantissime spezie: di fronte a tale abbondanza ci metteremmo tantissimo per decidere, paralizzati dalle tantissime opzioni disponibili. Poi, per fortuna (?), interverrebbe l’operatore che, sulla base della sua esperienza, ci propinerebbe quella che ritiene l’insalata migliore per noi, che noi riterremmo molto gustosa e varia, anche perché non abbiamo potuto conoscere le alternative.

Algoritmi come deresponsabilizzazione ed esonero

Tra le tante infinite possibilità offerte da basi di dati sempre più estese e dettagliate, uno specifico algoritmo (meglio: una ramificazione di algoritmi) ci risponde con una scelta che ritiene essere la più rilevante, che forse troveremo poco pregnante ma che di certo ci nasconde infinite altre possibilità di informazione e conoscenza. Eppure questo algoritmo, questa unica e parziale logica, viene intesa comunemente come la logica, la spiegazione, la risposta, la soluzione, univocamente, esclusivamente.

Emergono così, a mio avviso, due rischi.

Il primo rischio è quello che porta dritto verso una deresponsabilizzazione  generalizzata. Il disastro ferroviario, la somministrazione sbagliata di farmaci, l’incidente industriale saranno sempre più addossati al povero algoritmo, il quale, potrà diventare il capro espiatorio ideale: anonimo, impersonale, incomprensibile ai più. Dovremmo essere sempre consapevoli che, allo stato attuale dell’intelligenza artificiale, dietro e sopra un algoritmo c’è qualcuno che lo ha scritto e ha fatto determinate scelte nell’introdurre quelle istruzioni e non altre. Così come dovremmo sempre ricordarci che l’algoritmo offre una o più risposte rilevanti rispetto ai determinati parametri umanamente ritenuti ottimali ma non che possono non essere pertinenti al contesto e alle situazioni specifiche.

Il secondo rischio rischia di spingere verso quello che si potrebbe definire, per citare Arnold Gehlen, un esonero cognitivo, così che la pervasività degli algoritmi ci farà comodamente rinunciare a non capire in concreto nulla del mondo in cui viviamo e delle sue dinamiche, e nemmeno in base a cosa prenderemo delle decisioni. E soprattutto nemmeno ci porremo il problema di chi e perché ha creato quel tale algoritmo, perché noi degli algoritmi, di queste black box contemporanee, finiamo per conoscere solo gli effetti ma non i processi e le logiche.

E allora una domanda: perché devo continuare a tramandare o costruire strumenti di esonero tipici degli esseri umani, di cui la cultura è quello principe, se vi sarà un algoritmo che può farlo al posto mio? Cosa resterà dell’uomo se un algoritmo definirà i principi del suo ragionamento e le basi della sua identità?

Rispetto a questi due rischi, che alla fin fine mettono in discussione due cardini del pensiero quali l’elaborazione culturale e la responsabilità delle scelte, sorge allarmata la necessità di porre una qualche barriera. L’eco del momento diventa: se non possiamo fermare l’algoritmo almeno negoziamo i suoi ambiti e i suoi poteri. Ma è ovvio che la negoziabilità non può avvenire a priori perché i detentori degli algoritmi non li renderanno mai pubblici.

E anche se domani Google e Facebook, improvvisamente convertiti al Public Domain, rendessero pubblici i loro algoritmi, quanti dei teorici che ora si affannano attorno al tema saprebbero leggerne il codice e proporre modifiche operative? E quanti sviluppatori, essi sì capaci di leggere le sterminate linee di codice di questi algoritmi, saprebbero trasformare in codice le questioni che sollevano i critici degli algoritmi?

chrome-fa

Negoziabilità è un termine che risente di un approccio vertenziale uscito dritto da qualche fumosa stanza dove decenni fa si consumavano sfibranti negoziati notturni tra le “parti sociali”. Ma oggi le parti sociali, intese come allora, non ci sono più. Ci sono organizzazioni, per lo più di tipo aziendale, che si dotano di algoritmi sulla base di interessi non sempre immediatamente monetizzabili e un’infinità di persone che fruiscono di questi algoritmi con un livello più o meno alto di consapevolezza. Chi potrebbe impostare la trattativa tra i pochi e i tantissimi? E’ vero che ci sono esperienze di lobby dei cittadini, ma in quel caso tutele e accordi sono implementati solo dopo aver esperito sui destini delle persone gli effetti di questa black box chiamata algoritmo.

Non solo, anche se un’autorità nazionale o sovranazionale impone a un motore di ricerca di cancellare certi risultati, non sapremo mai quali algoritmi di sorting sono stati disattivati e quanto questi filtri possono essere scavalcati semplicemente cambiando configurazione al browser o navigando in anonimo. Chi cerca qualcosa sul web ha strategie e tecniche spesso molto più raffinate di ogni filtro normativo.

Dunque, almeno a priori, negoziare gli algoritmi è vano e velleitario? Una sfida impossibile per cui non ci resterebbe che heideggerianamente soccombere alla tecnica? Credo al contrario che vi siano due grandi ambiti di negoziazione, che sono quello della privacy e quello della valorizzazione dei dati estratti da ogni singola persona.

Si tratta in realtà di presidiare il processo di acquisizione e valorizzazione dei dataset, che è la vera catena del valore in epoca digitale. Oggi io concedo l’uso dei miei dati a fronte di servizi che spesso potrebbero risultare soddisfacenti anche senza una tale invasività. Pressoché in contemporanea  vengo spinto a concederli gratuitamente.

Ma quale presupposto, persuasione o ideologia ha permesso ai grandi operatori del web di definire come standard univoco e indiscusso la cessione gratuita dei miei dati e la non conoscenza dei processi di estrazione e di utilizzo dei dati, e dunque l’opacità degli algoritmi?

E’ possibile e, se sì, come cambiare questa persuasione generale alla base del successo economico delle grandi piattaforme cognitive e relazionali che dominano internet? Credo che sia questo lo snodo essenziale di ogni dibattito pubblico sul tema.

Il corpo digitale

Algoritmi Il meglio del vecchio blog

Il corpo digitale

Il corpo digitale è la rappresentazione digitalizzata e quindi trasformata in dati computabili, trasmissibili e analizzabili della nostra interezza psicofisica. Corpo digitale non siamo semplicemente noi mentre lasciamo su internet le scie del webtracking o le tracce della nostra fruizione dei media sociali, ma è la ricostruzione digitalizzata di tutte informazioni che produciamo in tutte le nostre interazioni digitali di qualsiasi tipo, costantemente aggiornate e archiviate nella loro totalità dalle differenti piattaforme che registrano.

Il corpo digitale (segnalo il testo collettivo curato da Antonio Marturano) non è una metafora fantascientifica ma una realtà, sulla base della quale vengono compiute scelte di marketing, piani di sviluppo aziendale, progetti di ricerca, azioni di controllo sociale e repressione della criminalità. Il corpo digitale può avere una consistenza e una profondità variabile, può ricomprendere informazioni biometriche, genetiche e sanitarie molto dettagliate, può rappresentare l’insieme della vita psichica e relazionale della persona reale così come si stampiglia sui media sociali che ella frequenta, racconta di pulsioni e anche di pervesioni che la persona reale nega a se stessa ma cui cerca sfogo nelle sue navigazioni internet, segue il corpo reale nei suoi spostamenti fisici, anticipa e prevede le scelte del nostro corpo fisico e sopravvive alla sua morte. Sorta di Doppleganger creato e alimentato dagli infiniti riverberi della digitalizzazione dell’esistenza, il corpo digitale ci segue e ci precede, a volte si sovrappone a noi, più spesso è capce di trasfigurare la nostra esistenza ordinaria.

Per questo tanto più valiamo quanto più denso, multidimensionale, aggiornato e dunque rappresentabile e prevedbile è il nostro corpo digitale. In tal senso il corpo fisico perde importanza economica, sociale e politica, poiché esso risulta essere solo il sostrato più antico di una identità che trova piena compiutezza, solvibilità e funzionalità al sistema sociale in cui è inserita quando essa è innervata nel sistema digitalizzato di relazioni, transazioni e mobilitazioni proprie della società digitale.

Il corpo digitale “vale” di più di un analogico corpo fisico, poiché è dal primo che si ricava valore, mettendo al lavoro tutte le informazioni che racchiude.

Siamo ben oltre la mera messa a valore del linguaggio (ecco il classico testo di Cristian Marazzi): il valore ora sta nell’interezza delle rappresentazioni e delle tracce digitali che produciamo quotidianamente, grazie alla possibilità di registrarle e analizzarle per ricavarne costantemente informazione.

La multidimensionalità del corpo digitale ricomprende anche tutte le informazioni sulla nostra fisicità che abbiamo lasciato durante le nostre transazioni online, dalle taglie dei vestiti al numero di scarpa, la nostra biometria commerciale, come anche i nostri gusti, gli stili del vestiario che preferiamo indossare e anche i desideri che non abbiamo ancora indossato. Anzi per gli osservatori e i tutori del nostro corpo digitale i desideri, le pulsioni, le fantasie e i progetti che testimoniamo con la nostra navigazione web, i nostri Like, i nostri pin, i nostri checkin, i nostri commenti sono gli aspetti psichici del nostro corpo digitale che consentono le attività di retargeting tanto importanti per qualsiasi strategia di web marketing. Ma anche il vissuto psichico che trasferiamo nel nostro corpo digitale, quando postiamo nei nostri blog o aggiorniamo i nostri status su facebook, quando twittiamo, quando commentiamo, quando sosteniamo quella campagna e inseriamo il nostro nominativo in quella petizione online, tutte queste azioni che caratterizzano il nostro corpo digitale diventano ancora più interessanti per chi si occupa di sorvegliarlo, incasellarlo, pedinarlo nelle sue frequentazioni e attività digitali al fine di prevenire o almeno prevedere i comportamenti del corpo fisico considerati devianti.

In questo senso il nostro corpo digitale è capace anche offrire previsioni in merito alle azioni del corpo fisico. Sono un sostenitore dei No Tav Torino-Lione? Bene, se mi trovo nelle vicinanze della val di Susa (facile saperlo, se ho prenotato trasporto e pernottamento online ma anche se ho un banale geotagging sullo smartphone), magari per innocenti motivi gastronomici, il mio corpo fisico potrebbe venire fermato e identificato dalle forze dell’ordine in prospettiva della manifestazione No tav che si svolgerà di lì a poco: il mio corpo digitale ci sarebbe voluto essere, magari seguirà lo stream dei tweet, ma il mio goloso corpo fisico ha preferito quella sagra a pochi chilometri eppure, nel dubbio, il corpo fisico verrà sottoposto a controlli giustificati sulla base dei miei comportamenti digitali.

Siamo più vicini a questi scenari di quanto molti preferirebbero credere.

Chi guadagna dal mio essere social?

Algoritmi Il meglio del vecchio blog Uncategorized

Chi guadagna dal mio essere social?

“Bisogna essere assolutamente moderni”, scrive Arthur Rimbaud nel 1873. “Bisogna essere assolutamente social”, dicono in tanti nel 2013, giusto 140 anni dopo. Ma che cosa implica “essere social”?

Nel 1979 Jean François Lyotard teorizzò, in un librettodestinato a grande fama, l’avvento dell’età post-moderna, la cui caratteristica principale era la fine delle “grandi narrazioni”, politiche, religiose, nazionali. Da allora il prefisso post è stato messo un po’ a tutto: fino a teorizzare i post-italiani e la post-nazione, di cui l’Italia attuale è (sarebbe, per gli ottimisti) un paradigmatico esempio.

Se risulta innegabile che le grandi narrrazioni politiche che hanno alimentato le opzioni sociali per gran parte del Novecento sono oggi affievolite o marginali (illuminismo, comunismo-socialismo, liberalismo), è pur vero che gli ultimi trent’anni la grande narrazione del mercato nella sua accezione neoliberista ha dominato e condizionato la scena politica e sociale. Sbagliava dunque Lyotard a ritenere che non sarebbero emerse altre idee totalizzanti, capaci di imporsi per alcuni addirittura come verità incontrovertibili. Quante persone, ad esempio, hanno rinunciato alle loro inclinazioni umanistiche e si sono adattate a crearsi una professione che rispondesse alle esigenze del mercato? Quanto la propaganda neoliberista veicolata dai mass media ha imposto certe logiche e certe retoriche ad organizzazioni come ad interi stati? Non è questa una grande manipolazione dei bisogni e delle aspirazioni simile a quella che impongono i regimi totalitari? Ancora oggi “il mercato” o “i mercati finanziari” sono usati per far accettare decisioni anche arbitrarie prese da chi queste entità, rappresentate quasi come ipostasi apofantiche, le muove in funzione dei propri interessi.

Oggi la nuova grande narrazione si chiama “social”. Siamo spinti a essere presenti sui media sociali e a interagirvi, a creare contenuti, a relazionarci con innumerevoli soggetti, il tutto per giustificare, confermare, rafforzare la nostra presenza, ovvero la nostra esistenza “social”. Come dice David Meerman Scott “on the web you are what you publish” e aggiunge: “if you publish nothing you are nothing”. Se produci contenuti interessanti creerai attorno a te interesse, reputazione e forse anche possibilità di sfruttare commercialmente tutto questo. Ma le modalità che i singoli hanno di estrarre valore dalla loro identità e dai loro comportamenti digitali sono infinitesime rispetto a quanto ottengono da essi le grandi piattaforme di comunicazione come Google, Facebook e tutti i media sociali. Per essi, questo “essere social” produce valore, anche monetario, poiché viene incanalato nei meccanismi di analisi dei Big Data. Il “valore social” di un fatto, di un contenuto, di una relazione finisce per essere pari alla possibilità di immetterlo nei processi di estrazione del valore, di metterlo in connessione con altri dati e di rendere questi dati immediatamente utilizzabili per azioni commerciali o politiche o di qualsiasi altro genere purché trovino un acquirente.

Le piattaforme social sono oggi lo strumento di sfruttamento biocapitalistico della naturale tendenza sociale delle persone. In realtà, non basta che Facebook prometta di essere per sempre gratuito: tutti i media sociali dovrebbero pagare gli utenti per ogni contenuto postato, sia pure pochi centesimi di dollaro, come fa Google AdSense.

Questa spinta a “essere social” è la grande narrazione dei nostri giorni e come ogni grande narrazione finisce per condizionare le scelte e le vite di decine di milioni di persone in tutto il mondo. Ci sono ambiti professionali in cui non si può scomparire dal proprio “mondo social” per più di qualche settimana se non si vuole rischiare di scomparire nella visibilità e quindi nella possibilità di essere ingaggiati come esperti.

L’ “essere social” è dunque la socialità attraverso i media sociali e il web, con regole sue proprie e non confondibile con la socievolezza personale: un timidone può essere un social influencer nel mondo digitale.

Soprattutto l’ “essere social” ha la caratteristica di essere monetizzabile, anche quando il messaggio postato sul media sociale sembra il più intimo e soggettivo possibile.

Prendiamo il caso di due amiche che si incontrano, staccano i cellulari e parlano fittamente di scelte legate alle loro esistenze. Esse producono molto meno “valore social” di due conoscenti che su facebook sviluppano un thread di politica anche fatto di insulti. Dalla secoda situazione si traggono dati utili a tracciare una tendenza e quindi a produrre analisi e dinamiche di comportamento elettorale. Nel primo caso il contenuto, essendo non tracciato, non ha “valore social” eppure può rappresentare un momento essenziale nel rapporto tra due persone.

Dunque, così come milioni di persone in tutto il mondo nei decenni passati sono stati spinti a applicare alle loro scelte e ai loro comportamenti una logica di “mercato”, oggi milioni di persone sono spinte a ragionare in termini “social”. È un bene o un male? Non esiste una risposta univoca. Che il mercato abbia aiutato milioni di persone ad uscire dalla povertà è un fatto come lo sono anche le condizioni di sfruttamento in cui ancora vivono tante altre decine di milioni di persone a causa delle “logiche di mercato”. Quando interagiamo in termini “social” dobbiamo essere consapevoli che stiamo producendo e regalando valore a chi utilizzerà quelle interazioni. Finquando riterremo che il vantaggio che ne otteniamo è maggiore di quanto regaliamo nessuno porrà dubbi. Il fatto divertente è che quasi nessuno di noi conosce il controvalore del nostro “essere social” e veniamo costantemente persuasi che “essere social” sia un valore di per sè. Pensate, per parallelo, a come le tematiche relative alla privacy abbiano perso vigore e urgenza all’interno del dibattito pubblico mentre al contempo i sistemi di tracciamento delle nostre vite diventavano sempre più raffinati. Il sistema Prism scava nelle vitedigitali degli europei, cosa vietata negli USA: avete sentito il Garante della Privacy o il Governo italiano inoltrare una pesante protesta all’amministrazione Obama? Non solo perché ci troviamo, noi itaiani, in una posizione di minorità economica politica, ma anche perché i cosiddetti “nativi digitali” under 30 sono in genere poco sensibili verso la tematica.

Ecco, torniamo al punto di partenza: la persuasione diffusa è che “bisogna essere assolutamente social” ma siamo sicuri di sapere cosa rischiamo di perdere attraveso il nostro ”essere social”?

Vai alla barra degli strumenti