Categoria: Algoritmi

Il robot che pensa è anche responsabile?

Algoritmi

Il robot che pensa è anche responsabile?

Oggi il Parlamento europeo ha respinto la piattaforma “Civil law rules on roboticsche puntava a costruire un percorso di risposta alle conseguenze sociali, economiche, giuridiche, politiche e culturali dello sviluppo dell’automazione e dell’inteligenza artificiale.

La questione immediatamente evidenziata dai media è stata quella relativa al reddito universale di cittadinanza, che il rapporto promosso dall’eurodeputata socialista lussemburghese Mady Delvaux indica come una strada necessaria per far fronte alla scarsità di occupazione continua e di qualità che l’automazione comporta. 

In realtà il rapporto approvato il 12 gennaio scorso dalla commissione affari giuridici dell’europarlamento parla anche di molto altro: dalle “tradizionali” questioni relative alla protezione e alla manipolazione di dati personali da parte di soggetti non umani fino all’autocoscienza dei sistemi robotici e alla possibilità che future scoperte scientifiche e future consapevolezze sulla condizione dei viventi sulla Terra siano frutto dell’intelligenza artificiale e non più o non solo del pensiero umano. Appare chiaro che nella mappa della conoscenza umana ci troviamo in un “hic sunt leones” di cui quotidianamente si allarga l’estensione.

Se la tradizione filosofica, morale e giuridica occidentale ha sempre collegato pensiero e responsabilità, per cui solo l’individuo pensante e consapevole può essere ritenuto pienamente responsabile delle sue azioni, si pone per la prima volta nella storia dell’umanità la necessità di definire gli ambiti di responsabilità di sistemi elaborativi e cognitivi non umani e, di riflesso, la necessità di tutelare i soggetti umani, come quelli algoritmici, dai danni che possono loro ingliggere errori, omissioni o malfunzionamenti dei sistemi cognitivi non umani.

I parametri in base ai quali il Rapporto definisce i robot “autonomi e intelligenti” sono quattro: senzienza, attraverso lo scambio di sensazioni e dati con l’ambiente; autoapprendimento; supporto fisico; plasticità/reattività del suo comportamento e/o azioni al contesto in cui opera. Questi sistemi cognitivi con o senza supporto fisico pongono rischi per l’essere umano, che può ritrovarsi ad essere sfruttato per i dati che da egli si possono estrarre, come anche condizionato o abusato fisicamente. Il rapporto propone la creazione di un’Agenzia Europea per la robotica e l’intelligenza artificiale che dovrebbe fornire ai decisori pubblici gli strumenti tecnici, etici e regolatori per affrontare questo nuovo scenario.

Verso la robotologia?

Uno scenario in cui molto probabilmente si svilupperà a breve un’etologia dei robot e dei sistemi cognitivi non umani, una scienza che, sul calco del termine antropologia, potremmo chiamare robotologia.  Ma la robotologia non sarà una scienza separata dall’antropologia e dalle altre scienze umane tradizionali. Infatti sempre più corpi umani ospiteranno al loro interno o sulla loro superficie componenti, integrazioni o estensioni delle proprie membra: dal miglioramento della vista grazie a chip installati nell’occhio (per esempio in situazioni belliche) a lettori di attività e intenzioni cerebrali per chi è vittima di malattie paralizzanti. Fino a che punto queste estensioni algoritmiche dei sensi umani possono trasformare la percezione di sé? Fino a che punto la coscienza, l’emozionalità come anche il pensiero più razionale saranno condizionati da queste protesi interattive?

E se il robot già oggi può mentire e bleffare, chi gli comminerà la pena per i danni che provocherà e chi pagherà per questi danni? Il robot verrà disattivato (finquando gli umani potranno farlo) per questo? I programmatori degli algoritmi di autoapprendimento verranno ritenuti colpevoli oppure la società che li ha ingaggiati?  Chi risarcirà i danneggiati, umani o algoritmici? I premi di un’eventuale assicurazione contro i danni provocati da robot e algoritmi da chi verranno pagati?

Si svilupperà una cultura robotica autonoma da quella umana? I sistemi cognitivi non umani svilupperanno delle forme di comunicazione innovative tra di loro e in base ad esse si scambieranno e tramanderanno pratiche, competenze e scoperte?

Un reddito minimo per la sopravvivenza dell’umanità?

L’eurodeputata Mary Delvaux ha dichiarato che la sua preoccupazione è che “gli umani non vengano dominati dai robot”. E a chi pensa a una distopia tipo il Pianeta delle Scimmie con i robot al posto dei nostri cugini primati bisogna ricordare che ogni esonero di funzioni lavorative e cognitive umane che una macchina o una tecnologia attua è già essa una forma di dominio. L’esonero da tante funzioni lavorative, la liberazione dal lavoro promessa da secoli attraverso le macchine, sta gettando milioni di persone nella schiavitù della disoccupazione o della sottocupazione. Ecco perché la proposta di un salario minimo universale, sostenuto anche da Elon Musk, di certo non un agitatore politico. Ma la questione è ancora più complessa. Oltre un secolo di propaganda scientifica e manipolazione del consenso ci hanno insegnato che persuasioni distorte o convinzioni artificialmente costruite condizionano le persone molto di più che le fruste o i bastoni. In un mondo in cui sistemi cognitivi non umani potrebbero arrivare a decidere cosa far sapere e come, cosa scoprire o inventare, cosa scegliere nelle politiche pubbliche, come vivere e pensare, vi saranno ambiti in cui gli esseri umani potranno perseguire una autonoma ricerca di pensiero e di scelte di vita?

Bocciando il rapporto, gli eurodeputati hanno dato la risposta più banale possibile, il rifugio in un mondo sorpassato di schemi mentali su lavoro, economia e società che essi stessi, anche nel loro quotidiano di consumatori, stanno inconsciamente contribuendo a superare. Essi hanno dimostrato di trovarsi ancora nella fase di negazione o del rifiuto delle conseguenze che la trasformazione digitale ci sta imponendo. Mentre  l’opinione pubblica e i politici più conservatori vedono il reddito di base come un regalo agli scansafatiche, esso potrebbe essere uno strumento fondamentale per garantire autonomia agli individui rispetto alla dittatura degli algoritmi, un modo per garantire il futuro all’umanità come l’abbiamo conosciuta finora.

Certo, qualcuno potrebbe obiettare, come in una commedia di G.B. Shaw, che la memoria dell’umanità è una memoria di infamie, ma sono almeno infamie che abbiamo imparato a conoscere e (a volte) a riconoscere. Delle possibili infamie dell’era dell’intelligenza artificiale potremmo addirittura non accorgecene.

L’immaterialità della moneta e il processo di astrazione del valore

Algoritmi Antologia Biblioteca

L’immaterialità della moneta e il processo di astrazione del valore

In un mondo sempre più composto da elementi immateriali (servizi, funzioni, ) come si trasforma il rapporto tra merce e denaro? Il denaro per sua natura è un’astrazione parzialmente rappresentata dalle monete che sono apparse nella storia dell’umanità (dalle conchiglie al solidus da 4,5 grammi d’oro, dalle banconote alle transazioni NFC), che serviva a rappresentare un sistema di scambi tra le persone che quasi sempre prendeva la forma di una merce materiale (un’automobile, un utensile) o di un valore computabile (l’ora di lavoro pagata un tot).

Al contrario, oggi siamo entrati in una fase in cui non solo la moneta, ma gran parte dei beni di cui fruiamo o cui diamo maggior importanza per la nostra esistenza o per il nostro percorso futuro è rappresentato da elementi immateriali, quali un servizio di comunicazione, un software o un app, il cui costo viene deciso da chi lo eroga in maniera spesso del tutto scollegata dai costi materiali storici di produzione ed eventualmente erogato gratuitamente in funzione dell’appropriazione di altri beni, estratti dagli utenti sotto forma di dati computabili, o di valorizzazioni finanziarie future non legate ai metodi tradizionali di valutazione delle merci fisiche.

In questo senso si crea una situazione speculare tra un capitalismo che valorizza la capacità di produrre valore da astrazioni (i dati) di scelte, comportamenti o attributi delle persone,  e un capitalismo finanziarizzato che produce valore da denaro in gran parte dematerializzato. L’avvento delle monete deterritorializzate basate su blockchains estremizza il processo già in corso con la finanza globale e tende a costruire dei territori virtuali, digitali, di cui queste monete garantiranno la cittadinanza solo ai loro possessori.

Il processo di astrazione della moneta e delle vite è tra i temi al centro delle riflessioni dell’ultimo libro di Christian Marazzi  Che cos’è il plusvalore? (Casagrande Ed., Bellinzona), di cui ripubblico un passaggio ripreso da cheFare, che ringrazio. (B.C.)

Felix Martin, storico del denaro, ha scritto un libro stupendo (Denaro. La storia vera: quello che il capitalismo non ha capito, Utet, Torino, 2014) in cui parla della scoperta della comunità sull’isola di Yap nel Pacifico da parte di un antropologo, William H. Furness, che all’inizio del Novecento ne studiò usi e costumi, fondamentali per il pensiero di John M. Keynes e persino dell’ultimo Milton Friedman. Questa comunità, mai colonizzata nonostante i vari tentativi di missionari e britannici – i quali morirono nell’impresa – disponeva soltanto di tre beni presenti sull’isola: il merluzzo, il cocco e il cetriolo di mare. È una classica comunità nella quale si poteva ipotizzare il baratto, con poche persone che si scambiano solo tre merci.

Continue reading

Un algoritmo ci seppellirà?

Algoritmi

Un algoritmo ci seppellirà?

(Questo testo è stato già pubblicato su Digidig.it)

Uno spettro si aggira per il web: lo spettro dell’algoritmo!

La sterlina crolla per qualche secondo? Forse è stato un errore umano, ma fa più clamore evidenziare che, forse, la colpa è di un non ben specificato e impersonale algoritmo.

La cosiddetta “Buona Scuola” è accusata di aver determinato esodi di docenti di portata addirittura biblica?  Le scelte sono state fatte da un algoritmo, quindi prendetevela con lui, se riuscite a trovarlo.

Se invece siete algoritmicamente licenziosi potreste applicare l’algoritmo del pene elaborato da Le Iene e verificare se il risultato corrisponde alle misure effettive (senza barare però) in questo nuovo sistema metrico genitale.

Visto che per essere notati bisogna usare le parole del momento, anche l’ottuagenario Rino Formica, in una recente intervista dove critica apertamente Matteo Renzi, ci rivela che “Non prendiamo atto di una realtà: quella di essere governati in ultima istanza da un’algoritmo”. Le ultime cinque parole erano linkate e quindi vi ho cliccato per capire finalmente chi o cos’è questo famigerato algoritmo: mi son ritrovato su una pagina dello stessa testata dal titolo “Goldman Sachs e Renzi preparano l’arrivo della troika”. Quindi una bella confusione: quelle dinamiche che non si capiscono proprio bene e che fino a dodici-diciotto mesi fa venivano attribuite senza dubbio alla malefica finanza globale, ora vengono attribuite alla forza dell’inquietante Algoritmo. Un indefesso complottista potrebbe teorizzare dunque che i soliti banchieri e massoni adesso si chiamano tra loro algoritmi. A quando G.A.D.U. verrà interpretato come Grande Algoritmo Dell’Universo?

Ecco dunque la parola del momento: l’algoritmo, pronto per ogni spiegazione, che fa entrare nelle pagine importanti di ogni testata, apre le porte delle conversazioni suppostamente intelligenti, fa sentire contemporanei e aggiornati, con un tono anche un po’ esoterico o almeno da esperto, ché ci dà un tono in più. Facile il rischio che un concetto relativamente semplice, ma dalle applicazioni infinite e anche estremamente complesse e pervasive, finisca per essere banalizzato da semplificazioni giornalistiche e dal sentito dire delle chiacchiere in società.

Algoritmi tra tecnica e ideologia

In questo senso vi è poi un’altra tendenza, soprattutto di una certa sinistra, a sostituire oggi la tradizionale parola capitale con la parola algoritmo, creando un feticcio intellettuale opaco e concettualemente inutile.  Insomma, una classica reificazione, come mette in guardia Tarleton Gillespie, dalle maglie talmente larghe da farci stare tutto e senza trattenere niente. Come quando Karl Popper, nella Vienna degli anni Trenta, notava come i marxisti riuscissero a spiegare tutto con la loro teoria, dalle crisi economiche ai cambiamenti di costume. Proprio lì Popper iniziò ad elaborare la sua teoria della falsificabilità dei postulati scientifici.  Dopotutto è sempre più facile riverniciare il proprio vocabolario che dotarsi di concetti nuovi per comprendere le trasformazioni che ci attraversano.

Il punto sta tutto qua: o algoritmo è la buzzword del momento, destinata a tramontare non appena ne arriverà un’altra, oppure esso è il termine che indica la trasformazione radicale dei processi di vita, di pensiero e di relazione che è in corso, e allora non basta citare gli algoritmi, ma bisognebbe studiarli, non dico saperli scrivere, ma almeno saper leggere quelli pubblici per capirne le loro implicazioni.

Eppure, quanti tra coloro che parlano e scrivono di algoritmi saprebbero almeno interpretarli in versione formalizzata, ovvero come essi effettivamente funzionano? E alla fin fine, se non sai leggerli come puoi ambire a negoziarli? Chiunque si occupa di coding sa che ogni comando ha senso solo se applicato a un dataset. Ovunque oggi si ragiona di algoritmi e molto meno di dati. Mi sa che i discorsi sui dati, elemento cardine della nostra epoca, hanno giornalisticamente già stufato, ma, come vedremo alla fine di questo testo, dalla loro tutela potrebbero nascere nuove modalità di fruizione del web.

digital-saladUn algoritmo, nella sua declinazione meno formalizzata, non è che un insieme di istruzioni. Una ricetta può essere considerata un algoritmo. Il consiglio classico dei ricettari che invita ad aggiungere sale se all’assaggio l’impasto è sciapito sarebbe in informatica un tipico comando IF o condizionale. Le indicazioni per preparare un’insalata primavera possono essere intuitivamente assimilabili a quelle per trovare soluzioni e risposte attingendo da più repository di dati. In questo senso un’insalata primavera con quattro uova sode, quattro piselli e due foglie di lattuga non può più chiamarsi insalata primavera, così come un sistema algoritmico complesso non riesce più a restituire risposte e soluzioni pregnanti se non utilizza e incrocia grandi volumi di dati quanto più diversificati e calibrati per ampiezza e profondità. La necessità di utilizzare sempre più dati per far sì che i suoi risultati siano pregnanti porta Google oggi a utilizzare oltre 200 signals, che i suoi algoritmi analizzano per restituire risposte che tanti, ingenuamente, considerano definitive. Per concludere con la similitudine, immaginate di avere sotto casa un negozio di insalate denominato “Big G” che offre oltre 200 prodotti liberamente miscelabili, dalla classica lattughina ai più esotici grani di melograno o di papavero e a tantissime spezie: di fronte a tale abbondanza ci metteremmo tantissimo per decidere, paralizzati dalle tantissime opzioni disponibili. Poi, per fortuna (?), interverrebbe l’operatore che, sulla base della sua esperienza, ci propinerebbe quella che ritiene l’insalata migliore per noi, che noi riterremmo molto gustosa e varia, anche perché non abbiamo potuto conoscere le alternative.

Algoritmi come deresponsabilizzazione ed esonero

Tra le tante infinite possibilità offerte da basi di dati sempre più estese e dettagliate, uno specifico algoritmo (meglio: una ramificazione di algoritmi) ci risponde con una scelta che ritiene essere la più rilevante, che forse troveremo poco pregnante ma che di certo ci nasconde infinite altre possibilità di informazione e conoscenza. Eppure questo algoritmo, questa unica e parziale logica, viene intesa comunemente come la logica, la spiegazione, la risposta, la soluzione, univocamente, esclusivamente.

Emergono così, a mio avviso, due rischi.

Il primo rischio è quello che porta dritto verso una deresponsabilizzazione  generalizzata. Il disastro ferroviario, la somministrazione sbagliata di farmaci, l’incidente industriale saranno sempre più addossati al povero algoritmo, il quale, potrà diventare il capro espiatorio ideale: anonimo, impersonale, incomprensibile ai più. Dovremmo essere sempre consapevoli che, allo stato attuale dell’intelligenza artificiale, dietro e sopra un algoritmo c’è qualcuno che lo ha scritto e ha fatto determinate scelte nell’introdurre quelle istruzioni e non altre. Così come dovremmo sempre ricordarci che l’algoritmo offre una o più risposte rilevanti rispetto ai determinati parametri umanamente ritenuti ottimali ma non che possono non essere pertinenti al contesto e alle situazioni specifiche.

Il secondo rischio rischia di spingere verso quello che si potrebbe definire, per citare Arnold Gehlen, un esonero cognitivo, così che la pervasività degli algoritmi ci farà comodamente rinunciare a non capire in concreto nulla del mondo in cui viviamo e delle sue dinamiche, e nemmeno in base a cosa prenderemo delle decisioni. E soprattutto nemmeno ci porremo il problema di chi e perché ha creato quel tale algoritmo, perché noi degli algoritmi, di queste black box contemporanee, finiamo per conoscere solo gli effetti ma non i processi e le logiche.

E allora una domanda: perché devo continuare a tramandare o costruire strumenti di esonero tipici degli esseri umani, di cui la cultura è quello principe, se vi sarà un algoritmo che può farlo al posto mio? Cosa resterà dell’uomo se un algoritmo definirà i principi del suo ragionamento e le basi della sua identità?

Rispetto a questi due rischi, che alla fin fine mettono in discussione due cardini del pensiero quali l’elaborazione culturale e la responsabilità delle scelte, sorge allarmata la necessità di porre una qualche barriera. L’eco del momento diventa: se non possiamo fermare l’algoritmo almeno negoziamo i suoi ambiti e i suoi poteri. Ma è ovvio che la negoziabilità non può avvenire a priori perché i detentori degli algoritmi non li renderanno mai pubblici.

E anche se domani Google e Facebook, improvvisamente convertiti al Public Domain, rendessero pubblici i loro algoritmi, quanti dei teorici che ora si affannano attorno al tema saprebbero leggerne il codice e proporre modifiche operative? E quanti sviluppatori, essi sì capaci di leggere le sterminate linee di codice di questi algoritmi, saprebbero trasformare in codice le questioni che sollevano i critici degli algoritmi?

chrome-fa

Negoziabilità è un termine che risente di un approccio vertenziale uscito dritto da qualche fumosa stanza dove decenni fa si consumavano sfibranti negoziati notturni tra le “parti sociali”. Ma oggi le parti sociali, intese come allora, non ci sono più. Ci sono organizzazioni, per lo più di tipo aziendale, che si dotano di algoritmi sulla base di interessi non sempre immediatamente monetizzabili e un’infinità di persone che fruiscono di questi algoritmi con un livello più o meno alto di consapevolezza. Chi potrebbe impostare la trattativa tra i pochi e i tantissimi? E’ vero che ci sono esperienze di lobby dei cittadini, ma in quel caso tutele e accordi sono implementati solo dopo aver esperito sui destini delle persone gli effetti di questa black box chiamata algoritmo.

Non solo, anche se un’autorità nazionale o sovranazionale impone a un motore di ricerca di cancellare certi risultati, non sapremo mai quali algoritmi di sorting sono stati disattivati e quanto questi filtri possono essere scavalcati semplicemente cambiando configurazione al browser o navigando in anonimo. Chi cerca qualcosa sul web ha strategie e tecniche spesso molto più raffinate di ogni filtro normativo.

Dunque, almeno a priori, negoziare gli algoritmi è vano e velleitario? Una sfida impossibile per cui non ci resterebbe che heideggerianamente soccombere alla tecnica? Credo al contrario che vi siano due grandi ambiti di negoziazione, che sono quello della privacy e quello della valorizzazione dei dati estratti da ogni singola persona.

Si tratta in realtà di presidiare il processo di acquisizione e valorizzazione dei dataset, che è la vera catena del valore in epoca digitale. Oggi io concedo l’uso dei miei dati a fronte di servizi che spesso potrebbero risultare soddisfacenti anche senza una tale invasività. Pressoché in contemporanea  vengo spinto a concederli gratuitamente.

Ma quale presupposto, persuasione o ideologia ha permesso ai grandi operatori del web di definire come standard univoco e indiscusso la cessione gratuita dei miei dati e la non conoscenza dei processi di estrazione e di utilizzo dei dati, e dunque l’opacità degli algoritmi?

E’ possibile e, se sì, come cambiare questa persuasione generale alla base del successo economico delle grandi piattaforme cognitive e relazionali che dominano internet? Credo che sia questo lo snodo essenziale di ogni dibattito pubblico sul tema.

Il corpo digitale

Algoritmi Il meglio del vecchio blog

Il corpo digitale

Il corpo digitale è la rappresentazione digitalizzata e quindi trasformata in dati computabili, trasmissibili e analizzabili della nostra interezza psicofisica. Corpo digitale non siamo semplicemente noi mentre lasciamo su internet le scie del webtracking o le tracce della nostra fruizione dei media sociali, ma è la ricostruzione digitalizzata di tutte informazioni che produciamo in tutte le nostre interazioni digitali di qualsiasi tipo, costantemente aggiornate e archiviate nella loro totalità dalle differenti piattaforme che registrano.

Il corpo digitale (segnalo il testo collettivo curato da Antonio Marturano) non è una metafora fantascientifica ma una realtà, sulla base della quale vengono compiute scelte di marketing, piani di sviluppo aziendale, progetti di ricerca, azioni di controllo sociale e repressione della criminalità. Il corpo digitale può avere una consistenza e una profondità variabile, può ricomprendere informazioni biometriche, genetiche e sanitarie molto dettagliate, può rappresentare l’insieme della vita psichica e relazionale della persona reale così come si stampiglia sui media sociali che ella frequenta, racconta di pulsioni e anche di pervesioni che la persona reale nega a se stessa ma cui cerca sfogo nelle sue navigazioni internet, segue il corpo reale nei suoi spostamenti fisici, anticipa e prevede le scelte del nostro corpo fisico e sopravvive alla sua morte. Sorta di Doppleganger creato e alimentato dagli infiniti riverberi della digitalizzazione dell’esistenza, il corpo digitale ci segue e ci precede, a volte si sovrappone a noi, più spesso è capce di trasfigurare la nostra esistenza ordinaria.

Per questo tanto più valiamo quanto più denso, multidimensionale, aggiornato e dunque rappresentabile e prevedbile è il nostro corpo digitale. In tal senso il corpo fisico perde importanza economica, sociale e politica, poiché esso risulta essere solo il sostrato più antico di una identità che trova piena compiutezza, solvibilità e funzionalità al sistema sociale in cui è inserita quando essa è innervata nel sistema digitalizzato di relazioni, transazioni e mobilitazioni proprie della società digitale.

Il corpo digitale “vale” di più di un analogico corpo fisico, poiché è dal primo che si ricava valore, mettendo al lavoro tutte le informazioni che racchiude.

Siamo ben oltre la mera messa a valore del linguaggio (ecco il classico testo di Cristian Marazzi): il valore ora sta nell’interezza delle rappresentazioni e delle tracce digitali che produciamo quotidianamente, grazie alla possibilità di registrarle e analizzarle per ricavarne costantemente informazione.

La multidimensionalità del corpo digitale ricomprende anche tutte le informazioni sulla nostra fisicità che abbiamo lasciato durante le nostre transazioni online, dalle taglie dei vestiti al numero di scarpa, la nostra biometria commerciale, come anche i nostri gusti, gli stili del vestiario che preferiamo indossare e anche i desideri che non abbiamo ancora indossato. Anzi per gli osservatori e i tutori del nostro corpo digitale i desideri, le pulsioni, le fantasie e i progetti che testimoniamo con la nostra navigazione web, i nostri Like, i nostri pin, i nostri checkin, i nostri commenti sono gli aspetti psichici del nostro corpo digitale che consentono le attività di retargeting tanto importanti per qualsiasi strategia di web marketing. Ma anche il vissuto psichico che trasferiamo nel nostro corpo digitale, quando postiamo nei nostri blog o aggiorniamo i nostri status su facebook, quando twittiamo, quando commentiamo, quando sosteniamo quella campagna e inseriamo il nostro nominativo in quella petizione online, tutte queste azioni che caratterizzano il nostro corpo digitale diventano ancora più interessanti per chi si occupa di sorvegliarlo, incasellarlo, pedinarlo nelle sue frequentazioni e attività digitali al fine di prevenire o almeno prevedere i comportamenti del corpo fisico considerati devianti.

In questo senso il nostro corpo digitale è capace anche offrire previsioni in merito alle azioni del corpo fisico. Sono un sostenitore dei No Tav Torino-Lione? Bene, se mi trovo nelle vicinanze della val di Susa (facile saperlo, se ho prenotato trasporto e pernottamento online ma anche se ho un banale geotagging sullo smartphone), magari per innocenti motivi gastronomici, il mio corpo fisico potrebbe venire fermato e identificato dalle forze dell’ordine in prospettiva della manifestazione No tav che si svolgerà di lì a poco: il mio corpo digitale ci sarebbe voluto essere, magari seguirà lo stream dei tweet, ma il mio goloso corpo fisico ha preferito quella sagra a pochi chilometri eppure, nel dubbio, il corpo fisico verrà sottoposto a controlli giustificati sulla base dei miei comportamenti digitali.

Siamo più vicini a questi scenari di quanto molti preferirebbero credere.

Chi guadagna dal mio essere social?

Algoritmi Il meglio del vecchio blog Uncategorized

Chi guadagna dal mio essere social?

“Bisogna essere assolutamente moderni”, scrive Arthur Rimbaud nel 1873. “Bisogna essere assolutamente social”, dicono in tanti nel 2013, giusto 140 anni dopo. Ma che cosa implica “essere social”?

Nel 1979 Jean François Lyotard teorizzò, in un librettodestinato a grande fama, l’avvento dell’età post-moderna, la cui caratteristica principale era la fine delle “grandi narrazioni”, politiche, religiose, nazionali. Da allora il prefisso post è stato messo un po’ a tutto: fino a teorizzare i post-italiani e la post-nazione, di cui l’Italia attuale è (sarebbe, per gli ottimisti) un paradigmatico esempio.

Se risulta innegabile che le grandi narrrazioni politiche che hanno alimentato le opzioni sociali per gran parte del Novecento sono oggi affievolite o marginali (illuminismo, comunismo-socialismo, liberalismo), è pur vero che gli ultimi trent’anni la grande narrazione del mercato nella sua accezione neoliberista ha dominato e condizionato la scena politica e sociale. Sbagliava dunque Lyotard a ritenere che non sarebbero emerse altre idee totalizzanti, capaci di imporsi per alcuni addirittura come verità incontrovertibili. Quante persone, ad esempio, hanno rinunciato alle loro inclinazioni umanistiche e si sono adattate a crearsi una professione che rispondesse alle esigenze del mercato? Quanto la propaganda neoliberista veicolata dai mass media ha imposto certe logiche e certe retoriche ad organizzazioni come ad interi stati? Non è questa una grande manipolazione dei bisogni e delle aspirazioni simile a quella che impongono i regimi totalitari? Ancora oggi “il mercato” o “i mercati finanziari” sono usati per far accettare decisioni anche arbitrarie prese da chi queste entità, rappresentate quasi come ipostasi apofantiche, le muove in funzione dei propri interessi.

Oggi la nuova grande narrazione si chiama “social”. Siamo spinti a essere presenti sui media sociali e a interagirvi, a creare contenuti, a relazionarci con innumerevoli soggetti, il tutto per giustificare, confermare, rafforzare la nostra presenza, ovvero la nostra esistenza “social”. Come dice David Meerman Scott “on the web you are what you publish” e aggiunge: “if you publish nothing you are nothing”. Se produci contenuti interessanti creerai attorno a te interesse, reputazione e forse anche possibilità di sfruttare commercialmente tutto questo. Ma le modalità che i singoli hanno di estrarre valore dalla loro identità e dai loro comportamenti digitali sono infinitesime rispetto a quanto ottengono da essi le grandi piattaforme di comunicazione come Google, Facebook e tutti i media sociali. Per essi, questo “essere social” produce valore, anche monetario, poiché viene incanalato nei meccanismi di analisi dei Big Data. Il “valore social” di un fatto, di un contenuto, di una relazione finisce per essere pari alla possibilità di immetterlo nei processi di estrazione del valore, di metterlo in connessione con altri dati e di rendere questi dati immediatamente utilizzabili per azioni commerciali o politiche o di qualsiasi altro genere purché trovino un acquirente.

Le piattaforme social sono oggi lo strumento di sfruttamento biocapitalistico della naturale tendenza sociale delle persone. In realtà, non basta che Facebook prometta di essere per sempre gratuito: tutti i media sociali dovrebbero pagare gli utenti per ogni contenuto postato, sia pure pochi centesimi di dollaro, come fa Google AdSense.

Questa spinta a “essere social” è la grande narrazione dei nostri giorni e come ogni grande narrazione finisce per condizionare le scelte e le vite di decine di milioni di persone in tutto il mondo. Ci sono ambiti professionali in cui non si può scomparire dal proprio “mondo social” per più di qualche settimana se non si vuole rischiare di scomparire nella visibilità e quindi nella possibilità di essere ingaggiati come esperti.

L’ “essere social” è dunque la socialità attraverso i media sociali e il web, con regole sue proprie e non confondibile con la socievolezza personale: un timidone può essere un social influencer nel mondo digitale.

Soprattutto l’ “essere social” ha la caratteristica di essere monetizzabile, anche quando il messaggio postato sul media sociale sembra il più intimo e soggettivo possibile.

Prendiamo il caso di due amiche che si incontrano, staccano i cellulari e parlano fittamente di scelte legate alle loro esistenze. Esse producono molto meno “valore social” di due conoscenti che su facebook sviluppano un thread di politica anche fatto di insulti. Dalla secoda situazione si traggono dati utili a tracciare una tendenza e quindi a produrre analisi e dinamiche di comportamento elettorale. Nel primo caso il contenuto, essendo non tracciato, non ha “valore social” eppure può rappresentare un momento essenziale nel rapporto tra due persone.

Dunque, così come milioni di persone in tutto il mondo nei decenni passati sono stati spinti a applicare alle loro scelte e ai loro comportamenti una logica di “mercato”, oggi milioni di persone sono spinte a ragionare in termini “social”. È un bene o un male? Non esiste una risposta univoca. Che il mercato abbia aiutato milioni di persone ad uscire dalla povertà è un fatto come lo sono anche le condizioni di sfruttamento in cui ancora vivono tante altre decine di milioni di persone a causa delle “logiche di mercato”. Quando interagiamo in termini “social” dobbiamo essere consapevoli che stiamo producendo e regalando valore a chi utilizzerà quelle interazioni. Finquando riterremo che il vantaggio che ne otteniamo è maggiore di quanto regaliamo nessuno porrà dubbi. Il fatto divertente è che quasi nessuno di noi conosce il controvalore del nostro “essere social” e veniamo costantemente persuasi che “essere social” sia un valore di per sè. Pensate, per parallelo, a come le tematiche relative alla privacy abbiano perso vigore e urgenza all’interno del dibattito pubblico mentre al contempo i sistemi di tracciamento delle nostre vite diventavano sempre più raffinati. Il sistema Prism scava nelle vitedigitali degli europei, cosa vietata negli USA: avete sentito il Garante della Privacy o il Governo italiano inoltrare una pesante protesta all’amministrazione Obama? Non solo perché ci troviamo, noi itaiani, in una posizione di minorità economica politica, ma anche perché i cosiddetti “nativi digitali” under 30 sono in genere poco sensibili verso la tematica.

Ecco, torniamo al punto di partenza: la persuasione diffusa è che “bisogna essere assolutamente social” ma siamo sicuri di sapere cosa rischiamo di perdere attraveso il nostro ”essere social”?

Vai alla barra degli strumenti