Categoria: Algoritmi

Il Manifesto di Mark Zuckerberg: Facebook come nuovo modello di politica

Algoritmi

Il Manifesto di Mark Zuckerberg: Facebook come nuovo modello di politica

In principio fu Face Mash, niente più che una versione di Hot or Not per gli studenti di Harvard. Ma sin dall’inizio Mark Zuckerberg ha voluto dilatare gli ambiti del suo progetto a dimensioni esistenziali sempre più ampie, prima con thefacebook per le università e poi con Facebook per tutti. E da qui in poi è storia.

Dunque chi considera il manifesto “Building Global Community” un indizio della volontà di Zuckerberg di darsi alla politica attiva, magari in funzione anti Trump, semplicemente ne sottovaluta le ambizioni.

Il documento è totalmente politico, ma in un senso ancora più radicale, e pone implicitamente delle domande su cosa ne sarà della politica nell’epoca del superamento dei partiti di massa novecenteschi, dell’indebolimento degli stati-nazione, della digitalizzazione, dell’intelligenza artificiale e dell’automatizzazione delle funzioni cognitive.

I cinque obiettivi ideali di sviluppo delle communities che propone Zuckerberg (supportive, safe, informed, civically-engaged, inclusive) intendono proporre il social network come una metacomunità, al tempo stesso sovraordinata e coordinata con le altre comunità che, idealmente, dovrebbe sostenere e alimentare. Questi obiettivi sono eminentemente politici, e alcuni risultati di coinvolgimento politico ed elettorale raggiunti in varie parti del mondo vengono esplicitamente citati. Nel Manifesto, Facebook si propone dunque non come un elemento corrosivo delle istituzioni pubbliche tradizionali ma come un loro puntello. Ma qui emerge la prima contraddizione, ovvero come un’ambiente relazionale digitale, i cui algoritmi puntano a massimizzare il coinvolgimento degli utenti e a gratificarli per il tempo speso in esso, possa spingere verso l’impegno civico diretto nel mondo reale, che richiede tempo, attenzione e continuità di impegno a quegli stessi utenti cui chiede spasmodicamente attenzione per ricavarne il suo fatturato.

Si torna dunque a chiedersi che cosa è Facebook. Il successo di Facebook sta proprio nella sua estrema plasticità, che ha posto a tanti il problema della sua definizione, se fosse la società una media company, o una tech company o una entertainment company o una utility. Facebook può proporsi e può essere fruito per informare e disinformare, per offrire e cercare collaborazione, per autopromuoversi e vendere, per divertirsi e fare nuove amicizie, per raccontarsi e cercare conforto, per dibattere e litigare, per ritrovare o indugiare in vite altrui e lascio ai lettori allungare l’elenco. Di fronte a questa estrema variegatezza di opzioni, Zuckerberg per 14 volte chiama la sua creatura “infrastruttura sociale”, senza definire in dettaglio cosa con questo intenda e semmai rifugiandosi in una definizione riduttiva, che lo esonera dal prendere una posizione chiara rispetto a tutta una serie di problematiche, dalle fake news alle filter bubbles, che pure tocca nel testo. Infrastruttura è un termine che in prima battuta potrebbe sembrare neutro e che rimanda a servizi che in italiano definiremmo di pubblica utilità, quali autostrade, energia elettrica, acqua e banda larga. Ma la decisione su allacciare o no una comunità o un singolo a questi servizi è puramente politica, come politica fu la scelta di far passare l’autostrada del Sole da Arezzo o di nazionalizzare l’energia elettrica per poterla garantire a tutti a prescindere dal ritorno economico. Così come garantire l’acqua potabile tramite condotta o tramite autobotti non è la stessa cosa. Questa scelta di rifugiarsi nel corner delle utilities consente a Zuckerberg di proporsi al contempo come la neutra infrastruttura relazionale di base del nostro tempo e di sostenere la information diversity come principio guida di molte scelte presenti e soprattutto future di content curation. Tuttavia come questa strategia di information diversity vorrà plasmare, o almeno modificare, la dieta informativa di quasi due miliardi di persone? Se io ho idee di sinistra (per quel che possa significare oggi), finiranno per apparirmi in Home notizie e opinioni neoliberiste o addirittura esplicitamente di destra per promuovere il common understanding? Si useranno gli interessi comuni, lo sport, per spingere persone diverse a incrociarsi? Lo stesso Zuckerberg sembra temere un’ulteriore polarizzazione delle posizioni. Ma poi perché io, con le mie convinzioni, giuste o meno che siano ma costruite in decenni di letture, studio ed esperienze, devo essere disciplinato al “common understanding” come lo ha in testa Zuckerberg? Ecco dunque un’altra contraddizione: i Community Standards, lungi dall’essere mera netiquette e buona fede nelle relazioni che si instaurano, finiscono per diventare i principi ideologici da accettare tout court per fruire di una rete di quasi due miliardi di persone.

In una stesura precedente del testo alcune scelte fondamentali in tema di individuazione e analisi di post controversi o signals di pericoli venivano devolute ai sistemi di intelligenza artificiale: “The long term promise of AI is that in addition to identifying risks more quickly and accurately than would have already happened, it may also identify risks that nobody would have flagged at all — including terrorists planning attacks using private channels, people bullying someone too afraid to report it themselves, and other issues both local and global. It will take many years to develop these systems.”. La versione finale invece è molto più vaga e meno inquietante: “Looking ahead, one of our greatest opportunities to keep people safe is building artificial intelligence to understand more quickly and accurately what is happening across our community,“. Già prima che scoppiasse il tormentone delle fake news, Facebook aveva già provato a scaricare sugli algoritmi la questione dell’arbitrarietà della selezione delle notizie, ma di certo negli ultimi mesi anche un pubblico meno esperto inizia a essere consapevole che gli algoritmi sono un prodotto di programmatori umani e come tale soggetto a scelte arbitrarie ed errori di natura umana. Tuttavia quando ambisci a proporti come l’infrastruttura globale di base per produrre e alimentare comunità, ovvero senso di appartenenza, il ricorso all’intelligenza artificiale per indirizzare o censurare dei flussi di comunicazione suscita inquietudine, perché si tende a rendere le responsabilità opache e meno verificabili.

Preferisco da sempre definire Facebook un ambiente relazionale proprio perché ambiente è un termine molto più complesso, plastico e dinamico di infrastruttura e perché il social network mette a valore i processi cognitivi e relazionali dei suoi utenti.

In questo contesto discutibile per quanto riguarda la tutela e il riconoscimento del lavoro cognitivo di un ambiente tutto basato sugli users’ generated contents, il Manifesto di Zuckerberg prova ad evocare alcune tematiche dell’etica comunicativa di Jurgen Habermas quando definisce Facebook una “source of news and public discourse” con l’obiettivo di “creating a large-scale democratic process to determine standards with AI to help enforce them (the Community Standards). In certi passaggi Zuckerberg sembra immaginare una comunità dialogica e razionale (qualcosa di molto distante dalle risse digitali cui assistiamo quasi tutti i giorni, specialmente su temi politici), un processo dunque intersoggettivo dove, in assenza di orientamenti espliciti dei singoli, prevarrà la maggioranza dei rispondenti nel contesto di riferimento del singolo utente “like a referendum”, scrive esplicitamente il co-fondatore. Eppure questo meccanismo potrebbe aggravare le filter bubbles, perché, ad esempio, se io, irritato per le scelte del momento di un partito o di un’associazione o di una persona, decido di disattivare le notifiche relative ad essi, rischio di vederli sparire per sempre dal mio orizzonte informativo, data l’improbabilità che ogni qualche mese io i metta a rivedere le impostazioni del mio profilo. Quanti saranno i rispondenti a questi simil-referendum? E questi rispondenti saranno i più saggi e olimpici tra gli utenti? E se alla fine i risultati di qualche simil-referendum contrastassero i Community Standards cosa prevarrà, in una community che aspira a promuovere un processo democratico su larga scala (senza definirne forme e contenuti, per ora)? E infine, quale idea di democrazia digitale ha in testa Facebook, quando si propone su scala globale tanto in paesi dalla cultura democratica e dal confronto civico avanzatissimi quanto in paesi dove vige solo un principio di autorità che si diffonde verticalmente dal capo del governo al villaggio? Da quanto si intuisce l’approccio sarà glocale, una visione globale che a livello di singoli paesi o regioni interverrà sempre di più per promuovere campagne, idee e orientamenti definiti dal vertice della società. Che ruolo e che peso andranno ad avere le culture, e i poteri locali, eletti o riconosciuti come legittimi dalla maggioranza della popolazione di un dato paese, di fronte alle possibili interferenze o a candidati sostenuti da Facebook?

Di fronte alle ambizioni di Facebook e Google di inglobare e indirizzare il mondo delle informazioni e quello delle relazioni grazie ai loro algoritmi, sembra riemergere, in versione digitale, il classico conflitto dell’epoca moderna tra totalità e libertà. L’uomo moderno borghese come lo conosciamo nel suo individualismo è il risultato della rottura della totalità che si fondava su un principio ultramondano. I traumi soggettivi e i conflitti sociali che attraversano la modernità sono la conseguenza e la nostalgia di quella totalità. Ma Google e Facebook sembrano puntare a promuovere una nuova totalità (o almeno destinata alla totalità dei soggetti connessi), assorbendo e omogeneizzando ogni differenza nell’irenico “common understanding”, in cui si dissolve l’alterità e l’idea di pensare diversamente dai “Community Standards”. Si può davvero escludere che queste tendenze dei due giganti del web relazionale non implichino delle tendenze totalitarie, almeno rispetto a certi ambiti per essi essenziali come il controllo delle informazioni e delle relazioni, ovvero gran parte del web come lo conosciamo oggi?

In questo orizzonte cosa resterà della libertà degli individui? Una politica dominata da Facebook e Google sarà ancora capace di pensare categorie radicalmente diverse e alternative al presente?

Alcuni riferimenti:

Building Global Community, https://www.facebook.com/notes/mark-zuckerberg/building-global-community/10154544292806634/

The Guardian, 2016: the year Facebook became the bad guy, https://www.theguardian.com/technology/2016/dec/12/facebook-2016-problems-fake-news-censorship

Will Oremus, FutureTense, Facebook’s New “Manifesto” Is Political. Mark Zuckerberg Just Won’t Admit It. http://www.slate.com/blogs/future_tense/2017/02/17/the_problem_with_mark_zuckerberg_s_new_facebook_manifesto_it_isn_t_political.html

Annalee Newitz, Ars Techica, Op-ed: Mark Zuckerberg’s manifesto is a political trainwreck, https://arstechnica.com/staff/2017/02/op-ed-mark-zuckerbergs-manifesto-is-a-political-trainwreck/

Andrew Griffin, The Indipendent, Facebook is developing tools to read through people’s private messages, Mark Zuckerberg manifesto suggests, http://www.independent.co.uk/life-style/gadgets-and-tech/news/facebook-mark-zuckerberg-globalisation-manifesto-read-artificial-intelligence-robot-terrorist-a7586166.html

Il robot che pensa è anche responsabile?

Algoritmi

Il robot che pensa è anche responsabile?

Oggi il Parlamento europeo ha respinto la piattaforma “Civil law rules on roboticsche puntava a costruire un percorso di risposta alle conseguenze sociali, economiche, giuridiche, politiche e culturali dello sviluppo dell’automazione e dell’inteligenza artificiale.

La questione immediatamente evidenziata dai media è stata quella relativa al reddito universale di cittadinanza, che il rapporto promosso dall’eurodeputata socialista lussemburghese Mady Delvaux indica come una strada necessaria per far fronte alla scarsità di occupazione continua e di qualità che l’automazione comporta. 

In realtà il rapporto approvato il 12 gennaio scorso dalla commissione affari giuridici dell’europarlamento parla anche di molto altro: dalle “tradizionali” questioni relative alla protezione e alla manipolazione di dati personali da parte di soggetti non umani fino all’autocoscienza dei sistemi robotici e alla possibilità che future scoperte scientifiche e future consapevolezze sulla condizione dei viventi sulla Terra siano frutto dell’intelligenza artificiale e non più o non solo del pensiero umano. Appare chiaro che nella mappa della conoscenza umana ci troviamo in un “hic sunt leones” di cui quotidianamente si allarga l’estensione.

Se la tradizione filosofica, morale e giuridica occidentale ha sempre collegato pensiero e responsabilità, per cui solo l’individuo pensante e consapevole può essere ritenuto pienamente responsabile delle sue azioni, si pone per la prima volta nella storia dell’umanità la necessità di definire gli ambiti di responsabilità di sistemi elaborativi e cognitivi non umani e, di riflesso, la necessità di tutelare i soggetti umani, come quelli algoritmici, dai danni che possono loro ingliggere errori, omissioni o malfunzionamenti dei sistemi cognitivi non umani.

I parametri in base ai quali il Rapporto definisce i robot “autonomi e intelligenti” sono quattro: senzienza, attraverso lo scambio di sensazioni e dati con l’ambiente; autoapprendimento; supporto fisico; plasticità/reattività del suo comportamento e/o azioni al contesto in cui opera. Questi sistemi cognitivi con o senza supporto fisico pongono rischi per l’essere umano, che può ritrovarsi ad essere sfruttato per i dati che da egli si possono estrarre, come anche condizionato o abusato fisicamente. Il rapporto propone la creazione di un’Agenzia Europea per la robotica e l’intelligenza artificiale che dovrebbe fornire ai decisori pubblici gli strumenti tecnici, etici e regolatori per affrontare questo nuovo scenario.

Verso la robotologia?

Uno scenario in cui molto probabilmente si svilupperà a breve un’etologia dei robot e dei sistemi cognitivi non umani, una scienza che, sul calco del termine antropologia, potremmo chiamare robotologia.  Ma la robotologia non sarà una scienza separata dall’antropologia e dalle altre scienze umane tradizionali. Infatti sempre più corpi umani ospiteranno al loro interno o sulla loro superficie componenti, integrazioni o estensioni delle proprie membra: dal miglioramento della vista grazie a chip installati nell’occhio (per esempio in situazioni belliche) a lettori di attività e intenzioni cerebrali per chi è vittima di malattie paralizzanti. Fino a che punto queste estensioni algoritmiche dei sensi umani possono trasformare la percezione di sé? Fino a che punto la coscienza, l’emozionalità come anche il pensiero più razionale saranno condizionati da queste protesi interattive?

E se il robot già oggi può mentire e bleffare, chi gli comminerà la pena per i danni che provocherà e chi pagherà per questi danni? Il robot verrà disattivato (finquando gli umani potranno farlo) per questo? I programmatori degli algoritmi di autoapprendimento verranno ritenuti colpevoli oppure la società che li ha ingaggiati?  Chi risarcirà i danneggiati, umani o algoritmici? I premi di un’eventuale assicurazione contro i danni provocati da robot e algoritmi da chi verranno pagati?

Si svilupperà una cultura robotica autonoma da quella umana? I sistemi cognitivi non umani svilupperanno delle forme di comunicazione innovative tra di loro e in base ad esse si scambieranno e tramanderanno pratiche, competenze e scoperte?

Un reddito minimo per la sopravvivenza dell’umanità?

L’eurodeputata Mary Delvaux ha dichiarato che la sua preoccupazione è che “gli umani non vengano dominati dai robot”. E a chi pensa a una distopia tipo il Pianeta delle Scimmie con i robot al posto dei nostri cugini primati bisogna ricordare che ogni esonero di funzioni lavorative e cognitive umane che una macchina o una tecnologia attua è già essa una forma di dominio. L’esonero da tante funzioni lavorative, la liberazione dal lavoro promessa da secoli attraverso le macchine, sta gettando milioni di persone nella schiavitù della disoccupazione o della sottocupazione. Ecco perché la proposta di un salario minimo universale, sostenuto anche da Elon Musk, di certo non un agitatore politico. Ma la questione è ancora più complessa. Oltre un secolo di propaganda scientifica e manipolazione del consenso ci hanno insegnato che persuasioni distorte o convinzioni artificialmente costruite condizionano le persone molto di più che le fruste o i bastoni. In un mondo in cui sistemi cognitivi non umani potrebbero arrivare a decidere cosa far sapere e come, cosa scoprire o inventare, cosa scegliere nelle politiche pubbliche, come vivere e pensare, vi saranno ambiti in cui gli esseri umani potranno perseguire una autonoma ricerca di pensiero e di scelte di vita?

Bocciando il rapporto, gli eurodeputati hanno dato la risposta più banale possibile, il rifugio in un mondo sorpassato di schemi mentali su lavoro, economia e società che essi stessi, anche nel loro quotidiano di consumatori, stanno inconsciamente contribuendo a superare. Essi hanno dimostrato di trovarsi ancora nella fase di negazione o del rifiuto delle conseguenze che la trasformazione digitale ci sta imponendo. Mentre  l’opinione pubblica e i politici più conservatori vedono il reddito di base come un regalo agli scansafatiche, esso potrebbe essere uno strumento fondamentale per garantire autonomia agli individui rispetto alla dittatura degli algoritmi, un modo per garantire il futuro all’umanità come l’abbiamo conosciuta finora.

Certo, qualcuno potrebbe obiettare, come in una commedia di G.B. Shaw, che la memoria dell’umanità è una memoria di infamie, ma sono almeno infamie che abbiamo imparato a conoscere e (a volte) a riconoscere. Delle possibili infamie dell’era dell’intelligenza artificiale potremmo addirittura non accorgecene.

L’immaterialità della moneta e il processo di astrazione del valore

Algoritmi Antologia Biblioteca

L’immaterialità della moneta e il processo di astrazione del valore

In un mondo sempre più composto da elementi immateriali (servizi, funzioni, ) come si trasforma il rapporto tra merce e denaro? Il denaro per sua natura è un’astrazione parzialmente rappresentata dalle monete che sono apparse nella storia dell’umanità (dalle conchiglie al solidus da 4,5 grammi d’oro, dalle banconote alle transazioni NFC), che serviva a rappresentare un sistema di scambi tra le persone che quasi sempre prendeva la forma di una merce materiale (un’automobile, un utensile) o di un valore computabile (l’ora di lavoro pagata un tot).

Al contrario, oggi siamo entrati in una fase in cui non solo la moneta, ma gran parte dei beni di cui fruiamo o cui diamo maggior importanza per la nostra esistenza o per il nostro percorso futuro è rappresentato da elementi immateriali, quali un servizio di comunicazione, un software o un app, il cui costo viene deciso da chi lo eroga in maniera spesso del tutto scollegata dai costi materiali storici di produzione ed eventualmente erogato gratuitamente in funzione dell’appropriazione di altri beni, estratti dagli utenti sotto forma di dati computabili, o di valorizzazioni finanziarie future non legate ai metodi tradizionali di valutazione delle merci fisiche.

In questo senso si crea una situazione speculare tra un capitalismo che valorizza la capacità di produrre valore da astrazioni (i dati) di scelte, comportamenti o attributi delle persone,  e un capitalismo finanziarizzato che produce valore da denaro in gran parte dematerializzato. L’avvento delle monete deterritorializzate basate su blockchains estremizza il processo già in corso con la finanza globale e tende a costruire dei territori virtuali, digitali, di cui queste monete garantiranno la cittadinanza solo ai loro possessori.

Il processo di astrazione della moneta e delle vite è tra i temi al centro delle riflessioni dell’ultimo libro di Christian Marazzi  Che cos’è il plusvalore? (Casagrande Ed., Bellinzona), di cui ripubblico un passaggio ripreso da cheFare, che ringrazio. (B.C.)

Felix Martin, storico del denaro, ha scritto un libro stupendo (Denaro. La storia vera: quello che il capitalismo non ha capito, Utet, Torino, 2014) in cui parla della scoperta della comunità sull’isola di Yap nel Pacifico da parte di un antropologo, William H. Furness, che all’inizio del Novecento ne studiò usi e costumi, fondamentali per il pensiero di John M. Keynes e persino dell’ultimo Milton Friedman. Questa comunità, mai colonizzata nonostante i vari tentativi di missionari e britannici – i quali morirono nell’impresa – disponeva soltanto di tre beni presenti sull’isola: il merluzzo, il cocco e il cetriolo di mare. È una classica comunità nella quale si poteva ipotizzare il baratto, con poche persone che si scambiano solo tre merci.

Continue reading

Un algoritmo ci seppellirà?

Algoritmi

Un algoritmo ci seppellirà?

(Questo testo è stato già pubblicato su Digidig.it)

Uno spettro si aggira per il web: lo spettro dell’algoritmo!

La sterlina crolla per qualche secondo? Forse è stato un errore umano, ma fa più clamore evidenziare che, forse, la colpa è di un non ben specificato e impersonale algoritmo.

La cosiddetta “Buona Scuola” è accusata di aver determinato esodi di docenti di portata addirittura biblica?  Le scelte sono state fatte da un algoritmo, quindi prendetevela con lui, se riuscite a trovarlo.

Se invece siete algoritmicamente licenziosi potreste applicare l’algoritmo del pene elaborato da Le Iene e verificare se il risultato corrisponde alle misure effettive (senza barare però) in questo nuovo sistema metrico genitale.

Visto che per essere notati bisogna usare le parole del momento, anche l’ottuagenario Rino Formica, in una recente intervista dove critica apertamente Matteo Renzi, ci rivela che “Non prendiamo atto di una realtà: quella di essere governati in ultima istanza da un’algoritmo”. Le ultime cinque parole erano linkate e quindi vi ho cliccato per capire finalmente chi o cos’è questo famigerato algoritmo: mi son ritrovato su una pagina dello stessa testata dal titolo “Goldman Sachs e Renzi preparano l’arrivo della troika”. Quindi una bella confusione: quelle dinamiche che non si capiscono proprio bene e che fino a dodici-diciotto mesi fa venivano attribuite senza dubbio alla malefica finanza globale, ora vengono attribuite alla forza dell’inquietante Algoritmo. Un indefesso complottista potrebbe teorizzare dunque che i soliti banchieri e massoni adesso si chiamano tra loro algoritmi. A quando G.A.D.U. verrà interpretato come Grande Algoritmo Dell’Universo?

Ecco dunque la parola del momento: l’algoritmo, pronto per ogni spiegazione, che fa entrare nelle pagine importanti di ogni testata, apre le porte delle conversazioni suppostamente intelligenti, fa sentire contemporanei e aggiornati, con un tono anche un po’ esoterico o almeno da esperto, ché ci dà un tono in più. Facile il rischio che un concetto relativamente semplice, ma dalle applicazioni infinite e anche estremamente complesse e pervasive, finisca per essere banalizzato da semplificazioni giornalistiche e dal sentito dire delle chiacchiere in società.

Algoritmi tra tecnica e ideologia

In questo senso vi è poi un’altra tendenza, soprattutto di una certa sinistra, a sostituire oggi la tradizionale parola capitale con la parola algoritmo, creando un feticcio intellettuale opaco e concettualemente inutile.  Insomma, una classica reificazione, come mette in guardia Tarleton Gillespie, dalle maglie talmente larghe da farci stare tutto e senza trattenere niente. Come quando Karl Popper, nella Vienna degli anni Trenta, notava come i marxisti riuscissero a spiegare tutto con la loro teoria, dalle crisi economiche ai cambiamenti di costume. Proprio lì Popper iniziò ad elaborare la sua teoria della falsificabilità dei postulati scientifici.  Dopotutto è sempre più facile riverniciare il proprio vocabolario che dotarsi di concetti nuovi per comprendere le trasformazioni che ci attraversano.

Il punto sta tutto qua: o algoritmo è la buzzword del momento, destinata a tramontare non appena ne arriverà un’altra, oppure esso è il termine che indica la trasformazione radicale dei processi di vita, di pensiero e di relazione che è in corso, e allora non basta citare gli algoritmi, ma bisognebbe studiarli, non dico saperli scrivere, ma almeno saper leggere quelli pubblici per capirne le loro implicazioni.

Eppure, quanti tra coloro che parlano e scrivono di algoritmi saprebbero almeno interpretarli in versione formalizzata, ovvero come essi effettivamente funzionano? E alla fin fine, se non sai leggerli come puoi ambire a negoziarli? Chiunque si occupa di coding sa che ogni comando ha senso solo se applicato a un dataset. Ovunque oggi si ragiona di algoritmi e molto meno di dati. Mi sa che i discorsi sui dati, elemento cardine della nostra epoca, hanno giornalisticamente già stufato, ma, come vedremo alla fine di questo testo, dalla loro tutela potrebbero nascere nuove modalità di fruizione del web.

digital-saladUn algoritmo, nella sua declinazione meno formalizzata, non è che un insieme di istruzioni. Una ricetta può essere considerata un algoritmo. Il consiglio classico dei ricettari che invita ad aggiungere sale se all’assaggio l’impasto è sciapito sarebbe in informatica un tipico comando IF o condizionale. Le indicazioni per preparare un’insalata primavera possono essere intuitivamente assimilabili a quelle per trovare soluzioni e risposte attingendo da più repository di dati. In questo senso un’insalata primavera con quattro uova sode, quattro piselli e due foglie di lattuga non può più chiamarsi insalata primavera, così come un sistema algoritmico complesso non riesce più a restituire risposte e soluzioni pregnanti se non utilizza e incrocia grandi volumi di dati quanto più diversificati e calibrati per ampiezza e profondità. La necessità di utilizzare sempre più dati per far sì che i suoi risultati siano pregnanti porta Google oggi a utilizzare oltre 200 signals, che i suoi algoritmi analizzano per restituire risposte che tanti, ingenuamente, considerano definitive. Per concludere con la similitudine, immaginate di avere sotto casa un negozio di insalate denominato “Big G” che offre oltre 200 prodotti liberamente miscelabili, dalla classica lattughina ai più esotici grani di melograno o di papavero e a tantissime spezie: di fronte a tale abbondanza ci metteremmo tantissimo per decidere, paralizzati dalle tantissime opzioni disponibili. Poi, per fortuna (?), interverrebbe l’operatore che, sulla base della sua esperienza, ci propinerebbe quella che ritiene l’insalata migliore per noi, che noi riterremmo molto gustosa e varia, anche perché non abbiamo potuto conoscere le alternative.

Algoritmi come deresponsabilizzazione ed esonero

Tra le tante infinite possibilità offerte da basi di dati sempre più estese e dettagliate, uno specifico algoritmo (meglio: una ramificazione di algoritmi) ci risponde con una scelta che ritiene essere la più rilevante, che forse troveremo poco pregnante ma che di certo ci nasconde infinite altre possibilità di informazione e conoscenza. Eppure questo algoritmo, questa unica e parziale logica, viene intesa comunemente come la logica, la spiegazione, la risposta, la soluzione, univocamente, esclusivamente.

Emergono così, a mio avviso, due rischi.

Il primo rischio è quello che porta dritto verso una deresponsabilizzazione  generalizzata. Il disastro ferroviario, la somministrazione sbagliata di farmaci, l’incidente industriale saranno sempre più addossati al povero algoritmo, il quale, potrà diventare il capro espiatorio ideale: anonimo, impersonale, incomprensibile ai più. Dovremmo essere sempre consapevoli che, allo stato attuale dell’intelligenza artificiale, dietro e sopra un algoritmo c’è qualcuno che lo ha scritto e ha fatto determinate scelte nell’introdurre quelle istruzioni e non altre. Così come dovremmo sempre ricordarci che l’algoritmo offre una o più risposte rilevanti rispetto ai determinati parametri umanamente ritenuti ottimali ma non che possono non essere pertinenti al contesto e alle situazioni specifiche.

Il secondo rischio rischia di spingere verso quello che si potrebbe definire, per citare Arnold Gehlen, un esonero cognitivo, così che la pervasività degli algoritmi ci farà comodamente rinunciare a non capire in concreto nulla del mondo in cui viviamo e delle sue dinamiche, e nemmeno in base a cosa prenderemo delle decisioni. E soprattutto nemmeno ci porremo il problema di chi e perché ha creato quel tale algoritmo, perché noi degli algoritmi, di queste black box contemporanee, finiamo per conoscere solo gli effetti ma non i processi e le logiche.

E allora una domanda: perché devo continuare a tramandare o costruire strumenti di esonero tipici degli esseri umani, di cui la cultura è quello principe, se vi sarà un algoritmo che può farlo al posto mio? Cosa resterà dell’uomo se un algoritmo definirà i principi del suo ragionamento e le basi della sua identità?

Rispetto a questi due rischi, che alla fin fine mettono in discussione due cardini del pensiero quali l’elaborazione culturale e la responsabilità delle scelte, sorge allarmata la necessità di porre una qualche barriera. L’eco del momento diventa: se non possiamo fermare l’algoritmo almeno negoziamo i suoi ambiti e i suoi poteri. Ma è ovvio che la negoziabilità non può avvenire a priori perché i detentori degli algoritmi non li renderanno mai pubblici.

E anche se domani Google e Facebook, improvvisamente convertiti al Public Domain, rendessero pubblici i loro algoritmi, quanti dei teorici che ora si affannano attorno al tema saprebbero leggerne il codice e proporre modifiche operative? E quanti sviluppatori, essi sì capaci di leggere le sterminate linee di codice di questi algoritmi, saprebbero trasformare in codice le questioni che sollevano i critici degli algoritmi?

chrome-fa

Negoziabilità è un termine che risente di un approccio vertenziale uscito dritto da qualche fumosa stanza dove decenni fa si consumavano sfibranti negoziati notturni tra le “parti sociali”. Ma oggi le parti sociali, intese come allora, non ci sono più. Ci sono organizzazioni, per lo più di tipo aziendale, che si dotano di algoritmi sulla base di interessi non sempre immediatamente monetizzabili e un’infinità di persone che fruiscono di questi algoritmi con un livello più o meno alto di consapevolezza. Chi potrebbe impostare la trattativa tra i pochi e i tantissimi? E’ vero che ci sono esperienze di lobby dei cittadini, ma in quel caso tutele e accordi sono implementati solo dopo aver esperito sui destini delle persone gli effetti di questa black box chiamata algoritmo.

Non solo, anche se un’autorità nazionale o sovranazionale impone a un motore di ricerca di cancellare certi risultati, non sapremo mai quali algoritmi di sorting sono stati disattivati e quanto questi filtri possono essere scavalcati semplicemente cambiando configurazione al browser o navigando in anonimo. Chi cerca qualcosa sul web ha strategie e tecniche spesso molto più raffinate di ogni filtro normativo.

Dunque, almeno a priori, negoziare gli algoritmi è vano e velleitario? Una sfida impossibile per cui non ci resterebbe che heideggerianamente soccombere alla tecnica? Credo al contrario che vi siano due grandi ambiti di negoziazione, che sono quello della privacy e quello della valorizzazione dei dati estratti da ogni singola persona.

Si tratta in realtà di presidiare il processo di acquisizione e valorizzazione dei dataset, che è la vera catena del valore in epoca digitale. Oggi io concedo l’uso dei miei dati a fronte di servizi che spesso potrebbero risultare soddisfacenti anche senza una tale invasività. Pressoché in contemporanea  vengo spinto a concederli gratuitamente.

Ma quale presupposto, persuasione o ideologia ha permesso ai grandi operatori del web di definire come standard univoco e indiscusso la cessione gratuita dei miei dati e la non conoscenza dei processi di estrazione e di utilizzo dei dati, e dunque l’opacità degli algoritmi?

E’ possibile e, se sì, come cambiare questa persuasione generale alla base del successo economico delle grandi piattaforme cognitive e relazionali che dominano internet? Credo che sia questo lo snodo essenziale di ogni dibattito pubblico sul tema.

Il corpo digitale

Algoritmi Il meglio del vecchio blog

Il corpo digitale

Il corpo digitale è la rappresentazione digitalizzata e quindi trasformata in dati computabili, trasmissibili e analizzabili della nostra interezza psicofisica. Corpo digitale non siamo semplicemente noi mentre lasciamo su internet le scie del webtracking o le tracce della nostra fruizione dei media sociali, ma è la ricostruzione digitalizzata di tutte informazioni che produciamo in tutte le nostre interazioni digitali di qualsiasi tipo, costantemente aggiornate e archiviate nella loro totalità dalle differenti piattaforme che registrano.

Il corpo digitale (segnalo il testo collettivo curato da Antonio Marturano) non è una metafora fantascientifica ma una realtà, sulla base della quale vengono compiute scelte di marketing, piani di sviluppo aziendale, progetti di ricerca, azioni di controllo sociale e repressione della criminalità. Il corpo digitale può avere una consistenza e una profondità variabile, può ricomprendere informazioni biometriche, genetiche e sanitarie molto dettagliate, può rappresentare l’insieme della vita psichica e relazionale della persona reale così come si stampiglia sui media sociali che ella frequenta, racconta di pulsioni e anche di pervesioni che la persona reale nega a se stessa ma cui cerca sfogo nelle sue navigazioni internet, segue il corpo reale nei suoi spostamenti fisici, anticipa e prevede le scelte del nostro corpo fisico e sopravvive alla sua morte. Sorta di Doppleganger creato e alimentato dagli infiniti riverberi della digitalizzazione dell’esistenza, il corpo digitale ci segue e ci precede, a volte si sovrappone a noi, più spesso è capce di trasfigurare la nostra esistenza ordinaria.

Per questo tanto più valiamo quanto più denso, multidimensionale, aggiornato e dunque rappresentabile e prevedbile è il nostro corpo digitale. In tal senso il corpo fisico perde importanza economica, sociale e politica, poiché esso risulta essere solo il sostrato più antico di una identità che trova piena compiutezza, solvibilità e funzionalità al sistema sociale in cui è inserita quando essa è innervata nel sistema digitalizzato di relazioni, transazioni e mobilitazioni proprie della società digitale.

Il corpo digitale “vale” di più di un analogico corpo fisico, poiché è dal primo che si ricava valore, mettendo al lavoro tutte le informazioni che racchiude.

Siamo ben oltre la mera messa a valore del linguaggio (ecco il classico testo di Cristian Marazzi): il valore ora sta nell’interezza delle rappresentazioni e delle tracce digitali che produciamo quotidianamente, grazie alla possibilità di registrarle e analizzarle per ricavarne costantemente informazione.

La multidimensionalità del corpo digitale ricomprende anche tutte le informazioni sulla nostra fisicità che abbiamo lasciato durante le nostre transazioni online, dalle taglie dei vestiti al numero di scarpa, la nostra biometria commerciale, come anche i nostri gusti, gli stili del vestiario che preferiamo indossare e anche i desideri che non abbiamo ancora indossato. Anzi per gli osservatori e i tutori del nostro corpo digitale i desideri, le pulsioni, le fantasie e i progetti che testimoniamo con la nostra navigazione web, i nostri Like, i nostri pin, i nostri checkin, i nostri commenti sono gli aspetti psichici del nostro corpo digitale che consentono le attività di retargeting tanto importanti per qualsiasi strategia di web marketing. Ma anche il vissuto psichico che trasferiamo nel nostro corpo digitale, quando postiamo nei nostri blog o aggiorniamo i nostri status su facebook, quando twittiamo, quando commentiamo, quando sosteniamo quella campagna e inseriamo il nostro nominativo in quella petizione online, tutte queste azioni che caratterizzano il nostro corpo digitale diventano ancora più interessanti per chi si occupa di sorvegliarlo, incasellarlo, pedinarlo nelle sue frequentazioni e attività digitali al fine di prevenire o almeno prevedere i comportamenti del corpo fisico considerati devianti.

In questo senso il nostro corpo digitale è capace anche offrire previsioni in merito alle azioni del corpo fisico. Sono un sostenitore dei No Tav Torino-Lione? Bene, se mi trovo nelle vicinanze della val di Susa (facile saperlo, se ho prenotato trasporto e pernottamento online ma anche se ho un banale geotagging sullo smartphone), magari per innocenti motivi gastronomici, il mio corpo fisico potrebbe venire fermato e identificato dalle forze dell’ordine in prospettiva della manifestazione No tav che si svolgerà di lì a poco: il mio corpo digitale ci sarebbe voluto essere, magari seguirà lo stream dei tweet, ma il mio goloso corpo fisico ha preferito quella sagra a pochi chilometri eppure, nel dubbio, il corpo fisico verrà sottoposto a controlli giustificati sulla base dei miei comportamenti digitali.

Siamo più vicini a questi scenari di quanto molti preferirebbero credere.

Chi guadagna dal mio essere social?

Algoritmi Il meglio del vecchio blog Uncategorized

Chi guadagna dal mio essere social?

“Bisogna essere assolutamente moderni”, scrive Arthur Rimbaud nel 1873. “Bisogna essere assolutamente social”, dicono in tanti nel 2013, giusto 140 anni dopo. Ma che cosa implica “essere social”?

Nel 1979 Jean François Lyotard teorizzò, in un librettodestinato a grande fama, l’avvento dell’età post-moderna, la cui caratteristica principale era la fine delle “grandi narrazioni”, politiche, religiose, nazionali. Da allora il prefisso post è stato messo un po’ a tutto: fino a teorizzare i post-italiani e la post-nazione, di cui l’Italia attuale è (sarebbe, per gli ottimisti) un paradigmatico esempio.

Se risulta innegabile che le grandi narrrazioni politiche che hanno alimentato le opzioni sociali per gran parte del Novecento sono oggi affievolite o marginali (illuminismo, comunismo-socialismo, liberalismo), è pur vero che gli ultimi trent’anni la grande narrazione del mercato nella sua accezione neoliberista ha dominato e condizionato la scena politica e sociale. Sbagliava dunque Lyotard a ritenere che non sarebbero emerse altre idee totalizzanti, capaci di imporsi per alcuni addirittura come verità incontrovertibili. Quante persone, ad esempio, hanno rinunciato alle loro inclinazioni umanistiche e si sono adattate a crearsi una professione che rispondesse alle esigenze del mercato? Quanto la propaganda neoliberista veicolata dai mass media ha imposto certe logiche e certe retoriche ad organizzazioni come ad interi stati? Non è questa una grande manipolazione dei bisogni e delle aspirazioni simile a quella che impongono i regimi totalitari? Ancora oggi “il mercato” o “i mercati finanziari” sono usati per far accettare decisioni anche arbitrarie prese da chi queste entità, rappresentate quasi come ipostasi apofantiche, le muove in funzione dei propri interessi.

Oggi la nuova grande narrazione si chiama “social”. Siamo spinti a essere presenti sui media sociali e a interagirvi, a creare contenuti, a relazionarci con innumerevoli soggetti, il tutto per giustificare, confermare, rafforzare la nostra presenza, ovvero la nostra esistenza “social”. Come dice David Meerman Scott “on the web you are what you publish” e aggiunge: “if you publish nothing you are nothing”. Se produci contenuti interessanti creerai attorno a te interesse, reputazione e forse anche possibilità di sfruttare commercialmente tutto questo. Ma le modalità che i singoli hanno di estrarre valore dalla loro identità e dai loro comportamenti digitali sono infinitesime rispetto a quanto ottengono da essi le grandi piattaforme di comunicazione come Google, Facebook e tutti i media sociali. Per essi, questo “essere social” produce valore, anche monetario, poiché viene incanalato nei meccanismi di analisi dei Big Data. Il “valore social” di un fatto, di un contenuto, di una relazione finisce per essere pari alla possibilità di immetterlo nei processi di estrazione del valore, di metterlo in connessione con altri dati e di rendere questi dati immediatamente utilizzabili per azioni commerciali o politiche o di qualsiasi altro genere purché trovino un acquirente.

Le piattaforme social sono oggi lo strumento di sfruttamento biocapitalistico della naturale tendenza sociale delle persone. In realtà, non basta che Facebook prometta di essere per sempre gratuito: tutti i media sociali dovrebbero pagare gli utenti per ogni contenuto postato, sia pure pochi centesimi di dollaro, come fa Google AdSense.

Questa spinta a “essere social” è la grande narrazione dei nostri giorni e come ogni grande narrazione finisce per condizionare le scelte e le vite di decine di milioni di persone in tutto il mondo. Ci sono ambiti professionali in cui non si può scomparire dal proprio “mondo social” per più di qualche settimana se non si vuole rischiare di scomparire nella visibilità e quindi nella possibilità di essere ingaggiati come esperti.

L’ “essere social” è dunque la socialità attraverso i media sociali e il web, con regole sue proprie e non confondibile con la socievolezza personale: un timidone può essere un social influencer nel mondo digitale.

Soprattutto l’ “essere social” ha la caratteristica di essere monetizzabile, anche quando il messaggio postato sul media sociale sembra il più intimo e soggettivo possibile.

Prendiamo il caso di due amiche che si incontrano, staccano i cellulari e parlano fittamente di scelte legate alle loro esistenze. Esse producono molto meno “valore social” di due conoscenti che su facebook sviluppano un thread di politica anche fatto di insulti. Dalla secoda situazione si traggono dati utili a tracciare una tendenza e quindi a produrre analisi e dinamiche di comportamento elettorale. Nel primo caso il contenuto, essendo non tracciato, non ha “valore social” eppure può rappresentare un momento essenziale nel rapporto tra due persone.

Dunque, così come milioni di persone in tutto il mondo nei decenni passati sono stati spinti a applicare alle loro scelte e ai loro comportamenti una logica di “mercato”, oggi milioni di persone sono spinte a ragionare in termini “social”. È un bene o un male? Non esiste una risposta univoca. Che il mercato abbia aiutato milioni di persone ad uscire dalla povertà è un fatto come lo sono anche le condizioni di sfruttamento in cui ancora vivono tante altre decine di milioni di persone a causa delle “logiche di mercato”. Quando interagiamo in termini “social” dobbiamo essere consapevoli che stiamo producendo e regalando valore a chi utilizzerà quelle interazioni. Finquando riterremo che il vantaggio che ne otteniamo è maggiore di quanto regaliamo nessuno porrà dubbi. Il fatto divertente è che quasi nessuno di noi conosce il controvalore del nostro “essere social” e veniamo costantemente persuasi che “essere social” sia un valore di per sè. Pensate, per parallelo, a come le tematiche relative alla privacy abbiano perso vigore e urgenza all’interno del dibattito pubblico mentre al contempo i sistemi di tracciamento delle nostre vite diventavano sempre più raffinati. Il sistema Prism scava nelle vitedigitali degli europei, cosa vietata negli USA: avete sentito il Garante della Privacy o il Governo italiano inoltrare una pesante protesta all’amministrazione Obama? Non solo perché ci troviamo, noi itaiani, in una posizione di minorità economica politica, ma anche perché i cosiddetti “nativi digitali” under 30 sono in genere poco sensibili verso la tematica.

Ecco, torniamo al punto di partenza: la persuasione diffusa è che “bisogna essere assolutamente social” ma siamo sicuri di sapere cosa rischiamo di perdere attraveso il nostro ”essere social”?

Vai alla barra degli strumenti