Algoritmi

Habeas mentem: libertà e diritti negli ambienti digitali

Dall’autunno del Medioevo fino al secolo scorso il conflitto tra poteri temporali e poteri religiosi si è giocato soprattutto sul corpo delle persone. Ai precetti religiosi che imponevano dalla prima infanzia all’estrema vecchiezza finalità totalizzanti del corpo, con il principio dell’habeas corpus il potere laico ha contrapposto i limiti del suo stesso arbitrio, rinunziando a disporre dei corpi dei propri cittadini senza basi giuridiche e giustificazione pubblica.

Ma proprio quando la rivendicazione dei diritti del corpo come soggetto politico portatore di diritti universali sembra un dato acquisito, almeno in molti paesi dell’Occidente, abbiamo iniziato a renderci conto che la grande battaglia per i diritti nei prossimi anni riguarderà non più il corpo ma la mente.

E’ possibile definire un “Habeas mentem” dell’epoca digitale?

Ovviamente separare il corpo dalla mente, l’emozionalità dalla razionalità, significa incorrere in quello che Antonio Damasio chiama l’errore di Cartesio. Eppure, così come il corpo diventa sempre più metaforico e bisognoso di attenzione rispetto all’invasività dei sistemi di monitoraggio e di controllo digitale, così anche la mente, di certo intesa come metafora, richiede un nuovo sistema di tutele e protezioni affinché possa continuare a costruire e scegliere liberamente le categorie concettuali con le quali vuole essere nel mondo. La proposta di ricerca dovrebbe sviluppare un percorso di riflessioni che partano, da un punto di vista storico, da un corpo fisico che rivendica la sua libertà per approdare a un corpo digitale che rivendica il suo presidio sui dati che produce fino alla tutela di una mente immersa in ambienti digitali relazionali e cognitivi che non solo puntano a indurre specifiche reazioni a certi stimoli ma che oggi, grazie agli sviluppi del neuromarketing, possono anche tracciare e prevedere l’attività neuronale.

La rivendicazione del diritto alla tutela della mente dalla manipolazione e dallo sfruttamento inconsapevole assume un significato ancora più forte nel capitalismo cognitivo, dove il fattore produttivo principale diventano le capacità cognitive degli individui lungo una scala che va, per sommi capi, dalla semplice attenzione, alla relazione, al problem solving, fino alle varie forme di creatività. L’habeas mentem è il diritto di rivendicare che le attività mentali e cognitive non vengano messe a valore senza un esplicito consenso dell’individuo o la esplicita possibilità di rinunciare a certe funzioni di certi ambienti relazionali o piattaforme cognitive senza dover essere penalizzati o esclusi da essi.

Ogni piattaforma digitale, sia essa primariamente relazionale o informazionale (per quanto i termini vanno intesi come strettamente interrelati), è di per sé anche un ambiente produttivo, capace, attraverso la loro trasformazione in dati, di mettere a valore attese, ricerche, interessi, emozioni, contenuti degli utenti. La produzione cognitiva non è più appannaggio di una classe ristretta intellettuale (ricercatori, scienziati, accademici, ecc.) ma grazie alle nuove tecnologie da ogni utente le piattaforme riescono ad estrarre informazioni e conoscenza. Se dunque è pacificamente acquisito che quando entriamo in queste piattaforme io e la mia mente veniamo messi sempre al lavoro, nel senso che stiamo creando valore per chi controlla la piattaforma, dunque la mente diventa, in un certo senso, “ostaggio” della piattaforma perché sottoposta al suo modello esperienziale e di produzione di valore, dovremo ora capire quali sono e quali potrebbero essere i meccanismi di tutela, gli ambiti di libertà e le vie di uscita da questi ambienti.

Quali sono dunque i confini inviolabili della mente nell’epoca degli ambienti relazionali, delle piattaforme cognitive, del neuromarketing e del marketing esperienziale? Può iniziare ad essere elaborato un insieme di indicazioni che consentono al soggetto di sottrarsi al controllo e allo sfruttamento delle sue dimensioni cognitive e psichiche da parte degli ambienti relazionali o della piattaforma cognitiva senza perdere i benefici e opportunità dell’epoca digitale?

La mente esposta

Già da decenni la sfida della comunicazione commerciale non è più sulla persuasione o sulla propaganda, ma su attenzione e su cambiamento di attitudini. Per fare questo non bastano più le vecchie teorie o tecniche di un epoca di mass media, ma un approccio granulare che richiede una conoscenza sempre più dettagliata non solo delle scelte del soggetto, ma anche dei processi mentali che lo presidiano, al fine di comprenderli ma anche di condizionarli, se non addirittura prevederli.

Neuromarketing e marketing esperienziale puntano a penetrare e condizionare la mente degli individui con un livello di profondità e raffinatezza impensabile fino a pochi anni fa grazie al ricorso a biometriche, elettroencefalogrammi, risonanze magnetiche funzionali, facial coding, eye-tracking e altre tecniche di lettura delle reazioni neuronali all’emozioni e agli stimoli sensori. La sfida è quella di cogliere non solo il cosa, ma il perché di una scelta , sia essa d’acquisto, di opinione o di adesione. Finora il limite di queste ricerche era legato alla loro complessità e ai costi delle apparecchiature. Inoltre si trattava di sperimentazioni in ambienti controllati, quindi distanti dalla vita quotidiana, dove un singolo stimolo si trova a dover competere per l’attenzione con tanti altri in un flusso esperienziale senza soluzione di continuità. Tuttavia la digitalizzazione delle esperienze e la dilatazione delle funzioni disponibili negli ambienti relazionali digitali stanno rapidamente cambiando lo scenario. In concreto: se già oggi la comune geolocalizzazione dei cellulari consente di ricostruire esattamente i percorsi dei visitatori di un supermercato e speciali sensori possono rilevare come reagisce la mente agli stimoli di quello spazio fisico, la migrazione verso il commercio elettronico e la pervasività di piattaforme e di ambienti relazionali comporterà un controllo e una prevedibilità della mente delle persone molto più efficace. Sempre più l’esperienza del mondo sarà mediata non solo tecnologie (wearables, IoT) ma da intere piattaforme come ambienti relazionali (Facebook) o strumenti di iperinformazione (Siri, Cortana). Che ne sarà di una mente quasi costantemente immersa in tali ambienti e le cui reazioni verranno registrate e analizzate in tempo reale da decine di sensori? Bisogna dunque chiedersi come potrà essere condizionata la mente umana quando le conoscenze e le tecniche avanzate di neuromarketing verranno applicate regolarmente in un ambiente totalmente digitale, definito nelle opzioni possibili e monitorato dai suoi creatori, in cui l’utente avrà a disposizione un set di opzioni preliminarmente approvate come accettabili.

Cosa significa gratuito?

Si porrà con estrema urgenza la domanda su cui si interrogano i circoli più avveduti di critica del digitale: chi lavorà per chi in una relazione tra soggetti umani e piattaforme digitale e, tra umani e intelligenza artificiale? Se una piattaforma si definisce gratuita dovrebbe garantire a ogni individuo la possibilità di fruire di un servizio a prescindere da quanto egli lascia alla piattaforma in termini di dati o di attività cognitiva e relazionale, inconscia o meno. Nell’epoca del digitale la gratuità non può essere collegata banalmente all’esistenza o meno di una transazione monetaria: il valore sono dati e contenuti, dunque uno scambio gratuito dovrebbe essere anche e soprattutto quello che non presuppone un trasferimento di dati (quindi di valore digitale) dall’utente alla piattaforma.

In realtà non accade così e le macchine algoritmiche non solo succhiano costantemente dati dai loro utenti, ma richiedono spesso esplicitamente di mettere a lavoro facoltà superiori dell’intelligenza umana. Nel caso di 2Captcha veniamo richiesti non solo di dimostrare di non essere dei robot, ma anche di mettere a disposizione gratuitamente le capacità di riconoscimento delle immagini della nostra mente per risolvere i problemi di attribuzione dei loro data base. E’ possibile dunque limitare una tendenza che porta a vedere gli umani come produttori gratuiti di dati senza diritti, neanche a sapere come questi dati verranno usati e da chi? Anche la scoperta che le gratifiche dei Like attivano il nucleus accumbens, il sistema neuronale collegato a piacere e dipendenze, suscita inquietudine per come può essere utilizzata.

Riprogrammare ai buoni sentimenti

Ma la mente non solo viene fatta lavorare gratuitamente, ma può essere facilmente condizionata e manipolata nelle sue persuasioni e scelte. Per quanto sia assolutamente ovvio che la mente umana è stata da sempre oggetto di propaganda e manipolazione, nell’era del digitale a questa modalità passiva, di mero consenso ai messaggi, si sostituisce l’abilitazione a produrre e diffondere quella stessa propaganda e la possibilità reale di riprogrammare le attitudini e le preferenze degli individui.

La stessa Facebook, sulla base del recente manifesto di Mark Zuckerberg, sembra voler disciplinare i suoi utenti in base a determinati valori di dialogo e tolleranza.

Immaginiamo allora, ad esempio, una delle tante persone che postano su Facebook contenuti razzisti, magari ripresi da uno dei tanti siti web che spacciano di continuo notizie false o manipolate, facendole poi riverberare su qualche centinaio di persone: una delle cose che su Facebook più allarma gli ingenui nemici delle parole ostili. Immaginiamo che Facebook, per ridurre questo obbrobrio, decida di proporre sulla timeline di questa persona sempre meno contenuti razzisti e sempre più contenuti, inoffensivi, che suscitano altrettanto attenzione da parte di questa persona, quali aggiornamenti di stato di amici non razzisti, immagini dei figli delle sue amiche, notizie generiche dei suoi luoghi di origine, notizie sulla sua squadra del cuore, ecc. Quanto sarebbe legittima e accettabile la riprogrammazione della bolla informativa e, indirettamente, della mente di un utente, che magari inizierebbe ad avere una diversa percezione della presunta gravità di certi fenomeni? Questo disciplinamento della mente di certi utenti, ancorché oggi già possibile e fatto intravedere da Zuckerberg, sarebbe legittimo? Non viola esso il diritto degli individui ad avere e rafforzare opinioni diverse da quelle più tranquillizzanti e condivise ma comunque proprie?

Già oggi le piattaforme incorporano dei pattern di relazione tra i partecipanti definiti a priori e tecnicamente non è complesso ipotizzare pattern anche di tipo cognitivo in qualche modo promossi dalla piattaforma. Le soluzioni all’allarme delle fake news, che comunque esistono da quando esiste il pettegolezzo del villaggio, potrebbero sfociare in esiti molto più distopici di quanto auspicano le anime belle.

Un punto di partenza

Non solo l’argomento seminale di questo post, ma anche le competenze dell’autore non consentono se non di porre certe questioni in forma di interrogativo.

Il dibattito finora è stato in termini di tutela e accesso ai dati e in termini di trasparenza e negoziabilità degli algoritmi. In realtà questi due approcci appaiono limitati. Il tema della privacy appare roba da nonni pudichi a una generazione di Millenials abituati a cercare conferme attraverso la vetrinizzazione della loro esistenza, mentre, d’altra parte, il dato è un concetto dinamico: da un dato oggi considerato non invasivo in futuro si potrebbero trarre informazioni estremamente riservate sulla vita e sul futuro di una persona. Che gli algoritmi debbano garantire maggiore trasparenza è una questione oramai sul tappeto in paesi come gli USA o la Germania, ma se pure si arrivasse a qualche risultato, i grandi player del digitale sarebbero sempre in grado di apportare modifiche sostanziali e ritornare subito molti passi avanti rispetto alla legislazione.

Definire i diritti di base del proprio essere digitali contro gli arbitri delle grandi piattaforme appare dunque una questione legata all’indirizzo futuro dell’umanità. Per definire l’habeas corpus la tradizione occidentale ha impiegato circa quattrocento anni. Rispetto alla velocità del progresso dell’intelligenza artificiale e alla pervasività delle piattaforme, per l’habeas mentem anche quattro anni potrebbero essere troppi.

.

Riferimenti di lettura:

Antonio Damasio, L’errore di Cartesio, Adelphi, 1995

UCLA Newsroom, The teenage brain on social media, 31 maggio 2016, [Link]

Gerald Zaltman, How Customers Think: Essential Insights into the Mind of the Market, Harward Business School Press, 2003

Michel Foucaldt, Nascita della biopolitica, Feltrinelli, 2005

Hilke Plassmann, Vinod Venkatraman, Scott Huettel, and Carolyn Yoon (2015) Consumer Neuroscience: Applications, Challenges, and Possible Solutions. Journal of Marketing Research: August 2015, Vol. 52, No. 4, pp. 427-435.

Lisa-Charlotte Wolter, David Hensel and Judith Znanewitz. 2017. A Guideline for Ethical Aspects in Conducting Neuromarketing Studies. Ethics and Neuromarketing, 65-87.

Lawrence Scott, The four-dimensional human, Windmill books, 2015.

Pedro Domingos, The Master Algorithm,  Basic Books, 2015

Kate Connoly,  Angela Merkel: internet search engines are distorting perceptions, The Guardian, 27 ottobre 2016 [Link]

Cosimo Accoto, Il mondo dato, EGEA, 2017.

Leave a Comment

Comments (1)

  1. Salve Biagio,
    intanto grazie molte della segnalazione in bibliografia. Ho letto e apprezzato questo post che solleva non poche e non facili questioni circa la società tecnologica contemporanea, le sue meccaniche e le sue dinamiche (oltre che le sue logiche). Etica, epistemologia, ontologia (per dirne alcune) sono tutte discipline filosofiche coinvolte in questo dibattito che è opportuno e urgente far crescere anche nel nostro paese. E da ultimo (o forse, da primo e comunque sicuramente insieme) c’è una questione per così dire di “nuova critica dell’economia politica” che andrà affrontato. Tutti i contributi, compreso questo tuo presente, sono preziosi e aiutano in questa progressiva presa di consapevolezza. Grazie della riflessione e della citazione, ancora. Cosimo

Vai alla barra degli strumenti