Mese: dicembre 2016

La stranezza che ho nella testa: Istanbul nelle vite degli ultimi arrivati

Biblioteca Letteratura

La stranezza che ho nella testa: Istanbul nelle vite degli ultimi arrivati

Per le strade notturne di una città imprevedibile si aggira da decenni un venditore ambulante.

Se non è diventato ricco come i cugini forse è proprio perché non riesce a rinunciare a quelle passeggiate notturne in una città che sempre gli sfugge, alla ricerca di acquirenti dell’anacronistica boza e di risposte alla Stranezza che ha nella testa. Ma questo a Mevlut poco importa. Alla fine del romanzo riuscirà a dire alla città quello che ha sempre cercato di dire: una dichiarazione di amore e di accettazione del destino, che contrasta con la volitività di gran parte degli altri personaggi del romanzo.

Mevlut non ha la determinazione dei suoi cugini Korkut e Suleiman, non ha le convinzioni e l’orgoglio del suo amico Ferhat, non ha l’arroganza della bellissima Samiha, non ha di certo l’imprenditorialità di Hamit Vural e nemmeno l’intraprendenza della cognata Vediya. Dunque, almeno all’apparenza, quella di Mevlut è una storia di continui insuccessi ed equivoci, nello studio, in amore, nelle varie attività lavorative che intraprende. E anche quando realizza il sogno della giovinezza scopre troppo tardi che comunque esso non era fatto per lui. Eppure addentrandosi ogni sera nei viali e nelle viuzze di Istanbul, accolto con stupore e curiosità in tante case diverse come un personaggio emerso dal passato, il venditore di boza Mevlut riesce a non diventare uno sradicato come quasi tutta la sua famiglia allargata. La boza, la bevanda di grano fermentato, è una testimonianza di fedeltà alle origini, a suo padre venditore ambulante di yogurt, a una identità povera e rurale che chiunque arriva nella capitale cerca quanto prima di scrollarsi di dosso.

“Quando si rendeva conto che il figlio lo guardava come un sapiente che parla con la città usando una lingua misteriosa, e che era impaziente di conoscere i segreti di Istanbul, Mustafa Effendi (il padre di Mevlut) si inorgogliva e accellerava il passo” (pag.71)

Epopea minima e corale di semplici immigrati che si fanno strada per cercare il loro pezzo di benessere in una città che viene ferocemente trasformata dal loro arrivo, con il suo ultimo romanzo Pamuk cerca di leggere Istanbul dalla parte dei suoi nuovi abitanti, superando l’etichetta di scrittore della borghesia occidentalizzata.

Anche di recente sono apparsi in Italia vari testi intrisi di esotismo a buon mercato che raccontano la città dei romei o quella multietnica e multireligiosa dei sultani, ma la realtà della Istanbul di oggi è una città prevalentemente anatolica, dove negli ultimi quarant’anni si sono insediati non meno di dieci milioni di immigrati dalle regioni asiatiche della Turchia, una dilatazione urbanistica e sociale che non ha pari in Europa e in vicino Oriente e che l’ha trasformata in maniera radicale.

“Nessuno amava ricordarlo, né dirlo, ma un tempo Tarlabasi era un quartiere greco, armeno, ebreo e siriano. A Kurtulus, che era l’altro lato di una vallata percorsa da un ruscello che dalle spalle di Taksim scendeva verso il Corno d’oro e prendeva nomi diversi in ogni quartiere che attraversava – nomi ormai dimenticati da tutti perché ricoperti dal cemento e dall’asfalto – , sopra Ferokoy, sessant’anni prima negli anni Venti, ci vivevano greci e armeni” (pag. 303)

 

Se Istanbul è il racconto intimistico di una progressiva consapevolezza che si intreccia alla conoscenza e alla riflessione sulla propria città, in La Stranezza che ho nella testa Pamuk si sfida a raccontare un mondo quanto più distante socialmente, culturalmente e geograficamente dalla sua estrazione, il mondo di coloro che sostengono Erdogan come colui che li ha tratti fuori dalla povertà e dalla marginalità, che al contempo ha garantito loro l’accesso al consumismo occidentale e la promozione delle tradizioni religiose.

Il romanzo ha allusioni molto chiare alla situazione attuale turca: non credo sia un caso che il costruttore Hamit Vural provenga dalla città di Rize come la famiglia di Erdogan. Gli oltre quarant’anni di storia che attraversano le vite dei personaggi del romanzo sono dunque un’occasione per ricordare i traumi e gli abusi cui è abituata la Turchia e molto meno l’Occidente che la giudica: i colpi di Stato, le persecuzioni e le torture ai danni degli attivisti di sinistra, dei curdi e degli aleviti, la corruzione diffusa e la speculazione edilizia che sono componenti del potere dell’AK parti.

Il romanzo tuttavia non ha la complessità di impianto e di scrittura de Il libro nero o Il mio nome è rosso, ma il personaggio di Mevlut, descritto nel suo candore, nel suo ottimismo, nella sua integrità, fa sorridere e resta nella memoria. La storie degli altri personaggi scorrono facili alla lettura, con l’esplicito intento di raccontare una ordinarietà di vita e una certa semplicità di pensiero e sentimenti.

Accusato in patria di essere uno scrittore intellettualistico e orientato verso i lettori internazionali, Orhan Pamuk ha voluto sfidare a una certa critica e vincere una sfida anche con se stesso, per dimostrare di saper capire e raccontare i suoi recenti concittadini, cui guarda al contempo con sollecitudine e timore.

Orhan Pamuk La Stranezza che ho nella testa, Einaudi, 2015

Un algoritmo ci seppellirà?

Algoritmi

Un algoritmo ci seppellirà?

(Questo testo è stato già pubblicato su Digidig.it)

Uno spettro si aggira per il web: lo spettro dell’algoritmo!

La sterlina crolla per qualche secondo? Forse è stato un errore umano, ma fa più clamore evidenziare che, forse, la colpa è di un non ben specificato e impersonale algoritmo.

La cosiddetta “Buona Scuola” è accusata di aver determinato esodi di docenti di portata addirittura biblica?  Le scelte sono state fatte da un algoritmo, quindi prendetevela con lui, se riuscite a trovarlo.

Se invece siete algoritmicamente licenziosi potreste applicare l’algoritmo del pene elaborato da Le Iene e verificare se il risultato corrisponde alle misure effettive (senza barare però) in questo nuovo sistema metrico genitale.

Visto che per essere notati bisogna usare le parole del momento, anche l’ottuagenario Rino Formica, in una recente intervista dove critica apertamente Matteo Renzi, ci rivela che “Non prendiamo atto di una realtà: quella di essere governati in ultima istanza da un’algoritmo”. Le ultime cinque parole erano linkate e quindi vi ho cliccato per capire finalmente chi o cos’è questo famigerato algoritmo: mi son ritrovato su una pagina dello stessa testata dal titolo “Goldman Sachs e Renzi preparano l’arrivo della troika”. Quindi una bella confusione: quelle dinamiche che non si capiscono proprio bene e che fino a dodici-diciotto mesi fa venivano attribuite senza dubbio alla malefica finanza globale, ora vengono attribuite alla forza dell’inquietante Algoritmo. Un indefesso complottista potrebbe teorizzare dunque che i soliti banchieri e massoni adesso si chiamano tra loro algoritmi. A quando G.A.D.U. verrà interpretato come Grande Algoritmo Dell’Universo?

Ecco dunque la parola del momento: l’algoritmo, pronto per ogni spiegazione, che fa entrare nelle pagine importanti di ogni testata, apre le porte delle conversazioni suppostamente intelligenti, fa sentire contemporanei e aggiornati, con un tono anche un po’ esoterico o almeno da esperto, ché ci dà un tono in più. Facile il rischio che un concetto relativamente semplice, ma dalle applicazioni infinite e anche estremamente complesse e pervasive, finisca per essere banalizzato da semplificazioni giornalistiche e dal sentito dire delle chiacchiere in società.

Algoritmi tra tecnica e ideologia

In questo senso vi è poi un’altra tendenza, soprattutto di una certa sinistra, a sostituire oggi la tradizionale parola capitale con la parola algoritmo, creando un feticcio intellettuale opaco e concettualemente inutile.  Insomma, una classica reificazione, come mette in guardia Tarleton Gillespie, dalle maglie talmente larghe da farci stare tutto e senza trattenere niente. Come quando Karl Popper, nella Vienna degli anni Trenta, notava come i marxisti riuscissero a spiegare tutto con la loro teoria, dalle crisi economiche ai cambiamenti di costume. Proprio lì Popper iniziò ad elaborare la sua teoria della falsificabilità dei postulati scientifici.  Dopotutto è sempre più facile riverniciare il proprio vocabolario che dotarsi di concetti nuovi per comprendere le trasformazioni che ci attraversano.

Il punto sta tutto qua: o algoritmo è la buzzword del momento, destinata a tramontare non appena ne arriverà un’altra, oppure esso è il termine che indica la trasformazione radicale dei processi di vita, di pensiero e di relazione che è in corso, e allora non basta citare gli algoritmi, ma bisognebbe studiarli, non dico saperli scrivere, ma almeno saper leggere quelli pubblici per capirne le loro implicazioni.

Eppure, quanti tra coloro che parlano e scrivono di algoritmi saprebbero almeno interpretarli in versione formalizzata, ovvero come essi effettivamente funzionano? E alla fin fine, se non sai leggerli come puoi ambire a negoziarli? Chiunque si occupa di coding sa che ogni comando ha senso solo se applicato a un dataset. Ovunque oggi si ragiona di algoritmi e molto meno di dati. Mi sa che i discorsi sui dati, elemento cardine della nostra epoca, hanno giornalisticamente già stufato, ma, come vedremo alla fine di questo testo, dalla loro tutela potrebbero nascere nuove modalità di fruizione del web.

digital-saladUn algoritmo, nella sua declinazione meno formalizzata, non è che un insieme di istruzioni. Una ricetta può essere considerata un algoritmo. Il consiglio classico dei ricettari che invita ad aggiungere sale se all’assaggio l’impasto è sciapito sarebbe in informatica un tipico comando IF o condizionale. Le indicazioni per preparare un’insalata primavera possono essere intuitivamente assimilabili a quelle per trovare soluzioni e risposte attingendo da più repository di dati. In questo senso un’insalata primavera con quattro uova sode, quattro piselli e due foglie di lattuga non può più chiamarsi insalata primavera, così come un sistema algoritmico complesso non riesce più a restituire risposte e soluzioni pregnanti se non utilizza e incrocia grandi volumi di dati quanto più diversificati e calibrati per ampiezza e profondità. La necessità di utilizzare sempre più dati per far sì che i suoi risultati siano pregnanti porta Google oggi a utilizzare oltre 200 signals, che i suoi algoritmi analizzano per restituire risposte che tanti, ingenuamente, considerano definitive. Per concludere con la similitudine, immaginate di avere sotto casa un negozio di insalate denominato “Big G” che offre oltre 200 prodotti liberamente miscelabili, dalla classica lattughina ai più esotici grani di melograno o di papavero e a tantissime spezie: di fronte a tale abbondanza ci metteremmo tantissimo per decidere, paralizzati dalle tantissime opzioni disponibili. Poi, per fortuna (?), interverrebbe l’operatore che, sulla base della sua esperienza, ci propinerebbe quella che ritiene l’insalata migliore per noi, che noi riterremmo molto gustosa e varia, anche perché non abbiamo potuto conoscere le alternative.

Algoritmi come deresponsabilizzazione ed esonero

Tra le tante infinite possibilità offerte da basi di dati sempre più estese e dettagliate, uno specifico algoritmo (meglio: una ramificazione di algoritmi) ci risponde con una scelta che ritiene essere la più rilevante, che forse troveremo poco pregnante ma che di certo ci nasconde infinite altre possibilità di informazione e conoscenza. Eppure questo algoritmo, questa unica e parziale logica, viene intesa comunemente come la logica, la spiegazione, la risposta, la soluzione, univocamente, esclusivamente.

Emergono così, a mio avviso, due rischi.

Il primo rischio è quello che porta dritto verso una deresponsabilizzazione  generalizzata. Il disastro ferroviario, la somministrazione sbagliata di farmaci, l’incidente industriale saranno sempre più addossati al povero algoritmo, il quale, potrà diventare il capro espiatorio ideale: anonimo, impersonale, incomprensibile ai più. Dovremmo essere sempre consapevoli che, allo stato attuale dell’intelligenza artificiale, dietro e sopra un algoritmo c’è qualcuno che lo ha scritto e ha fatto determinate scelte nell’introdurre quelle istruzioni e non altre. Così come dovremmo sempre ricordarci che l’algoritmo offre una o più risposte rilevanti rispetto ai determinati parametri umanamente ritenuti ottimali ma non che possono non essere pertinenti al contesto e alle situazioni specifiche.

Il secondo rischio rischia di spingere verso quello che si potrebbe definire, per citare Arnold Gehlen, un esonero cognitivo, così che la pervasività degli algoritmi ci farà comodamente rinunciare a non capire in concreto nulla del mondo in cui viviamo e delle sue dinamiche, e nemmeno in base a cosa prenderemo delle decisioni. E soprattutto nemmeno ci porremo il problema di chi e perché ha creato quel tale algoritmo, perché noi degli algoritmi, di queste black box contemporanee, finiamo per conoscere solo gli effetti ma non i processi e le logiche.

E allora una domanda: perché devo continuare a tramandare o costruire strumenti di esonero tipici degli esseri umani, di cui la cultura è quello principe, se vi sarà un algoritmo che può farlo al posto mio? Cosa resterà dell’uomo se un algoritmo definirà i principi del suo ragionamento e le basi della sua identità?

Rispetto a questi due rischi, che alla fin fine mettono in discussione due cardini del pensiero quali l’elaborazione culturale e la responsabilità delle scelte, sorge allarmata la necessità di porre una qualche barriera. L’eco del momento diventa: se non possiamo fermare l’algoritmo almeno negoziamo i suoi ambiti e i suoi poteri. Ma è ovvio che la negoziabilità non può avvenire a priori perché i detentori degli algoritmi non li renderanno mai pubblici.

E anche se domani Google e Facebook, improvvisamente convertiti al Public Domain, rendessero pubblici i loro algoritmi, quanti dei teorici che ora si affannano attorno al tema saprebbero leggerne il codice e proporre modifiche operative? E quanti sviluppatori, essi sì capaci di leggere le sterminate linee di codice di questi algoritmi, saprebbero trasformare in codice le questioni che sollevano i critici degli algoritmi?

chrome-fa

Negoziabilità è un termine che risente di un approccio vertenziale uscito dritto da qualche fumosa stanza dove decenni fa si consumavano sfibranti negoziati notturni tra le “parti sociali”. Ma oggi le parti sociali, intese come allora, non ci sono più. Ci sono organizzazioni, per lo più di tipo aziendale, che si dotano di algoritmi sulla base di interessi non sempre immediatamente monetizzabili e un’infinità di persone che fruiscono di questi algoritmi con un livello più o meno alto di consapevolezza. Chi potrebbe impostare la trattativa tra i pochi e i tantissimi? E’ vero che ci sono esperienze di lobby dei cittadini, ma in quel caso tutele e accordi sono implementati solo dopo aver esperito sui destini delle persone gli effetti di questa black box chiamata algoritmo.

Non solo, anche se un’autorità nazionale o sovranazionale impone a un motore di ricerca di cancellare certi risultati, non sapremo mai quali algoritmi di sorting sono stati disattivati e quanto questi filtri possono essere scavalcati semplicemente cambiando configurazione al browser o navigando in anonimo. Chi cerca qualcosa sul web ha strategie e tecniche spesso molto più raffinate di ogni filtro normativo.

Dunque, almeno a priori, negoziare gli algoritmi è vano e velleitario? Una sfida impossibile per cui non ci resterebbe che heideggerianamente soccombere alla tecnica? Credo al contrario che vi siano due grandi ambiti di negoziazione, che sono quello della privacy e quello della valorizzazione dei dati estratti da ogni singola persona.

Si tratta in realtà di presidiare il processo di acquisizione e valorizzazione dei dataset, che è la vera catena del valore in epoca digitale. Oggi io concedo l’uso dei miei dati a fronte di servizi che spesso potrebbero risultare soddisfacenti anche senza una tale invasività. Pressoché in contemporanea  vengo spinto a concederli gratuitamente.

Ma quale presupposto, persuasione o ideologia ha permesso ai grandi operatori del web di definire come standard univoco e indiscusso la cessione gratuita dei miei dati e la non conoscenza dei processi di estrazione e di utilizzo dei dati, e dunque l’opacità degli algoritmi?

E’ possibile e, se sì, come cambiare questa persuasione generale alla base del successo economico delle grandi piattaforme cognitive e relazionali che dominano internet? Credo che sia questo lo snodo essenziale di ogni dibattito pubblico sul tema.

Vai alla barra degli strumenti