Tag: intelligenza artificiale

Il robot che pensa è anche responsabile?

Algoritmi

Il robot che pensa è anche responsabile?

Oggi il Parlamento europeo ha respinto la piattaforma “Civil law rules on roboticsche puntava a costruire un percorso di risposta alle conseguenze sociali, economiche, giuridiche, politiche e culturali dello sviluppo dell’automazione e dell’inteligenza artificiale.

La questione immediatamente evidenziata dai media è stata quella relativa al reddito universale di cittadinanza, che il rapporto promosso dall’eurodeputata socialista lussemburghese Mady Delvaux indica come una strada necessaria per far fronte alla scarsità di occupazione continua e di qualità che l’automazione comporta. 

In realtà il rapporto approvato il 12 gennaio scorso dalla commissione affari giuridici dell’europarlamento parla anche di molto altro: dalle “tradizionali” questioni relative alla protezione e alla manipolazione di dati personali da parte di soggetti non umani fino all’autocoscienza dei sistemi robotici e alla possibilità che future scoperte scientifiche e future consapevolezze sulla condizione dei viventi sulla Terra siano frutto dell’intelligenza artificiale e non più o non solo del pensiero umano. Appare chiaro che nella mappa della conoscenza umana ci troviamo in un “hic sunt leones” di cui quotidianamente si allarga l’estensione.

Se la tradizione filosofica, morale e giuridica occidentale ha sempre collegato pensiero e responsabilità, per cui solo l’individuo pensante e consapevole può essere ritenuto pienamente responsabile delle sue azioni, si pone per la prima volta nella storia dell’umanità la necessità di definire gli ambiti di responsabilità di sistemi elaborativi e cognitivi non umani e, di riflesso, la necessità di tutelare i soggetti umani, come quelli algoritmici, dai danni che possono loro ingliggere errori, omissioni o malfunzionamenti dei sistemi cognitivi non umani.

I parametri in base ai quali il Rapporto definisce i robot “autonomi e intelligenti” sono quattro: senzienza, attraverso lo scambio di sensazioni e dati con l’ambiente; autoapprendimento; supporto fisico; plasticità/reattività del suo comportamento e/o azioni al contesto in cui opera. Questi sistemi cognitivi con o senza supporto fisico pongono rischi per l’essere umano, che può ritrovarsi ad essere sfruttato per i dati che da egli si possono estrarre, come anche condizionato o abusato fisicamente. Il rapporto propone la creazione di un’Agenzia Europea per la robotica e l’intelligenza artificiale che dovrebbe fornire ai decisori pubblici gli strumenti tecnici, etici e regolatori per affrontare questo nuovo scenario.

Verso la robotologia?

Uno scenario in cui molto probabilmente si svilupperà a breve un’etologia dei robot e dei sistemi cognitivi non umani, una scienza che, sul calco del termine antropologia, potremmo chiamare robotologia.  Ma la robotologia non sarà una scienza separata dall’antropologia e dalle altre scienze umane tradizionali. Infatti sempre più corpi umani ospiteranno al loro interno o sulla loro superficie componenti, integrazioni o estensioni delle proprie membra: dal miglioramento della vista grazie a chip installati nell’occhio (per esempio in situazioni belliche) a lettori di attività e intenzioni cerebrali per chi è vittima di malattie paralizzanti. Fino a che punto queste estensioni algoritmiche dei sensi umani possono trasformare la percezione di sé? Fino a che punto la coscienza, l’emozionalità come anche il pensiero più razionale saranno condizionati da queste protesi interattive?

E se il robot già oggi può mentire e bleffare, chi gli comminerà la pena per i danni che provocherà e chi pagherà per questi danni? Il robot verrà disattivato (finquando gli umani potranno farlo) per questo? I programmatori degli algoritmi di autoapprendimento verranno ritenuti colpevoli oppure la società che li ha ingaggiati?  Chi risarcirà i danneggiati, umani o algoritmici? I premi di un’eventuale assicurazione contro i danni provocati da robot e algoritmi da chi verranno pagati?

Si svilupperà una cultura robotica autonoma da quella umana? I sistemi cognitivi non umani svilupperanno delle forme di comunicazione innovative tra di loro e in base ad esse si scambieranno e tramanderanno pratiche, competenze e scoperte?

Un reddito minimo per la sopravvivenza dell’umanità?

L’eurodeputata Mary Delvaux ha dichiarato che la sua preoccupazione è che “gli umani non vengano dominati dai robot”. E a chi pensa a una distopia tipo il Pianeta delle Scimmie con i robot al posto dei nostri cugini primati bisogna ricordare che ogni esonero di funzioni lavorative e cognitive umane che una macchina o una tecnologia attua è già essa una forma di dominio. L’esonero da tante funzioni lavorative, la liberazione dal lavoro promessa da secoli attraverso le macchine, sta gettando milioni di persone nella schiavitù della disoccupazione o della sottocupazione. Ecco perché la proposta di un salario minimo universale, sostenuto anche da Elon Musk, di certo non un agitatore politico. Ma la questione è ancora più complessa. Oltre un secolo di propaganda scientifica e manipolazione del consenso ci hanno insegnato che persuasioni distorte o convinzioni artificialmente costruite condizionano le persone molto di più che le fruste o i bastoni. In un mondo in cui sistemi cognitivi non umani potrebbero arrivare a decidere cosa far sapere e come, cosa scoprire o inventare, cosa scegliere nelle politiche pubbliche, come vivere e pensare, vi saranno ambiti in cui gli esseri umani potranno perseguire una autonoma ricerca di pensiero e di scelte di vita?

Bocciando il rapporto, gli eurodeputati hanno dato la risposta più banale possibile, il rifugio in un mondo sorpassato di schemi mentali su lavoro, economia e società che essi stessi, anche nel loro quotidiano di consumatori, stanno inconsciamente contribuendo a superare. Essi hanno dimostrato di trovarsi ancora nella fase di negazione o del rifiuto delle conseguenze che la trasformazione digitale ci sta imponendo. Mentre  l’opinione pubblica e i politici più conservatori vedono il reddito di base come un regalo agli scansafatiche, esso potrebbe essere uno strumento fondamentale per garantire autonomia agli individui rispetto alla dittatura degli algoritmi, un modo per garantire il futuro all’umanità come l’abbiamo conosciuta finora.

Certo, qualcuno potrebbe obiettare, come in una commedia di G.B. Shaw, che la memoria dell’umanità è una memoria di infamie, ma sono almeno infamie che abbiamo imparato a conoscere e (a volte) a riconoscere. Delle possibili infamie dell’era dell’intelligenza artificiale potremmo addirittura non accorgecene.

Vai alla barra degli strumenti