ETICA E ROBOTICA

di Enrico Clerici

Fino a che punto la scienza restera’ al servizio dell’uomo e non gli si rivoltera’ contro?

Questa domanda se la poneva Giorgio Bocca diversi anni or sono e forse anche oggi non siamo ancora riusciti a dare una risposta.

Premetto che chi scrive, anche se nella vita ha svolto mansioni diverse, è un sostenitore dello sviluppo tecnologico, ritenendo che tale aspetto sia talmente insito nella curiosità dell’uomo che non se ne possa assolutamente prescindere.

E d’altra parte, il motore della vita è proprio la curiosita’. In psicologia, la curiosità viene definita come il desiderio di curiosità, colmare un vuoto, avere informazione e stimoli mentali nuovi, mossi da motivazioni intrinseche (interne). Einstein a tal proposito ebbe a dire: “L’importante e’ non smettere di fare domande…Non perdere mai una sacra curiosita’”.

E, quindi, fino a che punto può spingersi la curiosità dell’uomo, senza varcare quei limiti che sono imposti dall’etica e/o dalla morale?

Infatti – secondo quanto asserisce la Dott.ssa Grigis – può esserci anche una curiosità “negativa”, che altro non è che quella volta ad ottenere informazioni per poi utilizzarle per secondi fini, che appunto, non sono etici

Ma anche sui termini etica e morale dobbiamo fare una riflessione.

I termini “etica” e “morale” hanno senz’altro una radice etimologica comune. Infatti con la prima delle due parole, dal greco antico  ἦθος  (trasl. êthos), intendiamo «carattere», «comportamento», o, anche «costume», «consuetudine», «abitudine» (ἔθος – trasl. èthos). Con la seconda, allo stesso modo, intendiamo costume (dal latino: moralis, da mos, moris). Il primo a coniare la parola “morale” fu Marco Tullio Cicerone, rifacendosi appunto al greco  ἠθικός (etikòs), che come si è visto a sua volta è derivato di ἦθος (êthos).

Ma i due concetti variano moltissimo in filosofia. Infatti, i due termini hanno seguito percorsi linguistici divergenti e, pertanto, non si possono usare i in maniera indifferente ed occorre comprendere quando è meglio parlare di “etica” e quando invece dovremmo parlare di “morale”. Del resto, Wittgenstein diceva che tutti i problemi filosofici in realtà sono problemi linguistici. 

Anche nella nostra Costituzione si parla di morale e precisamente agli artt. 13 – 29 – 48.

Nell’art. 13 laddove si asserisce: “È punita ogni violenza fisica e morale sulle persone comunque sottoposte a restrizioni di libertà”.

Nell’art. 29 laddove si asserisce: “Il matrimonio è ordinato sull’eguaglianza morale e giuridica dei coniugi, con i limiti stabiliti dalla legge a garanzia dell’unità familiare”.

Nell’art. 48 laddove si asserisce: “Il diritto di voto non può essere limitato se non per incapacità civile o per effetto di sentenza penale irrevocabile o nei casi di indegnità morale indicati dalla legge”.

Ma perché i Padri Costituenti hanno usato il termine morale, piuttosto che il termine etica?

Come osserva il Prof. Mons. Samuele Sangalli, Docente titolare dei Corsi liberi di “Etica delle professioni” nel Dipartimento di Giurisprudenza, di “Global governance through Interreligious Dialogue”, presso l’Università LUISS, in un’intervista concessa a Paolo Fontana, “tra i due vocaboli, “morale” è quello rimasto più fedele all’accezione etimologica originaria. Sulla scia di “mos” indica tuttora un sistema codificato di comportamenti riconosciuti da una comunità. Ne consegue che con il termine “morale” si intende un comportamento valutabile in termini di valore e di conformità. Un concetto assimilabile al c.d. “buon costume”

(fonte: https://www.iurisprudentes.it/2015/09/09/etica-e-morale-differenze-analogie-puntualizzazioni-lessicali-per-una-corretta-analisi-quale-destino-nel-deserto-del-nichilismo/ ). 

In altre parole, oggi, con il termine etico si intende per lo più il comune sentire di un determinato popolo in un preciso periodo storico. Ciò sta a significare che con questa parola si fa riferimento a quel ramo della filosofia che analizza il comportamento ritenuto corretto, il modo di pensare e dei valori giusti che si dovrebbero seguire in qualsiasi circostanza.

Diversamente con il termine morale facciamo riferimento maggiormente alla spiritualità trasfusa in un’istituzione religiosa. Anche se questa caratteristica può limitarsi ad uno degli aspetti che la parola significa.

In questo primo caso, l’efficacia della norma proviene in assoluto da Dio. Ma esiste anche un secondo tipo di norma morale, quella laica, dove le norme si basano sulla natura dell’uomo. Ma in questo senso, a parere dello scrivente, rientriamo più nel concetto di etica.

Questa, infatti, si sofferma maggiormente sul senso dell’esistenza dell’uomo, sul suo significato esistenziale, sulla vita di ogni singolo individuo in rapporto con la comunità.

Ma oggi si affaccia una nuova problematica che si affianca a quella esistente tra diritto e morale, intendendosi con il primo i principi etici del comportamento umano inseriti in norme comportamentali per lo più cogenti, che – come sostiene l’Antolisei richiamandosi a quella dottrina del pensiero giuspositivista – prescinde da qualsiasi valore morale, dovendosi far riferimento a quella definizione di etica più sopra data. Stiamo parlando del rapporto tra etica e tecnologia.

A tale proposito, il futurologo Gerd Leonhard, pronunciandosi su questo annoso tema, ebbe a dire testualmente: “Siamo in uno snodo cruciale nell’evoluzione tecnologica. Il cambiamento diventerà esponenziale, inevitabile e irreversibile. È la nostra ultima possibilità di decidere fino a che punto permetteremo alla tecnologia di plasmare le nostre vite".

In maniera più ottimistica (anche se discutibile), il Prof. Hiroshi Ishiguro, docente all’Università di Osaka e creatore di Geminoid, ritiene che gli umani dovranno imparare a convivere con i robot contribuendo insieme allo sviluppo della società del futuro. Ed alla domanda di un intervistatore che si poneva il problema della robot-interaction, e quindi di poter interagire con una macchina che in qualche modo assomigli in maniera quasi perfetta ad un uomo, lo scienziato giapponese candidamente rispose: “Lei avrebbe paura di una sorella gemella?”

Sempre Gerd Leonhard, autore di “Tecnologia vs umanità – Lo scontro prossimo venturo” (Egea), ha espresso – secondo me – un punto assolutamente importante e direi nevralgico e cioè che il c.d. uomo della strada ha la convinzione e quasi la presunzione di ritenere che il futuro si possa estrapolare dal presente e persino dal passato, ostinandosi a credere che ciò che è stato, sarà.

La crisi dei valori morali ed economici nasce anche da quest’idea di ribellione al rinnovamento ed al cambiamento.

È sicuramente vero che fino a 100 anni fa, il progresso scorreva sempre inesorabile ma lentamente e le persone avevano più tempo ad abituarsi e ad accettarlo.

Il secolo scorso è stato definito il secolo breve. Infatti, è assolutamente direi quasi traumatico vedere la vita comune come si svolgeva nel 1900, nel 1950 e nel 1999.

Pensiamo ad esempio all’invenzione dell’aereo.  È il 17 dicembre del 1903, quando i due fratelli statunitensi Orville e Wilbur Wright crearono il primo mezzo in grado di sollevarsi da terra e di volare in modo controllato grazie a un motore e lo fecero alzare in volo vicino alla cittadina di Kitty Hawk. Era il periodo dei c.d. assi delle macchine volanti. Spericolati piloti che riuscivano di fronte allo stupore di attoniti sguardi a far alzare di qualche metro un uccello metallico dall’incerto volare. L’8 novembre 1950, nel corso della guerra di Corea, il tenente Russell J. Brown della United States Air Force americana, ai comandi di un F-80, intercettò due MiG-15 nordcoreani vicino al fiume Yalu e li abbatté, nel primo combattimento aereo tra jet della storia.

Nel 1998, si tenne il lancio del primo modulo della Stazione Spaziale Internazionale.

Il nuovo secolo è stato ancora più veloce… pensiamo all’evoluzione del cellulare fino ad arrivare agli smartphone più recenti.

E dell’AI? Che dire? Cos’e’ il machine learning?

Il machine learning, che in italiano possiamo tradurre come apprendimento automatico, è una particolare branca dell’informatica che può essere ritenuta connessa strettamente all’intelligenza artificiale. Anzi, potremmo dire che è un sottoinsieme dell’intelligenza artificiale, che si occupa di creare sistemi che apprendono o migliorano le performance in base ai dati che utilizzano.

L’intelligenza artificiale diversamente è una locuzione che fa riferimento a sistemi o macchine che imitano l’intelligenza umana. Pensiamo a quegli umanoidi così ben descritti dallo scienziato Isaac Asimov nel suo “I, Robot”

I termini apprendimento automatico e intelligenza artificiale vengono spesso utilizzati come sinonimi, ma ciò non è propriamente corretto. Per essere ancora più precisi, dobbiamo far riferimento a tre diversi tipi di terminologia:

Intelligenza Artificiale: quando una macchina imita il comportamento umano

Machine Learning: consiste in tecniche che consentono ai computer di comprendere le cose dai dati e fornire applicazioni AI.

Deep Learning: quando la macchina esegue e risolve problemi piu’ complessi

Limitiamo il discorso all’intelligenza artificiale, che abbiamo visto essere quella scienza volta alla realizzazione di macchine in grado di risolvere problemi che fino ad oggi erano di esclusivo dominio dell’intelligenza umana. In una bellissima trasmissione di Rai 1, “Codice” condotta dalla bravissima giornalista Barbara Carfagna, si faceva una riflessione che sembra piuttosto semplice, ma che tuttavia non è di così immediata intuizione. Nel comune sentire, tutti pensiamo ai robot come a quelle macchine che hanno fattezze umane. Ma in realtà non è assolutamente così. Quando usiamo la carta di credito per pagare, quando cerchiamo informazioni su qualche motore di ricerca del web, quando chiediamo all’assistente virtuale del nostro cellulare di chiamarci un numero di telefono memorizzato, quando usiamo uno dei tanti social media per interagire con i nostri amici sparsi nel mondo, ebbene, utilizziamo l’intelligenza artificiale e quindi robot. Qualunque sia il modello di business e l’ambito applicativo, l’intelligenza artificiale può ottimizzare le operazioni, renderle più efficienti, migliorare le decisioni dei professionisti del settore e creare nuovi servizi e modalità di lavoro.

In un articolo apparso su Science, Luciano Floridi, professore di filosofia ed etica dell’informazione a capo del Digital ethics lab dell’Università di Oxford, ha scritto che “Una forza potente che sta rimodellando pratiche quotidiane, interazioni personali e l’ambiente”, avvertendo e quasi ammonendo che più di qualsiasi altra nuova tecnologia, l’AI necessita di tutto un apparato etico, idoneo a tenerla sotto controllo e aiutarci a sfruttarne il potenziale.

Uno dei rischi più grossi è il deskilling, la possibilità cioè, che gli esseri umani si abituino a delegare alcune importanti funzioni ai robot, perdendo così la capacità di svolgere compiti importanti.

E alla preoccupazione del prof. Floridi, si aggiunge anche quella di Alexandros Kalousis, docente di Data Mining e Machine Learning presso l’Università di Scienze Applicate della Svizzera occidentale, il quale constata con preoccupazione: “"L’intelligenza artificiale è ovunque e sta avanzando velocemente; tuttavia, molto spesso gli sviluppatori di strumenti e modelli di IA non sono veramente consapevoli di come questi si comporteranno quando saranno impiegati in complessi contesti del mondo reale".

A tale proposito, basta menzionare gli incidenti come il tracollo di Google- Timnit Gebru, Cambridge Analytica, l’hack di Solarwinds e l’eccesso di sorveglianza, che diventano il risultato di trascurare il lato etico dell’IA nel corso degli anni.

Come osserva anche la ricercatrice Aparna Ashok, che nel 2018 ha sviluppato e perfezionato un documento che potremmo definire un codice dei "Principi etici per la tecnologia umana", al fine di “creare un linguaggio comune per riflettere sulle implicazioni relative all’umanità all’interno del processo di progettazione del prodotto." 

Da questo importante rapporto, la ricercatrice è stata particolarmente attenta ad osservare il fenomeno sempre meno etico delle aziende di incamerare ed utilizzare una grande quantità di dati, analisi e potenza di calcolo per costruire sistemi accurati. Spesso non curanti dell’impatto che queste decisioni possano avere nella vita reale sugli esseri umani.

Ma qualcosa si sta muovendo anche in questo campo.

Ad esempio, nel campo della robotica, esistono linee guida come il progetto chiamato “P7000”, elaborato da IEEE (la più grande organizzazione professionale tecnica del mondo dedicata al progresso della tecnologia a beneficio dell’umanità) che “stabilisce una serie di processi mediante i quali le organizzazioni possono includere la considerazione dei valori etici umani durante le fasi di esplorazione e sviluppo del concetto. Questo standard supporta la gestione e l’ingegneria nella comunicazione trasparente con le parti interessate selezionate per l’eliminazione dei valori e la definizione delle priorità. Implica la tracciabilità dei valori etici attraverso un concetto operativo, proposte di valore e disposizioni di valore nella progettazione del sistema. Lo standard descrive i processi che forniscono la tracciabilità dei valori etici nel concetto di operazioni, requisiti etici e progettazione basata sul rischio etico. È applicabile a organizzazioni di tutte le dimensioni e tipi che utilizzano i propri modelli di ciclo di vita”.

(fonte: https://standards.ieee.org/project/7000.html)

Insomma, Filosofia ed Etica devono in qualche modo conciliarsi con lo sviluppo tecnologico, anche se può sembrare un ossimoro un tale accostamento.

Infatti, anche se risulta essere molto difficile se non impossibile tentare di Insegnare la moralità alle macchine in modo da comportarsi tecnologicamente in modo etico, in quanto non trasformabile la moralità in un algoritmo che possa essere compreso da un computer, diventa indispensabile che i ricercatori e gli esperti di AI trasformino i valori etici in parametri quantificabili. In altre parole, devono fornire alle macchine le capacità necessarie atte a far loro assumere regole decisionali capaci di interpretare correttamente il dilemma etico che potrebbero incontrare. Ma in tal senso sorge un ulteriore problema: la necessità che gli esseri umani siano d’accordo tra loro sulla linea di condotta più etica in una determinata situazione.

Che fare allora?

Gli ingegneri devono iniziare col raccogliere dati sufficienti sugli aspetti etici, in modo che i robot vengano indotti, attraverso complicati algoritmi di intelligenza artificiale, a comportarsi in modo adeguato. Naturalmente occorre partire da dati il più imparziali possibile che prendano forza dalle definizioni comuni dei valori etici per arrivare ad una loro buona standardizzazione, tale che permetta ad un sistema di intelligenza artificiale di superare quella difficoltà ad interpretare modelli di dati imparziali.

Ne è un esempio il progetto definito della macchina morale elaborato dal MIT, una piattaforma che presenta i dilemmi morali di un’auto senza conducente che deve affrontare per scegliere il minore dei mali, come ad es. se uccidere due passeggeri o cinque passeggeri. L’osservatore deve esprimere la propria idea su quale rischio sembri il male minore.

Diversamente a quanto accadeva in tempi passati, nei quali un ingegnere si sarebbe preoccupato di sviluppare un algoritmo in maniera funzionale, senza farsi tanti problemi di carattere etico, oggi gli scienziati, tecnologi e progettisti si trovano ormai davanti alla sfida urgente di affrontare l’innovazione in maniera consapevole. Si sentono responsabili non solo del buon funzionamento delle tecnologie, ma anche delle loro conseguenze, come asserisce Paolo Volontè sociologo e coordinatore di Meta, l’unità di studi umanistici e sociali su scienza e tecnologia del Politecnico di Milano, dove proprio lo scorso febbraio è partito il primo insegnamento universitario di Ethics for technology.

Diventa sempre più reale e concreto il pericolo che le nuove capacità tecniche volte all’espansione dell’io portino a conseguenze sempre più complesse ed imprevedibili, fino all’estremo della possibile futura “Singolarità tecnologica”, conducendo alla completa inaffidabilità di nuovi modelli etici. Ciò potrebbe causare la rottura con la tradizionale idea di coscienza e con il suo supporto biologico.

Si incontreranno, quindi, sempre più difficoltà a conciliare tali nuovi aspetti con gli antichi valori, dominati da una possibile interfaccia biologico-informatico.

La società descritta da Baumann torna alla ribalta. Anzi una società tecnoliquida, neologismo che specifica perfettamente l’uomo digitale 2.0 che caratterizza quella società che lo stesso sociologo definisce liquida.

Secondo Baumann, l’uomo moderno vive una vita sociale instabile. Ciò perché è sbattuto dagli eventi e da cambiamenti imprevedibili, che lo rendono incerto nella routine della sua antica esistenza. Vengono a mancare certezze e punti di riferimento. Secondo il sociologo polacco, questa confusione soprattutto a livello intellettivo dipende dalla diffusione e dal potere assunto dalla tecnologia nel mondo moderno. La tecnologia ha portato ad una globalizzazione con tutti i problemi ad essa connessi: incontro di usi, costumi, culture molto diverse alle quali gli esseri umani non vogliono rinunciare, nonostante siano in parte consci che aver reso il mondo più piccolo comporta rinunce più grandi.

La tecnologia ha accelerato la mobilità e l’interazione, ma parallelamente ha deregolamentato e flessibilizzato il mercato, aumentato povertà, la disuguaglianza e creato inevitabile disoccupazione. A confondere ancor più l’uomo moderno, è stato il fenomeno della trasformazione dei legami sociali in virtuali, destrutturando sempre più la stessa vita sociale e portando la tradizione a sconfinamenti sempre più reali.

La società moderna percepita non è più regolata né da confini né da barriere, ma diventa instabile e friabile nella sua continua mutevolezza e virtualità da cui genera incertezza e provvisorietà. Occorre assolutamente che nell’immediato futuro si venga a creare una stretta connessione fra etica, diritto, e tecnologia. E a tale proposito bisogna che tale sinergia coniughi tre funzioni:

1. Divenire consapevoli di quanto la tecnologia digitale e l’IA vada ad impattare sulle professionalità pubbliche e private, specie quelle che potranno influire particolarmente sui diritti dei cittadini e delle imprese;

2. Concepire l’elaborazione di una normativa primaria che vada a regolare tutti gli aspetti della tutela dati personali e più in generale dell’economia digitale;

3. Attento controllo sulla funzione di rule making, che dovrà fondarsi sulla conoscenza della realtà che evolve, non su di una sua rappresentazione meramente virtuale.

Queste tre funzioni dovranno sottostare a due funzioni di importanza vitale: una formazione adeguata e la previsione di sanzioni idonee ad evitare tutti quei facili abusi che il mondo tecnologico può introdurre in maniera innovativa nel mondo sociale.

Tutto ciò sarà indispensabile per responsabilizzare tutti quegli operatori che – sia nel pubblico sia nel privato – sono chiamati a prendere decisioni con l’ausilio di tecnologia digitale e di IA. Non si dovrà in alcun modo permettere che le istituzioni in questione possano divenire facile espressione di una tecnocrazia prevaricante.

La tecnologia incide sempre più nella vita quotidiana di ogni individuo. Nel fantastico mondo di internet, la IA e il Machine Learning possono facilmente trasformarsi in uno strumento per diffondere notizie false o per violare, profilando gli utenti, i diritti essenziali degli individui.

Ma anche il mondo del lavoro potrà subire mutazioni non indifferenti per colpa della o grazie alla tecnologia. Saranno cambiati i ritmi di lavoro, incidendo in maniera cospicua sull’occupazione.

Potrà, però, diventare anche un mezzo per fornire all’uomo ausili da parte di macchine “intelligenti” in grado di intervenire in maniera positiva nel mondo della scienza, della medicina, della produzione, dei trasporti, persino della vita quotidiana.

Attenzione però ai rischi connessi al “controllo sociale” e al diritto alla privacy. 

Necessiterà, quindi, una regolamentazione nel rispetto dei principi costituzionali e delle norme civili e penali che dovranno essere formulate in maniera adeguata al veloce mutamento sociale. In tal senso, tutti gli operatori del diritto dovranno sentire  il peso di questa grande responsabilità, avendo sempre presente che, al di là del fascino che la tecnologia può esercitare sugli esperti,  il cittadino viene e verrà in ogni caso prima di tutto.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *