I media sono pieni di articoli, interviste e commenti sull’intelligenza artificiale. Non c’è sito, giornale, rivista o programma radiofonico che non dedichi ampio spazio al tema. E non mancano voci preoccupate, appelli alla prudenza, addirittura richieste – formulate recentemente da grandi nomi della scienza e dell’imprenditoria – di una moratoria del suo sviluppo. Nella sua ultima sessione, anche il Parlamento europeo ha proposto che i sistemi di intelligenza artificiale siano analizzati e classificati in base al rischio che rappresentano per gli utenti.
Che cosa dobbiamo pensare di tutto questo? Potremmo rispondere con una fulminante battuta che circola in rete, secondo cui “non dobbiamo avere paura dell’intelligenza artificiale, ma preoccuparci della stupidità naturale”. La battuta, lo ammetto, è simpatica (l’ho condivisa anch’io, su Facebook): è ironica e colpisce nel segno. Ma non bastano una risata e un’alzata di spalle per liquidare la questione.
Da Alan Turing al Dartmouth College
Tutto cominciò negli anni della Seconda Guerra Mondiale, quando il matematico britannico Alan Turing (quello del film “The Imitation Game”), coadiuvato da altri ricercatori, costruì una macchina capace di decifrare i codici tedeschi. Quello fu un enorme passo avanti verso la creazione dei moderni computer. La crescente capacità di calcolo di quelle macchine portò alla convocazione, nell’estate del 1956, presso il Dartmouth College di Hanover, nel New Hampshire (Stati Uniti), di un gruppo di dieci scienziati. Nel documento preparatorio per quel seminario di ricerca, si affermava che “lo studio procederà sulla base della congettura per cui, in linea di principio, ogni aspetto dell’apprendimento o una qualsiasi altra caratteristica dell’intelligenza possano essere descritte così precisamente da poter costruire una macchina che le simuli.” Fu allora che si parlò esplicitamente, per la prima volta, di “intelligenza artificiale.”
La digitalizzazione della società
Dalla metà degli anni Cinquanta a oggi, molta strada è stata percorsa. Dapprima lentamente, poi ad una velocità sbalorditiva e con risultati incredibili.
Nei primi anni Settanta compaiono i primi “personal computer”, nel 1976 Stephen Wozniak e Steve Jobs creano la Apple Computer Corporation. Il World Wide Web vede la luce nel 1989 e quattro anni dopo internet comincia a diffondersi ovunque, così come i telefoni cellulari. Nel 1997 il computer Deep Blue batte il campione mondiale di scacchi Garri Kasparov. Sul mercato arrivano i primi telefoni in grado di effettuare videochiamate. Molte persone cominciano a creare un proprio sito online. I nuovi sistemi di intelligenza artificiale permettono ai computer di “apprendere” dalla propria esperienza e trarre conclusioni: sistemi connettivi raccolgono informazioni, creano modelli, formulano ipotesi e verificano i risultati.
Verso un mondo sempre più artificiale
Oggi l’intelligenza artificiale non batte l’essere umano solo a scacchi, ma anche a dama, Backgammon, Othello, Scarabeo e molti altri giochi, inoltre riconosce il linguaggio e lo traduce, individua e identifica volti, scheda milioni di persone – anche me e voi – a loro insaputa. Enormi centri di calcolo setacciano gigantesche quantità di dati al servizio del profitto, del settore militare, dello spionaggio. Algoritmi intelligenti controllano il prezzo delle merci, indirizzano gli acquisti, prenotano tavoli al ristorante, sorvegliano magazzini, mostrano mappe e percorsi, migliorano la tecnica medica e le diagnosi, promettono di aiutare gli anziani e passano l’aspirapolvere a casa vostra. Nel 2020, nel mondo, c’erano già oltre dieci milioni di robot. Molti, se paragonati ai 400’000 elefanti ancora esistenti, ai 30’000 rinoceronti e ai 20’000 leoni rimasti. Il mondo artificiale è in piena espansione, quello naturale vede i propri spazi ridursi costantemente.
Che cos’è l’intelligenza?
Secondo la definizione data da Jean Piaget, psicologo svizzero dell’età evolutiva, “l’intelligenza non è ciò che si sa, ma ciò che si fa quando non lo si sa.” La logica e la capacità di calcolo non rivestono, per l’essere umano, un ruolo importante, e comunque solo a partire da una certa età. L’intelligenza umana è caratterizzata dall’emotività e dall’intuizione, dalla spontaneità e dalla capacità di associazione. Ciò che chiamiamo il “buon senso” non ha nulla a che fare con la razionalità, ma con il confronto con situazioni diverse alla luce di determinati valori. Contrariamente a quanto sostenuto da molti ricercatori dell’intelligenza artificiale, l’essere umano non pensa spesso e molto in modo logico. La nostra umanità non dipende in primo luogo dal pensiero logico. E dunque? Dunque l’essere umano non è una macchina difettosa, ma sono le macchine a essere umani difettosi, cioè mancanti di qualcosa di essenziale di cui non sapranno mai impadronirsi. E quella cosa è appunto l’intelligenza, quella vera. Ciò che invece le macchine sanno fare, in modo stupefacente, è elaborare quantità enormi di dati, in modi e forme e ad una velocità che nessun essere umano potrà mai eguagliare. Come dice Luciano Floridi, docente di filosofia ed etica dell’informazione presso l’Università di Oxford: “Se ‘essere intelligente’ vuol dire saper giocare molto bene a scacchi, allora l’intelligenza artificiale è intelligentissima, ma se vuol dire smettere di giocare perché è scattato l’allarme antincendio, allora essa è stupida come una caffettiera.” E conclude laconicamente: “Stiamo riducendo l’intelligenza umana, che ha mille sfaccettature, alle capacità computazionali di un sistema.”
Quanto è etica la cosiddetta intelligenza artificiale?
La crescente rilevanza di quella che viene definita “intelligenza artificiale”, solleva anche interrogativi etici. Peter Kirchschläger, docente di etica dell’università di Lucerna, ne indica due. “Una prima questione riguarda la protezione dei dati e la privacy”, afferma. “Attualmente i nostri dati vengono rubati e rivenduti.” Occorrono dunque regole che promuovano un “uso mirato dei dati”, come è prassi di ogni medico di base, che non vende i miei dati alle assicurazioni sanitarie o alle aziende farmaceutiche. In secondo luogo, dovremmo imparare a valutare più sobriamente le prestazioni dei sistemi basati sui dati. ChatGPT, ad esempio, si limita a riordinare le conoscenze già esistenti. Gli algoritmi non sono oggettivi, equi o neutrali, ma riproducono semplicemente tutti i pregiudizi e le altre stupidità presenti nella rete. Inoltre, ChatGPT viola la legge sul copyright con ogni testo che crea.”
Kirchschläger individua infine anche un’altra area problematica. “I sistemi basati sui dati vengono sviluppati quasi esclusivamente per aumentare l’efficienza. Spesso non vengono nemmeno prese in considerazione altre potenzialità. I robot infermieri, ad esempio, non vengono utilizzati per migliorare l’assistenza, ma per ridurre i costi. Alleggeriscono il personale infermieristico, ma si perdono anche i pochi minuti di conversazione con un infermiere, un incontro umano.”
E dunque, che cosa fare?
Riprendendo la battuta citata all’inizio: “Non dobbiamo avere paura dell’intelligenza artificiale” (ma dobbiamo cercare di capire che cos’è veramente, come funziona e in che modo influenza la nostra esistenza quotidiana), e dobbiamo preoccuparci della stupidità naturale (ovvero della mancanza di senso critico, della pigrizia e dell’indifferenza con cui andiamo verso un futuro – già presente – sempre più controllato dalle macchine).
Temo che, se l’etica, che già non ha nessun controllo sulla tecnica, tantomeno ne avrà sulla sua figlia: l’intelligenza artificiale. Con tutte le difficoltà del caso, dai posti di lavoro al modo di vivere.
Spero solo che mi stia sbagliando!