“Ci fa pensare che l’IA pensi per noi”: una lezione di Livio Zanolari all’Unitre di Tirano

0
611


Senz’altro vale la pena confrontarsi con gli aforismi di Livio Zanolari raccolti nell’ultima sua pubblicazione Cavie Online. Uscita nel 2024, è già il suo secondo contributo, dopo il primo successo di Schiavitù moderne, a trattare trasversalmente il comune tema legante dell’intelligenza umana, dell’intelligenza artificiale (IA) e del rapporto dell’uomo con quest’ultima. La scelta di comporre aforismi oggi, proprio al cospetto delle possibilità dell’IA, è certamente una buona opzione stilistica ma, di più, espressione di pensiero e concentrato di intelligenza – quella umana – che può intuire, sentire, percepire, attraverso una moltitudine di canali sensoriali e informativi la cui rilevanza non è assegnata su base algoritmica bensì per via di un tratto individuale di personalità.

Dai pericoli dell’IA al potere della scelta: esplorando etica, attenzione e la nostra condizione di cavie digitali

Parte dei 240 aforismi contenuti in Cavie Online hanno acceso spunti di considerazione nella conferenza dal titolo “Ci fa pensare che l’IA pensi per noi” (a sua volta aforisma della raccolta) che, presieduta da Ennio Galanga con l’autorevole intervento dello stesso autore Livio Zanolari e di Massimo Lardi, è stata tenuta il 15 ottobre presso l’Unitre di Tirano.

Ideologie futuriste e pericoli dell’IA: il pensiero di Massimo Lardi

Massimo Lardi, dopo aver illustrato attraverso un breve excursus la storia degli aforismi in generale, è entrato nel merito di alcune questioni riguardanti l’IA: «Certi cultori dell’intelligenza artificiale propongono nuove ideologie futuriste, pericolose, che si definiscono con i nomi misteriosi di transumanesimo, estropianesimo, singolaritanismo, cosmismo, altruismo efficace e lungoterminismo. Queste ideologie – ha continuato Massimo Lardi – promettono l’opportunità di migliorare radicalmente l’organismo umano, illudendoci così di diventare immortali, super intelligenti, più razionali e altro ancora, prospettano la fusione di esseri umani e macchine». E non solo: «Con l’altruismo efficace e con il lungo terminismo, pretenderebbero di creare una nuova specie postumana che, oltre a colonizzare lo spazio e a controllare la natura, massimizzerebbe la produttività economica e la creazione di quanto più valore possibile all’interno dell’universo accessibile. E udite: cancellando la fame, malattia, povertà e aumentando la quantità di felicità nell’universo, come se (questa ndr) si potesse produrre a tonnellate». Ma a quale costo tutto ciò? Per Massimo Lardi il costo è di «lasciare cinicamente che 1,3 miliardi di persone muoiano ora nella miseria e nelle guerre, al fine di preparare il benessere e la felicità a un numero imprecisato di miliardi di persone che vivranno però in futuro… Fatte le dovute proporzioni, l’impostazione di questi cultori dell’IA non è diversa da quella di chi nel secolo scorso ha sterminato milioni di oppositori, di kulaki e di ebrei per garantire scientificamente un ‘mondo migliore’ alle generazioni future».

Il potere dell’IA e la possibile sottomissione dell’umanità

La conferenza è proseguita con Livio Zanolari che ha svolto il suo pensiero sollecitato dalla proposta di alcune questioni rilevanti da parte di Ennio Galanga. Uno dei punti di partenza è stato evidenziare il tipo di differenza che distingue le scoperte storiche in ambito tecnologico rispetto alla situazione attuale. Secondo Livio Zanolari, oggi c’è sì qualcosa di nuovo e in grado persino di sconvolgere le nostre abitudini, i nostri valori, la nostra quotidianità. Partendo dall’osservazione del tempo che la maggioranza di noi passa su internet, Livio Zanolari nota che il web è pieno di pubblicità, e «la moneta di scambio della pubblicità è l’attenzione: se noi concediamo alla pubblicità l’attenzione, Internet ha tutto quello che vuole da noi. Ma vado un pochino oltre: – continua Livio Zanolari – spero che non succeda, ma potrebbe anche succedere: l’intelligenza artificiale potrebbe capovolgere le gerarchie e sottomettere l’intelligenza umana. A quel punto nessuno avrà mai avuto tanti sudditi, neanche l’Impero Romano, nemmeno Gengis Khan». L’IA è uno strumento utile e fondamentalmente libero, ma «se qualcuno riesce a impadronirsi di questo sistema, di questa macchina, ad avere il potere su questa macchina, ebbene potrebbe fare grossissimi danni».

Un’arma etica contro l’abuso dell’IA

Come evitare quindi la degenerazione dell’intelligenza generativa? Per Livio Zanolari occorre mettere dei paletti etici. L’algoretica è la scienza che pone, letteralmente, etica nella funzione degli algoritmi. Per il futuro dell’umanità «l’algoretica deve avere una funzione fondamentale per porre limiti agli abusi, deve fungere da arbitro tra intelligenza umana e IA». Ma come definire questi paletti e quali valori di riferimento vanno presi? Livio Zanolari spiega che questi paletti sono già presenti nelle nostre Costituzioni, ad esempio, e sono costruiti su base morale, «questi stessi paletti dovrebbero valere anche per l’IA».

Il controllo invisibile del web

Ennio Galanga ha domandato quale sia il motivo del titolo “cavie”: chi sono le cavie, siamo tutti cavie? In questa prospettiva, spiega ancora lo Zanolari, le cavie, «termine inquietante», è usato per trattare un tema effetivamente inquietante. «Le cavie siamo tutti noi che siamo prova di esperimento. Perché, quando siamo davanti allo schermo, noi chiediamo sempre qualcosa con quel click, e, fra tutti gli stimoli che ci vengono proposti dall’algoritmo, scegliamo quello che in qualche modo ci attrae di più. Dall’altra parte c’è Internet che segna e scheda tutte le nostre preferenze».

I giovani e l’attenzione rubata

Altro elemento di grande importanza è l’approccio dei giovani o dei giovanissimi a internet. Livio Zanolari evidenzia che il pericolo per i giovani «è principalmente smarrire il concetto di privacy e di avere sempre sotto assedio la propria attenzione. Internet scruta, dà stimoli e l’attenzione dei bambini è disturbata. Per questo si bruciano inutilmente energie psicofisiche e l’effetto cognitivo si abbassa». Ma Zanolari insiste sulla centralità dell’uso pubblicitario di tutti i contenuti presenti online, che fanno gioco sull’effetto di una esaltazione emotiva per veicolare messaggi spesso subliminali. A questi messaggi sono soggetti gli adulti, pur senza accorgersene, ma sarebbe necessario tutelare chi ha meno strumenti per filtrare questo tipo di comunicazione invasiva. Per questo Livio Zanolari ha scritto un aforisma comprensibile anche da un bambino: “la tecnologia digitale ti coccola, ma non ti ama”. «La tecnologia digitale ha una memoria grandissima ma non ha la coscienza, detto in altre parole. Ama solo ciò che dici. Perché ciò che dici è ciò che tu dai a internet. Lui ti può rispondere e lui asseconda i tuoi desideri… e questo può portare a delle situazioni che sono anche paradossali».

La consapevolezza come difesa

Come ci si può tutelare davanti a questo mondo multischermo che sembra volerci rubare informazioni personali, sensibili, in cambio di informazioni generiche, in un commercio di dati di cui si è troppo poco informati? Per Livio Zanolari è di fondamentale importanza il contributo personale: «Noi dobbiamo saper scegliere, dobbiamo sapere essere selettivi e dobbiamo renderci pronti ad utilizzare solo quello che effettivamente ci è utile […]. L’uomo può fare tantissimo: deve sapere scegliere e deve quindi saper dire anche di no. Deve essere consapevole perché se noi non siamo consapevoli, non siamo attivi, e se non siamo attivi subiamo».

A fine conferenza, dopo l’esposizione di tanti concetti tra cui quello dell’attenzione, dell’educare alla consapevolezza, del tanto tempo che si passa su Intenet, ho voluto porre l’attenzione, con una domanda forse troppo audace, su una questione dirimente nell’ambito della riflessione sulla tecnica e sul suo statuto. Lo strumento tecnologico è qualcosa di neutro, che è buono o cattivo a secondo dell’uso che se ne fa o è in sé qualcosa di diverso da uno strumento completamente neutrale? Ovvero, non è forse che per promuovere una buona attitudine di consapevolezza occorre considerare più attentamente che cosa è la tecnica e che cos’è questa IA? Basta pensare a come il mondo digitale si è insinuato negli spazi privati della nostra esistenza, come ce li ha cambiati, trasformandoli con le logiche di stimolo e risposta, per intuire quanto ci sia di utilizzo relazionale e non strumentale dei dispositivi tecnologici. Hans Blumenberg segnalava, in Storia dello spirito della tecnica, che successivamente a ogni grande scoperta tecnica, il modello antropologico sarebbe cambiato: dopo l’invenzione del calcolatore, mai più si sarebbero fatti i calcoli come prima, e la mente dell’uomo, la sua attitudine e il suo pensiero sarebbero conseguentemente cambiati. Si è parlato di controllo dell’IA, ma forse l’IA è nata anche per controllare la realtà e gli altri, come, d’altronde, lo sono stati innumerevoli casi di tecnica nella storia: armi ancestrali e poi altamente sofisticate, mezzi di trasporto per conquistare il globo e lo spazio: chissà, a tal proposito, se in caso di una nuova guerra non saranno proprio i computer a essere oggetto di contesa. Mi sembra che i pericoli di queste tecnologie che in verità non pensano, siano riconducili a chi veramente pensa per loro.