Sabato 25 marzo alle ore 17.00, avrà luogo l’assemblea generale de Il Bernina (clicca qui per consultare l’ordine del giorno). A margine dell’incontro ci sarà l’intervento del già direttore della RSI Maurizio Canetta, che parlerà del tema dell’intelligenza artificiale, con particolare riferimento al mondo dell’informazione.
In questo periodo, in particolar modo, è salito alla ribalta delle cronache ChatGPT (Chat Generative Pre-trained Transformer), un prototipo di chatbot (un programma progettato per simulare una conversazione con un essere umano) basato su intelligenza artificiale e apprendimento automatico.
In molti si sono cimentati nell’utilizzo di questo software (sviluppato da OpenAI, un’organizzazione senza fini di lucro), rimanendo perlopiù sbalorditi dalle sue capacità di presentare risposte accurate e in tempi rapidissimi. Altre società, in tutto il mondo, come per esempio Google, stanno cercando di sviluppare sistemi in grado di replicare e superare le prestazioni di ChatGPT.
Quali cambiamenti porterà tutto questo nella nostra vita? Solitamente, per le domande complesse, è impossibile arrivare ad una risposta univoca. Come spesso accade con le nuove invenzioni tecnologiche, le polarizzazioni sono quelle che catturano di più la nostra attenzione. Rappresentando un ottimo strumento per le aziende di automatizzare alcune attività, si ha paura che, in parte, possano sostituirsi al lavoro delle persone, sottraendo posti di lavoro. Anche per le scuole e gli insegnanti si tratta di una sfida ardita, in quanto gli studenti potrebbero “barare”, presentando ricerche create da queste nuove tipologie di software. Pure per il giornalismo, argomento per il quale Canetta si soffermerà maggiormente, si pongono interrogativi etici e possibilità inedite.
C’è poi anche la preoccupazione del mondo scientifico, in quanto senza una regolamentazione e una supervisione umana, questi programmi potrebbero generare ricerche fasulle, ma anche prestarsi alla diffusione di contenuti fuorvianti o fraudolenti. “Senza controlli di output […] – si legge in un articolo di Chris Stokel-Walker e Richard Van Noorden pubblicato sulla rivista Nature, dal titolo “Che cosa significano ChatGPT e IA generativa per la scienza” – possono essere facilmente utilizzati per generare incitamento all’odio e spam, nonché collegamenti razzisti, sessisti o comunque dannosi che potrebbero essere impliciti nei loro dati di formazione”.

“Oltre a produrre direttamente contenuti tossici – si legge ancora nell’articolo – si teme che i chatbot IA incorporino pregiudizi storici o idee sul mondo derivanti dai dati di addestramento, come la superiorità di determinate culture […] Dato che le aziende che creano i grandi LLM [modelli linguistici di grandi dimensioni, come ChatGPT, Ndr] sono per lo più appartenenti e provenienti da queste culture, potrebbero fare pochi tentativi per superare tali pregiudizi, che sono sistemici e difficili da correggere”.
Data l’importanza della tematica, invitiamo tutti gli interessati a partecipare numerosi. Ricordiamo che, inoltre, all’inizio dell’assemblea generale de Il Bernina avranno luogo le premiazioni del concorso “Giornalisti si diventa”. Al termine dell’incontro, inoltre, verrà offerto un aperitivo.