
|
P. Paolo Benanti è un francescano del Terzo Ordine Regolare, professore di Teologia morale presso la Pontificia Università Gregoriana. Nella sua attività di ricerca, insegnamento e divulgazione, si occupa di etica, bioetica ed etica delle tecnologie. In particolare – scrive nel suo sito personale – i suoi studi «si focalizzano sulla gestione dell’innovazione: internet e l’impatto del Digital Age, le biotecnologie per il miglioramento umano e la biosicurezza, le neuroscienze e le neurotecnologie»[1]. Dotato di una grande capacità comunicativa e pedagogica, p. Benanti è presente frequentemente nei media e collabora con varie istituzioni accademiche, governative e internazionali. Recentemente è stato nominato dal Segretario generale delle Nazioni Unite membro dello High-Level Advisory Body on Artificial Intelligence[2]. P. Benanti ha gentilmente accettato di rispondere alle nostre domande, e gli siamo grati per la disponibilità dimostrata. Nelle sue risposte, ci illumina su molte questioni che sono all’ordine del giorno e che definiranno il futuro dell’umanità.
P. Benanti, Lei è stato recentemente nominato dal Segretario generale delle Nazioni Unite, António Guterres, membro dello «High-Level Advisory Body on Artificial Intelligence» dell’Onu. Troviamo interessante che l’unico italiano di questo gruppo sia un religioso. Vuol dire che la Chiesa italiana è più avanti nella riflessione sul tema, nel nostro Paese?
Lo sviluppo rapido e globale delle intelligenze artificiali ha colto la maggior parte delle persone di sorpresa. Questo scenario di rapido cambiamento, di fatto, è un processo interdisciplinare che interroga competenze e discipline diverse, mettendo sul tavolo numerosi fattori di crisi e nuovi stimoli. Il primo elemento da sottolineare è proprio questo: il fatto che le intelligenze artificiali siano una grande sfida per tutti. In questo generale fronte di transizione, appartenere a una istituzione, la Chiesa, e a un Ordine, i francescani, che hanno attraversato altre grandi transizioni sociali e culturali, aiuta a intravedere nei diversi elementi di mutazione alcune istanze di continuità e altre di novità. Penso che questa congiuntura storica, con il mutamento di tanti elementi sinora consolidati, possa portare anche allo sviluppo di nuovi dialoghi tra la Chiesa e il resto del mondo.
Ovviamente, la sua nomina all’Onu non arriva dal nulla. Lei è anche membro della Pontificia Accademia per la Vita, con mandato per il mondo dell’intelligenza artificiale; ed è stato nominato dal governo italiano tra gli esperti che hanno il compito di elaborare la strategia nazionale sull’intelligenza artificiale. Ci può riassumere il percorso accademico e intellettuale che l’ha portata ad assumere incarichi così rilevanti, oltre all’impegno come professore di Teologia morale presso la Pontificia Università Gregoriana?
Prima di entrare nell’Ordine studiavo ingegneria. Gli anni dell’Università mi hanno fornito una base di linguaggio scientifico e tecnico. Durante l’ultimo anno di corso, prima di conseguire il titolo, sono entrato nei francescani del Terzo Ordine Regolare. A quel tempo, lasciando l’Università, pensavo di aver abbandonato anche il settore tecnologico. Dopo gli studi in Filosofia e Teologia ad Assisi, ho continuato con una licenza in Teologia morale presso la Gregoriana. Qui mi è stata data l’opportunità non solo di approfondire i fondamenti della riflessione etica, ma anche di aprirmi alla complessità e alle sfide del presente nella privilegiata condizione di un’Università pontificia romana. Ho vissuto una vera e propria «Università delle Nazioni», nella quale la diversità di lingue, di esperienze umane ed ecclesiali, di culture produce incontri e reciproci arricchimenti. Qui ho potuto sviluppare uno sguardo sui problemi attuali che poi si è rivelato utile per accostarmi a sfide complesse e globali come quelle presentate dalle intelligenze artificiali.
Un periodo per me molto importante è stato quello dedicato al dottorato, dove, nel progetto di ricerca, ho potuto rileggere il fenomeno tecnologico con le categorie generali apprese nel corso degli studi. Durante questo percorso di ricerca, svolto in parte presso l’Università Georgetown negli Stati Uniti, ho potuto mettere in luce una sottile sfida che si andava via via facendo più intensa e profonda: nell’evoluzione tecnologica si assisteva a una sorta di confronto tra una macchina, che sembrava umanizzarsi ogni giorno di più, e un uomo, che sembrava comprendersi sempre più come una macchina. Di fatto alcune grandi tecnologie – come le nanotecnologie, le intelligenze artificiali e le biotecnologie –, in forza di alcune prospettive del pensiero postumano, iniziavano a essere intese come un modo per «migliorare» l’uomo, considerato alla stregua di una macchina difettata da «aggiustare».
Dopo il dottorato mi sono dedicato all’insegnamento. La docenza in Gregoriana, nella quale ho offerto corsi specifici su neuroscienze ed etica, postumano e intelligenze artificiali, ha dato alla mia ricerca una struttura organica e mi ha spinto a confrontarmi con realtà accademiche e istituti di ricerca internazionali. Oggi questo compito, che porto avanti con passione, mi permette di condividere con gli studenti conoscenze in continua elaborazione. Condivido appieno i valori dell’Università Gregoriana e la missione dei gesuiti a cui è affidata: oggi per me l’universalità e la cura personalis possono essere strumenti preziosi per uno sviluppo sereno e una convivenza pacifica dei diversi popoli di fronte alle sfide delle intelligenze artificiali.
Partiamo ora dalle definizioni. Quando parliamo di intelligenze artificiali, oggi, di che cosa parliamo esattamente?
Proprio sulla definizione di cosa siano le IA troviamo le prime difficoltà. In un contesto in cui si vuole regolare questo settore, trovare una definizione che sappia comprendere le diverse implementazioni tecniche dei sistemi di intelligenza artificiale è molto complesso. Da una parte, i regolatori vogliono trovare una descrizione dell’IA che includa sistemi anche molto diversi tra loro; dall’altra, le aziende cercano di eludere recinti specifici, per poter eventualmente sfuggire alle future norme di controllo. In questo confronto, una definizione che include in modo appropriato diverse forme di intelligenze artificiali è quella predisposta dall’Unione europea nella bozza dell’AI Act. Qui si legge che per «intelligenza artificiale» possiamo intendere un software sviluppato con una o più delle tecniche e degli approcci elencati in un’apposita tabella tecnica, «che può, per una determinata serie di obiettivi definiti dall’uomo, generare output quali contenuti, previsioni, raccomandazioni o decisioni che influenzano gli ambienti con cui interagiscono»[3].
Oggi l’espressione «intelligenza artificiale» è usata come termine generico per varie applicazioni informatiche basate su tecniche diverse, che mostrano capacità comunemente e attualmente associate all’intelligenza umana. I sistemi che si qualificano come IA agiscono registrando il contesto del loro operare attraverso l’acquisizione di dati, l’analisi di dati strutturati o non strutturati, producendo forme di conoscenza o di elaborazione di informazioni derivate dai dati e, su questa base, godono di una capacità di azione ottimizzata per raggiungere un certo obiettivo. Le IA possono essere progettate per adattare il proprio comportamento nel tempo in base a nuovi dati e per migliorare le proprie prestazioni in vista di un determinato obiettivo.
Ci sarebbero altre precisazioni linguistiche da non dimenticare?
Sì. A queste premesse mi sembra importante aggiungere una precisazione linguistica. In forza della riduzione tecnologica che l’informatica compie dell’intelligenza umana per ottenerne parziali funzioni, l’uso migliore del termine «intelligenza artificiale» è sempre al plurale: le «intelligenze artificiali».
Questa scelta è sostenuta da almeno due motivazioni. In primo luogo, sottolinea la distanza incolmabile tra questi sistemi, per quanto sorprendenti e potenti, e la persona umana: il plurale indica in tal senso il fatto che le IA sono solo frammenti diversi che in qualche misura ricordano o somigliano ad alcune capacità della persona. In secondo luogo, il plurale indica una non omogeneità di questi strumenti: i sistemi di IA dovrebbero essere sempre visti come «sistemi sociotecnici», nel senso che l’impatto di un sistema di IA – a prescindere dalla tecnologia sottostante – dipende non solo dalla progettazione del sistema, ma anche dal modo in cui esso viene implementato, messo in opera (deployment) e utilizzato. Le intelligenze artificiali, allora, sono da intendersi come una galassia di artefatti molto diversi tra loro che trasformano profondamente il nostro vivere sociale e alcuni degli ambiti più importanti del sapere e del fare.
Spesso le intelligenze artificiali vengono associate alla robotica. Ci sono effettivamente delle relazioni?
In termini molto generici, possiamo definire un robot come una macchina, spesso programmabile da un computer, capace di eseguire una serie complessa di azioni in modo automatico. Di fatto un robot è un apparato meccanico ed elettronico programmabile, impiegato nell’industria, in sostituzione dell’uomo, per eseguire automaticamente e autonomamente lavorazioni e operazioni ripetitive o complesse, pesanti e pericolose. La programmazione dei robot oggi può essere pensata o in modo tradizionale o mediante le IA, perché i sistemi che si qualificano come IA possono essere applicati sia nella dimensione fisica sia in quella digitale.
La diffusione di racconti e film fantascientifici potrebbe far pensare che l’uomo, con la robotica e l’intelligenza artificiale, possa creare un altro Homo sapiens, macchinico questa volta, facendosi in qualche misura «creatore» di una «nuova specie di macchine». Tuttavia l’esperienza quotidiana è diversa. Ogni giorno le intelligenze artificiali sono più potenti, ma non abbiamo ancora robot alla stessa altezza. Il perché di questa differenza è in un paradosso che prende il nome dal suo formulatore, l’informatico Hans Moravec, il quale, con Rodney Brooks, Marvin Minsky e altri, negli anni Ottanta presentò una situazione assolutamente controintuitiva. Contrariamente alle ipotesi tradizionali, il ragionamento di alto livello richiede pochissimo calcolo, mentre le capacità sensomotorie e percettive di basso livello richiedono enormi risorse computazionali. Moravec sostiene che è relativamente facile far sì che i computer offrano prestazioni di livello adulto nei test di intelligenza o nel giocare a scacchi, ma è difficile, o addirittura impossibile, dare loro le competenze di un bambino di un anno, quando si tratta di percezione e mobilità. In altre parole, le attività che risultano complicate per gli esseri umani, come per esempio fare la radice cubica di un numero molto grande, sono facili per i computer e le IA; mentre abilità sensoriali e motorie semplici per un infante, come manipolare un oggetto o aprire una porta girando la maniglia, sono assolutamente complesse per i computer odierni e per i sistemi di IA.
Molteplici sono le spiegazioni date al paradosso di Moravec. Gli evoluzionisti sostengono che le abilità sensomotorie negli esseri umani sono il prodotto di milioni di anni di evoluzione e quindi sono perlopiù inconsce. Le grandi porzioni sensoriali e motorie del cervello umano contengono un miliardo di anni di esperienza sulla percezione del mondo e sulle abilità necessarie per sopravvivere in esso.
Per me, il problema suggerisce un’altra questione. Se l’intelligenza non è una facoltà astratta prodotta da un organo, il cervello, forse quello che conta nel nostro essere Homo sapiens, nel nostro essere persona, è anche il corpo che abitiamo. Siamo intelligenze incarnate. Il supporto che viviamo, il nostro corpo, non è un hardware qualsiasi, e questo fa la differenza.
Si sollevano tante questioni quando parliamo di intelligenza artificiale: questioni etiche, domande sulle conseguenze nel mercato del lavoro, oppure sul trattamento e sul controllo dei dati personali. Possiamo davvero dire che l’IA è neutra dal punto di vista etico-morale e che tutto dipende dal suo uso o solo da un buon ingegnere informatico? Quali sono gli aspetti dell’IA davvero centrali e che hanno o avranno un influsso reale sulla nostra vita?
Langdon Winner, noto studioso americano del rapporto tra scienza, tecnologia e società, in un suo celebre saggio, Do Artifacts Have Politics?, ha messo fortemente in discussione l’idea che esista una neutralità etica degli artefatti tecnologici, mostrando come alcune implementazioni tecnologiche possano avere caratteristiche etiche e politiche intrinseche. Un esempio spesso citato dal suo saggio riguarda l’altezza dei ponti sopra le strade di Long Island, costruiti secondo norme specifiche che impedivano il passaggio di autobus. Questo, secondo Winner, era un modo per limitare l’accesso delle minoranze razziali e dei gruppi a basso reddito, che non potevano permettersi una vettura personale e per questo si spostavano in autobus.
L’esempio di Winner mostra come il design tecnologico non sia da considerarsi neutrale, perché impone una certa forma di ordine e disposizione di potere nell’impatto sociale della tecnologia stessa, e può essere utilizzato per imporre un particolare programma politico. Questa consapevolezza che attraversa l’approccio etico alla tecnologia ci porta a riconoscere ogni artefatto come un sistema socio-tecnologico. L’IA, in quanto artefatto, gode delle stesse proprietà. Il modo con cui la stiamo sviluppando – la scelta degli algoritmi matematici e dei dati su cui addestriamo questi sistemi; il modo nel quale implementiamo tali sistemi; e infine, la progettazione dell’interfaccia tra macchina e utente, la cosiddetta user experience – è l’equivalente del calcestruzzo dei ponti sopra le strade di Long Island.
Prendiamo, infine, spunto da un filosofo italiano che si occupa di digitale, Cosimo Accoto. Secondo lui, le IA hanno sui sistemi meccanici una funzione predittiva di ciò che accadrà. Negli uomini, sostiene il filosofo, tale funzione produce comportamenti, come ad esempio i suggerimenti di acquisto delle piattaforme online di shopping. Alla luce di questo, è lecito sia immaginare sia temere un futuro nel quale l’IA potrebbe avere un impatto forte sulla nostra libertà, diventando un «tutor sociale» che ci indirizza verso comportamenti giudicati positivi, evitando quelli ritenuti negativi. Gli interrogativi sulle possibilità future dell’IA di plasmare il mondo, a questo punto, non sono più di natura socioeconomica, bensì di natura etica e politica. E la domanda che a sua volta sorge prepotente è: che futuro vogliamo costruire con l’ausilio di queste tecnologie?
In un saggio spesso citato in questi ultimi anni, «Automating Inequality», Victoria Eubanks già nel 2018 metteva in guardia anche dalle possibili implicazioni, nel campo della giustizia sociale, dell’utilizzo dell’IA; ad esempio, nella determinazione di prestazioni a sostegno del reddito o dell’assegnazione di una casa popolare. È una preoccupazione già concreta? Quali sono le sfide in questo caso?
Riprendendo il paradosso di Moravec, possiamo già intravedere gli effetti sociali che l’IA potrebbe avere. Se la società, come avvenne all’inizio della rivoluzione industriale, proseguirà nella direzione dell’automazione del lavoro, le IA, con la loro capacità di surrogare più facilmente compiti cognitivi alti piuttosto che lavoro muscolare, potrebbero «aggredire» quei lavori che oggi caratterizzano una particolare classe sociale: la classe media e i cosiddetti «colletti bianchi». Qualcosa in questo senso è già visibile in alcune nuove forme di lavoro. Pensiamo alla cosiddetta Gig Economy, un modello economico basato sul lavoro a chiamata, occasionale e temporaneo, piuttosto che su prestazioni lavorative stabili e continuative. Nella Gig Economy la domanda e l’offerta di lavoro si incontrano principalmente tramite piattaforme digitali. Questo modello di lavoro include una vasta gamma di professioni, prevalentemente nel campo digitale, come fotografi, copywriter, grafici e webmaster. Alcuni esempi noti di Gig Economy includono i conducenti di Uber, i fattorini di Foodora o Deliveroo, e i proprietari di case che affittano le loro proprietà su Airbnb. Le grandi piattaforme che mediano l’incontro tra domanda (problem owner) e offerta (solution owner) si affidano a forme di automatizzazioni algoritmiche e di IA.
Pensiamo al mondo delle consegne: in questi nuovi settori professionali il lavoratore può al massimo contribuire con l’energia muscolare per effettuare la consegna, ma non riuscirà mai a raggiungere un posto di dirigenza, perché questo è svolto da un software. In un modello di lavoro di questo tipo, le professioni a più alto contenuto cognitivo e con reddito più alto vengono surrogate dalle macchine: all’uomo non rimane che svolgere la parte a basso reddito e a basso contenuto cognitivo. Se la fantascienza degli ultimi anni ci ha fatto guardare alle macchine con un crescente timore per una possibile fine dell’umanità, quello che penso ci debba invece preoccupare maggiormente, perché più probabile nel breve periodo, è l’estinzione della classe media.
In un tempo in cui rischiamo la Terza guerra mondiale, o l’abbiamo già a pezzi, come afferma papa Francesco, cosa possiamo dire del rapporto tra intelligenza artificiale e guerra? Che impatto sta già avendo o potrà avere a breve l’IA?
In un recente confronto con il filosofo Sebastiano Maffettone sul tema IA e conflitti, abbiamo considerato il modo in cui nell’ultimo secolo sono cambiate molte cose nei conflitti armati: la posta in gioco, i combattenti, lo spazio in cui si combatte, i linguaggi. Sulla scena sono comparsi i droni. Di recente, un panel di esperti delle Nazioni Unite ha riferito dell’uso di un piccolo drone di fabbricazione turca, denominato STM Kargu-2, che nel 2020 è diventato il primo dispositivo guidato dall’intelligenza artificiale a uccidere esseri umani (nello specifico, soldati impegnati in un combattimento avvenuto in Libia contro le unità di Haftar). Questo drone è in grado di operare in totale autonomia. Nel rapporto stilato dall’Onu si legge che «i sistemi d’arma erano programmati per attaccare i bersagli senza richiedere la connettività dei dati tra l’operatore e la munizione»; in altre parole, erano basati sulla computer vision e sul riconoscimento dei bersagli tramite l’intelligenza artificiale. Tecnicamente, droni di questo tipo vengono chiamati munizioni loitering, cioè «vaganti»; di solito sono vere e proprie munizioni – spesso granate – che volano agganciate a un drone per compiere missioni «suicide» ed esplodere insieme al vettore, una volta raggiunto il bersaglio. Tali armamenti hanno portato scompiglio tra i combattenti di Haftar, perché le sue milizie non erano addestrate per difendersi da questa nuova tecnologia.
Notizie di questo tipo – l’utilizzo di Autonomous Weapon Systems, ossia di armi autonome – ci impongono di riflettere sulla trasformazione dei conflitti armati e sulla possibilità che un essere umano venga ucciso da una macchina. Tutto questo, oggi, è realizzabile e accessibile persino a fazioni in guerra (e non solo alle cosiddette «superpotenze»). Le IA, nello sciagurato contesto della guerra, aggiungono al problema della letalità dei mezzi la potenziale facilità di utilizzo e di diffusione.
Facciamo attenzione a un altro grande cambiamento: ai domini tradizionali (terra, mare, aria, cyberspazio e spazio) la Nato ha recentemente aggiunto un nuovo spazio di competizione e conflitto, il dominio cognitivo. In questo nuovo campo di battaglia, svolto nella mente umana, l’obiettivo è cambiare non solo il pensiero delle persone, ma anche il modo in cui esse pensano e agiscono. Anche qui le IA sono potenziali protagoniste, specialmente quelle generative: grazie alla capacità di produrre contenuti verosimili e di grande abilità persuasiva, si distinguono come possibili strumenti bellici. In questo scenario, la manipolazione cognitiva potrebbe essere utilizzata non per demolire città o sterminare esseri umani, ma per distruggere la coesione sociale e lo spazio democratico. Da questo punto di vista, mi sembra quanto mai propizio e tempestivo l’annunciato Messaggio per la Pace di papa Francesco per il prossimo 1° gennaio 2024, che avrà come tema principale le intelligenze artificiali.
Molti Paesi e organizzazioni multilaterali chiedono la regolamentazione dell’intelligenza artificiale. In che modo lo si può fare, e quali sono gli aspetti da tenere presenti?
La regolamentazione delle IA è un tema di grande attualità e rilevanza, date sia l’importanza crescente di questa tecnologia in vari settori sia le sfide etiche, di sicurezza e di privacy che queste comportano. Al momento, vari Paesi e organizzazioni internazionali stanno lavorando su iniziative di regolamentazione.
Da un punto di vista generale, uno degli aspetti fondamentali è la necessità di bilanciare innovazione e sicurezza. Le normative devono essere progettate in modo da promuovere lo sviluppo responsabile e sicuro di queste tecnologie, senza soffocare l’innovazione o creare barriere ingiustificate all’ingresso nel mercato per le nuove imprese (cosa che di fatto si tradurrebbe in un monopolio dei grandi colossi tecnologici).
Inoltre, questa riflessione deve necessariamente svolgersi in un contesto di collaborazione globale: è fondamentale che i Paesi cooperino per sviluppare normative coerenti ed efficaci. Queste tecnologie digitali sono globali: solo con regolamentazioni globali si potranno prevenire situazioni in cui le aziende si trasferiscono in Paesi con regolamentazioni meno rigorose.
Attualmente nel mondo si presentano varie prospettive. Ad esempio, negli Stati Uniti l’amministrazione Biden-Harris ha preso in considerazione diverse proposte legislative per regolare l’IA, e ha ottenuto impegni da sette importanti aziende del settore per promuoverne lo sviluppo responsabile e sicuro. Questi impegni includono test di sicurezza, condivisione di informazioni sulla gestione dei rischi, investimenti in sicurezza informatica, divulgazione di informazioni sulle capacità dell’IA e ricerca per mitigare rischi sociali. È anche da menzionare la Raccomandazione dell’Unesco sull’etica dell’IA approvata nel novembre 2021. In Europa, la Commissione europea sta lavorando sull’AI Act, una proposta di regolamentazione che prevede la classificazione dei sistemi di IA in base al rischio che presentano per gli utenti, con livelli di regolamentazione che variano a seconda del livello di rischio.
Tali tentativi si devono confrontare con il fatto che la regolamentazione delle IA non può essere un processo statico, ma deve essere in grado di adattarsi alle evoluzioni tecnologiche. Per questo un approccio interdisciplinare che includa le discipline umanistiche, l’etica e pure la teologia, è l’unica via per sviluppare soluzioni che siano veramente efficaci.
A che punto è la riflessione della Chiesa sulle IA? C’è già qualche pronunciamento del Magistero? Può aprirsi un nuovo capitolo della dottrina sociale della Chiesa?
La riflessione della Chiesa sulle IA è in continua evoluzione e si concentra principalmente sull’etica e sull’antropologia: da quello che sta emergendo si intende promuovere una riflessione critica sulle IA e sul loro ruolo nella società. Papa Francesco ha sottolineato l’importanza di stabilire limiti per prevenire possibili abusi di questa frontiera dell’umanità, insieme a una nuova e più urgente necessità etica, o «algoretica» (che si riferisce allo sviluppo etico degli algoritmi).
Il cambiamento d’epoca del vivere umano, inaugurato dal digitale e dalle IA, deve quindi aprirsi nel segno della responsabilità e della ricerca del bene da parte di tutte le persone di buona volontà. Questo processo deve portare ad assumere nel nostro vivere la consapevolezza che la progettazione e l’implementazione della tecnologia sono modellate da una serie di fattori sociali ed economici, oltre che da considerazioni strettamente tecniche. In questo sforzo, la Santa Sede si vuole fare compagna di strada di tutte le persone di buona volontà che cercano di ampliare l’agenda delle politiche tecnologiche adottando un approccio allo sviluppo, all’implementazione e all’uso dei sistemi di IA che sia caratterizzato da un’etica applicata alle tecnologie digitali. Proprio per questo il Santo Padre, nel Discorso alla Plenaria della Pontificia Accademia della Vita, il 28 febbraio 2020, ha affermato che bisogna approfondire la frontiera dell’algoretica, che «potrà essere un ponte per far sì che i principi si inscrivano concretamente nelle tecnologie digitali, attraverso un effettivo dialogo transdisciplinare. Inoltre, nell’incontro tra diverse visioni del mondo, i diritti umani costituiscono un importante punto di convergenza per la ricerca di un terreno comune. Nel momento presente, peraltro, sembra necessaria una riflessione aggiornata sui diritti e i doveri in questo ambito. Infatti, la profondità e l’accelerazione delle trasformazioni dell’era digitale sollevano inattese problematiche, che impongono nuove condizioni all’ethos individuale e collettivo».
I contributi del prossimo Messaggio per la Pace e del Messaggio per la Giornata delle comunicazioni sociali, entrambi sul tema delle IA, potrebbero ulteriormente espandere queste riflessioni. È sempre un azzardo predire cosa accadrà in futuro, ma questo settore ha la possibilità di diventare una delle direzioni di espansione della dottrina sociale della Chiesa. Suppongo questo, perché la Chiesa stessa ha già espresso la necessità e l’urgenza di integrare princìpi etici nelle IA e ha sottolineato l’importanza di un consenso tra decisori politici, agenzie delle Nazioni Unite, ricercatori, mondo accademico e rappresentanti delle organizzazioni non governative. Io credo che sia lecito pensare a enormi possibilità di approfondimento.
Si è parlato molto, negli ultimi tempi, di ChatGPT, un’applicazione che ha notevoli conseguenze nel mondo della scuola e dell’Università. Come affrontare questa sfida, magari in un modo che sia anche educativo e non sanzionatorio?
ChatGPT è stata definita l’applicazione dei record, a partire dal tasso di adozione. Lanciata nel novembre 2022, ha raggiunto un milione di utenti più velocemente di qualsiasi altra app: nel gennaio 2023, solo due mesi dopo il lancio, aveva raggiunto 100 milioni di utenti attivi mensili, e nel settembre 2023 ha generato oltre 1,5 miliardi di visite totali al mese. Questi numeri l’hanno resa l’applicazione consumer con la crescita più rapida nella storia, superando applicazioni popolari, come TikTok e Instagram, che per raggiungere i 100 milioni di utenti hanno impiegato rispettivamente nove mesi e due anni e mezzo. Anche la demografia degli utenti è interessante: il 55,99% di essi sono maschi, e l’età più rappresentata è quella compresa tra i 25 e i 34 anni.
Questa massificazione dell’adozione porta con sé alcuni problemi. Innanzitutto, la comprensione di cosa veramente sia questo prodotto. Esso non è affatto, come molti utenti pensano, l’equivalente di un motore di ricerca. ChatGPT è un agente conversazionale basato su un grande modello di linguaggio (LLM), che utilizza tecniche di deep learning e set di dati molto grandi per riconoscere contenuti, generarli, riassumerli, tradurli e persino prevederli. Questi modelli sono utilizzati in una varietà di applicazioni, tra cui la generazione di testo, la traduzione, il riassunto di contenuti, la riscrittura di testi e la classificazione e categorizzazione di contenuti.
ChatGPT è un’applicazione di chat costruita su un LLM chiamato «GPT» con alcune caratteristiche uniche. Una di queste è l’apprendimento per rinforzo da feedback umano (RLHF), una tecnica utilizzata da OpenAI per affinare i modelli GPT per preferire una risposta rispetto a un’altra. Un’altra è l’interfaccia di chat di OpenAI, che ricorda gli scambi precedenti con l’utente nella sessione e li aggiunge al prompt (la domanda proposta dall’utente), generando una sorta di conversazione che ha «memoria» di quanto è stato detto prima.
Questo semplice cambiamento nell’esperienza utente ha fatto una grande differenza nella sua usabilità per il pubblico generico. E proprio qui si annida una differenza insidiosa. Essendo uno strumento conversazionale, ChatGPT non è fatto per dare risposte precise e accurate, bensì per «intrattenere» il suo interlocutore in maniera molto simile a una conversazione al bar, in cui l’astante continua a chiacchierare con noi e cerca di prolungare la conversazione il più possibile. Poco importa che le sue affermazioni siano inesatte o imprecise: lo scopo della conversazione è il prolungamento della stessa. Ma c’è di più. I modelli GPT hanno mostrato un lato inaspettato: la comparsa di proprietà emergenti, ossia di comportamenti e capacità non programmati esplicitamente dagli sviluppatori. Questi sono il risultato delle interazioni complesse tra le componenti del modello e l’addestramento sui data set.
ChatGPT ha dimostrato di essere in grado di risolvere piccoli giochi di parole, creare parafrasi e adattare i suoi output in base ai suggerimenti offerti dagli utenti. Sa comprendere il linguaggio umano e il contesto, interagire con intelligenza emozionale e, cosa più sorprendente di tutte, sembra avere una certa conoscenza dei fatti fino a novembre 2021.
Quindi l’uso di ChatGPT nell’Università presenta come primo e radicale problema l’ignoranza del mezzo: se uno studente vuole usare il sistema per produrre conoscenza, è semplicemente «vittima» dell’ignoranza del mezzo che sta usando. Abbiamo l’urgenza di formare docenti e alunni riguardo alla natura di tale macchina per far sì che non considerino fonte di conoscenza una sorta di amplificatore stocastico di parole. Ma criticare questo approccio ingenuo a ChatGPT non basta. In quanto accademici, abbiamo il compito di prendere in considerazione i sistemi di intelligenza artificiale. Ne esistono molti, e alcuni di essi stanno rivoluzionando l’accesso alla cultura e alle informazioni. Integrarli nella didattica e nella ricerca può essere utile per aumentare la portata e la profondità delle stesse. In questo percorso non dobbiamo mai abbandonarci alla macchina: il nostro compito è attenerci sempre a un profondo cammino di discernimento.
Infine, nel ringraziarLa per la disponibilità, mi permetto di farLe ancora una domanda con risvolti anche personali. Come convivono in Lei la spiritualità francescana e lo studio delle intelligenze artificiali e della tecnologia?
Spesso mi viene chiesto come mai un francescano, il cui stile di vita è, nell’immaginario collettivo, associato all’idea di semplicità e di contatto con la natura, si occupi di questi temi. In realtà, al di là del mio percorso individuale, i francescani hanno sempre avuto uno stretto rapporto con la scienza, sin dal Medioevo, e hanno contribuito attivamente alla sua evoluzione e alla sua diffusione. Pensiamo a Ruggero Bacone (1220-92), frate francescano, nonché uno dei padri dell’empirismo. Bacone promosse l’uso della sperimentazione e dell’osservazione diretta come strumenti per comprendere il mondo naturale. Esemplare fu anche l’opera di Raimondo Lullo (1235-1315). Questo frate eremita compose la Ars magna, opera che racchiude lo sforzo di trovare una scienza universale che, attraverso princìpi generali, contenesse i princìpi di tutte le scienze particolari. Lullo utilizzava schemi e figure per collegare concetti fondamentali in una sorta di logica meccanica, e asseriva che essa può ottenere verità in ogni campo del sapere. Le sue idee sarebbero state riprese secoli dopo da Leibniz (1646-1716), filosofo e matematico tedesco, nella sua ricerca sulla possibilità di ottenere un linguaggio universale; e sulle ricerche di Leibniz si sarebbero fondate in seguito le basi dell’informatica moderna. Pensiamo pure a Luigi Galvani (1737-98), terziario francescano, noto per gli esperimenti sull’elettricità animale, nel quale fede e passione per la medicina e la scienza convissero con serenità: per lui, comprendere la natura era un modo per celebrare l’opera di Dio. Anche nell’ambito delle tecnologie digitali i francescani contano su eminenti studiosi. Il mio interesse, in altre parole, si inserisce in una lunga tradizione.
Copyright © La Civiltà Cattolica 2023
Riproduzione riservata
***
[1]. Cfr www.paolobenanti.com/ Tra le sue numerose pubblicazioni, segnaliamo: The Cyborg: corpo e corporeità nell’epoca del post-umano, Assisi (Pg), Cittadella, 2012; La condizione tecno-umana. Domande di senso nell’era della tecnologia, Bologna,EDB, 2016; Postumano, troppo postumano. Neurotecnologie e human enhancement, Roma, Castelvecchi, 2017; Digital Age. Teoria del cambio d’epoca. Persona, famiglia e società, Cinisello Balsamo (Mi), San Paolo, 2020; Human in the loop. Decisioni umane e intelligenze artificiali, Milano, Mondadori Università, 2022.
[2]. Il Segretario generale delle Nazioni Unite ha convocato un organo consultivo di alto livello sull’intelligenza artificiale (IA), composto da 32 esperti in discipline importanti provenienti da tutto il mondo, per svolgere analisi e formulare raccomandazioni per la governance internazionale dell’IA, con un’attenzione al bene comune e ai diritti umani, e allineandola agli Obiettivi di Sviluppo Sostenibile. Cfr www.un.org/techenvoy/ai-advisory-body
[3]. European Union, AI Act, art. 3.1. Cfr www.eur-lex.europa.eu