|
Guardandola da un secolo futuro, la nostra epoca sarà probabilmente ricordata come quella della nascita[1] della cosiddetta «intelligenza artificiale generativa»[2]. Sebbene sia impossibile giudicare i processi attuali (a causa della mancanza di distanza storica), tutti i segnali indicano che stiamo vivendo la fase iniziale di una rivoluzione informatica e tecnologica che ha lanciato l’«intelligenza» delle macchine. Molti si chiedono cosa ci riserverà il futuro in questo senso. Di recente siamo stati costretti a imparare alcuni termini nuovi, come «algoritmo», «apprendimento automatico» (machine learning) o, più recentemente, «modelli linguistici di grandi dimensioni» (large language models), ma questo è solo l’inizio. Le nuove tecnologie stanno già trasformando le nostre vite vorticosamente e gli esperti dicono che esse hanno in serbo altre incredibili potenzialità.
Naturalmente, si parla sempre più spesso anche dei pericoli, alcuni dei quali, purtroppo, sono divenuti ben familiari in relazione ai social media: dipendenza, disinformazione, salute mentale, polarizzazione, censura ecc.[3]. Hanno ragione coloro che accolgono con entusiasmo i cambiamenti recenti o coloro che fanno previsioni apocalittiche e distopiche? È difficile orientarsi in una gamma così ampia di opinioni. In questo articolo, tuttavia, cercheremo – anche se si tratta di un’impresa ben ardua – di fornire alcuni punti di riferimento per aiutare il lettore a orientarsi. Ora che la mania di ChatGPT, di cui si parlerà più avanti, si è un po’ placata[4], è possibile fare una riflessione più equilibrata su questa vexata quaestio.
La tecnologia «smart» come arma a doppio taglio
Per capire meglio l’«intelligenza artificiale generativa», partiamo da più lontano. Ecco un esperimento di pensiero. Cosa avremmo pensato se un viaggiatore nel tempo, tornato dal futuro negli anni Settanta, avesse fatto la seguente previsione: presto ci sarà a disposizione un dispositivo di nuova invenzione che permetterà a gran parte dell’umanità di comunicare in modo rapido ed efficace, indipendentemente dalla distanza fisica, e di cooperare tra le persone[5]? Con questo apparecchio avremo accesso a quasi tutte le conoscenze dell’umanità e saremo in grado di recuperare quasi istantaneamente una grande quantità di informazioni (dati, musica, film, gran parte dei libri, dei giornali e degli articoli pubblicati ecc.). Sarà anche possibile tradurre qualsiasi testo in qualsiasi lingua in pochi secondi. Ebbene, oggi abbiamo questo strumento: è a disposizione di ciascuno di noi. I professionisti – e gli onesti scrittori di fantascienza – di solito confessano di aver sognato una cosa del genere, ma di aver pensato che ci sarebbe voluto molto più tempo per ottenerla.
Di fatto, abbiamo cognizione di quasi tutti gli elementi dell’intelligenza artificiale da 40-50 anni, eppure ora abbiamo una conoscenza tecnica nuovissima, non ipotizzabile cinquant’anni fa: come gli stessi algoritmi avrebbero potuto funzionare su macchine 10 milioni di volte più veloci. Stiamo solo iniziando a vedere l’impatto che questo nuovo strumento ha sull’istruzione (sviluppo dei bambini, ricerca scientifica, cambio dei valori), sulla cultura (giornalismo sociale, canali di comunicazione), sulla politica (discorso democratico, elezioni), sull’economia (marketing, Pil) e, non da ultimo, sulla nostra vita spirituale.
I progressi della tecnologia digitale costituiscono tutti una buona notizia? Purtroppo, come sarà sempre più evidente, non è così; c’è, indubbiamente, anche un lato negativo. Se, ad esempio, negli anni Settanta quello stesso viaggiatore nel tempo di cui sopra ci avesse detto anche che questo magico dispositivo avrebbe causato la difficoltà dei rapporti e la distrazione dei nostri figli; che alcune semplici app – chiamate «social media» – avrebbero causato un acuto disagio emotivo negli adolescenti e che la popolazione adulta avrebbe corso il rischio di un disordine da deficit di attenzione e di problemi di stress e di sonno[6], saremmo stati altrettanto entusiasti? È vero che abbiamo perfezionato il concetto pascaliano di divertissement, ma, secondo gli studiosi, i cambiamenti che abbiamo già apportato rischiano di toglierci il senso della vita e la capacità di goderne[7], per non parlare del rapporto con Dio, della preghiera e della contemplazione[8].
E se il nostro viaggiatore nel tempo ci avesse avvertito anche che le nuove tecnologie ci avrebbero resi vulnerabili alla manipolazione e alla raccolta illegale di dati (perché il misterioso dispositivo conosce i numeri delle nostre carte di credito, legge la nostra posta elettronica, tiene traccia delle nostre coordinate geografiche, e persino conta i nostri passi quotidiani, se glielo chiediamo)? Chi avrebbe immaginato che l’invenzione più potente del nostro tempo, i social media, ci avrebbe intrappolato in una «bolla» di comunicazione – una echo chamber – in cui sentiamo solo chi ha le nostre stesse opinioni, aumentando così le divisioni sociali a livelli senza precedenti? Di fatto, il dispositivo che chiamiamo smartphone ha avuto un effetto molto ambiguo: ci ha connesso a una rete di informazioni globale, da cui ora noi sembriamo essere intrappolati. Con il suo utilizzo siamo globalizzati più che mai nella storia dell’umanità, ma, nello stesso tempo, siamo anche solitari. Questo dispositivo ha risvegliato i peggiori demoni della nostra anima (pornografia, violenza), ed è così difficile separarsene che ha causato una vera e propria epidemia di dipendenza[9]. Abbiamo allora ancora voglia di festeggiare?
Ma c’è di più. Tutti i segnali indicano che siamo solo all’inizio di questa storia di trasformazione. Infatti, i social media, responsabili di gran parte dei disagi sopramenzionati, funzionavano ancora con strumenti estremamente primitivi rispetto a quelli recenti. In sostanza, la loro magia consisteva nel fatto che i motori di ricerca erano programmati per consigliare articoli di notizie o video di YouTube in base agli interessi e ai clic precedenti degli utenti (registrati anche senza il loro consenso). Ma già questi metodi primitivi hanno dato loro un potere incredibile: non solo ci hanno tenuti davanti ai nostri schermi, rubandoci anche il sonno[10], ma hanno manipolato le nostre opinioni, polarizzato il nostro discorso politico, minato la nostra salute mentale e destabilizzato le nostre società democratiche[11]. Fino a poco tempo fa avevamo a che fare solo con contenuti informativi prodotti dall’uomo; recentemente, però, è avvenuto qualche cambiamento importante.
«The next big thing»
Il 22 novembre 2022 è stata resa disponibile una nuova invenzione tecnologica, il cui impatto futuro è destinato a fare scalpore più che mai. La startup californiana OpenAI ha dato vita a un «grande modello linguistico» alimentato da una «intelligenza artificiale», chiamato ChatGPT. Questo ha aperto un nuovo capitolo nella storia della tecnologia e, secondo alcuni, anche in quella dell’umanità. Nel giro di cinque giorni, un milione di persone si sono iscritte all’applicazione e in due mesi il numero di utenti ha superato i 100 milioni[12]. Ma cos’è questo chatbot che è passato, quasi da un giorno all’altro, dalla totale oscurità a essere un attore potenzialmente fondamentale per il futuro del mondo?
ChatGPT è un esempio della cosiddetta «intelligenza artificiale generativa», in grado cioè di generare contenuti di pensiero simili a quelli umani, semplicemente sulla base di un addestramento sulla vasta quantità di informazioni testuali, immagini e suoni presenti in Internet. Per la prima volta nella storia della nostra specie è diventato possibile interagire direttamente come utente – anche se finora solo per iscritto – con una potente «intelligenza» non biologica (inorganica, basata sul silicio). Possiamo dialogare e chattare con essa, ed essa risponderà prontamente alle nostre domande. Anche la maggior parte degli esperti è rimasta sorpresa dalla complessità dei compiti che il chatbot può svolgere. Avendo imparato il linguaggio umano e utilizzandolo in modo abile, esso può fornire informazioni in qualsiasi lingua e su qualsiasi argomento discusso su Internet. La sua caratteristica più sorprendente e innovativa, tuttavia, è quella di fare ciò in «modo creativo», ossia esso può generare testi, immagini e video propri. È questo che ha reso la creazione di OpenAI un successo senza precedenti.
Inoltre, ChatGPT non è l’ultimo stadio di sviluppo, ma, al contrario, solo uno dei primi passi. Dopo la sua apparizione, nuovi sviluppi si sono manifestati quasi ogni settimana: Google ha lanciato Bard, il proprio chatbot per alimentare il proprio motore di ricerca, e ha investito 300 milioni di dollari in Anthropic; GPT-4, ancora più potente del modello precedente, è ora disponibile; Google ha lanciato il potente modello linguistico PaLM 2; e Baidu, noto come «il Google della Cina», ha presentato un chatbot chiamato «Claude» ecc.[13]. In breve, è entrata nel dominio pubblico una «intelligenza», non direttamente umana, che è in grado di scrivere testi (compresi saggi e tesi scolastiche), di tradurli, di disegnare immagini, di comporre musica, e persino di creare programmi informatici con una qualità sorprendente e in continua evoluzione. Questa è una buona notizia?
Un realismo critico e proattivo
Per alcuni, però, tutto questo non costituisce un passo in avanti, ma piuttosto un passo indietro nella storia della civiltà umana. Prima di cedere a un’euforia acritica, essi ci avvertono, va notato che ChatGPT non funziona perfettamente: a volte, per esempio, «allucina», cioè «immagina», afferma falsità, e il problema non sembra risolvibile in maniera definitiva. Inoltre, è spaventosamente facile usare la nuova invenzione per commettere frodi, producendo, per esempio, una qualità impressionante di immagini, suoni e video falsi (deep-faking). Questo ha già attirato l’attenzione dei criminali: la Federal Trade Commission statunitense ha riferito che l’anno scorso negli Stati Uniti sono state commesse frodi per un valore di 11 milioni di dollari, utilizzando l’«intelligenza artificiale» per imitare la voce di una persona o creare un avatar in movimento della stessa, truffando così parenti ignari[14]. Un celebre caso in Italia è stato quello di una signora di 83 anni, Laura Efrikian, ex moglie del cantante Gianni Morandi, truffata per una somma considerevole da criminali che, con l’aiuto dell’«intelligenza artificiale», sono riusciti a imitare la voce di un suo nipote.
Quindi, se in futuro non vedremo qualcuno di persona, non potremo più fidarci della sua identità? Sembra proprio di sì. Ma la minaccia maggiore non sembra essere l’«intelligenza artificiale» che aiuta anche nelle frodi contrattuali e nell’evasione fiscale, bensì l’«intelligenza artificiale» che imita le relazioni intime con le persone reali («amici» e «amiche», anche intimi, robot che fanno finta di capirci, senza avere vera capacità di compassione, falsificando così le relazioni umane reali)[15]. Secondo il filosofo americano Daniel Dennett, non si tratta affatto di uno scherzo, ma piuttosto di una vera e propria «minaccia alla nostra civiltà»[16]. A questo proposito, sembra riemergere l’antica domanda: che cosa significa essere umani?
Anche gli esperti – filosofi, teologi, storici, avvocati, economisti ecc. – sono divisi su questa domanda, come pure su ciò che sta effettivamente accadendo con l’ingresso – o meglio, con la vera e propria invasione – dell’«intelligenza artificiale» nella nostra cultura. Alcuni, che costituiscono una minoranza, cercano di sminuire la portata di tali accadimenti, affermando che si tratta solo di un altro «miracolo» di breve durata: l’umanità ha vissuto traumi maggiori nei 200.000 anni della sua storia. Altri vanno nella direzione diametralmente opposta, paragonando la diffusione dell’«intelligenza artificiale generativa» non solo all’invenzione del fuoco, della ruota o della scrittura, ma al nuovo inizio dell’evoluzione – quella inorganica –, che per loro rappresenta una nuova singolarità e anticipa un futuro inevitabilmente apocalittico (istruzione impossibile, masse di disoccupati, feudalesimo digitale fino all’estinzione dell’umanità). Ci sembra di poter rendere giustizia a Sam Altman, amministratore delegato della società madre di ChatGPT, OpenAI, il quale, quando ChatGPT ha fatto il suo debutto pubblico, ha previsto che l’importanza della loro creazione avrebbe «superato la rivoluzione agricola, la rivoluzione industriale e la rivoluzione di Internet messe insieme»[17]. Tutto questo però non può allontanarci dal nostro agire in modo responsabile.
I podcast de “La Civiltà Cattolica” | LA VIOLENZA CONTRO LE DONNE
Da parecchio tempo, le cronache italiane sono colme di delitti perpetrati contro le donne. Il fenomeno riguarda tutte le età e condizioni sociali, tanto da sembrare endemico nella nostra società. A questo tema è dedicato un episodio monografico di Ipertesti Focus, il podcast de «La Civiltà Cattolica».
Un punto di vista più equilibrato tra la falsa alternativa dell’allarmismo disperato e l’incoscienza credulona è un realismo informato, responsabile e proattivo. Sebbene il futuro sia, in linea di principio, imprevedibile e, soprattutto in questo caso, non abbiamo esempi analoghi per capire ciò che sta accadendo, alcune previsioni possono essere formulate in modo responsabile. La prima è che sembra che ci troviamo dinanzi a un cambiamento davvero storico, e vi ci dobbiamo preparare. L’«intelligenza artificiale», anche se non distruggerà necessariamente il nostro modo di pensare e di vivere, senza dubbio lo trasformerà entro pochi decenni su una scala senza precedenti: sconvolgerà il sistema educativo e il mondo della scienza, mettendo in discussione le nostre idee sui concetti fondamentali del lavoro intellettuale (la creatività, la proprietà intellettuale e il diritto d’autore) e ci costringerà ad adottare nuove pedagogie, dalle scuole primarie alle università; richiederà una riorganizzazione del settore sanitario e cambierà la nostra visione dell’umanità; trasformerà l’economia, soprattutto il mercato del lavoro, lanciando così una sfida agli economisti e ai politici; cambierà anche la politica, mettendo in crisi la democrazia, e la guerra, creando armamenti basati sull’«intelligenza artificiale»; e infine, e in modo più radicale, influenzerà l’intero pensiero umano, ossia ciò che consideriamo «reale» e «vero». La risposta adeguata a tutte queste sfide non sarà la disperazione, né l’arrendersi, ma il monitoraggio, la riflessione e l’agire in modo responsabile.
Quattro argomenti a favore di una regolamentazione
L’emergere di ChatGPT, come abbiamo visto in precedenza, suggerisce che siamo all’alba di una nuova era. Quest’epoca sarà caratterizzata dal rapido sviluppo dell’«intelligenza artificiale», con conseguenze di vasta portata per quasi tutti gli aspetti della società. Non si può non riflettere su come si debba reagire.
Certo, per il discernimento servirebbe anche la guida del magistero ecclesiastico. La Chiesa, però, di solito non è precipitosa nel dare orientamenti. Aspetta pazientemente finché maturi una riflessione ben ponderata. Questo atteggiamento ha senz’altro dei vantaggi: impedisce le reazioni avventate e permette di agire con accortezza. Ma per quanto riguarda l’«intelligenza artificiale», abbiamo la legittima sensazione che il magistero della Chiesa non possa avere lo stesso ritmo di sempre. Sono necessari tempi di reazione più brevi. Le cose accadono con velocità fulminea. Il 1983 è generalmente considerato l’anno della scoperta di Internet; e il Pontificio Consiglio delle comunicazioni sociali ha pubblicato il documento The Church and Internet solo nel 2002. I social media sono nati nel 1997[18]; e il Dicastero per la comunicazione ha pubblicato il documento Verso una piena presenza solo nel 2023[19]. Papa Francesco cerca di stare maggiormente al passo con i tempi. Si prevede che egli dedicherà le sue riflessioni per la Giornata mondiale delle comunicazioni sociali (24 gennaio 2024, nella festa di san Francesco di Sales) al tema «Intelligenza artificiale e sapienza del cuore»[20]. Ma anche il testo del messaggio per la Giornata mondiale della pace del 1° gennaio 2024 sarà analogamente dedicato a «Intelligenze artificiali e pace»[21]. Ciò dovrebbe stimolarci ancora di più a riflettere su questo argomento.
1) Uno degli aspetti più importanti riguarda la regolamentazione dell’«intelligenza artificiale generativa». Questo è richiesto, innanzitutto, da circostanze morali ricorrenti e urgenti, come la situazione di guerra. Alcuni esperti, tra cui Audrey Kurth Cronin, direttrice dell’Istituto per la sicurezza e la tecnologia della Carnegie Mellon University, hanno parlato già da anni di questo pericolo, sostenendo che «l’innovazione tecnologica aperta sta armando i terroristi di domani»[22]. Gli avvenimenti recenti hanno largamente confermato le preoccupazioni dei professionisti: nel conflitto israeliano Hamas ha utilizzato tecnologie economiche e facilmente accessibili, ma avanzate (reti sociali, droni, sensori e razzi «intelligenti»), per rendere più efficace la sua capacità di distruzione, aumentando il numero delle vittime degli attacchi terroristici. Questo semplice fatto dovrebbe essere un ulteriore monito per chi sta sviluppando le nuove tecnologie dell’«intelligenza artificiale generativa»: essa avrà il potere di moltiplicare l’efficacia della distruzione di massa (per esempio, creando nuovi virus mortali).
2) Invece di creatività nella distruzione, occorrono soluzioni innovative per proteggere gli esseri umani. Sebbene tutti i principali protagonisti della rivoluzione digitale – da OpenAI a Google, passando per Microsoft e Anthropic (ora nell’orbita Amazon) – si dicano consapevoli degli immensi rischi insiti nella manipolazione di tali tecnologie da parte di malintenzionati, le dichiarazioni di buona volontà ormai non sembrano essere sufficienti. Tanto più che proprio i «grandi» non si sentono responsabili! Lo stesso Elon Musk, multimiliardario amministratore delegato della multinazionale automobilistica Tesla e proprietario e presidente di X (ex Twitter), viene ripetutamente tacciato di diffondere notizie false. Egli, in un primo tempo, ha drasticamente ridotto il sistema di verifica dei contenuti immessi in rete in nome dell’assoluta libertà d’espressione; poi ha dato spazio a meccanismi economici che premiano la divulgazione di montature false, ma suggestive, capaci di generare molte visualizzazioni; infine, recentemente, ha esortato a seguire, per quanto riguarda Israele, due siti che gli sembravano interessanti: siti antisemiti, che abitualmente diffondono falsità. Quando gli hanno fatto notare gli errori, egli ha ritirato il suo invito, che, però, era stato già letto da 11 dei 160 milioni di suoi follower[23].
Similmente, risulta dannosa e insostenibile la politica controcorrente di Mark Zuckerberg, un altro miliardario, capo di Meta (ex Facebook), il quale, discutendo dell’«intelligenza artificiale» davanti al Congresso, ha sostenuto l’importanza di una sua regolamentazione, ma ha negato la necessità dei limiti d’accesso. In questo si può scorgere il sospetto che la brama del potere offuschi gli occhi delle persone coinvolte, impedendo loro di vedere: sarebbe irresponsabile mettere un potere così ampio nelle mani di attori potenzialmente pericolosi. In passato, questi giudizi palesemente sbagliati avrebbero infranto una volta per tutte il sogno di una possibile democratizzazione della tecnologia, e tocca a noi ora trarne le conseguenze. Purtroppo, decisioni così importanti non dovrebbero essere affidate a singoli individui, anche se non fossero del tutto male informati dal punto di vista politico e morale. Per evitare il peggio, saranno necessarie sia la trasparenza sia la responsabilizzazione (accountability) democratica di tutti gli attori principali.
3) Naturalmente, questa assunzione di responsabilità risulta particolarmente complessa nel caso di potenti aziende multimiliardarie come il colosso americano Google (YouTube è utilizzato da 1,3 miliardi di persone ogni giorno, per una media di 70 minuti) o il gigante cinese TikTok (ormai semimonopolista dell’informazione dei ragazzi americani ed europei). Dietro queste piattaforme di social media ci sono anche algoritmi basati sull’«intelligenza artificiale» e sviluppati dai migliori scienziati comportamentali del mondo per tenerci incollati davanti allo schermo. Non c’è da stupirsi se oggi stiamo perdendo la capacità di focalizzare la nostra attenzione. In questi settori, la regolamentazione dovrebbe significare che l’obiettivo non è quello di distogliere l’attenzione a ogni costo – il che serve solo a massimizzare il guadagno personale di alcuni, mentre polarizza il resto della società –, ma piuttosto quello di informare, di rafforzare e potenziare (empowering), attivando così le nostre migliori risorse. È indispensabile, per utilizzare un neologismo del francescano Paolo Benanti, un’«algoretica», ossia dare un’etica agli algoritmi[24].
4) La regolamentazione è necessaria non solo per combattere le guerre, i produttori di fake news e gli operatori irresponsabili dei social media, ma anche per salvare (e perfezionare) il sistema politico democratico esistente. Il modo in cui potenze straniere hanno interferito nelle elezioni presidenziali statunitensi del 2017 è ben noto. È meno noto però che nelle elezioni parlamentari slovacche del 30 settembre 2023, in cui ha vinto il populista filorusso Robert Fico, sono stati utilizzati metodi molto più sofisticati. La falsa campagna, sostenuta da deep fake, era diretta principalmente contro il candidato liberale progressista Michal Simecka. Per quanto possa sembrare un episodio divertente, si tratta invece di una questione seria: mentre Facebook disinnescava un video in cui un falso Simecka annunciava che avrebbe raddoppiato il prezzo della birra in caso di vittoria, 48 ore prima dell’apertura delle urne è stato diffuso anche una clip audio di un altro falso Michal che affermava di voler comprare i voti della minoranza rom[25].
Con l’enorme progresso della tecnologia, è possibile che non riusciamo più a credere a ciò che vediamo con i nostri occhi sullo schermo? Può darsi. Tuttavia, ci dovrebbe essere una regolamentazione. Come in passato la contraffazione di prodotti veniva punita severamente, così pure oggi la contraffazione di esseri umani dovrebbe essere condannata[26]. E questo non viola la libertà di parola, perché i bot non hanno diritto alla libertà di parola.
La buona notizia è che l’«intelligenza artificiale generativa», per come noi la conosciamo, non è cosciente e non svilupperà autocoscienza (infatti, diversamente da noi, non comprende ciò che dice). Ma questo non significa che non possa essere pericolosa. Essa richiede perciò una continua regolamentazione, che sarà un compito permanente etico, teologico e spirituale nostro, cioè veramente umano.
Copyright © La Civiltà Cattolica 2023
Riproduzione riservata
***
[1]. L’evento emblematico è stato il lancio di ChatGPT nel dicembre 2022. Naturalmente questa iniziativa aveva una lunga storia alle spalle. Attualmente si parla di almeno quattro momenti essenziali informatici: 1) nel 2010, l’IA ha iniziato a essere utilizzata per affinare le ricerche su Internet; 2) nel 2014, l’IA commerciale è stata usata per aiutare le persone a trovare i prodotti (come se cominciassero a «leggerci nel pensiero»); 3) nel 2018, è emersa l’IA della percezione, quando le macchine hanno iniziato a vedere e riconoscere gli oggetti; 4) ora assistiamo a un’ondata di IA generativa. Cfr J. Holmström, «From AI to digital transformation: The AI readiness framework», in Business Horizons 65 (2022/3) 329-339; U. Pillai, «Automation, productivity, and innovation in information technology», in Macroeconomic Dynamics 27 (2022/4) 879-905.
[2]. Si deve fare una distinzione: l’«intelligenza» delle macchine non è la stessa di quella degli esseri umani. Tuttavia, in questo articolo seguiremo la terminologia comune, indicando questa differenza con le virgolette. Cfr F. Bastiani, «Faggin: “L’AI non avrà mai coscienza. ChatGPT? A differenza nostra non comprende ciò che dice”», in StartUp Italia, 25 settembre 2023.
[3]. In modo ancora più dettagliato: sovraccarico di informazioni, doomscrolling, cultura degli influencer, sessualizzazione dei bambini, fake news, tempi di attenzione ridotti, deep fake, fabbriche di culto, molestie online, rottura della democrazia ecc. Cfr T. Harris, «Beyond the AI dilemma», in youtube.com/watch?v=e5dQSzEuE9Q
[4]. Dopo una crescita senza precedenti, ChatGPT ha cominciato a perdere utenti nel giugno 2023, e il traffico del suo sito web è diminuito, per la prima volta, del 10% rispetto al mese precedente. Cfr N. Tiku – G. De Vynck – W. Oremus, «Big Tech was moving cautiously on AI. Then came ChatGPT», in The Washington Post (washingtonpost.com/technology/2023/07/07/chatgpt-users-decline-future-ai-openai), 3 febbraio 2023. Tuttavia questo fatto non impedisce il «cambiamento climatico» della cultura che modelli linguistici di grandi dimensioni (large language models) anticipano.
[5]. Sebbene il telegrafo, in grado di trasmettere segnali elettrici, fosse stato inventato e brevettato da Samuel Finley Breese Morse già nel 1837 e Antonio Meucci avesse inventato e costruito il primo telefono già nel 1871, le comunicazioni che questi mezzi hanno reso possibili non sono neppure lontanamente paragonabili alle capacità della telefonia mobile.
[6]. Il pericolo di un’effettiva health care crisis tra i giovani è segnalato in J. Haidt, After Babel: Reclaiming Relationship in a Technological World, audiolibro, 2022; Id., The Anxious Generation: How the Great Rewiring of Childhood Is Causing an Epidemic of Mental Illness, Londra, Penguin, 2019. Cfr anche J. Cain, «It’s Time to Confront Student Mental Health Issues Associated with Smartphones and Social Media», in American Journal of Pharmaceutical Education, 1 settembre 2018 (https://doi.org/10.5688/ajpe6862).
[7]. Tra gli innumerevoli scritti su questo argomento, citiamo solo T. W. Kim – A. Scheller-Wolf, «Technological unemployment, meaning in life, purpose of business, and the future of stakeholders», in Journal of Business Ethics, n. 160, 2019, 319-337 (https://doi.org/10.1007/s10551-019-04205-9).
[8]. Cfr St. K. Spyker, Technology and Spirituality: How the Information Revolution Affects Our Spiritual Lives, Woodstock, VT, SkyLight Path Publishing, 2007. Gli aspetti positivi, invece, vengono trattati raramente: cfr F. Cavaiani, «The Positive Power of Technology», in Human Development 43 (2023/2) 47-51.
[9]. Cfr G. Cucci, Dipendenza sessuale online. La nuova forma di un’antica schiavitù, Àncora – La Civiltà Cattolica, Milano, 2015.
[10]. Nel 2017 il Neflix CEO Reed Hastings ha affermato: «Il nostro più grande concorrente è il sonno».
[11]. È significativo che gli statunitensi, sebbene vivano nella società informatica più avanzata della storia, non sono ancora d’accordo su chi abbia vinto le ultime elezioni presidenziali, se il cambiamento climatico sia una minaccia reale e se valga la pena vaccinarsi contro il Covid-19. Oggi la fiducia del pubblico nel governo federale è tra le più basse in quasi sette decenni di sondaggi. Cfr Pew Research Center, Public Trust in Government: 1958-2023, in pewresearch.org/politics/2023/09/19/public-trust-in-government-1958-2023
[12]. Va notato che Facebook-Meta ha impiegato quattro anni e mezzo per raggiungere lo stesso numero, e anche TikTok ha avuto bisogno di nove mesi interi per ottenere lo stesso risultato. Cfr «The battle for search», in The Economist, 9 febbraio 2023, 7. ChatGPT si è guadagnata un’attenzione significativa proprio per questa sua rapida crescita, venendo acclamata come l’applicazione con il più alto tasso di crescita.
[13]. Cfr ivi.
[14]. Cfr M. Atleson, «Chatbots, deepfakes, and voice clones: AI deception for sale», in ftc.gov/business-guidance/blog/2023/03/chatbots-deepfakes-voice-clones-ai-deception-sale/. Con la tecnologia di cui si dispone oggi, tre secondi sono sufficienti per insegnare all’IA a imitare la voce di una qualsiasi persona, e ciò rende possibile ingannare familiari nel tempo reale di una telefonata.
[15]. In un filmato, la psicologa e tecnologa del MIT Sherry Turkle definisce il suo incontro con i «robot nurses» come «l’esperienza più triste» della sua carriera: cfr S. Turkle, Alone Together. Identity and Digital Culture (TEDxUIUC – Sherry Turkle – Alone Together – YouTube).
[16]. Cfr H. Bray, «“This is civilization-threatening”: Here’s why AI poses an existential risk», in The Boston Globe (Bostonglobe.com/business), 1 giugno 2023. Cfr D. C. Dennett, From Bacteria to Bach and Back: The Evolution of Minds, New York, W. W. Norton & Company, 2017.
[17]. Cfr S. Altman, «The Software Revolution» (16 febbraio 2015).
[18]. Cfr M. Jones, «A Complete History of Social Media: A Timeline of the Invention of Online Networking, History of social media: The Invention of Online Networking», in historycooperative.org
[19]. Cfr Dicastero per la Comunicazione, Verso una piena presenza. Riflessione pastorale sul coinvolgimento con i social media, 28 maggio 2023. Il 10 gennaio 2022, la Pontificia Accademia per la Vita ha promosso l’allargamento del documento Rome Call for AI Ethics, sottoscritto nel 2020 da aziende come Microsoft e Ibm, a rappresentanti dell’ebraismo e dell’islam. L’obiettivo era quello di promuovere un’«algoretica» (ossia un’etica dell’algoritmo), dato che, come ha ricordato il vescovo Vincenzo Paglia, presidente dell’Accademia, queste nuove tecnologie «possono portare a uno sviluppo enorme, ma anche a una tragedia altrettanto enorme, perché rischiano di sopprimere l’umano in una sorta di dittatura della tecnica che sconvolge l’umanità stessa».
[20]. Cfr G. Mocellin, «Intelligenza artificiale & fede. Noi credenti e le “seduzioni” religiose di ChatGpt», in Avvenire, 10 ottobre 2023.
[21]. Ivi.
[22]. Cfr A. K. Cronin, Power to the People. How Open Technological Innovation is Arming Tomorrow’s Terrorists, Oxford, Oxford University Press, 2020.
[23]. Cfr M. Gaggi, «Le falsità intelligenti che minacciano il mondo», in Corriere.it (12 ottobre 2023).
[24]. Cfr P. Ottolina, «Benanti: “Più dell’intelligenza artificiale mi spaventa la stupidità naturale”», in Corriere.it, 24 aprile 2023.
[25]. Cfr M. Gaggi, «Le falsità intelligenti che minacciano il mondo», cit., 28.
[26]. Cfr «Piers Morgan vs Yuval Noah Harari On AI The Full Interview», in youtube.com/watch?v=lEt6OJEArM8