|
I poveri in un mondo dominato dai «big data»
Nell’era dell’intelligenza artificiale (IA) l’esperienza umana sta cambiando profondamente, ben più di quanto la stragrande maggioranza della popolazione mondiale riesca a vedere e a comprendere. La vera e propria esplosione dell’IA ha un forte impatto sui nostri diritti nel presente e sulle nostre opportunità future, determinando processi decisionali che, in una società moderna, riguardano tutti. Si rivela un enorme cambiamento tecnologico, che prospetta grandi benefìci e rischi insidiosi. La proporzione in cui rischi e benefici si presenteranno dipenderà dai pionieri e dai creatori di questa tecnologia, e in particolare da quanto sarà chiara la loro visione del bene comune e corretta la loro comprensione della natura dell’esperienza umana[1].
Bisogna capire che l’intelligenza artificiale rappresenta una sfida e un’opportunità anche per la Chiesa: è una questione di giustizia sociale. Infatti, la ricerca pressante, avida e non trasparente dei big data, cioè dei dati necessari ad alimentare i motori di apprendimento automatico[2] può portare alla manipolazione e allo sfruttamento dei poveri: «I poveri del XXI secolo sono, al pari di chi non ha denaro, coloro che, in un mondo basato sui dati e sulle informazioni, sono ignoranti, ingenui e sfruttati»[3]. Inoltre, gli stessi scopi per i quali vengono addestrati i sistemi di IA possono portarli a interagire in forme imprevedibili per garantire che i poveri vengano controllati, sorvegliati e manipolati.
Attualmente i creatori di sistemi di IA sono sempre più gli arbitri della verità per i consumatori. Ma al tempo stesso le sfide filosofiche essenziali – la comprensione della verità, la conoscenza e l’etica – si fanno incandescenti man mano che le possibilità dell’IA crescono verso e oltre il superamento dei limiti cognitivi umani[4]. Nel contesto dei progressi del XXI secolo, l’esperienza e la formazione della Chiesa dovrebbero essere un dono essenziale offerto ai popoli per aiutarli a formulare un criterio che renda capaci di controllare l’IA, piuttosto che esserne controllati.
La Chiesa è chiamata anche alla riflessione e all’impegno. Nelle arene politiche ed economiche in cui viene promossa l’IA devono trovare spazio le considerazioni spirituali ed etiche. Soprattutto, nel XXI secolo l’IA è una disciplina e una comunità assetata di evangelizzazione. La Chiesa deve impegnarsi a informare e ispirare i cuori di molte migliaia di persone coinvolte nella creazione e nell’elaborazione dei sistemi di intelligenza artificiale. In ultima analisi, sono le decisioni etiche a determinare e a inquadrare quali problemi affronterà un sistema di IA, come esso vada programmato e come debbano essere raccolti i dati per alimentare l’apprendimento automatico. Sul codice che viene scritto oggi si baseranno i futuri sistemi di IA per molti anni a venire.
Possiamo leggere la sfida di quella che potremmo definire l’«evangelizzazione dell’IA» come una combinazione tra la raccomandazione di papa Francesco a guardare il mondo dalla periferia e l’esperienza dei gesuiti del XVI secolo, il cui metodo pragmatico di influenzare chi è influente oggi si potrebbe riformulare come condividere il discernimento con gli scienziati dei dati.
Che cosa è l’intelligenza artificiale?
La definizione e il sogno dell’IA ci accompagnano da oltre sessant’anni. Essa è la capacità di un computer, o di un robot controllato da un computer, di eseguire attività comunemente associate agli esseri intelligenti, quali quelle di ragionare, scoprire significati, generalizzare o imparare dalle esperienze passate.
Il lungo sviluppo dell’IA è passato attraverso l’evoluzione della riflessione su come le macchine possono apprendere, accompagnata tuttavia dal recente e radicale miglioramento della capacità di calcolo. L’IA è stata la prima idea, alla quale hanno fatto seguito l’apprendimento automatico e, più recentemente, le reti neurali e l’apprendimento profondo.
Il Basic Machine Learning è il primo livello dell’IA. Prevede l’inserimento tradizionale di dati entro software scritti a mano e dotati di uno specifico insieme di istruzioni per realizzare un compito concreto. In altre parole, impiega algoritmi per ordinare grandi quantità di dati; costruisce un modello matematico a partire da essi; e quindi esegue determinazioni o previsioni su certe attività senza istruzioni specifiche previe. Il risultato è ancora un compito determinato – perciò è denominato Narrow AI –, ma l’operazione viene per lo più eseguita meglio di quanto possano fare gli esseri umani. Tra gli esempi della Narrow AI possiamo menzionare attività come la classificazione di immagini o il riconoscimento dei volti.
Le reti neurali sono una serie di algoritmi, modellati sostanzialmente sull’esempio del cervello umano, che elaborano i dati avvalendosi di vari e distinti strati e connessioni per riconoscere i modelli e fornire un’analisi predittiva. Si dà l’apprendimento profondo quando molte reti neurali sono collegate tra loro e vengono addestrate con enormi quantità di dati, in modo da poter imparare e formulare automaticamente rappresentazioni tramite elementi non inseriti dall’uomo.
Benefìci
Silenziosamente ma rapidamente, l’IA sta rimodellando per intero l’economia e la società: il modo in cui votiamo e quello in cui viene esercitato il governo, la polizia predittiva, la maniera in cui i giudici emettono le sentenze, il modo in cui accediamo ai servizi finanziari e la nostra affidabilità creditizia, i prodotti e i servizi che acquistiamo, le abitazioni, i mezzi di comunicazione che utilizziamo, le notizie che leggiamo, la traduzione automatica di voce e di testo. L’IA progetta le nostre auto, aiuta a guidarle e a orientarle sul territorio, stabilisce come ottenere un prestito per comprarle, decide quali strade vadano riparate, accerta se abbiamo violato il codice stradale e ci fa sapere pure se, avendolo fatto, dovremmo finire in prigione[5]. Questi sono soltanto alcuni dei numerosi apporti dell’IA già in atto.
L’intelligenza artificiale può assemblare e valutare molti più dati ed elementi di quanto riescano a fare gli esseri umani, e di conseguenza riduce i risultati parziali o poco chiari in base ai quali noi spesso prendiamo le nostre decisioni. Tra i possibili esempi, spicca la prevenzione degli errori medici, che aumenta la produttività e riduce i rischi nei luoghi di lavoro. L’apprendimento automatico può migliorare la descrizione dei ruoli lavorativi, e quindi proporre migliori processi di selezione. Se ben programmati, gli algoritmi possono essere più imparziali e cogliere modelli che sfuggirebbero alle valutazioni umane.
Gli studiosi Mark Purdy e Paul Daugherty scrivono: «Prevediamo che l’impatto delle tecnologie di intelligenza artificiale sulle imprese indurrà un aumento della produttività del lavoro fino al 40%, consentendo alle persone di fare un uso più efficiente del loro tempo»[6]. La Banca mondiale sta esplorando i benefici che l’IA può apportare allo sviluppo. Altri osservatori identificano nell’agricoltura, nell’approvvigionamento delle risorse e nell’assistenza sanitaria i settori delle economie in via di sviluppo che trarranno un grande beneficio dall’applicazione dell’IA. L’intelligenza artificiale contribuirà notevolmente anche a ridurre l’inquinamento e lo spreco di risorse.
L’intelligenza artificiale per la giustizia sociale
L’IA può senz’altro apportare benefìci alla società, ma d’altra parte pone anche questioni importanti di giustizia sociale. In questo campo la Chiesa ha l’opportunità e l’obbligo di impegnare il suo insegnamento, la sua voce e la sua autorevolezza riguardo ad alcune questioni che si profilano fondamentali per il futuro. Tra queste va senz’altro compreso l’enorme impatto sociale della ricaduta che l’evoluzione tecnologica avrà sull’occupazione di miliardi di persone nel corso dei prossimi decenni, creando problematiche conflittuali e un’ulteriore emarginazione dei più poveri e vulnerabili.
Impatto sull’occupazione. Molto è già stato fatto per misurare l’impatto dell’IA e della robotica sull’occupazione, soprattutto dopo l’importante articolo del 2013 in cui Osborne e Frey stimavano che il 47% dei posti di lavoro negli Stati Uniti rischiavano di venire automatizzati entro i successivi vent’anni[7]. Gli studi e il dibattito scientifico hanno precisato la natura e i contorni del fenomeno: la cessazione totale o parziale di attività di lavoro esistenti, la sua ricaduta in tutti i settori e nelle economie sviluppate, emergenti e in via di sviluppo.
Certo, fare previsioni esatte in proposito è difficile; ma un recente Rapporto del McKinsey Global Institute riporta un’analisi a medio termine. Il 60% delle occupazioni possiede almeno un 30% di attività lavorative passibili di automatizzazione. D’altra parte, quest’ultima aprirà le porte a nuove occupazioni che oggi non esistono, proprio com’è accaduto, in conseguenza delle nuove tecnologie, anche in passato. Le previsioni indicano che entro il 2030 un numero compreso fra i 75 e i 375 milioni di lavoratori (cioè fra il 3 e il 14% della forza lavoro globale) dovrà cambiare le proprie categorie occupazionali. Inoltre, tutti i lavoratori avranno necessità di adattarsi, dato che le loro occupazioni si evolveranno insieme alle macchine sempre più abili[8]. Ma se l’adozione delle nuove tecnologie seguirà il ritmo che si è avuto fin qui, superando le previsioni fatte in precedenza, è pure chiaro che il livello di dislocazione sociale rischia di essere maggiore[9].
Codici e pregiudizi. Il codice di programmazione viene scritto da esseri umani. La sua complessità può quindi accentuare i difetti che inevitabilmente accompagnano qualsiasi compito svolgiamo. I preconcetti e le parzialità nella scrittura degli algoritmi sono inevitabili. E possono avere effetti molto negativi sui diritti individuali, sulle scelte, sulla collocazione dei lavoratori e sulla protezione dei consumatori.
In effetti, i ricercatori hanno rilevato pregiudizi di vario tipo presenti negli algoritmi, in software adottati per le ammissioni universitarie, le risorse umane, i rating del credito, le banche, i sistemi di sostegno dell’infanzia, i dispositivi di sicurezza sociale e altro ancora. Gli algoritmi non sono neutri: incorporano al loro interno valori e obbediscono a metodi operativi che, anche non intenzionalmente, possono apportare preclusioni, discriminazioni o danni economici[10].
La crescente dipendenza della socio-economia dall’IA conferisce un enorme potere a coloro che ne programmano gli algoritmi: un potere di cui costoro potrebbero anche non essere consapevoli, così come del danno potenziale che può derivare da un algoritmo compilato con un codice scorretto. E poiché il complesso mercato dell’IA interattiva continua a evolversi, è altrettanto probabile che algoritmi oggi esistenti, che fino a ieri erano innocui, domani possano avere conseguenze rilevanti.
L’IA può essere distorta attraverso specifici interessi commerciali e politici che influenzano l’inquadramento del problema; preconcetti di selezione o distorsione/corruzione nella raccolta dati; parzialità negli attributi di selezione per la preparazione dei dati; pregiudizi nella codifica. Da questo possono derivare dati significativamente condizionati, e tuttavia etichettati come parte di un processo decisionale «indipendente» automatizzato.
Rischio di un’ulteriore emarginazione dei vulnerabili. Un’analisi dell’impatto dei big data e dell’IA a livello sociale dimostra che la loro tendenza a prendere decisioni sulla base di una profilazione insufficiente e di riscontri limitati comporta l’ulteriore emarginazione dei poveri, degli indigenti e delle persone vulnerabili[11].
La politologa Virginia Eubanks spiega bene come i sistemi interconnessi rafforzino la discriminazione e concedano opportunità inferiori agli emarginati: «I poveri e la classe operaia sono presi di mira da nuovi strumenti di gestione della povertà digitale, con il risultato di doverne ricevere conseguenze pericolose per la loro esistenza. I sistemi automatici di ammissibilità li scoraggiano dal rivendicare le risorse pubbliche di cui hanno bisogno per sopravvivere e star bene. Complessi database integrati raccolgono le informazioni più personali su di loro, con poco riguardo per la privacy o per la sicurezza dei dati, pur non offrendo quasi nulla in cambio. Modelli e algoritmi predittivi li indicano come investimenti a rischio e genitori problematici. Complessi sistemi di assistenza sociale, di applicazione della legge e di sorveglianza dei quartieri rendono visibile ogni loro gesto e sottopongono il loro comportamento al controllo governativo, commerciale e pubblico»[12].
La lotta per la verità
L’intelligenza artificiale rappresenta anche una sfida filosofica, sia nelle sue manifestazioni attuali, sia nelle forme che assumerà nei prossimi decenni e secoli. La pervasività dell’IA, associata alla digitalizzazione sempre più universale dell’esperienza umana quotidiana, comporta che gli scopi dei motori di IA siano sempre più orientati a definire ciò che nella società è importante e accettato.
L’intelligenza artificiale cambia il nostro modo di pensare e i nostri giudizi fondamentali sul mondo. Scegliendo a quali domande rispondere e controllando strettamente la comprensione di ciò che in effetti rappresentano i dati di riferimento, chi possiede l’IA è l’arbitro della verità per i «consumatori».
Gli algoritmi si concentreranno sull’utilità e sul profitto. Per la gente sarà fin troppo conveniente seguire il consiglio di un algoritmo (o troppo difficile scartarlo e rifiutarlo), tanto che questi algoritmi si trasformeranno in profezie autoavveranti, e gli utenti in zombie che consumano esclusivamente ciò che gli si mette sotto il naso.
I motori di IA, protetti dalle norme sulla proprietà intellettuale e da dati di codifica e di riferimento non trasparenti, sono vere e proprie scatole nere che forniscono inferenze e previsioni non verificabili. «L’intelligenza artificiale ha la capacità di modellare le decisioni degli individui senza che questi nemmeno lo sappiano, dando a quanti hanno il controllo degli algoritmi un’abusiva posizione di potere»[13].
Dato questo suo processo decisionale complesso e opaco, si è instaurata, da parte di alcuni, la tendenza a vedere l’IA come qualcosa di indipendente dall’intervento umano riguardo alla costruzione, alla codifica, all’inserimento dei dati e alla loro interpretazione. Questo è un grave errore, perché fraintende il vero ruolo dell’essere umano all’interno dell’algoritmo: egli deve necessariamente essere ritenuto responsabile del prodotto a cui approda il processo decisionale algoritmico[14]. Eppure alcune applicazioni di apprendimento profondo stanno cominciando a insidiare i confini della responsabilità umana[15].
Queste svariate manifestazioni di un’intelligenza che non è umana, e nemmeno biologica, pongono interrogativi essenziali alla metafisica, all’epistemologia, all’etica e alla teoria politica. L’esperienza e la competenza della Chiesa in tutti questi campi dovrebbero portarla ad assistere la società nell’adattare l’IA, o nell’adattarsi a essa.
Se non cogliamo correttamente le sfide filosofiche e antropologiche connesse con l’IA, possiamo correre il rischio che il servo si trasformi in padrone. In proposito, vale il monito del fisico Stephen Hawking: «A meno che non impariamo a prepararci ai suoi rischi potenziali, e a evitarli, l’IA potrebbe rivelarsi l’evento peggiore nella storia della nostra civiltà. Comporta pericoli come potenti armi autonome o nuovi modi forniti a pochi per opprimere tanti… o potrebbe mettersi per proprio conto e riprogettarsi a un ritmo sempre più veloce. Gli esseri umani, limitati dalla loro lenta evoluzione biologica, non potrebbero competere con essa e verrebbero travolti»[16].
Coinvolgimento delle società e dei governi
Gli ultimi anni hanno visto una crescente richiesta, fatta ai governi da autorevoli tecnici e scienziati, dai sindacati[17], dalla società civile e dalle stesse aziende tecnologiche[18], di intervenire per garantire un controllo e la presenza dei valori umani nello sviluppo dell’IA. Un significativo progresso è stato compiuto nel maggio 2019, quando i 35 Paesi membri dell’Organizzazione per la cooperazione e lo sviluppo economico (Ocse) hanno concordato un documento che riporta i «Princìpi Ocse sull’intelligenza artificiale»[19]. Questi integrano le «Linee guida etiche per una IA affidabile», adottate nell’aprile dello stesso anno dal gruppo di esperti sull’IA istituito dalla Commissione europea[20].
L’obiettivo del documento Ocse è di promuovere un’IA innovativa e affidabile, rispettosa dei diritti umani e dei valori democratici. A questo fine, esso identifica cinque princìpi fra loro complementari e cinque raccomandazioni relative alle politiche nazionali e alla cooperazione internazionale. I princìpi sono: favorire la crescita inclusiva, lo sviluppo sostenibile e il benessere; rispettare i diritti umani, lo stato di diritto, i princìpi democratici; assicurare sistemi trasparenti e comprensibili; garantire sicurezza, protezione e valutazione dei rischi; affermare la responsabilità di chi li sviluppa, li distribuisce e li gestisce. Le raccomandazioni sono: investire nella ricerca e nello sviluppo dell’IA; promuovere ecosistemi digitali di IA; creare un ambiente politico favorevole all’IA; fornire alle persone le opportune competenze in vista della trasformazione del mercato del lavoro; sviluppare la cooperazione internazionale per un’IA responsabile e affidabile.
Nel giugno 2019, il G20 ha ripreso i «Princìpi Ocse» nell’adottare i propri «Princìpi del G20 sull’IA» non vincolanti[21]. La sfida per i prossimi anni è duplice: l’ulteriore diffusione di questi o analoghi princìpi in tutta la comunità internazionale, e lo sviluppo di iniziative concrete per mettere in pratica tali princìpi all’interno del G20 e tramite l’«Osservatorio delle politiche in materia di IA» dell’Ocse, creato recentemente.
Per la Chiesa adesso si apre l’opportunità di riflettere su questi obiettivi politici e di intervenire nelle sedi locali, nazionali e internazionali per promuovere una prospettiva coerente con la sua dottrina sociale.
«Evangelizzare l’IA»?
Per quanto importanti siano i suddetti suggerimenti a livello politico e di impegno sociale, resta il fatto che l’IA è sostanzialmente composta da singoli sistemi di progettazione, programmazione, raccolta ed elaborazione dei dati. Tutti processi fortemente condizionati dagli individui. Saranno la mentalità e le decisioni di costoro a determinare in quale misura, nel futuro, l’IA adotterà criteri etici adeguati e incentrati sull’uomo. Attualmente questi individui costituiscono una élite tecnica di programmatori e di esperti di dati, probabilmente composta da un numero di persone che si avvicina più alle centinaia di migliaia che ai milioni.
Ora ai cristiani e alla Chiesa si apre una possibilità per la cultura dell’incontro, per mezzo della quale vivere e offrire un’autentica realizzazione personale a questa particolare comunità. Portare agli esperti di dati e agli ingegneri del software i valori del Vangelo e della profonda esperienza della Chiesa nell’etica e nella giustizia sociale è una benedizione per tutti, ed è anche il modo più plausibile per cambiare in meglio la cultura e la pratica dell’IA[22].
L’evoluzione dell’IA contribuirà in grande misura a plasmare il XXI secolo. La Chiesa è chiamata ad ascoltare, a riflettere e a impegnarsi proponendo una cornice etica e spirituale alla comunità dell’IA, e in questo modo a servire la comunità universale. Seguendo la tradizione della Rerum novarum, si può dire che qui c’è una chiamata alla giustizia sociale. C’è l’esigenza di un discernimento. La voce della Chiesa è necessaria nei dibattiti politici in corso, destinati a definire e ad attuare i princìpi etici per l’IA.
***
*Paul Twomey è uno dei fondatori della Internet Corporation for Assigned Names and Numbers (Icann).
Copyright © 2020 – La Civiltà Cattolica
Riproduzione riservata
[1]. Cfr G. Cucci, «Per un umanesimo digitale», in Civ. Catt. 2020 I 27-40.
[2]. I big data, o in italiano «megadati», indicano una raccolta di dati talmente estesa da richiedere tecnologie e metodi analitici specifici per l’estrazione di valore o conoscenza e la scoperta di legami tra fenomeni diversi e la previsione di quelli futuri.
[3]. M. Kelly – P. Twomey, «I “big data” e le sfide etiche», in Civ. Catt. 2018 II 446.
[4]. Cfr A. Spadaro – T. Banchoff, «Intelligenza artificiale e persona umana. Prospettive cinesi e occidentali», in Civ. Catt. 2019 II 432-443.
[5]. Cfr J. Angwin – J. Larson – S. Mattu – L. Kirchner, «Machine Bias», in ProPublica, 23 maggio 2016 (www.propublica.org/article/machine-bias-risk-assessments-in-criminal-sentencing).
[6]. M. Purdy – P. Daugherty, Why Artificial Intelligence is the Future of Growth (www.accenture.com/us-en/insight-artificial-intelligence-future-growth).
[7]. Cfr C. B. Frey – M. A. Osborne, «The Future of Employment: How Susceptible Are Jobs to Computerisation?», in Technological Forecasting and Social Change 114 (2017) 254-280.
[8] . Cfr McKinsey Global Institute, «Jobs Lost, Jobs Gained: Workforce Transitions in a Time of Automation» (in www.mckinsey.com).
[9] . Cfr le argomentazioni in S. Lohr, «A.I. Will Transform the Economy. But How Much, and How Soon?», in The New York Times, 30 novembre 2017.
[10]. Per esempio, i media hanno sottolineato il netto pregiudizio razziale riscontrato nell’uso giudiziario di algoritmi di condanna da parte di molti tribunali statunitensi. Cfr R. Wexler, «When a Computer Program Keeps You in Jail», ivi, 13 giugno 2017.
[11]. Cfr J. Obar – B. McPhail, «Preventing Big Data Discrimination in Canada: Addressing Design, Consent and Sovereignty Challenges», Wellington, Centre for International Governance Innovation, 2018 (www.cigionline.org/articles/preventing-big-data-discrimination-canada-addressing-design-consent-and-sovereignty).
[12]. V. Eubanks, Automating Inequality: How High-Tech Tools Profile, Police, and Punish the Poor, New York, St Martin’s Press, 2018, 11.
[13]. Ivi.
[14]. Cfr L. Jaume-Palasí – M. Spielkamp, «Ethics and algorithmic processes for decision making and decision support», in AlgorithmWatch Working Paper, n. 2, 6-7 (algorithmwatch.org/en/publication/ethics-and-algorithmic-processes-for-decision-making-and-decision-support).
[15]. Cfr M. Tegmark, Vita 3.0. Essere umani nell’era dell’intelligenza artificiale, Milano, Raffaello Cortina, 2017.
[16]. R. Cellan-Jones, «Stephen Hawking Warns Artificial Intelligence Could End Mankind», in BBC News (www.bbc.com/news/technology-30290540), 2 dicembre 2014.
[17]. Cfr Top 10 Principles for Workers’ Data Privacy and Protection, UNI Global Union, Nyon, Switzerland, 2018.
[18]. Cfr Microsoft, The Future Computed, Redmond, 2017 (news.microsoft.com/cloudforgood/_media/downloads/the-future-computed-english.pdf).
[19]. Oecd Principles on AI (www.oecd.org/going-digital/ai/principles), giugno 2019.
[20]. Cfr European Commission, Ethics guidelines for trustworthy AI (ec.europa.eu/digital-single-market/en/news/ethics-guidelines-trustworthy-ai), 8 aprile 2019.
[21]. Cfr G20 Ministerial Statement on Trade and Digital Economy (www.mofa.go.jp/files/000486596.pdf), giugno 2019.
[22]. Una ricerca di Pew Charitable Trusts ha dimostrato che gli algoritmi dell’IA vengono compilati in primo luogo per ottimizzare l’efficienza e la redditività, considerando gli esseri umani un mero input del processo, piuttosto che vederli come esseri reali, senzienti, sensibili e mutevoli. Ne risulta una società alterata, condizionata dalla logica degli algoritmi. Per contrastare tale percezione e i conseguenti rischi di parzialità nell’IA, si rivela fondamentale l’impegno per ciò che riguarda la definizione delle finalità e per la raccolta e l’utilizzo dei dati. Come afferma l’esperto di etica Thilo Hagendorff: «Le caselle di controllo da spuntare non devono essere gli unici “strumenti” dell’etica dell’IA. È necessaria una transizione […] verso un criterio etico sensibile alle situazioni sulla base delle virtù e delle disposizioni personali, dell’espansione delle conoscenze, dell’autonomia responsabile e della libertà d’azione» (T. Hagendorff, «The Ethics of AI Ethics – An Evaluation of Guidelines» [arxiv.org/abs/1903.03425], 28 febbraio 2019).
***
ARTIFICIAL INTELLIGENCE AND SOCIAL JUSTICE: A CHALLENGE FOR THE CHURCH
In the age of artificial intelligence (AI) human experience is being changed profoundly. The proportion in which great benefits and insidious risks will arise will depend on the pioneers of this technology and, in particular, on their vision of the common good. This article illustrates how AI is a challenge and an opportunity for the Church, by posing a question of social justice. In addition, in a world based on data and information, the poor of XXI century will be those who are ignorant, naive and exploited. The Church’s social doctrine is necessary in ongoing political debates aimed at defining and implementing ethical principles for AI. The Director of La Civiltà Cattolica was accompanied in the writing of this article by Paul Twomey, one of the founders of the Internet Corporation for Assigned Names and Numbers (ICANN).