|
L’autore, scienziato cognitivo presso l’Università di Potsdam, studia da anni le caratteristiche della razionalità. La tesi di fondo del libro è che l’intelligenza artificiale (IA) può trovare le sue applicazioni più proficue in un ambiente stabile, dove cioè vi siano regole fisse, definite e costanti. In tal modo può risultare imbattibile nei giochi da tavolo, prevedendo tutte le possibili mosse, cosa impossibile alla mente umana. Non si tratta però di intelligenza ma di velocità di calcolo.
Ma quando si cercano risposte ai problemi della vita, l’intelligenza artificiale fallisce, perché non è in grado di riconoscere dettagli fondamentali. Quando gli Usa cercarono di capire perché fallisse l’algoritmo progettato per distinguere i carri armati russi da quelli americani, si accorsero che il parametro utilizzato era atmosferico: «I carri armati americani erano stati fotografati in una giornata di sole e quelli russi in una giornata nuvolosa» (p. 116). L’intelligenza umana, al contrario, ha a disposizione un minor numero di informazioni, ma sa riconoscerne l’importanza e adattarsi all’imprevisto.
Le cose possono invece avere un esito differente con l’IA psicologica. Secondo Herbert Simon, uno dei fondatori dell’intelligenza artificiale, il rapporto uomo/macchina doveva essere pensato in termini di insegnante/allievo. Questo era il significato originario di intelligenza: elaborare una macchina che imiti le regole dell’intelligenza umana. «A differenza di molti algoritmi complessi, l’IA psicologica è trasparente, il che consente ai suoi utilizzatori di comprendere e adattare un algoritmo quando le situazioni mutano» (p. 64).
A questo già complesso panorama si aggiungono le implicazioni etiche di coloro che gestiscono i programmi. Lo si è visto quando negli Usa si decise di introdurre le cartelle cliniche elettroniche. In teoria, esse avrebbero consentito un facile accesso ai dati del paziente da parte di medici e ospedali; nella pratica si assistette a una competizione tra aziende, che misero a punto sistemi differenti per garantirsi i generosi finanziamenti. In tal modo i prezzi dei servizi salirono invece di diminuire, l’accesso ai dati divenne sempre più difficile, e le diagnosi più discutibili e gravi. Così si ottennero maggiori rimborsi a scapito della salute dei pazienti.
Il trattamento dei dati personali è un altro punto critico. Ogni operazione elettronica, come collegare lo smartphone alla propria auto, consente di copiarli, a insaputa dell’operatore e senza sapere quale uso ne faranno i gestori. Ma in tal modo si ottengono informazioni rilevanti: dove si va a mangiare, e quanto spesso, chi si incontra e a che ora, la frequenza di ospedali e visite mediche. In pratica «sorveglianza in cambio di comodità» (p. 112).
Dal momento che l’accesso ai siti è gratuito, i gestori delle piattaforme digitali vengono pagati in dati, poi ceduti a ditte che le utilizzano per il loro business: una modalità inedita di commercio, che per l’autore non è tuttavia una conseguenza inevitabile del web. Anche se non paga, l’utente sostiene comunque dei costi. La mancata vigilanza sull’uso dei dati personali può pregiudicare il futuro di molti. Si pensi a cosa potrebbe comportare l’accesso, da parte delle aziende, ai dati riguardanti la salute: saranno utilizzati come criterio di assunzione, per concedere o meno una polizza assicurativa, o calcolare la probabilità di ammalarsi. Una gratuità pagata a caro prezzo ecc.
Ma anche da parte di chi acquisisce i dati non è certo che ne trarrà un profitto: i criteri con i quali operare una valutazione sono tutt’altro che affidabili, a motivo delle numerose frodi, unite al fatto che gli annunci pubblicitari creano più fastidio che potenziale interesse nel consumatore. La proposta dell’autore è che sarebbe preferibile pagare in denaro invece che in dati (è il caso, ad esempio, di Netflix), il che alla luce delle ricerche sarebbe anche nell’interesse delle aziende, in termini di risparmio di tempo e di energie intellettuali che potrebbero essere impiegate per qualcosa di più importante. Questo però coinvolge la politica: «Abbiamo bisogno di governi che siano disposti a resistere ai lobbisti dei social media e ai loro clienti e che regolino con determinazione le pratiche aziendali relative alla privacy» (p. 221).
Purtroppo il grande assente in questo immenso scenario è proprio l’istituzione pubblica. Lo si è visto in occasione dello scandalo di Cambridge Analytica: la cosa più grave di quella vicenda non è che Facebook avesse consentito di attingere ai dati dei propri utenti, ma che le autorità politiche non sapessero nulla di come normalmente operano le aziende dei social.