Il 20 gennaio alla Casa Bianca si è insediato il 46° presidente degli Stati Uniti d’America, Joe Biden. La transizione dei poteri col suo predecessore non è stata semplice. Il 6 gennaio si è verificata un’irruzione a Capitol Hill da parte dei sostenitori di Donald Trump, il quale, soprattutto su Twitter, incitava i suoi 88 milioni di followers a rivendicare la vittoria, a suo dire «rubata» ingiustamente.
Di lì a poco, l’8 gennaio, il Consiglio di amministrazione di Twitter decideva di bloccare l’account del Presidente uscente «per il rischio di ulteriori incitamenti alla violenza». A seguire anche Facebook, Instagram, Twitch e Snapchat hanno sospeso l’account di Trump. Apple e Google hanno rimosso Parler, un’applicazione di social network molto usata dai suoi sostenitori, e Amazon ha privato il medesimo social dello spazio di archiviazione dei dati.
Queste decisioni a catena hanno provocato risposte divergenti. Da una parte, ci sono state reazioni indignate per la violazione della libertà di espressione scelta da un management aziendale; dall’altra, la decisione di silenziare Trump è stata accolta con sollievo, come se una mina pronta a esplodere fosse stata disinnescata appena in tempo. Il New York Times ha persino pubblicato la lista completa – lunghissima – di tutti gli attacchi verbali social del Presidente dal 2015 a oggi.
***
È molto importante comprendere il significato di quel che è accaduto, perché tocca il rapporto tra tecnologia e democrazia, oggi quanto mai fondamentale. Ci sono almeno due considerazioni da fare, per iniziare a comprendere come sia possibile che piattaforme digitali abbiano potuto silenziare un Capo di Stato democraticamente eletto, quale quello degli Stati Uniti d’America.
La prima consiste nel ricordare che una norma di legge americana – la Sezione 230 del Communications Decency Act – afferma che «nessun fornitore e nessun utilizzatore di servizi internet può essere considerato responsabile, come editore o autore, di una qualsiasi informazione fornita da terzi». Dunque, di per sé i social networks non sono responsabili per i contenuti che contribuiscono a diffondere, qualunque essi siano. Eppure, la decisione dei social è sembrata frutto di una decisione legata a un senso di responsabilità.
La seconda considerazione consiste nel fatto che i social sono piattaforme private che chiedono agli utenti di accettare alcune norme, in particolare quelle sulla condotta che incita all’odio. Chi viola tali norme, chiunque egli sia – un privato cittadino o un Capo di Stato –, può vedersi rimuovere l’account dalle piattaforme. Dunque, l’amministrazione dei social valuta e giudica quale decisione prendere senza dover rispondere ad autorità superiori, fossero anche politiche e pienamente legittime.
Ora, per molto tempo i social hanno tenuto un atteggiamento ambiguo in riferimento alla comunicazione del presidente Trump, giungendo al massimo e solo di recente a «segnalare» i post che mettevano in circolo contenuti contrari alle norme e alle loro linee guida, perché giudicati alla stregua di fake news o messaggi di odio. D’altra parte, però, Facebook, a partire dal 2016, ha introdotto l’eccezione della «notiziabilità», per cui le norme restrittive non si applicano se i contenuti incriminati sono ritenuti di pubblico interesse, in particolare se diffusi da politici. Pensiamo al caso di Steve Bannon, mai rimosso da Facebook, nonostante in diretta abbia invocato la decapitazione di due alti funzionari del governo americano! Lo stesso Bannon che Trump ha «graziato» poche ore prima di lasciare la Casa Bianca. Da notare ovviamente anche come il silenzio sui social presidenziali – se lo riteniamo giustificato – sia calato troppo tardi, cioè a Trump uscente e del tutto sconfitto.
Interessante, però, quel che ha scritto Jack Dorsey, l’amministratore delegato di Twitter: «Non festeggio e non sono orgoglioso del nostro divieto a @realDonaldTrump, o di come ci siamo arrivati». E ha precisato che la scelta è stata fatta sulla base delle «circostanze senza precedenti che ci hanno costretto a concentrare le nostre azioni sulla sicurezza pubblica». Detto questo, ha continuato Dorsey, «ritengo che lo stop sia un fallimento» nell’obiettivo di «promuovere una conversazione salutare». Questo tipo di decisioni – ha ammesso – «fissano un precedente che ritengo pericoloso: il potere che un singolo o una società ha su una parte della conversazione pubblica globale».
***
Hanno fatto bene, dunque, i social a «bannare» Trump? Qual era la posta in gioco? Ciò che ha scritto Dorsey è davvero importante e addita con chiarezza e lucidità il punto critico di una situazione che non si può dirimere facilmente: società private oggi esercitano un potere reale e forte su una parte della conversazione pubblica globale e sul modo di vivere ed esprimere la democrazia.
Oggi la conversazione in rete tramite i social ha un peso politico rilevante. Da una parte, cresce la capacità di partecipazione dei cittadini e di espressione delle opinioni: la cittadinanza oggi non può che essere anche digitale. Dall’altra parte, crescono pure la possibilità di manipolare l’opinione pubblica, anche grazie all’uso astuto dei dati e degli algoritmi, e la possibilità di istigare all’odio e di diffondere notizie false.
La censura di Donald Trump ha messo in evidenza che l’ambiente digitale oggi è un ambito «privato» in cui valgono le regole del proprietario delle piattaforme di comunicazione. Nel caso specifico, questo pare abbia messo al riparo da ulteriori violenze. Ma il problema resta: chi decide? E quando l’intervento può scattare? Attualmente valgono le regole private del contratto. E qual è il confine tra l’applicazione di regole e il meccanismo di censura?
La tecnologia ha impresso modificazioni profonde alla nostra vita sociale e politica: bisogna prenderne atto. Una forte presa di coscienza è avvenuta il 15 dicembre scorso, con la presentazione del Digital Services Act da parte della Commissione europea.
Nel momento in cui le piattaforme digitali svolgono un importante servizio pubblico di rilevanza democratica, esse richiedono una coscienza sociale – frutto anche di un’educazione al digitale che si rivela urgentissima – e una conseguente decisione politica: non possono essere libere di autoregolarsi con norme private e algoritmi segreti. Servono trasparenza, forme di tutela, vigilanza, insieme alla consapevolezza del modello di business delle piattaforme, che controllano contemporaneamente l’infrastruttura, i contenuti, gli utenti e il mercato pubblicitario.
Ne va del destino delle nostre società.
Copyright © La Civiltà Cattolica 2021
Riproduzione riservata