
|
Il World Wide Web ha trasformato Internet da strumento di comunicazione specialistico in un vero e proprio mezzo di massa a disposizione di tutti, finalizzato al reperimento e alla pubblicazione delle informazioni. Come è successo?
Quest’anno ricorrono il trentacinquesimo anniversario dell’invenzione del World Wide Web e il trentesimo anniversario della sua affermazione a livello mondiale. Il tempo trascorso non ha cancellato in me il ricordo del primo momento in cui ho incontrato il World Wide Web. All’epoca, nel mio ambiente universitario utilizzavamo già da diversi anni i protocolli di posta elettronica e di trasferimento dei file, avevamo una certa familiarità con Internet e disponevamo di una elementare interconnessione tra i computer. Ma l’esperienza di vedere la combinazione di immagini, testo e riferimenti ad altri documenti archiviati su computer di tutto il mondo, riuniti attraverso un semplice browser che dava facile accesso alle informazioni collegate, fu letteralmente illuminante.
La nuova invenzione concerneva in particolare la gestione delle informazioni e la definizione di protocolli per identificare il materiale e semplificare la trasmissione dei dati. In altre parole, consentiva agli utenti di reperire facilmente diversi tipi di contenuti informativi, che il Web a sua volta indirizzava, localizzava e trasmetteva facilmente al software che avrebbe visualizzato l’HyperText Markup Language (Html), la marcatura ipertestuale che determina la struttura delle pagine web. Sir Tim Berners-Lee, uno scienziato del Cern («Organizzazione europea per la ricerca nucleare»), scrisse quel linguaggio di formattazione per facilitare la condivisione della documentazione degli esperimenti scientifici che erano archiviati sui vari computer. Propose questo sistema in una nota del marzo 1989[1]. Ma, come accade per ogni invenzione, c’è voluto del tempo – circa cinque anni – per passare dall’idea al modello funzionante e poi all’accettazione globale[2]. E, analogamente a quanto era accaduto con molti altri sviluppi della comunicazione, per estendere l’idea ben oltre l’ispirazione iniziale sono state necessarie successive invenzioni secondarie.
Questo saggio ripercorrerà l’invenzione, l’infrastruttura che la fa funzionare, alcune delle estensioni di quell’invenzione iniziale, la sua idea chiave di gestione delle informazioni e l’impatto che questa particolare innovazione ha avuto sulla comunicazione in tutto il mondo.
Infrastruttura e invenzione
A partire dagli anni Settanta gli informatici collegavano tra loro i computer utilizzando diversi protocolli di controllo della trasmissione (il Transfer Control Protocol e l’Internet Protocol, o Tcp/Ip) che consentivano lo scambio di messaggi tra computer. Era stato formulato un sistema di indirizzamento in virtù del quale ogni singolo messaggio poteva essere inviato a una particolare macchina, poiché veniva dotato di istruzioni specifiche per i segnali elettrici che rappresentavano i dati, in modo che potessero venire identificati dal programma deputato a riceverli. Ciò, ovviamente, presupponeva connessioni fisiche tra le macchine che in origine avvenivano tramite circuiti telefonici. La maggior parte dei Centri di calcolo collaborò con società di telecomunicazioni per progettare circuiti dedicati; con il tempo altri hanno creato apparecchiature capaci di convertire i segnali binari del computer in segnali sonori che potevano viaggiare sui normali circuiti telefonici (ciò comportava l’uso di un modem per modulare e demodulare i dati digitali da e verso un segnale acustico). Quei protocolli Internet Tcp/Ip originali sono tuttora in uso, sebbene il transito tramite segnali acustici ormai sia stato soppiantato dai segnali telefonici digitali.
Negli anni Novanta, Berners-Lee si era posto il problema di identificare e trovare dati sui numerosi sistemi informatici del Cern, affinché potessero essere facilmente condivisi tra gli scienziati che lavoravano nel Centro. Propose e sviluppò un metodo per costruire un sistema ipertestuale (come quello che era presente nel sistema operativo del computer NeXT che stava utilizzando), che gli permettesse di incorporare in un documento collegamenti ad altri documenti. Si era reso conto che in effetti questo sistema di marcatura ipertestuale sarebbe stato in grado di gestire le informazioni presenti sulle diverse macchine, nella misura in cui a ognuna di esse fosse stato attribuito un indirizzo che la identificasse, per l’appunto ciò che riescono a fare i protocolli Tcp/Ip.
Un apposito protocollo di collegamento avrebbe consentito a un computer di inviare a un altro del materiale più complesso delle email o dei trasferimenti di file, perché avrebbe incorporato diversi tipi di contenuti, descrizioni di pagine, intestazioni, immagini e così via direttamente nel documento che sarebbe apparso sullo schermo. La macchina locale doveva disporre di un programma, cioè un browser, per visualizzare il materiale ricevuto e per inviare a sua volta richieste di materiale. La macchina remota a sua volta doveva essere dotata di un programma o una funzione server per gestire le richieste e trasmettere i file. Il linguaggio di marcatura ipertestuale presenta l’utile caratteristica di includere collegamenti o materiale indirizzabile da parte dell’utente del browser, che può richiederlo tramite un semplice clic. La parte più nascosta del sistema era il server web, che accettava le richieste di informazioni e trasmetteva i contenuti richiesti alla macchina richiedente.
Tutto ciò si basava su un’infrastruttura esistente di connessioni di rete tra i computer. Ogni computer, con il suo indirizzo univoco, monitorava la rete in attesa di richieste e le indirizzava al server web o al browser. Man mano che sempre più computer venivano connessi alla rete, i progettisti aggiunsero macchine dedicate all’analisi degli indirizzi e all’invio delle richieste attraverso una rete a commutazione di pacchetto (Packet Switching Network). In altre parole, i computer suddividevano le informazioni in «pacchetti» standardizzati e li inviavano lungo la rete. Un errore di trasmissione avrebbe comportato la necessità di rinviare un solo pacchetto; la macchina ricevente, una volta arrivati a destinazione i pacchetti, li assemblava nell’ordine corretto, consentendo ai router di rete di suddividere i messaggi e di trasmetterne le parti lungo i percorsi disponibili. In questo modo, ogni particolare richiesta o risposta era veicolata in pacchetti uniformi di informazioni che consentivano ai circuiti dedicati o modulati di funzionare con la massima efficienza.
Il World Wide Web, quindi, si basa su un complesso sistema di infrastrutture fisiche, circuiti telefonici, successivamente aggiornati con connessioni in fibra ottica, connessioni satellitari, Wi-Fi e così via. Questa infrastruttura contiene protocolli e indirizzamenti per recapitare le informazioni alle macchine che fungono da centralini, che a loro volta le ritrasmettono alla macchina destinataria. Uno dei motivi per cui il World Wide Web funziona è che questo sistema sottostante può tenere traccia di ogni richiesta e inoltrarla in modo appropriato. Il Web dispone non solo di modalità atte a inviare diversi tipi di comunicazione, ma anche di svariati modi per archiviare informazioni, collegare computer attraverso le reti e gestire volumi crescenti di traffico. Poiché il sistema sfrutta anche una sempre maggiore potenza di calcolo e di memoria, che richiedono entrambe grandi quantità di energia, fanno parte di Internet, da cui dipende il Web, anche le infrastrutture della rete elettrica e del sistema di produzione dei computer. Sebbene il World Wide Web non si identifichi con quella infrastruttura, dipende da essa. Berners-Lee osserva: «Il Web non era una “cosa” fisica che esisteva in un certo “luogo”. Era uno “spazio” in cui le informazioni potevano esistere»[3]. Una definizione adeguata del World Wide Web può descriverlo come costruito su un complesso ecosistema di hardware, connessioni, indirizzamenti intelligenti, protocolli, informazioni, produzione e regolamentazione. È uno spazio informativo.
Estensioni e invenzioni secondarie
Ma il Web come lo conosciamo oggi è più che un insieme di connessioni: ci consente di svolgere anche azioni che vanno oltre il reperimento di documenti. Come sempre avviene per ogni miglioramento apportato alla comunicazione, molte persone competenti e geniali hanno ripreso l’idea originale e hanno iniziato ad aggiungervi dell’altro. I protocolli iniziali del linguaggio di markup ipertestuale consentivano la descrizione della pagina, i collegamenti e le informazioni grafiche. Altri hanno aggiunto protocolli per includere file audio e successivamente file video; e ben presto si è riusciti a inviare e ricevere qualsiasi tipo di comunicazione, utilizzando i protocolli Internet, ivi comprese chiamate vocali e video. Sia l’infrastruttura sia lo spazio informativo sono cresciuti per gestire forme più complesse di interazioni comunicative, secondo un modello di crescita che rispecchia lo sviluppo storico di altre tecnologie di comunicazione. Il telegrafo, che inizialmente trasmetteva solo segnali codificati per singole lettere dell’alfabeto, in seguito si è sviluppato nel telefono, che poteva far viaggiare le voci umane trasmettendole in segnali elettrici che all’arrivo venivano ritrasformati in segnali udibili nell’auricolare del ricevente. Altri inventori ancora scoprirono come fare a meno delle connessioni cablate per il telegrafo e il telefono, sviluppando il wireless o mezzo di comunicazione via radio.
Col tempo qualcuno ha trovato il modo di sfruttare tali tecnologie anche per inviare immagini in movimento. Alcuni hanno creato la tecnologia per i processi di comunicazione e altri hanno inventato i contenuti: programmi radiofonici, generi cinematografici e così via; altri ancora hanno fondato studi destinati a creare quei contenuti e ci sono state aziende o uffici governativi che hanno sovvenzionato tali processi. Lo stesso è accaduto con i primi sviluppatori del World Wide Web, che hanno aggiunto sempre più funzionalità e hanno aperto le porte allo sviluppo commerciale del Web. Tutti costoro, in un modo o nell’altro, sono riusciti a elaborare modalità per considerare qualsiasi cosa alla stregua di un’informazione. Il Web, nato come uno strumento per gestire le informazioni, è riuscito a poco a poco a gestire qualsiasi comunicazione.
Le innovazioni successive hanno escogitato modi di utilizzare questo complesso spazio e rete di informazione e comunicazione. Hanno così confermato nella pratica la tesi del matematico britannico Alan Turing, secondo il quale il computer è una «macchina universale» in grado di servire a qualsiasi tipo di scopo, tra cui la comunicazione e l’elaborazione dei dati. Infatti, una volta che lo spazio informativo è stato messo a portata di mano e gli elementi sono divenuti facili da recuperare, il computer ha potuto assumere in pari tempo la veste di luogo di pubblicazione, di spazio di produzione, di cinema, di jukebox e così via. Il World Wide Web offre uno spazio che fa della rete informatica la potenziale antenata di ogni tipo di esigenza comunicativa scaturita da qualsiasi cultura: è primariamente un’idea che, tramite i suoi protocolli applicativi, veicola qualsiasi contenuto digitale. E presto un’ampia varietà di mezzi di comunicazione – fili, segnali radio, cavi in fibra ottica – ha reso fruibile quello spazio informativo.
Sull’idea del World Wide Web si basano anche altri diversi tipi di invenzioni, applicazioni o programmi che è possibile incorporare in una pagina web. Una volta che era divenuto possibile inviare e richiedere facilmente informazioni di qualsiasi tipo – testo, voce, immagini, video, musica e così via –, è stato possibile anche immaginare un’elaborazione locale delle informazioni risultanti da diversi tipi di connettività. Berners-Lee aveva immaginato browser in grado di creare contenuti, oltre che di leggerli; in seguito gli sviluppatori si resero conto che i protocolli web avrebbero consentito a chiunque di pubblicare materiale online utilizzando il proprio server web o un server condiviso. Questa funzionalità, se da un lato porta a realtà come i blog, i social media e altri tipi di pubblicazione, dall’altro consente allo spazio informativo di supportare anche la vendita e lo shopping online: realtà come Amazon ed eBay sono approdate entrambe prontamente nel World Wide Web nel 1995. Tali innovazioni hanno richiesto lo sviluppo di ulteriori caratteristiche chiave dello spazio informativo a cui erano destinate, vale a dire la crittografia dei dati e protocolli di trasferimento sicuri.
All’inizio degli anni Duemila il web si è aperto a ospitare i social media, che inizialmente erano spazi per condividere tra amici testi, immagini, musica e successivamente video. A partire da quelle esplorazioni iniziali, i programmatori hanno creato social media specializzati per la condivisione di video (come oggi troviamo in YouTube), musica (come in Spotify) ed eventi e notizie (come in Facebook). Ma presto ci si rese conto che avere così tante informazioni prontamente disponibili richiedeva strumenti adeguati per rintracciarle. Un’altra invenzione chiave ha applicato una tecnologia tratta dai libri: i servizi di indicizzazione. Al riguardo, sono apparse diverse filosofie di organizzazione del mondo online, di cui sono esemplari due aziende come Yahoo e Google. Entrambe si sono proposte di aiutare la gente a reperire informazioni rilevanti nel crescente spazio informativo online: Yahoo ha intrapreso un percorso di indicizzazione più semplice, utilizzando il modello della biblioteca per raggruppare realtà simili; Google ha utilizzato un algoritmo per classificare le pagine in base al numero di connessioni e, quindi, in base agli interessi degli altri utenti. Simili sistemi di raccomandazione concorrenti sono alla radice di spazi informativi specializzati, come YouTube, Spotify, X, Yelp e gli altri social media.
Ciascuno di questi sviluppi operativi del World Wide Web ha portato a ulteriori evoluzioni: nuove idee sui tipi di contenuto desiderati dalle persone, sulle maniere per individuare quei contenuti, per tenerne traccia e monetizzarli. Google, sebbene non sia stata la prima, è probabilmente l’azienda che ha tratto maggior successo dalla comprensione che lo spazio informativo del World Wide Web può fungere da mezzo pubblicitario, facendo corrispondere annunci a potenziali clienti. Lo spazio informativo del World Wide Web, in quanto spazio universale, funziona in entrambe le direzioni: porta alle persone la conoscenza che desiderano e invia una conoscenza su quegli stessi utenti, capace di prevederne gli interessi. Gli algoritmi suggeriscono contenuti alle persone in base sia ai loro interessi precedenti sia all’interesse di utenti simili a loro. Il World Wide Web, quindi, è diventato uno spazio complesso non solo di connessioni e informazioni, ma anche di utenti, interessi e usi potenziali. Riduce tutto a informazione.
L’infrastruttura è cresciuta ancora quando è entrato in scena lo smartphone, una combinazione di computer portatile e telefono senza fili. A questo dispositivo, con il passaggio ai circuiti digitali da parte delle varie compagnie telefoniche, tutti i contenuti delle comunicazioni appaiono uguali. Ogni suo esemplare contiene le istruzioni che lo rendono capace di distinguere i contenuti visivi, uditivi, testuali o video. Riceve tutte le informazioni e le visualizza secondo il protocollo con cui sono codificate.
Molte delle successive innovazioni tecniche al servizio del World Wide Web consentono combinazioni di informazioni sempre più veloci e complesse. Dietro a tutto questo si nascondono i protocolli, che consentono alle informazioni di individuare la particolare macchina che le richiede, e l’idea di uno spazio informativo.
Gestione dell’informazione
Il World Wide Web è soprattutto un sistema di gestione delle informazioni. Berners-Lee, come abbiamo visto, lo dice chiaramente nel suo libro sulla storia del Web, definendolo «uno “spazio” in cui le informazioni possono esistere»[4]. Ma non è stato il primo a immaginare uno spazio informativo.
La storia della comunicazione, almeno nel mondo occidentale, è anche una storia di gestione dell’informazione. Gli esseri umani si sono sempre dati da fare per tenere traccia di ciò che sapevano. Le culture orali, cioè quelle prive di una tecnologia o di una tradizione di scrittura, facevano di tutto per ricordare e classificare ciò che sapevano[5]. Le narrazioni, per esempio, non solo imprimevano informazioni nella mente, ma ne traevano una visione d’insieme. Il grande poema omerico Odissea è una sorta di enciclopedia della conoscenza greca, perché in esso è riunito ciò che un popolo di mare doveva sapere: come navigare, come riparare o costruire una barca, come incontrare nuove culture, come placare gli dèi e le dee, come sconfiggere gli avversari e così via. Ulisse deve fare tutte queste cose e, nel farle, insegna la sua cultura.
Fra i suoi cinque «canoni» la retorica classica include l’organizzazione (dispositio) e la memorizzazione (memoria). Gli studenti di retorica (cioè tutti gli studenti di quell’epoca e del periodo medievale) imparavano a gestire le informazioni nel modo in cui le organizzavano e le ricordavano. Le tecniche mnemoniche classiche non solo aiutavano i retori a ricordare dati specifici attraverso la loro disposizione, ma favorivano anche la memorizzazione da parte degli ascoltatori: indirettamente gli oratori insegnavano un sistema di gestione delle informazioni. Un riferimento abituale di quelle tecniche erano i luoghi, perché le nozioni e i concetti venivano mentalmente collegati a un edificio. Per esempio, i retori imparavano ad associare le idee che desideravano ricordare alla pianta di una casa: l’ingresso conteneva un concetto, la sala da pranzo un altro eccetera, sicché, per riportare alla mente i vari passi delle orazioni che pronunciavano, dovevano solo procedere con l’immaginazione attraverso quei luoghi familiari.
Questa tecnica ha trovato molti usi: persino le grandi cattedrali medievali fungevano da sistemi di gestione delle informazioni, in cui statue, affreschi e vetrate creavano un sistema di catechesi memorabile per i frequentatori. È interessante notare che queste tecniche mnemoniche continuarono a svolgere un ruolo anche nelle culture che si erano dotate di sistemi di scrittura, ed erano ancora popolari in epoca rinascimentale[6]. Infatti, i primi gesuiti si guadagnarono la reputazione di maestri della memoria[7]. Le mnemotecniche erano veri e propri sistemi di gestione delle informazioni.
Se l’avvento dei testi scritti risolveva il problema della memorizzazione, d’altra parte suscitava la necessità che si individuassero tecniche per gestire la crescente quantità di informazioni immagazzinate per iscritto. Come avrebbero fatto le persone a orientarsi fra tutti quei testi?
I podcast de “La Civiltà Cattolica” | INTELLIGENZE ARTIFICIALI E PERSONA UMANA
La nostra epoca sarà ricordata come quella della nascita delle intelligenze artificiali. Ma cosa sono le intelligenze artificiali? Qual è l’impatto sociale di queste nuove tecnologie e quali sono i rischi? A queste domande è dedicata una serie in 4 episodi di Ipertèsti, il podcast de «La Civiltà Cattolica».
Alcuni studiosi sostengono che le miniature presenti nei codici medievali servivano non solo a decorare le pagine, ma anche ad aiutare i lettori a trovare i materiali all’interno di quei manoscritti. Pensatori ecclesiastici come Tommaso d’Aquino combinarono i sistemi basati sulla memoria orale con quelli della scrittura a mano in opere come il capolavoro dell’Aquinate, la Summa Theologica, o in raccolte come le Decretales delle leggi canoniche di Gregorio IX del 1234.
Allo stesso modo, anche le opere stampate necessitavano di un sistema per reperire specifici contenuti. Il fatto che ogni pagina stampata fosse identica in ogni copia del libro giustificava la fatica necessaria per comporre un indice. Questi elenchi di argomenti, o anche di parole, indicavano i numeri di pagina dove il lettore poteva trovare informazioni specifiche e rilevanti. L’idea degli elenchi disposti in ordine alfabetico ha portato a un’altra invenzione nella gestione delle informazioni legata alla stampa: ha fatto sì che essa si estendesse al di là del singolo libro fino alle bibliografie e ad altri elenchi, allargando l’idea dai libri alle biblioteche. Un riformatore dell’istruzione come Petrus Ramus, nel XVI secolo, propose ulteriori sistemi visivi per ordinare le informazioni in modo da facilitarne il ricordo e l’accesso[8]. La ricerca scientifica ha sviluppato i propri metodi per gestire le informazioni: per esempio, organizzando cose come piante e animali secondo il genere e la specie, o gli elementi in una tavola periodica basata sulle interazioni chimiche. L’Illuminismo e la Rivoluzione scientifica sono stati una rivoluzione tanto nella gestione delle informazioni quanto nei metodi di scoperta[9].
Ogni tipo di espressione umana prima o poi è sfociato in un modello sistematico di gestione delle informazioni. I sistemi educativi di ogni cultura elaborano diversi tipi di tecniche, come dimostra il fatto che studenti di tutte le generazioni hanno imparato a ordinare il materiale e a registrarlo, a partire dall’epoca dell’educazione retorica classica fino alla gestione della scrittura, della ricerca e dell’espressione nell’era della scrittura.
La nostra era digitale contemporanea non è diversa, sebbene debba gestire una vera e propria esplosione di informazioni. Discipline come la biblioteconomia esplorano metodi per catalogare le informazioni, e singoli studiosi hanno proposto diversi sistemi che le rendono facilmente distinguibili, recuperabili, reperibili e presentabili. John Dewey ha inventato un sistema di classificazione bibliotecaria che è ancora in uso in alcune parti degli Stati Uniti; un altro è in vigore nella Biblioteca del Congresso degli Stati Uniti. Nel suo saggio del 1945 As We May Think, Vannevar Bush abbozzò un sistema di archiviazione microfilmata che si avvaleva di un visore simile a una scrivania[10]. Nei primi computer Apple era presente HyperCard, una sorta di sistema ipertestuale in grado di collegare tra loro i materiali.
Nel suo resoconto dello sviluppo del World Wide Web, Berners-Lee ammette di non conoscere questo tipo di sistemi, ma di aver potuto concepire ed elaborare la sua idea dei collegamenti ipertestuali grazie all’uso di un computer NeXT. Questo divenne una caratteristica della gestione delle informazioni che si prefiggeva per tutti i documenti e i materiali del Cern. Il passaggio successivo fu coerente: lo sviluppo del World Wide Web nel suo complesso prevedeva modalità uniformi di identificazione del materiale e collegamenti ipertestuali per farvi riferimento, anche se si trovavano su computer di altre persone.
Il World Wide Web è diventato probabilmente il sistema di gestione delle informazioni più complesso che gli esseri umani abbiano mai sviluppato, connesso com’è alla più vasta raccolta di materiali con cui l’umanità abbia mai lavorato. In effetti, il Web stesso necessita di propri sistemi di indicizzazione, come quelli sviluppati da Yahoo, Google o altre società di ricerca.
Alcune conseguenze del World Wide Web
Negli ultimi trent’anni il World Wide Web ha trasformato i processi di comunicazione nel mondo. Se guardiamo indietro, nell’epoca precedente il mondo della comunicazione si presentava nelle vesti di una grande industria della stampa che forniva materiale sotto forma di libri, riviste, giornali e altri testi su carta, distribuiti per posta e che venivano conservati nelle biblioteche. L’industria radiotelevisiva (per un certo periodo distinta tra radio e televisione) distribuiva programmi di vario tipo, via etere, via cavo e, nel caso dei film, tramite proiezioni cinematografiche. L’industria di produzione approntava film e programmi televisivi per la distribuzione da parte delle aziende radiotelevisive. L’industria delle telecomunicazioni supportava la telefonia all’interno di ogni Paese, e alcuni gruppi si dedicavano ai servizi satellitari.
Ciascuna di queste industrie della comunicazione ha sviluppato le proprie strutture finanziarie, che spesso variavano da Paese a Paese. Alcune nazioni, in particolare in Europa e in Asia, hanno adottato modelli di radiodiffusione nell’ambito del servizio pubblico, e modelli sostenuti dagli utenti nel campo dei giornali e dei libri. Negli Stati Uniti si è preferito il modello dell’impresa privata, in cui la pubblicità sosteneva la comunicazione e ne finanziava i prodotti. Ovviamente queste iniziative hanno favorito le proprie strutture sussidiarie come agenzie pubblicitarie, agenzie fotografiche, produttori di programmi, reti di distribuzione e tutti i servizi necessari al sistema. Si potrebbe tracciare una mappa dei diversi tipi di comunicazione utilizzati nel corso della giornata o in luoghi diversi. Gli studiosi della comunicazione hanno esaminato questi aspetti in una prospettiva che hanno chiamato degli «usi e gratificazioni», ovvero delle maniere in cui le persone soddisfano i diversi bisogni con diversi tipi di comunicazione. Il «sistema di comunicazione» funzionava bene come sistema integrato.
Il World Wide Web ha cambiato tutto questo. Marshall McLuhan[11] suggerisce di valutare questo impatto secondo quelle che egli definisce «le leggi dei media», che propongono quattro modalità con cui le nuove tecnologie o pratiche di comunicazione interagiscono con quelle vecchie.
Innanzitutto, esse migliorano o amplificano il panorama dei media, prendendo gli aspetti esistenti e accelerandoli, espandendone la portata, aumentandone la potenza eccetera. Il World Wide Web amplifica, cioè aumenta la scelta di materiale in qualsiasi formato: stampa, video, audio e via dicendo. Consente anche a un numero sempre maggiore di persone di creare e pubblicare materiale, offrendo loro un pubblico mondiale. Inoltre, amplifica ulteriormente il vecchio sistema, rendendo questi materiali più facili da reperire e di più agevole interazione.
In secondo luogo, i nuovi sistemi rendono obsolete le tecnologie e le pratiche esistenti, sostituendo le loro operazioni con nuovi strumenti. Ciò che c’era non scompare, ma diventa meno importante. Il World Wide Web ha fatto così a più riprese. La biblioteca tradizionale è in gran parte scomparsa, così come molte delle metodologie che ne dipendevano per organizzare la conoscenza; invece, le biblioteche oggi dispongono di terminali di computer in modo che gli utenti possano accedere a Internet. Il World Wide Web ha stravolto gli schemi di distribuzione di tutte le forme di comunicazione e ne ha stabiliti di nuovi. Anche i modelli commerciali che sostenevano la comunicazione sono cambiati radicalmente. Il Web ha mutato il senso della privacy delle persone; tende a mettere in secondo piano la proprietà delle informazioni (riguardo ai diritti di pubblicazione e d’autore, per esempio); inoltre, ha indebolito, se non l’ha resa obsoleta, la capacità di censurare i contenuti da parte di governi e istituzioni.
In terzo luogo, i nuovi sistemi recuperano pratiche passate, migliorandole ed espandendole. Il World Wide Web riprende elementi del vecchio sistema, non ultima l’idea stessa di gestione delle informazioni, sostituendo e aggiornando ciò che esisteva prima. Recupera un modello di comunicazione supportato dalla pubblicità, rendendo possibili grandi imprese come Alphabet (Google e YouTube), Meta (Facebook) e ByteDance (TikTok). Riprende dalla fase di stampa degli incunaboli anche un sistema più flessibile di autorialità e proprietà intellettuale.
Infine, i nuovi sistemi mediali capovolgono il passato in ciò che i miglioramenti precedenti si erano lasciati dietro le spalle, riportandone in auge alcuni aspetti, buoni o cattivi. Sotto questo profilo, il World Wide Web si è tradotto in una sovrabbondanza di informazioni (com’era accaduto con i precedenti sistemi di comunicazione) e, insieme a ciò, ha ridato vita a pratiche di «raccomandazione» che ai critici fanno subentrare gli influencer, per esempio. Si è anche invertita la tendenza a ridurre il pensiero critico e a una più facile manipolazione dell’opinione pubblica.
Conclusione
Il World Wide Web ha cambiato radicalmente l’ecosistema della comunicazione, apportando un nuovo modo di gestire le informazioni. Indirettamente ha fornito l’impulso a utilizzare meglio le infrastrutture di comunicazione esistenti, ha incoraggiato le persone a pensare a nuovi modi di svolgere le attività di comunicazione tradizionali, ha promosso nuovi modelli commerciali e ha accresciuto i contenuti di comunicazione disponibili. In soli trent’anni ha cambiato radicalmente l’ottica secondo cui le persone pensano all’informazione e il modo in cui educhiamo le generazioni future. E, com’è tipico della natura umana, non se ne è del tutto compreso l’impatto o persino il modo in cui funziona. Lo diamo per scontato e, come avvertiva McLuhan riguardo ai contenuti televisivi, lasciamo che ci renda ciechi rispetto alle sue azioni, come un ladro si serve del pezzo di carne che lancia al cane per distrarlo mentre la casa viene svaligiata[12].
Copyright © La Civiltà Cattolica 2024
Riproduzione riservata
***
[1]. Cfr T. Berners-Lee, «Information management: A proposal», Cern, marzo 1989 (cds.cern.ch/record/1405411/files/ARCH-WWW-4-010.pdf).
[2]. Cfr «LCS announces Web industry consortium», in MIT News (news.mit.edu/1994/lcs-1019), 19 ottobre 1994.
[3]. T. Berners-Lee – M. Fischetti, Weaving the Web: The Original Design and Ultimate Destiny of the World Wide Web by Its Inventor, New York, Harper San Francisco, 1999,36 (in it. L’architettura del Nuovo Web. Dall’inventore della rete il progetto di una comunicazione democratica, interattiva e intercreativa, Milano, Feltrinelli, 2001).
[4]. Ivi.
[5]. Cfr W. J. Ong, Oralità e scrittura. Le tecnologie della parola, Bologna, il Mulino, 2014.
[6]. Cfr F. A. Yates, L’arte della memoria, Torino, Einaudi, 2023.
[7]. Cfr J. D. Spence, Il Palazzo della memoria di Matteo Ricci, Milano, Adelphi, 2010.
[8]. Cfr W. J. Ong, Ramus, Method, and the Decay of Dialogue: From the Art of Discourse to the Art of Reason, Cambridge, MA, Harvard University Press, 1958.
[9]. Cfr E. L. Eisenstein, The printing press as an agent of change: Communications and cultural transformations in early-modern Europe, Cambridge, Cambridge University Press, 1979.
[10]. Cfr V. Bush, «As We May Think», in The Atlantic, luglio 1945 (www.theatlantic.com/magazine/archive/1945/07/as-we-may-think/303881).
[11]. Cfr M. McLuhan, «McLuhan’s Laws of the Media», in Technology and Culture 16 (1975/1) 74-78; M. McLuhan – E. McLuhan, La legge dei media. La nuova scienza, Roma, Edizioni Lavoro, 1994.
[12]. Cfr M. McLuhan, Gli strumenti del comunicare, Milano, Garzanti, 1986, 37.