Quando a metà degli anni Novanta l’estensione del World Wide Web osservò una crescita esponenziale e si estese in egual misura la base di utenti che vi accedevano, apparve subito piuttosto chiaro che con l’aumento delle informazioni disponibili aumentava di pari passo il problema della loro attendibilità.

Nel 1993, data di uscita di NCSA Mosaic (il capostipite dei browser web), i modem avevano raggiunto velocità di 14.400 bit al secondo e prezzi relativamente accessibili, il che era quanto necessario e sufficiente all’apertura definitiva della Rete al grande pubblico (e al suo mercato). La velocità di connessione, la disponibilità di provider, il numero di utenti si incentivarono reciprocamente: a dicembre di quell’anno si contavano già tremila siti web, che sarebbero diventati mezzo milione nel 1996 per raddoppiare l’anno successivo; non si trattò di una semplice crescita, ma di una vera e propria trasformazione: la Rete da prerogativa dei “tecnici” diventava luogo di incontro elettivo fra gli interessi più disparati.

Molti strumenti di allora sono diventati obsoleti (come Gopher) o rimangono confinati ad utilizzi di nicchia (irc, usenet, l’emulazione di terminale); viceversa, alcune innovazioni prodotte nella Rete sono accessibili, ben più che al veterano, proprio all’utente comune, perché ritagliate su misura sulle sue capacità, sulle sue esigenze, sintonizzate con la sua mentalità. Tim Berners Lee, il padre del World Wide Web, ha aperto il suo weblog solo il 12 dicembre del 2005, concludendo il primo post in questo modo: “Così proverò questa faccenda del blog, usando gli strumenti dei blog. Questo per le persone che sostenevano che dovevo proprio averne uno”1.

Da molti considerata un organismo o financo un ecosistema, la Rete ha mantenuto la propria natura originaria e contemporaneamente ne ha assunta una nuova. L’attendibilità che ci possiamo aspettare da un’informazione attinta a caso da un sito di cui non conosciamo in anticipo le caratteristiche (raggiunto ad esempio attraverso un motore di ricerca) rispecchia questa natura molteplice: essa varia infatti a seconda che si tratti della sintassi di un comando in un linguaggio di programmazione, della storia di una battaglia, delle cause e della terapia di un disturbo psichiatrico. Queste tre informazioni appartengono ad altrettante classi, le quali seguono in Rete un’evoluzione relativamente indipendente l’una dalle altre.

Libertà ed attendibilità dell’informatica

Parlare del primo caso significa parlare della storia stessa dell’informatica. Se l’attendibilità in questo campo è facilmente verificabile (per quanto si possano trovare soluzioni più o meno eleganti, comunque, o funziona o non funziona), la libertà dipende dal groviglio di licenze, proprietà intellettuali, accordi di riservatezza che circondano il mondo del software. Il primo a ritenere questo problema imprescindibile è stato a partire dagli anni Settanta (dunque ben prima del Web) Richard M. Stallman, fondatore nel 1984 della Free Software Foundation e del progetto GNU: grazie a Stallman, oggi è disponibile software libero per svolgere pressoché ogni operazione (la più nota collezione di software libero è Linux). Discutere in questa sede la storia del movimento free software, le sue evoluzioni, le sue derivazioni, i suoi rapporti con i detentori di proprietà intellettuali e con il mercato è impensabile. Ai fini del nostro ragionamento possiamo mettere in evidenza (ricorrendo a grossolane semplificazioni) solo quanto segue: per Stallman il codice è una cosa troppo influente nella nostra vita perché non vi sia totale trasparenza nel suo utilizzo; ciò non toglie che esso viva nel e grazie al mercato e nel rispetto della proprietà intellettuale2. Stallman chiarisce che “free” va inteso nel senso di “free as in speech” e non “free as in beer”3: ovvero libero, non necessariamente gratuito. Il codice è bene comune e deve essere aperto, mentre la competenza, la formazione, l’installazione, la manutenzione sono tutti servizi, fonte sacrosanta di guadagno per chiunque sia in grado di offrirli. Questa considerazione tornerà utile più avanti.

Libertà ed attendibilità della cultura

Il secondo caso comprende tutto quanto venga escluso dagli altri due. Un’informazione reperibile in Rete può essere frutto di una competenza matura ed approfondita oppure di un pettegolezzo, può essere anche una franca invenzione o uno scherzo. Il più delle volte non abbiamo insieme all’informazione gli elementi che ci permettano di operare queste distinzioni, e quanto siano delicati i rapporti fra contenuto, autore e punto di vista è emerso chiaramente a proposito, ad esempio, della relazione fra blog e giornalismo, anche su queste pagine.

Al crescere della sicurezza rispetto alla fonte corrisponde invece un restringimento dell’accesso: tanto più essa è attendibile, tanto meno è liberamente accessibile. L’Enciclopedia Britannica, ad esempio, gode nella sua versione online della stessa attendibilità di quella cartacea, ma la sua consultazione è a pagamento. Analogamente, è ristretto l’accesso a opere o database coperti da diritti d’autore o proprietà intellettuali, tecnicamente disponibili ma di fatto inaccessibili o condizionati dal legittimo rispetto delle relative clausole economiche.

A cavallo del 2000 partirono quasi contemporaneamente due progetti, GNUPedia (poi ribattezzata GNE) e Nupedia, con l’intenzione di realizzare un’enciclopedia online libera; il primo, promosso dallo stesso Stallman, favoriva la libertà (previa registrazione, ogni voce che venisse considerata pertinente era pubblicata senza ulteriore controllo), il secondo, avviato da Jimmy Wales e Larry Sanger, prevedeva al contrario un board tecnico che valutasse l’attendibilità delle voci attraverso sette passaggi. Furono entrambe un fallimento4.

Dopo un anno, Wales e Sanger cambiarono rotta adottando un “wiki”, ovvero un software che permetteva l’inserimento e la modifica di ogni voce, da chiunque ed in forma anonima. Avevano intuito ove fosse il collo di bottiglia, e la nuova enciclopedia, Wikipedia, crebbe in modo esponenziale. Avevano di fatto dimostrato che non solo i programmatori erano disposti a dedicare il tempo libero al bene comune in forma gratuita ed anonima, ma erano anche inevitabilmente usciti dal circuito della validazione scientifica convenzionale5.

Libertà ed attendibilità della scienza

Scrive Stallman: “Dovrebbe essere ovvio che la letteratura scientifica esiste per diffondere la conoscenza scientifica e che le riviste scientifiche esistono per favorire questo processo (…). [Il copyright] ha aiutato le riviste a creare e divulgare la conoscenza senza interferire con il lavoro di scienziati e studenti, fossero essi gli autori o i lettori degli articoli. Queste regole funzionavano bene in quel sistema [governato dalla carta stampata]. La tecnologia moderna per la pubblicazione scientifica, però, è il World Wide Web. Quali sono le regole che garantiscono meglio la massima diffusione degli articoli scientifici e della conoscenza sul Web? Gli articoli dovrebbero essere pubblicati in formati non proprietari, a libero accesso. E ciascuno dovrebbe avere il diritto di ridistribuirli, ovvero di ripubblicarli immodificati e garantendone la corretta attribuzione (…). Purtroppo, sembra che non tutti concordino con questa ovvietà: molti editori sembrano ritenere che lo scopo della letteratura scientifica sia quello di permettere loro di pubblicare riviste e di raccogliere sottoscrizioni da scienziati e studenti”6.

Condivisibile o meno, la feroce lettura di Stallman ci costringe però a riflettere sui meccanismi che governano la diffusione delle informazioni scientifiche, vincolati a logiche protezionistiche oggi non sempre giustificate. Purtroppo, le implicazioni a riguardo sono molte e delicate, soprattutto in un periodo in cui il principale sostegno (anche materiale) alla ricerca scientifica viene dalle opportunità di ricaduta tecnologica e, di conseguenza, economica. Si pensi alla difficoltà in cui versa quotidianamente la ricerca sulle malattie rare, che non garantiscono un rientro dagli investimenti; si pensi invece all’impulso dato alla ricerca sul genoma, sulla quale aleggia lo spettro della brevettabilità delle sequenze geniche.

Ciò riguarda innanzitutto la comunità scientifica ed i criteri di validazione che ha scelto di applicare a se stessa. Un lavoro assume dignità non in base al contenuto in sé, ma rispetto all’attendibilità della rivista su cui viene pubblicato. Una ricerca pubblicata in Rete con licenza copyleft non ha valore accademico e non fa titolo: ove dunque si privilegi la diffusione e la condivisione dell’informazione, si sacrifica la propria carriera accademica7.

L’autorevolezza di una rivista scientifica, peraltro, dipende dall’autorevolezza dei suoi garanti, i quali sono divenuti tali, il più delle volte, in virtù delle loro pubblicazioni. Appare evidente come questo sistema – seppur probabilmente sia il migliore che abbiamo al giorno d’oggi – rischi di fondarsi su se stesso e di creare un circuito chiuso. Se da un lato garantisce una certa attendibilità, dall’altro ostacola lo sviluppo di pensieri alternativi, dissonanti, non immediatamente riconducibili alle logiche correnti e dunque resiste alla possibilità dell’innovazione.

Informazione come bene, formazione come servizio

Intendere l’informazione scientifica come il codice libero (un bene immateriale e di pubblica utilità, di cui va riconosciuta la paternità ma non la proprietà, il cui sfruttamento è subordinato alla trasparenza, non contrapposto ma distinto rispetto al mercato) ha anche un altro effetto brutalmente pratico. La destinazione delle informazioni scientifiche è duplice: una di esse è la comunità scientifica, che le utilizza per proseguire la ricerca; l’altra è rappresentata da chi si sta formando per entrare a far parte di questa comunità.

In molti, troppi casi la tecnologia è entrata nella formazione sotto forma di mero trapianto. Se il docente interpreta se stesso come fornitore di informazioni, non può che applicare a quelle informazioni un rigido protezionismo, rilasciandole dietro specifiche condizioni. Molte lezioni si trasformano ad esempio in letture collettive di diapositive, che il titolare del corso ha preparato e che dunque ritiene essere il proprio prodotto. Il file mostrato in aula raramente viene distribuito agli studenti, i quali devono seguire la lezione e acquistare testi (giacché gli unici testi “attendibili” sono protetti da copyright). La fatica nell’ottenere le informazioni (non accedendo al testo in sé ma dovendolo leggere e trascrivere in aula, girando per biblioteche, acquistando libri di testo) sembra far dunque parte indispensabile dello stesso processo formativo.

Ogni volta che il docente vede se stesso in questi termini sta però abdicando al proprio ruolo, che non è quello di rilasciare informazioni, ma di provvedere ad una formazione. L’informazione in sé non ha motivo di non essere libera e disponibile: il valore specifico dell’accademia è nella sua capacità di formare dando alle informazioni un senso, una prospettiva, una coerenza ed uno sviluppo. La lettura in aula di una sequenza di diapositive non ha nessun valore aggiunto rispetto alla disponibilità di un file in Rete ed ad una sua lettura per conto proprio e non provvede a nessun tipo di formazione.

Pensare alle informazioni come bene disponibile ci costringe a concentrarci quotidianamente sulla fornitura del nostro specifico prodotto, cioè il servizio di formazione, il che aiuta anche gli studenti a riconoscere come una preparazione culturale preveda spirito critico, capacità di riflessione ed integrazione, visione d’insieme, confronto con un orizzonte etico piuttosto che una semplice giustapposizione di informazioni.

Altrimenti, ci basta Wikipedia.


1 http://dig.csail.mit.edu/breadcrumbs/blog/4
2 La GPL, la licenza che regola il software libero, è garantita proprio dalle regole che difendono la proprietà intellettuale.
3 Richard M. Stallman, “Free Software, Free Society”, Boston, 2002.
4 Sanger spiega perché su Slashdot, in “The Early History of Nupedia and Wikipedia: A Memoir” (http://features.slashdot.org/article.pl?sid=05/04/18/164213).
5 Wikipedia è stata recentemente al centro di diverse polemiche, una delle qual l’ha vista ingaggiare una vera e propria sfida sull’attendibilità contro la stessa Enciclopedia Britannica.
6 Richard M. Stallman, ibid.
7 È in controtendenza Science Commons, una emanazione in campo scientifico della licenza Creative Commons (http://sciencecommons.org/).


Pubblicato in InnovAzioni, n. 6, gen-feb 2006, con il titolo “Informazioni e scienza nell’era delle tre W”.