Bollettino telematico di filosofia politica
Il labirinto della cattedrale di Chartres
bfp
Articoli|Riviste|Recensioni|Bibliografie|Lezioni|Notizie|Collegamenti
Home > Articoli e note > Cultura di rete

La lunga ombra di Oldenburg: i bibliotecari, i ricercatori, gli editori e il controllo dell'editoria scientifica

Jean-Claude Guédon

Université de Montréal

Traduzione dall'originale inglese di Maria Chiara Pievatolo, Brunella Casalini, Francesca Di Donato


Sommario

Capitolo I
Introduzione
II. Come e perché furono create le riviste scientifiche?
2. Un registro sociale dell'innovazione scientifica
3. La questione della proprietà intellettuale
4. Conclusioni introduttive (un altro ossimoro)
III. L'era Gutenberg: le funzioni delle riviste e degli articoli scientifici
5. La prospettiva degli scienziati e degli studiosi
6. Lo Science Citation Index e alcune delle sue conseguenze
7. Il nuovo Eldorado degli editori: le riviste scientifiche
8. La prospettiva delle biblioteche
IV. L'avvento e le implicazioni delle reti e del digitale
9. Le risposte confuse dei ricercatori: dall'indifferenza al coinvolgimento attivo
10. In che modo gli editori commerciali sono riusciti a mettere le briglie alla rivoluzione digitale e a trasformarla in una controrivoluzione
11. Gli archivi aperti (Open Archives) e altre iniziative sovversive
Una conclusione nella forma di modesta proposta tutt'altro che "swiftiana" nello spirito

Capitolo I

Introduzione

La crisi dei prezzi dei periodici è con noi da molto tempo. Documentata dai bibliotecari, negata dagli editori commerciali, la sua realtà è finalmente stata consolidata come una conoscenza comune; la sua causa principale è stata individuata nel comportamento degli editori commerciali e di alcune società di studiosi. Sono anche state scartate varie cause spurie, come per esempio la famigerata fluttuazione della moneta: conciliare un fenomeno di fluttuazione con una crescita costante è, per lo meno, difficile... Non funziona neppure il richiamo al costo della vita: i prezzi delle riviste hanno sorpassato di gran lunga questa variabile, e hanno superato anche altri settori dell'editoria, dimostrando così che il fenomeno, lungi dal riguardare l'intera industria, tocca solo una sua particolarissima porzione. Le responsabilità sono ora chiaramente identificate: posano direttamente sulle spalle degli editori commerciali. Si comprende anche, nelle grandi linee, come questa situazione è venuta ad essere e funziona, ma molti dettagli importanti rimangono da aggiungere.

L'ultimo decennio, all'incirca, ha permesso di puntare il dito sugli editori commerciali, e in particolare su un gruppo di grandi aziende internazionali site soprattutto in Europa e, in secondo luogo, negli Stati Uniti d'America. Molti hanno pubblicamente deplorato l'atteggiamento degli editori commerciali, ed alcuni hanno anche dato fiato a un'ira salutare ma, fino a poco tempo fa, poco altro è stato fatto. Tuttavia negli ultimi anni, forse anche a causa delle ulteriori sfide proposte dalla digitalizzazione, sono emersi tentativi di rallentare, fermare e anche invertire l'aumento di prezzo degli abbonamenti. Si stanno esplorando forme alternative di pubblicazione e una petizione – quella della Public Library of Science - sta stimolando numerose liste di discussione. Il problema sta gradualmente affiorando in superficie e sta cominciando a raggiungere anche i media non specializzati. Tuttavia, nonostante questi sviluppi positivi, non sono state progettate strategie di contrasto veramente funzionali ed efficienti. La mia convinzione è che, per delineare piani di contrattacco efficaci occorrerà una comprensione più piena della situazione e delle sue radici. Ambizione di questo saggio è contribuire un po' a questa comprensione.

Negli ultimi cinquant'anni, gli editori sono riusciti a trasformare le riviste accademiche - una intrapresa editoriale tradizionalmente non promettente e al più secondaria - in un grosso affare. Come siano riusciti a creare tassi di profitto estremamente alti è una storia che non è ancora stata raccontata chiaramente. Qual è il vero fondamento di questa stupefacente abilità? Qual è l'origine del loro potere? Come può essere sovvertito? Questo saggio affronterà tali questioni. Tuttavia occorre evidentemente una ricerca ulteriore, e di ampiezza tale da richiedere uno sforzo concertato e prolungato: ma sarebbe, secondo me, energia ben spesa.

Di recente, a causa dell'avvento della digitalizzazione e della rete, il sistema tecnico della comunicazione scientifica ha subito un cambiamento profondo, che è ancora in corso. L'imposizione di licenze locali e lo sviluppo di consorzi bibliotecari segnala mutamenti così profondi che lo stesso statuto del "documento" e i modi con cui gli individui possono interagire con esso appare del tutto incommensurabile col passato. Anche il ruolo delle biblioteche è stato profondamente sovvertito, poiché, come vedremo, stiamo assistendo, nel vocabolario di Thomas Kuhn, a uno spostamento di paradigma. Le conseguenze derivanti da questi sviluppi sono difficili da determinare, ma possiamo essere certi che la comunicazione scientifica si sta trasformando. In che cosa? A vantaggio di chi? Quali fasi di transizione possiamo aspettarci? Questo saggio non può sperare di dare risposte ultime a tali complesse questioni; più modestamente, si sforzerà di schizzare due scenari che si stanno al momento svolgendo, in processi che, sebbene per ora relativamente separati, andranno infine a collidere. Ciascuno di questi scenari corrisponde a una diversa prospettiva dello spostamento di paradigma. Non è chiaro quale dei due vincerà; può anche darsi che questi due scenari rimarranno in concorrenza per un certo tempo. In ogni caso, abbiamo bisogno di acquisire un'immagine, per quanto sgranata, del territorio in cui stiamo entrando e delle forze che stanno dando forma ai suoi contorni, se è essenziale pianificare strategie. E io credo che pianificare strategie sia essenziale per i bibliotecari, in questo momento storico.

Inizierò spostando indietro l'analisi fino al punto in cui cominciò ad emergere il sistema della comunicazione scientifica, in virtù del modo nuovo in cui alcuni individui creativi riuscirono a imbrigliare la stampa per sfruttarla. Saremo così in grado di recuperare alcuni dei significati e delle intenzioni originali del sistema stesso, nonché gli intenti che presiedettero alla sua origine. Sia i significati sia le intenzioni sono rimasti notevolmente costanti nel tempo; la sola differenza fra allora e ora è che certa gente ha trovato la maniera per inserire una nuova ed efficiente macchina per fare soldi nel sistema di comunicazione della scienza. La sola differenza fra il presente e il futuro è che un qualche meccanismo di retroazione pare interporsi fra il sistema di comunicazione e questa macchina, conducendo a uno spostamento graduale nello stesso ambito e senso dei modi in cui i risultati della ricerca di base sono propagati e resi accessibili. In effetti, questo saggio si chiede se i risultati della ricerca di base nella scienza, nella tecnologia e nella medicina - risultati che, se visti in termini commerciali, si trovano in una fase pre-concorrenziale e che, in qualche caso, possono anche salvare delle vite - rimarranno parte del patrimonio collettivo di conoscenza dell'umanità (commons), o saranno gradualmente confiscati a vantaggio di élites scientifiche e aziendali sempre più ristrette.

II. Come e perché furono create le riviste scientifiche?

2. Un registro sociale dell'innovazione scientifica

All'inizio del 1665, Henry Oldenburg creò i Philosophical Transactions of the Royal Society of London; mentre la sua fama è largamente svanita dalla nostra memoria collettiva, la sua creatura spirituale non lo è. Il periodico londinese, talvolta chiamato affettuosamente Phil Trans, è diventato un'istituzione veneranda. I motivi della sua fondazione non sono così chiari come potrà illustrare questo solo esempio: Phil Trans è paragonato, di regola, al Journal des sçavans, come se le due pubblicazione fossero gemelle - io stesso ho fatto questo errore qualche anno fa. Mentre è evidente che le due pubblicazioni sono periodici, trattano di filosofia naturale, e cominciarono ad uscire a distanza di un paio di mesi l'una dall'altra, non è così chiaro che perseguissero effettivamente scopi simili. La pubblicazione francese rifletteva in realtà il modello degli scambi epistolari manoscritti, in qualche modo pettegoli e orientati alla notizia, che erano così tipici della Repubblica delle Lettere; come tale, è più vicina a qualcosa come lo Scientific American, piuttosto che a una rivista accademica moderna, e perciò appare saldamente radicata nell'arte emergente del giornalismo scientifico. Sebbene la rivista pubblicasse occasionalmente articoli originali, essi apparivano come una espressione particolare di notizie fra altri tipi di notizie. Di contro Phil Trans, sebbene trattasse anch'esso di nuova informazione, mirava in realtà a creare un registro pubblico di contributi originali alla conoscenza. In altri termini, la pubblicazione parigina andava dietro alla novità, mentre la rivista londinese contribuiva a corroborare l'originalità. In questo consiste la differenza significativa (e profonda) fra i due periodici.

Phil Trans è stato concepito, inoltre, in un momento in cui la questione della proprietà intellettuale occupava il centro della scena; e molte delle sue caratteristiche possono essere viste come indirizzate a questo ambito di interesse. In particolare, introduceva chiarezza e trasparenza nel processo di fondazione delle pretese innovative nella filosofia naturale, e pertanto cominciò a svolgere un ruolo non dissimile a quello di un ufficio brevetti delle idee scientifiche. Il proposito era quello di domare e tenere sotto controllo la "paternità scientifica", le controversie di priorità e le polemiche intellettuali così da far sparire dall'occhio del pubblico questo spettacolo potenzialmente spiacevole. Se fosse stato possibile trattare le dispute scientifiche in una maniera quieta, ordinata e civile - ragionarono Oldenburg e altri - la filosofia naturale avrebbe ottenuto un'immagine pubblica migliore e più nobilitata. Allo stesso tempo, la presenza di un registro pubblico delle innovazioni scientifiche avrebbe contribuito a creare regole interne di comportamento tendenti a una società gerarchica ben strutturata.

Il bisogno di un registro pubblico della proprietà intellettuale era stato avvertito da molto tempo; la sua mancanza aveva condotto i filosofi naturali a ricorrere a strane tattiche per assicurare i loro diritti di paternità intellettuale. Per esempio, Galileo aveva mandato un anagramma della frase che descriveva la sua scoperta dei satelliti di Giove - i cosiddetti pianeti Medicei 1 - a Keplero (e molti altri) allo scopo di dimostrare la sua priorità. L'idea era mettere un rivale potenziale nella scomoda posizione di un testimone riluttante. La mossa di Galileo era in qualche modo imbarazzante, relativamente idiosincratica, certamente brillante; e mostra anche la difficoltà di affermare, per non dire di provare, qualcosa come la proprietà di idee o "proprietà intellettuale" nella prima parte del XVII secolo. Tuttavia la mossa di Galileo conteneva anche un forte potenziale di faziosità che poteva indebolire l'intero edificio della scienza. Un pubblico registro delle scoperte poteva allontanare da simili pericolose secche ed esibire una facciata più rispettabile a un mondo il quale era tutto tranne che spontaneamente simpatetico con la causa della conoscenza scientifica.

Così emerse a poco a poco un sistema di cooptazione che conferiva vari gradi di valore ai filosofi naturali. Equivaleva in effetti a una specie di "nobiltà intellettuale" - ma una nobiltà concessa da pari, e non dall'alto. Funzionava come se il parlamento potesse attribuire "nobiltà" agli uomini comuni - una innovazione che può aver aver avuto un bel po' di connotazioni politiche in un periodo dominato da un'aspra lotta fra il re e il parlamento.

Le forme sociali adottate dalla "nobiltà intellettuale" erano tanto eponime quanto quella dei titoli feudali, ma funzionavano all'indietro, per così dire. Mentre un uomo comune poteva aggiungere il nome di un possedimento al suo proprio, in virtù della prerogativa regia, un autore scientifico poteva assegnare il suo nome a qualche "legge" o "proprietà", tramite un fiat collettivo, ricevuto attraverso il giudizio di pari. La forza di propagazione della stampa assicurava allora un grado di applicabilità universale alla decisione locale; potevano essere distribuite abbastanza copie ad abbastanza istituzioni rilevanti e significative da rendere durevole la decisione di nomina. In breve, la Repubblica della Scienza reclamava il diritto di concedere proprietà intellettuale agli "autori" scientifici e Phil Trans era il suo strumento d'elezione.

La nuova repubblica scientifica non fu mai ugualitaria, né si sforzò mai di approssimarsi a questo ideale. Come la casa di Salomone nella celebre Nuova Atlantide di Francis Bacon, la scienza era concepita come una attività gerarchica. A differenza che nell'utopia baconiana, la gerarchia non era fondata su una divisione della conoscenza o del lavoro che potesse essere giustificata da qualche epistemologia induttiva; era semplicemente una gerarchia intellettuale fondata sull'eccellenza. Era giustificata da una sfortunata, ancorché inevitabile, distribuzione impari dell'intelligenza fra gli esseri umani. In concreto, più si era intelligenti, maggiore era la probabilità di acquisire proprietà intellettuale come misurata dal possesso di risultati scientifici degni di apprezzamento. Ma i risultati scientifici divenivano apprezzabili solo se erano resi pubblici; perciò il gioco della scienza fu organizzato attorno a regole di pubblicazione che permettevano di reclamare e provare titoli di proprietà su qualche proprietà della natura. Tutto questo, naturalmente, aveva luogo nel medesimo periodo storico che vedeva John Locke scrivere pagine lunghe e fondamentali sullo stesso concetto di proprietà – un periodo che è stato ben descritto da C. B. McPherson, il famoso professore dell'università di Toronto, come periodo dell'individualismo possessivo.

Come segretario della Royal Society di Londra, Oldenburg comprese tutto questo quando promosse la creazione di Phil Trans. In effetti, egli coltivava ambizioni anche più grandi per la sua nuova rivista - un punto importante che Adrian Johns sviluppa nel suo studio monumentale e fondamentale, The Nature of the Book. 2 Oldenburg comprese anche che se solo fosse riuscito ad attirare la maggioranza degli autori scientifici significativi d'Europa a registrare le loro scoperte in Phil Trans, il suo uso innovativo della tecnologia della stampa sarebbe diventato un momento di definizione del movimento scientifico europeo. Come risultato, Londra avrebbe potuto fare per la scienza quello che Parigi aspirava a fare per il gusto: sarebbe diventata l'arbitro universale (questo è il modo in cui gli europei spesso si riferiscono a se stessi) della conoscenza naturale - una posizione invero invidiabile fra le grandi città d'Europa. Se avesse avuto un successo completo, la nozione di "riviste fondamentali" (core journals) sarebbe rimasta al singolare e il lavoro dei bibliotecari sarebbe stato in verità più semplice.

Le ambizioni di Oldenburg hanno gettato un'ombra lunga, che tocca il presente. In effetti, quest'ombra appare in modo sempre più chiaro anche mentre l'età digitale comincia a svilupparsi pienamente. Al tempo di Oldenburg, la stampa non si era ancora insediata su basi economiche stabili. Questo vale anche, attualmente, per i materiali digitalizzati. Il ruolo degli scrittori, degli stampatori e dei librai, così come i loro limiti, erano ancora argomenti di disputa. Analogamente, anche la relazione fra gli internet provider, le reti, i cosiddetti produttori di contenuto e gli utenti sono oggi in discussione, e in uno stato costantemente fluido. Nel XVII secolo soluzioni che ebbero tanto successo da sembrare, ora, del tutto naturali, stavano ancora serpeggiando verso l'esistenza con un passo lento, spesso doloroso, da sonnambulo. Oggi, molte delle schermaglie politiche e giuridiche che osserviamo sono probabilmente poco più che fasi verso l'invenzione lenta, dolorosa, serpeggiante e sonnambulica di nuove categorie giuridiche e di nuove sistemazioni istituzionali per l'editoria digitale.

3. La questione della proprietà intellettuale

La questione della proprietà intellettuale, tanto centrale per la nostra discussione attuale, ci appare relativamente naturale e chiara; la sua storia, tuttavia, rivela una estensione paradossale e azzardata del concetto di proprietà terriera. Questo pezzetto di creatività giuridica fu in realtà motivato dai cartai che avevano bisogno di istituire pretese giuridiche funzionali sui testi che stampavano, almeno per proteggere il loro commercio dall'imitazione e dalla pirateria. Per loro, questo significava possesso esclusivo e perpetuo, come nel caso della proprietà terriera. Ma non erano gli unici giocatori, e, come esito di varie azioni giudiziarie, la definizione di che cosa pretendessero effettivamente di possedere rimase nebulosa per parecchi decenni - quasi un secolo, in effetti.

Quando gli scrittori - si ricordi, per inciso, che non erano ancora "autori" nel senso moderno della parola - trasferivano un manoscritto a uno stampatore, quest'ultimo non acquisiva nulla di più che fogli di carta imbrattati di macchie d'inchiostro le quali intendevano trasmettere un qualche significato; niente di giuridico poteva veramente impedire allo scrittore di mandare una seconda copia a un altro stampatore. Comprensibilmente, il primo stampatore voleva stare su un piede più fermo della fiducia personale; una soluzione era "possedere" il testo, e non solo la carta coperta di macchie d'inchiostro. Lo stampatore voleva la capacità di reclamare pieni diritti di proprietà sul testo; e voleva ottenere accesso alla forza repressiva del diritto nella sua pienezza per impedire una vendita ripetuta del medesimo testo a persone diverse. In breve, voleva possedere il testo come si possiedono beni materiali.

L'interesse degli stampatori era legittimo, ma, prima di affrontarlo in modo soddisfacente, si doveva risolvere una serie di questioni spinose. Che cos'è un testo senza il suo substrato materiale? Sono parole? Trame? Idee? Modi di esprimersi? Inoltre, come può qualcosa di immateriale essere posseduto, per non dire trasferito o reso oggetto di transazioni? Significativamente, la soluzione consistette nell'inventare qualcosa che equivaleva a un ossimoro: il concetto di "proprietà intellettuale". Così, attraverso la nozione di lavoro, il testo poteva essere messo in relazione con qualcuno in particolare - cioè un "autore". Una volta che gli stampatori erano in grado di fronteggiare un autore come proprietario, potevano procedere con una transazione la quale, sebbene altamente "filosofica" nella sua natura, concedeva loro nondimeno diritti perpetui ed esclusivi su qualcosa che poteva essere trasformato in stampa e venduto come ogni altro oggetto. La proprietà intellettuale, sebbene filosoficamente problematica, era in verità meravigliosamente adatta per puntellare "transazioni filosofiche". La Royal Society non avrebbe potuto scegliere un miglior titolo per la sua nuova rivista!

La storia diventa anche più sorprendente quando cominciamo ad esaminare come il moderno copyright fu bardato di una caratteristica inaspettata: quella di un limite temporale alla sua effettività. Ciò lo avvicina di più a un privilegio reale o a un brevetto moderno che a una forma tradizionale di proprietà. Nella retorica anti-monarchica usata comunemente nei giovani Stati Uniti e, poco dopo, nella Francia rivoluzionaria, tale limitazione temporale era giustificata in altisonanti termini democratici. Negli USA fu dipinta come un modo di facilitare le innovazioni e, perciò, il bene pubblico; in Francia, come una ricompensa e una protezione temporanea concessa dalla Repubblica ai suoi cittadini. A dispetto di questa retorica, tuttavia, il limite temporale come era stato imposto sulla proprietà intellettuale rifletteva in realtà una volontà autocratica; fu imposto dai Lord inglesi non tanto per sostenere il bene pubblico ma per ribadire il principio della prerogativa regia in un momento in cui aveva bisogno di appoggio (ho già alluso al tiro alla fune fra monarchia assoluta e costituzionale nella Gran Bretagna del XVII e XVIII secolo). Poiché era nuovo e in qualche modo paradossale, il concetto di proprietà intellettuale appariva vulnerabile e perciò sembrava proporre una prospettiva promettente con la quale affrontare la più generale questione della proprietà privata come principio sacrosanto – una chiara limitazione della pretesa regale di potere assoluto. Inoltre, i cartai stavano chiaramente accumulando troppo potere; era, perciò, il momento di segnalare la necessità di un po' di moderazione: essa prese la forma di un limite temporale alla proprietà intellettuale 3 .

4. Conclusioni introduttive (un altro ossimoro)

Stiamo contemplando dei risultati in qualche modo stupefacenti:

  • L'ethos democratico e ugualitario degli scienziati, che il grande sociologo Robert K. Merton si è tanto adoperato per rivelarci, appare ora come la faccia visibile di un sistema gerarchico che riecheggia la struttura della nobiltà feudale, ma in termini tali - si pensi alla revisione da parte di pari - da svelare un gusto parlamentare

  • Il progetto di un periodico scientifico, lungi dal mirare principalmente a diffondere conoscenza, cerca in realtà di rafforzare i diritti di proprietà sulle idee; la proprietà intellettuale e gli autori non erano concetti giuridici disegnati per proteggere gli scrittori – furono inventati a vantaggio degli stampatori e dei cartai

  • Se questi ultimi videro finalmente limitati i loro diritti di proprietà, tale decisione non derivò dal desiderio di proteggere il bene pubblico, ma piuttosto dalla volontà di riaffermare il carattere assoluto dell'autorità regia e il suo diritto essenziale all'arbitrio, in linea di principio, se non, naturalmente, nella pratica (la cosiddetta prerogativa che era stata tanto erosa nell'interludio cromwelliano)

Per farla breve, una buona misura di ironia presiede all'emersione dell'editoria scientifica; tutte le giustificazioni democratiche che accompagnano generalmente la nostre discussioni contemporanee sul copyright sembrano essere state l'esito di ragioni ben dimenticate, quasi innominabili. La storia dell'editoria scientifica o mostra al suo meglio l'astuzia hegeliana della storia, oppure rivela la capacità delle istituzioni di coprire le proprie tracce con dichiarazioni altisonanti!

Questo rapido excursus su alcune bizzarrie storiche dell'editoria scientifica permette di introdurre due punti importanti, che devono essere tenuti presenti nella parte restante di questo saggio:

  1. Molte delle categorie fondamentali che strutturano attualmente i principî del diritto dei nostri paesi e che informano l'operato delle istituzioni internazionali, come il WIPO, non erano parte e porzione dell'ottavo giorno della creazione. Viceversa, sono assolutamente il prodotto, e, di fatto, il costrutto di una storia particolare. Riflettono un equilibrio di interessi contrastanti che fu conseguito con notevole difficoltà e che non fu mai del tutto stabile: in verità, ha continuato a spostarsi, ma in modo sufficientemente lento e graduale da conservare un'apparenza di continuità e dunque rimanere utilizzabile nel corso dei vari emendamenti aggiunti al diritto sulla proprietà intellettuale esistente. Siamo ancora in questo gioco, come mostra il DMCA negli Stati Uniti. E' certo una storia lenta, specialmente se paragonata al passo delle vite umane e al passo ancor più frenetico della tecnologia. Ma la consapevolezza di movimenti storici lenti e profondi è ciò su cui verte il pensiero storico; e abbiamo bisogno della dimensione di questo pensiero storico per comprendere il senso della crisi dovuta all'aumento dei prezzi dei periodici. Quanto ci insegna l'evoluzione della stampa, a questo proposito, è piuttosto istruttivo. Ci svela piatte pianure di stabilità di grandi proporzioni; ci insegna che ciò che è essenzialmente in gioco cambia molto poco nel tempo. In sostanza, e al di là di tutte le avventurose vicende che Mark Rose ci racconta felicemente nel suo notevole Authors and Owners, le questioni di fondo restano poche: c'è il controllo, c'è la proprietà estesa a nuovi oggetti e c'è l'avidità di guadagno. Una volta stabilito e osservato con chiarezza questo, la storia della stampa diventa molto più facile da districare. Lo stesso resta vero nell'era digitale: non cambiano gli obiettivi del controllo, ma solo i suoi strumenti; dobbiamo, tuttavia, identificare la vera natura di questi ultimi.

  2. Con l'avvento delle tecnologie digitali, punti di equilibrio che si erano dimostrati essenziali per l'amministrazione delle questioni di copyright sono stati profondamente disturbati. La tecnologia non funziona più in sincronia col diritto e nessuno sa con certezza se gli sconvolgimenti siano ancora reversibili. Siamo entrati chiaramente in una fase rivoluzionaria nel senso proprio del termine: mutamenti reali nelle strutture di potere e nelle relazioni sociali sono nel futuro prossimo. Per cominciare a capire che cosa può significare "radicale" in questo contesto è sufficiente pensare non più di dieci secondi al fenomeno Napster, in realtà un epifenomeno minore già abbandonato da tutti tranne che da avvocati ipnotizzati e da qualche giornalista abbacinato. Privata di alcuni dei suoi supporti tecnologici, la proprietà intellettuale pare molto più difficile da proteggere, nella pratica.

Non sorprendentemente, questa situazione produce panico e predizioni catastrofiche, mentre eserciti di avvocati e di ingegneri vanno in cerca di sostituti adatti. Ma nessuno sa se questi sostituti esistono; vari indizi, in realtà, indicano la direzione opposta. Il caso della protezione dei DVD è molto significativo, in proposito. Questo comporta che forse il concetto attuale di proprietà intellettuale dovrà essere fatto colare a picco, infine, e si dovrà inventare qualcosa d'altro, probabilmente altrettanto ossimorico. Inoltre, la questione non sarà risolta il prossimo mese o anno. Dopo Gutenberg ci vollero due secoli e mezzo per escogitare un diritto sul copyright relativamente stabile; corrispondentemente, possiamo aspettarci almeno qualche decennio di dispute legali per riformare o forse anche smantellare le leggi sul copyright come le conosciamo ora. Se si dimostrasse vera la seconda ipotesi, resta difficile vedere che cosa potrebbe sostituirle, Allo stesso tempo, l'incapacità di immaginare qualcosa di diverso non ne indica l'impossibilità. Gli osservatori del XVII secolo avrebbero trovato altrettanto difficile anticipare una soluzione fondata su categorie così problematiche come "autori" e "proprietà intellettuale" limitata nel tempo.

Infine, e nonostante le apparenze, le leggi sul copyright sono già cambiate parecchio. Se ci fermiamo a riflettere sul modo in cui le questioni di copyright sono trattate oggi, in particolare nel contesto di licenze locali, ci si può legittimamente chiedere perché le leggi corrispondenti restano così centrali al di là di quanto hanno da dire sulla legittimità fondamentale della proprietà intellettuale. Gli editori commerciali, quando escogitarono i loro progetti di licenza e si spostarono verso un contesto puramente contrattuale, rigettarono, in sostanza, le vigenti regolamentazioni sul copyright perché apparivano fondamentalmente incompatibili con transazioni digitali profittevoli. Possiamo star certi che essi, per primi, lo abbiano fatto senza troppa nostalgia per la distruzione del vecchio terreno di gioco che tanto avevano contribuito a disegnare. Bibliotecari e studiosi devono gettare uno sguardo altrettanto duro e lucido al mondo che sta nascendo, in modo da evitare di tagliare la nebbia con le forbici, come usavano dire i giapponesi negli anni dopo la resa.

III. L'era Gutenberg: le funzioni delle riviste e degli articoli scientifici

5. La prospettiva degli scienziati e degli studiosi

In quanto studioso io stesso, spero mi permetterete di affermare che scienziati e studiosi sono creature essenzialmente schizofreniche: come autori, mi sia consentito chiamarli Dottor Jekyll; come lettori diventano Mr. Hyde. Per quanto possa essere triste, i bibliotecari incontrano in genere Mr. Hyde piuttosto che il Dottor Jekyll, specie quando egli 4 viene in ufficio a protestare per delle recenti cancellazioni di abbonamenti. Nel complesso, il Dottor Jekyll è molto più simpatico. Tuttavia, egli sembra un po' divertito dagli aspetti economici della pubblicazione delle sue nobili idee, o tratta questioni così prosaiche con benevola trascuratezza. Quando pubblica un articolo in una rivista, il Dottor Jekyll è molto attento alla sua visibilità, alla sua autorevolezza, al suo prestigio, nonché ad una quantità nota come "fattore d'impatto" 5 , come vedremo in seguito; d'altra parte, il Dottor Jekyll chiude un occhio sul costo delle riviste su cui pubblica, anche se il suo lato di lettore soffre per questo stesso prezzo. In qualche modo, i due lati della sua personalità non sembrano connettersi - e da qui la caratterizzazione schizofrenica che attribuisco alla maggioranza dei miei colleghi studiosi.

Gli scienziati-come-autori hanno bisogno di articoli archiviati soprattutto nella fase della composizione delle note a piè di pagina, cioè quando si devono riconoscere i diritti di proprietà - un tributo appropriato all'intuizione di Oldenburg. Questi articoli sono recuperati entro giornali, ristampe e estratti, fin tanto che sono stati regolarmente certificati dalla revisione di pari (peer review). Di regola, i preprint non lo sono; e neppure tutte le riviste: gli scienziati vogliono le migliori citazioni dalle più autorevoli fonti possibili, e questo mostra che in realtà l'editoria scientifica riposa sulla percezione di un ordine gerarchico fra riviste. Infine, gli scienziati seguono anche da cinque a dieci testate "essenziali" che considerano fondamentali per la loro specialità. In questo modo, controllano il progresso dei colleghi e dei potenziali concorrenti. Naturalmente, seguono anche altre notizie di carattere più professionale (conferenze, nuovi centri di ricerca, nuovi programmi etc.), ma questa attività ha poco a che fare con la trasmissione diretta della conoscenza scientifica.

Facendo le note, lo scienziato-come-autore tratta in effetti questioni di proprietà intellettuale, se ne renda conto o no. In questa veste, si comporta in modo molto simile a un avvocato d'accusa che costruisce la sua causa in tribunale. Di contro, il metodo di raccolta dell'informazione sembra molto meno sistematico, molto più improvvisato; si adatta a situazioni peculiari, e comporta un buon numero di svariate capacità investigative. In laboratorio, il medesimo scienziato agisce come un investigatore che svolge una indagine. Conferenze, seminari, chiamate telefoniche e ovviamente la posta elettronica sono parte del suo arsenale investigativo, come è stato mostrato da parecchie osservazioni partecipative di laboratori, come per esempio quelle di Michael Lynch 6 Con la generalizzazione dell'uso della posta elettronica, quello che si potrebbe chiamare il lavoro a maglia sociale dei testi scientifici non è mai stato così strettamente intrecciato con contatti umani - una situazione che, per inciso, difende ottimamente l'etimologia della parola "testo" 7 .

La lezione da derivare da tutto questo è evidente: i ricercatori scientifici trattano gli articoli e le riviste pubblicate esattamente come anticipato da Oldenburg, cioè come registri della proprietà intellettuale le cui funzioni sono vicine a quelle di un registro catastale. In effetti, le riviste registrano i titoli di proprietà (articoli) e definiscono confini e frontiere. Infine, gli scienziati sono interessati più agli articoli che alle testate delle riviste, esattamente come chiunque sarebbe più interessato a collocare un titolo terriero particolare piuttosto che l'ufficio del titolo. Tuttavia, anche sapere dov'è questo ufficio è, evidentemente, molto importante.

Una rivista scientifica non agisce solo come un pubblico registro; dà anche un'etichetta, o, ancor meglio, un marchio. I colleghi notano se il tuo ultimo articolo è uscito in una rivista come Cell o Nature, o in una meno prestigiosa. La ragione è semplice: essere pubblicati in una rivista famosa è un po' come apparire in televisione in prima serata. Consegna pubblico, crea visibilità. Per esempio, se un membro strutturato di una università di secondo ordine pubblica su Nature, sarà probabilmente celebrato nel bollettino locale. In altri termini, l'interesse primario delle riviste non è la trasmissione di informazione scientifica, bensì la marchiatura. E le conseguenze di questo stato di cose sono molteplici. Naturalmente, la trasmissione ha certo luogo, ma le riviste sono in genere troppo lente a rispondere alle esigenze e ai bisogni investigativi dei ricercatori scientifici.

Detto questo, il contesto in cui avviene la pubblicazione in una rivista famosa è in qualche modo più complesso di quanto sembri a prima vista. Significa anche essere accettato (talvolta a malincuore) in una specie di spazio intellettuale ristretto tramite un processo di revisione che garantisce tanto l'appartenenza a un certo tipo di club quanto la qualità del proprio lavoro. Un redattore che riceve un manoscritto - posto che sia rispondente ai criteri generali della sua disciplina - può farlo veleggiare attraverso il processo di revisione con vari gradi di facilità o di difficoltà, semplicemente scegliendo alcuni revisori piuttosto che altri. In questa fase particolare della pubblicazione scientifica, incontriamo un elemento costitutivo di quello che si potrebbe denominare micro-fisica della stabilità del paradigma 8 .

Così, una tela fitta di relazioni gerarchiche istituzionali e individuali struttura il sistema scientifico; e per apparire nelle migliori collocazioni editoriali è importante evitare passi "falsi". Falso qui non significa tanto "errato", quanto tatticamente o strategicamente imprudente: per esempio, gettare un guanto di sfida senza essersi assicurati una riserva sufficiente di risorse simboliche e istituzionali. In altre parole, la semplice cautela impone che un'intelligenza brillante - ammesso che sia presente - debba essere esercitata entro frontiere ben stabilite, piuttosto che fuori!

Fra gli scienziati, coloro che riescono a svolgere un ruolo di redattori attivi nel processo di pubblicazione godono di una posizione speciale e piuttosto potente, quella di "custodi" (gatekeeper). Come mediatori, si suppone che separino il grano dal loglio. Naturalmente, questo ruolo giudiziario può essere giustificato solo se è ammantato dell'integrità (e dell'autorità) dell'istituzione scientifica. Un qualsiasi cenno di arbitrarietà sistematica o di pregiudizio minaccerebbe l'intero edificio della comunicazione scientifica. In questo riguardo, un redattore scientifico agisce un po' come il guardasigilli, senza il quale la prerogativa regia non può essere esercitata quando il re è fisicamente assente. La differenza sta in un particolare importante: nella scienza non c'è re, e si suppone prevalgano solo la verità e la realtà. Tacitamente, il direttore della rivista è pervenuto ad occupare il ruolo di custode della verità e della realtà, o, in altri termini, quello di gran sacerdote.

Il direttore scientifico adempie anche il desiderio di Oldenburg di creare un registro della scienza universale. Nella misura in cui la pubblicazione sotto la sua responsabilità è sufficientemente accessibile e referenziata in bibliografie e altri simili strumenti, contribuisce allo sforzo generale e distribuito di tener traccia di chi ha fatto che cosa nella scienza. Tuttavia, la capacità di selezionare e di registrare equivale anche a concentrare una certa quantità di potere istituzionale e individuale nelle mani del direttore. Per questa ragione, il suo ruolo è assai ambito e ogni occasione per svolgerlo sarà presa in esame con grande interesse. Vedremo che gli editori capiscono benissimo questo aspetto: in effetti, esso fornisce la base per una fruttuosa alleanza con una certa categoria di scienziati, i cosiddetti "custodi".

6. Lo Science Citation Index e alcune delle sue conseguenze

Per comprendere perché il mercato delle riviste scientifiche sia passato attraverso una profonda metamorfosi dopo la II guerra mondiale, aprirò una parentesi sul lavoro intrapreso tra i bibliotecari prima della guerra. I loro sforzi furono una parte e una porzione di un'altra transizione che ha trasformato l'arte bibliotecaria in una scienza bibliotecaria prima di mutarla in una scienza dell'informazione.

La legge di Bradford, pubblicata per la prima volta nel 1934 9 , fondamentalmente è stata un tentativo di rispondere ad un problema che bibliotecari a cui erano state legate le mani da un punto di vista finanziario stavano cercando di risolvere (questo è stata la crisi del 1929): ovvero, abbassare il costo dell'uso di ogni documento. Il sogno impossibile era trovare un modo per comprare solo ciò di cui gli utenti avessero realmente bisogno. Già in questa ricerca è visibile l'obiettivo di essere dispensati dall'acquisto dei materiali costosi, di solito acquisiti nella logica del just in case ("nel caso che"); essa portò infatti a dire: quanto possiamo essere esonerati dall'acquistare senza che ciò metta in pericolo la situazione del just in case in termini pratici?

Chiunque sia addentro alla professione del bibliotecario conosce la legge distributiva di Bradford. Essa presuppone un moltiplicatore, bm, realmente derivato da una proporzione: se sono necessarie 5 riviste per avere una visione complessiva delle parti essenziali di una materia specialistica e queste cinque riviste, per esempio, contengono 12 articoli interessanti, e se, per trovare altri 12 articoli, si ha bisogno di 10 riviste, allora bm sarà uguale a 2 (10 diviso 5). Se poi si vuole trovare un'altra collezione di 12 articoli, si moltiplicheranno le 10 riviste per il moltiplicatore e si arriverà al numero di 20. Ovviamente, i vantaggi diminuiscono rapidamente, dal momento che il moltiplicatore cresce in modo esponenziale, e ciò spiega perché gli scienziati hanno imparato da tempo a moderare la loro spinta verso ricerche esaustive. Questo pizzico di saggezza pratica ha ancora più senso dal momento che, come abbiamo visto prima, il fine della lettura di articoli in riviste generalmente corrisponde a fissare la proprietà intellettuale dando a Cesare (o chi per lui) quello che gli appartiene. Il senso comune rende imperativo non dimenticare i personaggi che rivestono un ruolo importante nella propria area di ricerca; d'altra parte, è perdonabile lasciarsi sfuggire un riferimento in riviste di secondaria o terziaria rilevanza e, in genere, la cosa può spesso essere emendata in un lavoro successivo, nel caso in cui l'autore o gli autori si lamentino.

La legge di Bradford è stata estremamente utile alla comunità dei bibliotecari: grazie ad essa, si poteva veramente diminuire il costo di consultazione delle riviste da tenere in una biblioteca identificando le "pubblicazioni principali" di ogni materia specialistica. In tal mondo, i bibliotecari potevano contemperare nel modo migliore i bisogni degli scienziati ricercatori locali e il loro patrimonio librario. Si noti che, a questo punto della storia, cioè almeno fino ai primi anni Sessanta, esistevano dozzine di piccole pubblicazioni principali indipendenti, ciascuna corrispondente a una particolare materia specialistica.

La seconda guerra mondiale mise alla prova, in modi che non avevano precedenti, i sistemi informativi di tutte le nazioni impegnate nel conflitto. Negli Stati Uniti, ciò portò alla celebrata meditazione di Vannevar Bush su una possibile macchina - il Memex - che avrebbe consentito di costruire sistemi informativi più ricchi, più potenti e più flessibili. Questo articolo ampiamente noto, che apparve nel 1945 sull'Atlantic Monthly, ha ispirato lo sviluppo dell'ipertesto, in particolare nel lavoro di Ted Nelson e Doug Englebart; ma ha anche stimolato la riflessione di Eugene Garfield e il programma dell'Institute of Scientific Information (ISI). Quest'ultimo ha visto nel sistema di citazione degli articoli scientifici le basi per la costruzione di una gigantesca rete della conoscenza e ha proceduto ad esplorare la soluzione migliore per realizzare il suo sogno.

Collegare tutti gli articoli della letteratura scientifica mondiale non sarebbe mai stato possibile, se non fosse stato per l'esistenza di iperboliche leggi quali la legge della distribuzione di Bradford o quella della produzione scientifica di Lotka 10 . Insieme, esse hanno consentito di ridurre a proporzioni gestibili la questione di come rintracciare le citazioni. In effetti, Garfield non ha fatto altro che contrarre l'intera collezione dei piccoli "nuclei" di ogni materia specialistica in un grande "nucleo scientifico" e usare questa collezione di titoli di riviste come base dell'emergente Science Citation Index (SCI) dell'ISI. Il numero delle riviste fondamentali selezionate, sebbene sia gradualmente cresciuto, è stato limitato a poche migliaia di titoli, una piccola frazione di tutte le riviste scientifiche pubblicate nel mondo. Tutto ciò ha avuto luogo nei primi anni Sessanta.

La soluzione paradigmatica adottata da Garfield per risolvere un problema spinoso - ovvero quello di trovare i modi per gestire le tracce di migliaia di migliaia di citazioni - ha portato con sé una conseguenza di grande rilievo sul piano teorico. Nel fondere insieme ogni tipo di piccole riviste specialistiche, ritenute fondamentali, raccolte sia sulla base della copertura offerta da bibliografie di rilievo, sia sulla base delle interviste fatte a molti scienziati chiave, Garfield, in effetti, ha dato sostanza e realtà ad una nuova nozione: l'idea di riviste fondamentali (core journals) per una scienza fondamentale (core science). Quello che era considerato uno strumento utile per compiere scelte difficili è divenuto un concetto generale con pretese universali. D'un tratto esisteva la "scienza fondamentale" e poteva essere resa ben visibile dando risalto ad una specifica lista di pubblicazioni. I disaccordi, certo, non mancarono, ma avevano a che fare con questa o quella specifica lacuna, piuttosto che con la concezione stessa di riviste fondamentali. Queste discussioni così rafforzarono, piuttosto che indebolire, il concetto di rivista fondamentale in quanto tale. Garfield aveva vinto!

L'intenzione fondamentale di Garfield era essenzialmente bibliografica, ma egli ha osservato che nessuno avrebbe potuto anticipare tutti gli usi che sono emersi dall'evoluzione dello SCI. In ogni caso, la possibilità di valutare l'impatto di un dato articolo su successive pubblicazioni emerse piuttosto rapidamente. Alla fine degli anni Sessanta e ai primi degli anni Settanta, molte università e molti centri di ricerca rimuginarono sul modo migliore in cui costruire una scala oggettiva con la quale "dare un punteggio" al lavoro dei ricercatori. Lo strumento bibliografico migliorato che Garfield aveva concepito, sulla base dell'illuminazione che gli venne dalla meditazione di Bush, d'un tratto apparve promettente a tal fine. Dopo un po', l'ISI cominciò a pubblicare il fattore d'impatto delle riviste che utilizzava nello SCI, in realtà dando un punteggio a queste riviste l'una rispetto all'altra, come se tutte le discipline e tutte le specializzazioni all'interno delle discipline avessero pratiche comuni nell'uso delle citazioni, come se tutte le scienze non fossero che una grande cultura unificata. Con questa mossa, lo SCI era pronto a spostarsi verso un'area di attività totalmente nuova: quella di strumento per la gestione della carriera.

I centri di ricerca e le università fanno comunemente uso dei fattori d'impatto delle riviste. Sebbene relativo ai periodici, questo indicatore viene applicato nella valutazione delle prestazioni di singoli scienziati, semplicemente perché i numeri relativi ad esso sono pubblicati e facilmente accessibili 11 . Tuttavia, questa blanda approssimazione mina il significato stesso di tale esercizio. Il lato quantitativo del fattore d'impatto certamente suggerisce oggettività. Per alcune persone, in particolare per gli amministratori della scienza, questa connotazione di oggettività sembra essere più importante dell'appropriatezza del metodo, perché consente loro di produrre forme potenti di retorica valutativa. Tiene inoltre tutti ipnotizzati dalle testate delle riviste e relega gli articoli sullo sfondo. Come si vedrà, l'interesse degli editori commerciali è continuare a promuovere le testate delle riviste, e non i singoli articoli, dal momento che sono i titoli il fondamento della loro tecnica, finanziariamente remunerativa, di marchio dei singoli scienziati.

Con l'identificazione delle riviste fondamentali e la loro valutazione secondo il loro fattore d'impatto, gli scienziati, particolarmente i migliori, hanno ben poca scelta oltre quella di provare a pubblicare sulle pubblicazioni più importanti. Il fatto di aver focalizzato l'attenzione sulle riviste fondamentali porta i ricercatori produttivi a cercare di ottenere attraverso queste pubblicazioni visibilità, prestigio e autorità (nonché un miglioramento della loro posizione istituzionale). I vincitori della legge di Lotka gareggiano per pubblicare su riviste interessanti in quanto identificate da una cambinazione della legge di Bradford e dei fattori di impatto. E l'importanza relativa delle testate delle riviste rispetto agli articoli cresce ancora di più.

Cartografando le attività di citazione fra gli articoli di quelle riviste, l'ISI aveva inteso creare un nuovo strumento bibliografico; tuttavia, limitando pragmaticamente il suo strumento di analisi delle citazioni ad un numero selezionato di riviste "fondamentali", aveva anche costruito una conoscenza dello spazio scientifico a metà strada fra eccellenza ed elitismo. L'eccellenza ha a che fare con la qualità, l'elitismo col valore. Introducendo componenti elitistiche nella ricerca scientifica dell'eccellenza, lo SCI sovvertì parzialmente il senso del gioco scientifico.

Ponendo un insieme fondamentale di riviste in netto rilievo, l'ISI (e alcune altre prestigiose bibliografie) sono riuscite a trasformare la ricerca dell'eccellenza in una corsa per uno status di tipo elitista. In se stessa, questa tendenza non avrebbe potuto destare grave preoccupazione, se il controllo delle pubblicazioni scientifiche fosse rimasto solidamente nelle mani delle comunità scientifiche, e se la spinta in senso elitistico fosse stata trattenuta entro limiti ragionevoli. La gerarchia, come abbiamo già visto, è cosa non estranea alla scienza, e la scienza può persino civettare con l'elitismo senza danneggiare seriamente la sua struttura fondamentale. Inoltre, si dovrebbe certamente plaudire al miglioramento degli strumenti volti a perfezionare le regole della competizione. La trasformazione di una ricerca di eccellenza in una corsa per lo status elitista, tuttavia, ha importanti implicazioni per qualsiasi biblioteca di ricerca che pretenda di essere del miglior livello: una volta che le è stato dato rilievo, una pubblicazione diviene indispensabile, ineludibile. La competizione lo richiede. Deve essere acquistata a tutti i costi. Qui sta una delle fasi cruciali nella trasformazione dell'editoria scientifica, che è anche al cuore della crisi dei prezzi dei periodici. Equivaleva a una prima rivoluzione nell'economia della conoscenza, e i bibliotecari la percepirono come una crisi dei prezzi dei periodici.

7. Il nuovo Eldorado degli editori: le riviste scientifiche

Per molto tempo, l'attività editoriale scientifica rimase per lo più nelle mani di società di studiosi e di simili istituzioni guidate da scienziati. Comunque, come ha mostrato Jack Meadows 12 , problemi di ritardo e ricorrenti tendenze a censurare alcune aree della ricerca (quali la frenologia o, più sorprendentemente, la statistica) offrirono agli editori commerciali un'opportunità di entrare in questo particolare settore di attività. All'inizio, la loro presenza fu probabilmente benefica poiché aiutò le associazioni e le società scientifiche a stare in guardia. Al tempo stesso, la peculiare natura dell'editoria scientifica mise gli editori di fronte a un numero di problemi che danneggiarono severamente le loro attività: riconciliare il target elevato dell'editoria scientifica con gli strumenti della produzione di massa e mantenere lucrativa l'intera impresa si presentò come un compito scoraggiante. In quei giorni, le riviste periodiche, diversamente dai trattati e dai manuali, si rivelavano raramente fonti di guadagno, ma pubblicarne alcune poteva dare prestigio; e, cosa più importante, assicurare contatti con gli autori che, un giorno, potevano voler scrivere un manuale o un trattato. Fino a ben dopo la II guerra mondiale, gli editori commerciali rimasero un gruppo frammentato e marginale in questo ambito di attività secondarie che ruota intorno alle riviste scientifiche.

Con l'avvento dello SCI, la situazione mutò rapidamente. Le possibilità economiche legate alle "riviste fondamentali" (core journals) divennero sempre più evidenti quando, all'incirca nello stesso periodo, la grandezza e il numero delle biblioteche crebbe anch'esso in misura notevole in seguito all'esplosione delle università avvenuta dopo la guerra, prima negli Stati Uniti, e più tardi ovunque nel mondo industrializzato. Le principali riviste scientifiche stampate improvvisamente godettero di un mercato piuttosto grande e sicuro.

Gli editori commerciali non ci misero molto a comprendere che si era appena venuta a configurare una nuova situazione potenzialmente lucrativa. Dopo tutto c'era dell'oro in quegli schedari! Ciò che i bibliotecari consideravano quali cruciali riviste fondamentali, veniva trasformato dagli editori in elemento constitutivo di un "mercato anelastico", ovvero, di un mercato in cui la domanda era poco influenzata dai prezzi (e vice versa).

Gli ideologi capitalisti e le personalità neoliberali spesso pronunciano parole ispirate e piene di passione sul mercato come soluzione universale per quasi tutti, se non tutti, i problemi umani; ma dimenticano che in fondo al cuore della pratica capitalistica reale sta la ricerca di situazioni di monopolio. Bill Gates non è mai stato interessato ad un mercato perfetto, ovvero ad un mercato concorrenziale, un punto questo che il Dipartimento di Giustizia degli Stati Uniti si è adoperato con con una certa prontezza a documentare e perseguire. Sfruttare mercati anelastici dovunque esistano (o possano essere creati) è l'essenza stessa del gioco capitalistico. Gli editori commerciali, abbastanza prevedibilmente, non sarebbero rimasti insensibili alle sollecitazioni promettentemente lucrative che venivano, in modo inatteso, da un settore quale quello delle riviste scientifiche.

La crisi dei prezzi dei periodici cominciò a venire in superficie nei primi anni Settanta, qualche anno dopo l'inizio dello SCI. Questo ritardo può essere interpretato come il tempo necessario per digerire le implicazioni economiche dell'emergenza delle "riviste fondamentali" e per mettere in atto nuove strategie commerciali. A cominciare dalla fine degli anni Sessanta gli interessi dell'industria editoriale presero a bersaglio le riviste fondamentali 13 . Vari editori hanno instancabilmente cercato di mettere le mani su quei titoli attraverso una serie disparata di mezzi: acquisizione diretta, vendita di servizi editoriali e, naturalmente, un certo numero di acquisizioni e fusioni spettacolari. L'editoria legata alle riviste scientifiche procede a passo accelerato verso la concentrazione industriale. Elsevier, ora Reed-Elsevier, ha acquisito le dimensioni di un Behemoth. Controlla, ad oggi, circa il 20 per cento delle pubblicazioni principali. Il suo ultimo successo in termini di acquisizioni è l'Academic Press (come parte dell'accordo che l'ha portata all'acquisto della Harcourt Brace).

Alla fine degli anni Ottanta, il nuovo sistema editoriale era stabilmente radicato; le sue conseguenze finanziarie erano divenute così dannose da provocare alcune serie manifestazioni di malcontento da parte dei bibliotecari e da attirare persino l'attenzione di alcuni scienziati, quali Henry Barschall, il medico dell'Università del Wisconsin che ha prodotto in modo pionieristico alcune statistiche molto interessanti. Esse mostravano che, se messo in relazione al costo per 1.000 caratteri, il prezzo di varie riviste poteva variare di due ordini di grandezza; ma, se messo in relazione al fattore d'impatto, le variazioni potevano raggiungere i tre ordini di grandezza.

Solo puntare il dito su questa variazione da uno a mille dei prezzi riscontrati è sufficiente a dimostrare la totale arbitrarietà del sistema di prezzi delle riviste scientifiche; ovvero, la sua totale sconnessione dagli attuali costi di produzione. Ciò dovrebbe essere sufficiente per rispondere anche alla domanda (fortunatamente retorica) posta da Ann Okerson: paghiamo davvero troppo la nostra informazione scientifica 14 ? Certo, che paghiamo troppo! Altrimenti, i prezzi non potrebbero variare in modo così selvaggio.

Ma più fondamentalmente, non si paga tanto per l'informazione quanto per il prestigio: Piazzare un articolo su riviste come Cell o Nature marchia! Ora, se si mette in relazione il processo della marchiatura con il modo stravagante in cui sono fissati i prezzi delle riviste scientifiche, si può facilmente comprendere come l'eccellenza scientifica, che già di per sé tende a trasformarsi in elitismo scientifico, si sia venuta abilmente a congiungere con l'elitismo finanziario. Solo chi è ricco (e presumibilmente scaltro) può leggere informazione scientifica aggiornata. Da parte loro, le istituzioni più povere in alcuni paesi ricchi e tutte le istituzioni nei paesi poveri hanno sofferto enormemente a causa della manna finanziaria resa possibile dall'invenzione rivoluzionaria delle "riviste fondamentali" 15 .

Che Henry Barschall avesse toccato un nervo sensibile con le sue accurate statistiche comparative apparve chiaro dalla reazione di almeno un editore, Gordon & Breach. Questo editore ha citato in giudizio Henry Barschall, l'American Institute of Phisics e l'American Physical Society in quattro paesi: gli Stati Uniti, la Germania, la Svizzera e la Francia. Cautamente, per non dire vilmente, Gordon & Breach non ha intentato la stessa causa nel proprio paese, la Gran Bretagna, dove ha la propria sede ...Gordon & Breach in definitiva ha perso ovunque, l'ultima volta in Francia nel giugno del 2000, e ancora nell'agosto del 2000 è ricorsa in appello 16 . Il punto, certamente, non era vincere - un obiettivo chiaramente impossibile - ma solo intimidire un individuo coraggioso e guadagnare quanto più tempo possibile durante il quale nessuno avesse l'ardire di lavorare a statistiche simili e di pubblicarle.

Purtroppo, Henry Barschall non è vissuto abbastanza per assistere alla sua vittoria finale. Sebbene eccezionalmente brutale, il comportamento della Gordon & Breach deve essere considerato come una franca espressione dei veri sentimenti che l'editore commerciale nutre verso i mercati. Nel senso economico della parola, un mercato richiede consumatori perfettamente informati che si suppone facciano scelte razionali. Sostenere, come ha fatto la Gordon & Breach, che l'informazione relativa ai prezzi delle riviste scientifiche si traduce in una distorsione e in una manipolazione mostra l'assoluto disprezzo di quella azienda per tale concetto economico.

Volgiamo ora la nostra attenzione a un diverso tipo di questione: come sono create le nuove riviste? Ciò ci consentirà di mostrare come si stabilisce e come funziona un'altra alleanza - quella tra gli editori e gli scienziati "custodi" (gatekeeper). Come si fa a creare una nuova rivista commercialmente interessante che sia anche in grado di attirare scienziati di valore? Come si recluta un nuovo direttore? La competizione e la frammentazione che caratterizza i lavori dei collegi invisibili 17 si avvicina molto ad una spiegazione di come si possa ottenere tutto ciò in modo relativamente semplice.

Gli scienziati non possono sperare di lanciare una nuova rivista che corrisponda a qualche nuova sotto-specializzazione senza un serio sostegno, sia intellettuale che finanziario. Se la componente scientifica è certamente fondamentale, il denaro non può essere trascurato; senza denaro, il migliore dei progetti non potrebbe essere realizzato. Inoltre, il sostegno finanziario deve essere assicurato per un periodo sufficiente, se l'obiettivo è quello di portare la nuova rivista a raggiungere lo status di rivista fondamentale. Certo, una volta raggiunto il successo la rivista diviene non solo finanziariamente sicura, ma abbastanza lucrativa. In questo modo, un editore può immaginare di investire in una nuova impresa, aiutare a portarla a raggiungere lo status di rivista fondamentale, e quindi mettersi in tasca i profitti. Dal momento che le riviste danno un marchio agli autori, lanciare una nuova rivista assomiglia a lanciare una nuova marca.

Come si è osservato sopra, gli scienziati che agiscono da custodi (gatekeeper) godono di uno status privilegiato all'interno della comunità scientifica. Se ad uno scienziato con una certa reputazione è offerta la possibilità di dirigere una nuova rivista, la risposta sarà generalmente positiva, forse addirittura entusiastica. L'abilità di offrire a vari scienziati questo status privilegiato sta, credo, alla base di un'alleanza de facto, largamente inindagata, tra un certo numero di scienziati chiave e gli editori commerciali. Grazie a capitali abbondanti, gli editori commerciali possono facilmente e velocemente mettere a segno degli accordi con scienziati che lavorano o in nuove aree o in aree che non sono ancora molto influenzate da un particolare editore. In questo modo, un editore può persino sostenere una rivista mirando direttamente ad un altra, simile, posseduta da un diverso editore.

Le case editrici universitarie e le società di studiosi che agiscono come vere società di studiosi 18 ovviamente non hanno la disponibilità di simili risorse economiche; conseguentemente, la loro capacità di spostarsi in nuovi settori o di creare nuove riviste è molto limitata. Si appoggiano a ciò che hanno finché possono, fino al momento in cui, stanchi e scoraggiati, accettano le seducenti proposte di qualche grande editore. Dopo tutto, essi mantengono il controllo scientifico; mentre per quanto riguarda il costo della rivista rinnovata, beh... prevale – capite che cosa intendo? – la vecchia sindrome schizofrenica...

L'alleanza tra scienziati gatekeeper e editori commerciali ovviamente genera una situazione vantaggiosa per entrambi (win-win situation) i partner. Quello che spesso si dimentica, comunque, è che queste situazioni in cui tutt'e due i giocatori vincono, come si usa dire retoricamente per giustificare un risultato desiderato, spesso tacciono sulla possibilità che vi sia una terza parte perdente. Nel caso di riviste dai prezzi troppo alti, non parlo solo delle biblioteche, ma delle istituzioni che le sovvenzionano, come le università o i centri di ricerca, e persino gli stati che le finanziano in tutto o in parte. Tutti questi giocatori vedono le loro risorse finanziarie finire inesorabilmente nelle tasche dei grandi editori. Per questo, anch'essi dovrebbero essere molto preoccupati.

8. La prospettiva delle biblioteche

Le biblioteche sono state le prime a sentire la stretta del nuovo piano pensato dal mondo degli affari per le riviste accademiche; esse sono state anche le prime a documentarne con cura l'esistenza. Comunque, le "riviste fondamentali" hanno fatto più che danneggiare finanziariamente le biblioteche. Userò l'esempio canadese, dal momento che esso è molto più semplice di quello rappresentato dalla complessa e smisurata scena americana. Secondo i dati raccolti dalla Canadian Association of Research Libraries, l'Università di Toronto spende in periodici circa tre volte di più della biblioteca canadese di ricerca che la segue in ordine di grandezza (quella dell'Università di Alberta), e questo dovrebbe tradursi in qualcosa come il possesso di un numero di testate di tre volte superiore. Per conoscere quanti articoli interessanti in più uno scienziato può trovare a Toronto rispetto ad Alberta, però, si devono dividere questi numeri di tre volte superiori per il moltiplicatore di Bradford. Se questo moltiplicatore è di due, triplicare il numero delle testate porta ad ottenere un numero di articoli interessanti solo di una volta e mezzo superiore. L'investimento aggiuntivo diviene rapidamente meno produttivo, il che spiega perché solo una biblioteca in Canada cerca di mantenersi al di sopra delle altre e di stare all'altezza delle migliori biblioteche americane; ciò suggerisce anche perché siano sovrarappresentate le biblioteche di ricerca canadesi che spendono circa 6-7 milioni di dollari canadesi in riviste (da 4 a 4,5 milioni di dollari americani al tasso di cambio attuale): questa somma grosso modo corrisponde a quella necessaria per acquistare l'insieme delle riviste considerate fondamentali, con variazioni locali minime 19 . In breve, le biblioteche di ricerca sembrano utilizzare le riviste fondamentali come banco di prova elementare; esse sono divenute un obiettivo comune. Certe biblioteche arrivano a fare un po' meglio, altre provano a non rimanere troppo indietro, almeno nell'ambito in cui sono attivi i ricercatori locali, ma tutte hanno gli occhi fissi su quella soglia e acquistano quanto più possibile dall'insieme delle riviste fondamentali. Un insieme che in effetti è divenuto un must.

Di fronte a questa situazione, i bibliotecari hanno reagito con pazienza e persino stoicamente. Con il loro essere così ragionevoli, tuttavia, senza rendersene conto, hanno contribuito a far sì che una nuova e intollerabile invenzione affaristica fosse trattata come una realtà inevitabile. In altre parole, i bibliotecari si sforzarono di agire "realisticamente". L'incredibile aumento dei costi e la consapevolezza, lentamente crescente, del fatto che la maggior parte delle spiegazioni fornite dagli editori equivalevano a un tentativo di confondere le acque hanno portato alla fine alcuni di loro ad adottare un atteggiamento più militante. La frustrazione, e quindi la rabbia sono venute alla fine in superficie. Sono tentato di dire: era l'ora!

Il nuovo spirito combattivo dei bibliotecari è evidente nell'iniziativa dello SPARC e nel movimento Create Change. Entrambi dimostrano il desiderio dei bibliotecari non solo di innovare, ma anche di affrontare i grandi editori commerciali. L'obiettivo è ripristinare la competizione laddove essa è scomparsa, per tutti i fini e gli intenti. Comunque, la questione che si deve sollevare immediatamente è se le strategie dello SPARC siano realmente efficaci. La mia risposta sarà un cauto "sì", dal momento che la raccolta delle prove è solo all'inizio. Diciamo che il giudizio non è stato ancora emesso dalla giuria, ma alcuni primi segnali sono incoraggianti.

L'iniziativa dello SPARC è basata su un buon argomento: se l'aumento eccessivo dei costi delle riviste è reso possibile da una situazione quasi monopolistica, allora, sostiene lo SPARC, la competizione deve essere reintrodotta e rinforzata. La soluzione, quindi, richiede di creare o sostenere riviste che possano competere testa a testa con le grandi e costose riviste dei grandi editori commerciali. Comunque, il punto non è prendere di mira tutte le riviste costose per ridurle in macerie intellettuali. Alla fine dimostrare che la presente economia politica delle pubblicazioni accademiche non è né normale né fatale sarà più importante che battere poche riviste commerciali al loro gioco. Se un numero sufficiente di scienziati arriva a comprendere che i grandi editori non sono invicibili e che, di più, la loro influenza sulla scienza non è universalmente positiva, allora un movimento molto potente può cominciare ad acquistare slancio, grazie a SPARC.

Esistono oggi alcuni esempi tangibili a dimostrazione che è cominciato sul serio il momento della realizzazione della strategia. Alcuni campi e specializzazioni sono già coperti, in particolare in matematica; Topology and its Applications (Elsevier, 2.509 dollari 20 ) fronteggia Algebraic and Geometric Topology, un'alternativa della SPARC che è pubblicata gratis dal Mathematics Institute della Warwick University nel Regno Unito 21 ; Tetrahedron Letters (Elsevier, 9.036 dollari) deve dividersi ora il campo della chimica organica con Organic Letters (2.438 dollari - di gran lunga la più costosa delle riviste della SPARC, ma sempre molto più economica della pubblicazione Elsevier) 22 . In maniera interessante, alcune società di studiosi sono coinvolte in accordi con la SPARC: oltre alla American Chemical Society e alla Royal Society of Chemistry, già ricordata, troviamo lo IEEE (IEEE Sensors Journal). Ma BioOne può offrire l'esempio più vasto di questo tipo di collaborazione: comprende quasi 50 riviste che appartengono a più piccole società scientifiche. Infine, anche le case editrici universitarie (Cambridge University Press, MIT Press) stanno collaborando con SPARC, completando così un impressionante dispiegamento di collaboratori.

Pure le differenze di prezzo tra le testate sono incoraggianti, anche se tali comparazioni non sono convincenti quanto i costi per 1000 caratteri o, più semplicemente, i costi per pagina o i costi per articolo, e questi ultimi hanno talvolta rivelato risultati molto meno impressionanti 23 . Comunque, il risultato più incoraggiante delle pubblicazioni SPARC risiede nella loro chiara capacità di tenere a freno i prezzi dei concorrenti, almeno in una qualche misura. Il prezzo di Tetrahedron Letters, già a 5.200 dollari nel 1995 sembrava destinato a salire a 12.000 dollari nel 2001, se le tendenze fossero rimaste invariate; in realtà, ha mostrato alcuni segni di livellamento verso il basso, raggiungendo un prezzo di circa 9.000 dollari nel 2001 - stavo quasi per scrivere "solo", ma all'ultimo minuto mi sono trattenuto. L'appiattimento della curva dei prezzi di Tetrahedron Letters, in modo abbastanza interessante, coincide con il lancio di SPARC e si è accentuato da quando ha cominciato a dover competere con Organic Letters (aumento del 3% dal 1999 al 2000, del 2% l'anno successivo). L'ultimo esempio può essere persino più interessante: grazie al sostegno della SPARC, almeno un direttore di rivista è riuscito a convincere il suo editore ad abbassare i prezzi degli abbonamenti: l'American Association of Physical Anthropology è riuscita ad ottenere un abbassamento del prezzo istituzionale da 1.390 a 2.085 dollari 24 ! La possibilità di lanciare una rivista alternativa deve aver giocato un qualche ruolo nei retroscena di queste discussioni.

In effetti, SPARC sta usando un certo numero di tattiche per moltiplicare i contatti e le forme di collaborazione con le società di studiosi, le singole riviste, e persino i singoli scienziati nella loro veste di autori. Il fine è competere con successo per ottenere i migliori articoli dai migliori scienziati e poterli offrire al miglior prezzo possibile. Indubbiamente, il progetto di questa strategia ha richiesto molta riflessione, e anche una buona dose di vero coraggio, perché battaglie come queste non sono facili da intraprendere. Funzionerà nel lungo periodo? Personalmente, spero di sì, ma non sarà facile. Con equità verso SPARC, nessuna soluzione è probabile sia facile, anche solo per il fatto che gli editori commerciali sono trincerati dietro posizioni molto potenti. Molti sono spaventati da questa situazione al punto da sentirsi paralizzati; va a onore della SPARC il fatto che l'associazione sia riuscita a recuperareil senso dell'iniziativa fra molti bibliotecari e a riportare la speranza sotto forma di possibilità tangibili.

Come abbiamo visto, le riviste funzionano veramente come una macchina dalla triplice funzionalità: conferire un'immagine di marca; fornire una chiave per i titoli di proprietà; e uno strumento di valutazione del lavoro dei singoli scienziati. Rispetto a queste funzioni, non c'è dubbio che riviste fondamentali molto note offrano, a differenza di riviste più sconosciute, un valore positivo. Per esempio, ricevere un'immagine di marca da una rivista leader fornisce sempre una visibilità preziosa e stimolante, ed offre un appoggio perfetto al momento di ottenere un posto. Inoltre, le riviste fondamentali sono ben note, e possono contare sulle pigre abitudini di numerosi scienziati che ne ricordano di solito qualrapida applicazione della legge di Bradford.

Come conseguenza, contro una rivista affermata una nuova pubblicazione dello SPARC deve aspettarsi di combattere una difficile battaglia: deve provare la sua credibilità e può incontrare delle reali difficoltà a elevarsi fino al livello di rivista fondamentale, persino se ha il sostegno benevolo di influenti scienziati. Se si tiene conto delle considerevoli risorse finanziarie delle grandi case editrici commerciali, insieme al loro impressionante arsenale di expertise tecnica, e se vengono a completare il paesaggio le economie di scala che derivano dal fatto di possedere centinaia di titoli; si ha a che fare con una situazione del tipo "David e Golia". Ciò configura già un quadro abbastanza difficile, ma si deve essere anche sicuri che David non abbia scelto il campo di battaglia sbagliato. In breve, temo che un attacco frontale contro un grande editore commerciale come Elsevier possa essere prematuro, nonostante i primi risultati incoraggianti. Sono parole difficili da pronunciare, queste, per me, perché il mio cuore sta dalla parte di SPARC, e credo profondamente nei suoi fini e nelle sue ragioni. Desidero persino sostenere i suoi sforzi. Purtroppo, però, la purezza dei motivi non ha mai garantito l'efficienza o il successo.

Certo, SPARC non si limita a creare nuove riviste. In effetti, ha fatto ricorso a un dispiegamento completo di iniziative per cercare di mettere in relazione scienziati, editori universitari, società di ricercatori e biblioteche al fine di costituire un me coerente che potrebbe rallentare, e persino invertire, l'incredibile sete di guadagno che motiva gli editori commerciali. Esplorando le possibilità di aiutare le società di ricerca a mantenere il controllo delle loro rivista, ogni volta che si trovino a dover affrontare difficoltà finanziarie, aiutando i redattori a negoziare accordi migliori con i loro editori quando si trovano nelle mani di editori commerciali, informando i colleghi ricercatori della realtà economica delle pubblicazioni scientifiche, SPARC lavora a creare alleanze più forti tra le biblioteche, e una categoria di gatekeeper che si rifiuti di assecondare troppo di buon grado i grandi editori.

Dobbiamo ricordare che se qualche cosa di utile si potrà raggiungere nell'area dell'editoria scientifica, dovrà poggiare su una rinnovata alleanza con le istituzioni scientifiche: associazioni, società di studiosi, collegi invisibili (ovvero, reti di scienziati che fanno ricerca nelle stesse materie specialistiche) appaiono cruciali, anche solo per rafforzare i legami tra le associazioni dei bibliotecari e gli scienziati che svolgono la funzione di gatekeeper. Può essere quel tipo di legame che ha condotto l'intera redazione del Journal of Logic Programming a rassegnare le dimissioni in massa da questa pubblicazione della Elsevier e a fondare una nuova rivista, Theory & Practice of Logic Programming (Cambridge University Press). Il professor Maurice Brynooghe ha vinto persino un premio per questa mossa coraggiosa. Nel febbraio del 2001, la Elsevier ha mostrato il proprio desiderio di recuperare il terreno perduto lanciando un periodico con un titolo leggermente diverso, il Journal of Logic & Algebraic Programming 25 , con un comitato editoriale diretto da J. A. Bergstra (Amsterdam e Utrecht) e J. V. Tucker (Swansea). Non augurerò certamente buona fortuna a questo nuovo comitato, ma devo constatare che gli scienziati antepongono spesso l'avanzamento della loro carriera al bene pubblico. Per un professor Bruynooghe, ce ne sono dieci altri pronti a godere dell'opportunità di agire quali gatekeeper. E' questo tipo di mentalità grettamente egoistica che SPARC deve cercare di contrastare; e non sarà facile. Gli amministratori e le persone che svolgono compiti di valutazione, però, possono contribuire riformando i criteri usati per valutare la loro ricerca personale. Ma lo faranno?

In conclusione, SPARC appare come uno strumento versatile, concepito per faciliare la conclusione di accordi pragmatici con partner diversi, mantenendo gli occhi di tutti esercitati al bisogno di riaprire il "mercato" della comunicazione scientifica. La sua forza principale consiste probabilmente nella sua flessibilità e nel suo realismo: invece di aderire in maniera rigida a dei principî eccellenti, porta avanti una serie di mosse pratiche destinate sia a indebolire la presa dei grandi editori sul sistema di comunicazione scientifica sia a fornire una visione alternativa dello scambio scientifico, che sia capace di mobilitare tanto i ricercatori quanto gli amministratori della ricerca. Il suo migliore futuro, dal mio punto di vista, è cercare di raggiungere ciò che sta perseguendo, in particolare, ridare un certo grado di elasticità al mercato che i grandi editori tentano di monopolizzare. La sfida maggiore di SPARC è di trovare il mezzo di coordinare le sue azioni con l'Open Archives Initiative (vedi più oltre) così da cercare una sinergia che porterà una crescente efficienza a questi sviluppi paralleli. SPARC avrà bisogno di questa alleanza, se vuole rompere la barriera che tiene la sua azione ad un livello che deve apparire piuttosto debole dal punto di vista delle grandi case editrici. È meraviglioso che esistano una dozzina di riviste col marchio SPARC, ma, bisogna ammetterlo, sono molti coloro che considerano la cosa più che altro simbolica, specialmente se paragonata alle centinaia di titoli nel paniere degli editori commerciali. La situazione appare comunque più promettente se l'idea è di catalizzare il cambiamento, piuttosto che di crearlo dal nulla: se SPARC agisce come un buon catalizzatore, un piccolo sforzo iniziale potrà ben trasformarsi in un movimento che si autoalimenta, che si ingrandisce continuamente e che, rapidamente, diventerà impossibile da arrestare. Lo scettico farà bene a pensare al movimento Linux, che ha appena celebrato il suo decimo anniversario proprio quest'estate, per capire che, quando compirà a sua volta dieci anni, SPARC potrebbe trovarsi molto avanti al posto attualmente occupato dal "movimento per il codice sorgente libero". La sfida è preservare il valore simbolico, incrementando drasticamente la potenza di fuoco.

IV. L'avvento e le implicazioni delle reti e del digitale

9. Le risposte confuse dei ricercatori: dall'indifferenza al coinvolgimento attivo

Circa nello stesso periodo in cui Henry Barshall ha cominciato a dare battaglia alla casa editrice piuttosto vendicativa di cui si è parlato in precedenza, cioè alla fine degli anni Ottanta, i prodotti digitali e Internet sono divenuti visibili nei circoli editoriali. Lo sviluppo elettronico dell'editoria ha immediatamente generato un certo numero di interrogativi che hanno portato a rivedere le funzioni fondamentali dell'editoria scientifica. Essenzialmente, la questione che tutti si ponevano era: qual è il mio vero interesse in questo contesto? Gli editori si sono interrogati probabilmente più di qualsiasi altro gruppo sulle novità portate da queste nuove tecnologie: le loro fonti di profitto e persino la loro sopravvivenza erano in gioco. Allo stesso modo, anche i bibliotecari si sono rapidamente interessati all'editoria elettronica, se non altro perché erano alla ricerca di vari possibili modi per sfuggire alla stretta mortale degli editori. Infatti, i bibliotecari, e in particolare ARL, furono tra i primi a monitorare il sorgere delle riviste elettroniche. D'altro canto, la maggioranza dei ricercatori scientifici rimasero largamente indifferenti, sebbene una piccola minoranza abbia giocato un ruolo influente nel concreto sviluppo di pubblicazioni elettroniche. Ogni gruppo aveva la propria agenda, certo, e ogni modalità di ripensamento delle pubblicazioni scientifiche implicava diverse prospettive.

Come autori, gli scienziati hanno compreso presto che l'editoria digitale non cambiava la situazione di molto. Erano felici di poter mandare i loro articoli in via ‘telematica' perché ciò consentiva un risparmio di tempo, di posta e di buste postali imbottite, ma, fondamentalmente, gli scienziati-autori avevano sempre a che fare con le riviste, le redazioni, e con il processo di peer review. Questi ritardi non venivano accorciati in modo significativo. In molti casi, la versione cartacea era ancora disponibile - quasi come una rassicurante e tangibile testimonianza del fatto che la terra continuava a girare intorno al sole.

L'indifferenza degli scienziati al medium digitale può essere spiegata in parte sulla base dello scarso sfruttamento delle possibilità di questo nuovo mezzo. Gli articoli scientifici rimangono esattamente come sono stati per alcuni secoli: un assemblaggio cartaceo di testo, diagrammi e illustrazioni fisse (o, più recentemente, di fotografie). Digitale o no, il loro destino, così sembra, rimane invariato: la stampa. Importa poco agli scienziati se fanno la loro stampa con una stampante laser, o se si affidano ad una stamperia. In un certo senso, le fotocopie li hanno già abituati alla stampa individualizzata. Oldenburg stesso non avrebbe avuto difficoltà a riconoscere un articolo scientifico digitale, una volta stampato. Solo la fotografia e il colore lo avrebbero sorpreso, ma queste si possono difficilmente considerare nuove tecnologie.

Come lettori, gli scienziati sono stati molto più svelti nel cogliere i vantaggi forniti dai documenti digitali: la facilità di reperire informazioni era più immediatamente evidente. Apparvero nuove strategie basate sulla possibilità di ricercare l'intero testo. Copiare e trasmettere un testo digitalizzato si rivelò semplice, piuttosto conveniente e molto veloce. Con la generalizzazione dei servizi on-line, le ricerche bibliografiche divennero anch'esse più facili ed efficienti, al punto che referenti-bibliotecari particolarmente esperti nella ricerca su database non furono più indispensabili. Con l'accesso a riviste on-line dall'ufficio o da casa, i fatti e le tecniche possono essere verificati istantaneamente, proprio nel bel mezzo di una sperimentazione complessa, esattamente quando e dove ciò è necessario, giusto in tempo ("just in time"). Tutti questi vantaggi, certo, sono stati percepiti come un reale progresso e gli scienziati, comprensibilmente, richiedono questi servizi non appena li sperimentano. Gli editori lo sanno ed è questo il motivo per cui periodicamente offrono alle biblioteche un accesso temporaneo gratis alle loro riviste. Sanno che il poter essere visti per un breve periodo porterà a una forma di dipendenza e che la pressione perché il servizio sia mantenuto aperto sarà così forte da rendere impossibile qualsiasi ritorno allo status quo ante. Come bibliotecario, prova a chiudere il rubinetto una volta che è stato aperto, e vedi se mantieni il tuo lavoro!

Le prime sperimentazioni con riviste elettroniche furono fatte da alcuni scienziati e studiosi davvero eccezionali (per esempio, Jim O'Donnell della Penn University, Steven Harnad allora a Princeton, ecc.) che, così facendo, ovviamente esercitavano il loro lato di lettori e investigatori. Essi avevano compreso velocemente le accresciute possibilità dell'editoria elettronica per il sistema comunicativo scientifico. Al tempo stesso, affrontavano l'intera questione delle riviste scientifiche come scienziati e studiosi, il che significava che consideravano la crisi dei prezzi delle riviste e le preoccupazioni dei bibliotecari come questioni secondarie. I loro motivi, sebbene diversi, e qualche volta persino divergenti, includevano generalmente i seguenti punti:

  1. L'editoria elettronica poteva aiutare a ridurre i ritardi delle pubblicazioni e quindi a sincronizzare il passo dell'editoria scientifica con quello dei risultati che uscivano dai laboratori, e con le discussioni portate avanti all'interno dei comitati invisibili.

  2. I costi di pubblicazione potevano essere significativamente ridotti. "Di quanto?" è stato oggetto di acceso dibattito e le risposte hanno oscillato tra lo 0 e il 90%, con un consenso minimo e fragile sulla cifra di "almeno il 30%" 26 . La risposta dipendeva largamente dalla persona che parlava, ma alla fine, l'esistenza di un qualche risparmio non poteva essere negata: il costo della stampa, della spedizione postale, e molte delle spese di immagazzinaggio spariscono non appena il periodico è digitalizzato.

  3. Anche la possibilità (e la vitalità) di riviste gratis fu frequentemente menzionata (e altrettanto frequentemente attaccata), ma la presenza di un (crescente) insieme significativo di riviste elettroniche gratis ha gradualmente dimostrato la realtà della tesi 27

  4. I costi di avviamento delle riviste furono abbassati molto, consentendo il lancio di molte nuove riviste. A seconda dei punti di vista, ciò fu considerata una buona o una cattiva cosa. I gatekeeper dotati di potere, o vicini ad ottenerlo, non apprezzarono il fatto di vedere il loro ruolo probabilmente sminuito o relativizzato; coloro che non erano gatekeeper, al contrario, videro l'editoria elettronica come l'apertura di possibilità di correggere e persino di contestare alcuni aspetti gerarchici nella organizzazione scientifica.

Questi sforzi pionieristici non sono passati inosservati. In effetti, i rappresentanti delle case editrici commerciali sono stati regolarmente presenti alle conferenze sulle pubblicazioni accademiche elettroniche, spesso intervenendo vigorosamente per contestare la possibilità di costi molto più convenienti per la pubblicazione o, peggio, che le riviste elettroniche potessero divenire accessibili gratuitamente. Le più piccole case editrici universitarie spesso si sono schierate dalla parte delle grandi case editrici, non perché volessero mantenere un alto profitto sugli investimenti, ma semplicemente perché la loro situazione finanziaria era (ed è ancora) fragile. La crisi finanziaria che ha afflitto le università agli inizi degli anni Novanta si è tradotta in generale in un minore sostegno istituzionale, quando non nel venir meno di qualsiasi sostegno istituzionale. Diminuzioni delle entrate allora potevano significare la morte e le pubblicazioni elettroniche rappresentavano, ben che andasse, una minacciante incertezza!

In breve, le prime iniziative editoriali elettroniche diedero luogo a una varietà di tensioni. In particolare, esse furono ben presto percepite come potenzialmente minacciose per le strategie commerciali rivoluzionarie recentemente elaborate, basate sulle "riviste fondamentali". I grandi editori commerciali compresero che avrebbero fatto meglio a studiare la situazione da vicino, e ad essere pronti a rivedere di conseguenza le loro strategie d'affari. La minima negligenza poteva ben significare la perdita di un commercio lucrativo.

Retrospettivamente, l'anno 1991 appare davvero emblematico di una nuova era: è stato testimone dell'emergere di due scenari che sono ancora con noi. È in quell'anno che Elsevier lanciò il progetto TULIP; lo stesso anno, al laboratorio nazionale di Los Alamos Paul Ginsparg inaugurò il suo server di preprint di articoli di fisica. Nel seguito di questa presentazione, vorrei studiare queste due linee di sviluppo per provare a chiarire che cosa potrebbero fare le biblioteche e quali ruoli potrebbero giocare. Ciò condurrà ad esaminare i tipi di riallineamento che potrebbero aver luogo tra le biblioteche e una larga parte degli scienziati. Ciò richiederà anche di educare le più alte cariche amministrative delle nostre università: la maggior parte degli amministratori universitari non considerano i problemi delle biblioteche che in termini vaghi e generali, e alcuni si lasciano persino andare a pensare che non si tratti che di un costo minore in comparazione ai costi della ricerca in generale - un'opinione che, abbastanza sorprendentemente, ho sentito espressa anche da almeno un eminente bibliotecario ...

10. In che modo gli editori commerciali sono riusciti a mettere le briglie alla rivoluzione digitale e a trasformarla in una controrivoluzione

Preoccupati dall'aumento di pubblicazioni elettroniche, gli editori di riviste scientifiche commerciali reagirono rapidamente, come dimostrato dal lancio precoce del progetto TULIP da parte di Elsevier nel marzo del 1991. Il progetto TULIP getta una luce interessantissima sulle principali preoccupazioni dell'industria editoriale. Proprio come nel caso della storia iniziale della stampa, questioni di profitto si sono rapidamente unite a questioni di controllo, e la tecnologia è stata modellata per mettere alla prova e offrire una risposta a questi bisogni.

All'esperimento TULIP hanno preso parte diverse importanti biblioteche statunitensi. Sono sicuro, in realtà, che qualcuno del pubblico sa di questo progetto - sull'origine, la conclusione e la sua definitiva morte -, molto di più di quanto potrei mai saperne io 28 . Alla fine, TULIP non è riuscito a ottenere un gran consenso fra le biblioteche: almeno una - Princeton - sembra aver abbandonato il progetto in modo relativamente rapido; esso, però ha sicuramente prodotto una ricca collezione di risultati importanti che, sebbene in gran parte negativi, si sono tuttavia rivelati utili per gli editori commerciali.

Con il senno del poi, l'esperimento TULIP appare notevole per le seguenti ragioni:

  • È stato concepito come un sistema di licenze - il "LI" di TULIP. Lo spostamento verso l'adozione delle licenze sembra essere stato ispirato dall'industria del software: ricordiamo che il codice del software è coperto generalmente dalla legge sul copyright e non dai brevetti (anche se potenti forze negli Stati Uniti e in Europa stanno premendo attualmente per cambiare questa situazione). Per eludere alcune norme della legge sul copyright, quali le disposizioni della prima vendita (first sale provisions), il software è stato posto sotto licenza, invece che venduto. Elsevier ha esteso quest'idea di licenza ai documenti scientifici, avviando una rivoluzione, o piuttosto - come avremo modo di vedere - una controrivoluzione.

  • TULIP si basava sulla distribuzione di media digitali fisici in ogni sito partecipante. Questi "ROM" vennero montati sui server locali.

  • Le 42 riviste incluse nella collezione pilota venivano consegnate come immagini di pagina in formato TIFF. L'uso delle immagini di pagina risolse diversi problemi: fungendo da carta elettronica, proteggevano l'integrità dei documenti, in modo molto simile a quanto fanno i file pdf oggi; a causa della loro dimensione, questi documenti non potevano essere trasmessi facilmente attraverso normali modem ed erano limitati a reti ethernet LAN - in pratica, ciò significava una città universitaria o una parte di essa. Veniva offerta anche la possibilità di fare ricerche testuali, ma l'utente non poteva accedere direttamente al file di testo. Tutte queste precauzioni indicano la preoccupazione quasi ossessiva del venditore per il controllo. È stato detto che gli uccelli digitali non conoscono gabbie; in effetti, Elsevier aveva scelto di ignorare questo frammento di saggezza e tentava disperatamente di progettare una nuova, appropriata prigione testuale.

  • Date le dimensioni dei file e la memoria delle stampanti di allora, la stampa delle pagine era lenta. Assicurarsi una copia cartacea di un dato articolo - una possibilità legittima garantita dalle condizioni di fair use (libera utilizzazione) della legge sul copyright negli Stati Uniti, ad esempio - diventava molto più difficile che farne una fotocopia vecchio stile. Non è chiaro se questo obiettivo fosse o no perseguito coscientemente; tuttavia, non contraddiceva certamente altri elementi inseriti nel piano d'azione dell'editore.

Alla fine dell'esperimento TULIP, Elsevier non conservò molto più del sistema delle licenze; abbandonò l'idea di collocare una copia fisica del database in ogni città universitaria, e decise, invece, di rendere più rigido il proprio controllo sulla banca dati degli articoli installando un server centrale. Un adeguato, pur limitato, numero di mirror - anch'essi sotto lo stretto controllo dell'editore - fu aggiunto per abbreviare il tempo di risposta e far un uso più efficiente della banda disponibile.

Il nuovo piano di Elsevier ha prodotto una serie di conseguenze importanti. Innanzitutto, ha relegato le biblioteche a un ruolo passivo di "pompe di conoscenza" 29 . E, ancor peggio, è riuscito a capovolgere il funzionamento delle biblioteche in modo radicale: invece di difendere uno spazio pubblico di accesso all'informazione comprando copie di libri e approfittando così della disposizione della prima vendita (first sale provision) della legge sul copyright, le biblioteche sono state improvvisamente poste a limitare l'accesso ad uno spazio privatizzato. Non possedevano più niente: avevano comprato soltanto un accesso provvisorio, limitato a determinate circostanze e ad un numero di utenti stabilito. Inoltre, per accedere ad una raccolta di pubblicazioni, le biblioteche dovettero accettare ed imparare a negoziare contratti di licenza. Non soltanto erano richieste capacità rare nelle biblioteche, ma tutte le garanzie tradizionali, conquistate lentamente e difese entro i limiti delle tradizionali leggi sul copyright, furono improvvisamente messe da parte e tutto dovette essere discusso da capo - in breve, un paradiso per gli avvocati e un inferno per i bibliotecari. Allo stesso tempo, furono esautorati anche i ruoli di organizzazione e di archiviazione, tradizionalmente esercitati dai bibliotecari - ruoli che, per sottolineare l'importanza e la dignità di tali compiti, mi piace chiamare epistemologia applicata o ingegneria epistemologica.

Per ironia della sorte, la volontà di controllo degli editori ha ottenuto un successo quasi eccessivo, tale che essi si sono ritrovati caricati di funzioni che evidentemente non avevano interesse a mantenere – in particolare, la conservazione a lungo termine delle risorse archivistiche. Di conseguenza, il sistema emergente sta venendo velocemente riformato: le trattative recenti fra Elsevier e l'Università di Yale (e lo stesso fa Harvard con altri editori) sembrano indicare che gli editori non vogliono realmente assumersi questo ruolo; ruolo che, piuttosto, scaricherebbero di buon grado sui bibliotecari. Ed i bibliotecari possono persino salutare con favore questo sviluppo in quanto restituisce loro ciò che, in principio, non avrebbero mai dovuto perdere. Ma a che prezzo?

Nel complesso, possiamo dire che la divisione del lavoro fra editori e bibliotecari sta venendo negoziata ex novo, e che la relazione di potere non sembra favorire questi ultimi. È possibile immaginare che i bibliotecari finiscano a tenere semplicemente l'ugello locale di una pompa universale di conoscenza, quando hanno a che fare con materiali attuali, mentre troneggiano su informazioni in gran parte obsolete o secondarie. Peggio ancora, neppure la funzione di tenere l'ugello è loro assicurata; ciò dipende, veramente, dalla decisione degli editori: esse conserveranno tale funzione fintanto che questi ultimi continueranno a pensare di poter ridurre i loro costi operativi trattando con le biblioteche. Tuttavia, se immaginiamo una situazione in cui il commercio elettronico sia effettivamente decollato su vasta scala, con transazioni sicure e forme facili e consolidate di micro-pagamento 30 , allora il bisogno delle biblioteche come intermediarie potrebbe non sembrare così evidente 31 . Se dovesse avverarsi questa nefasta previsione, le biblioteche si ridurrebbero a poco più di polverosi musei in cui sarebbero immagazzinati vecchi libri, e in cui vecchi file digitali sarebbero periodicamente rinnovati per rimanere compatibili con l'evoluzione tecnologica. Un futuro davvero stimolante e vivace!

Tutti questi punti spiegano il motivo per cui definisco l'uso di una struttura di licenze nientemeno che una controrivoluzione nell'economia politica dei documenti: poiché permette di riportare sul tavolo del negoziato ogni punto discutibile - dal punto di vista degli editori - delle leggi sul copyright; per esempio, possono essere messi nuovamente in discussione la libera utilizzazione (fair use) o l'accesso libero allo spazio delle biblioteche. In effetti, i contratti di licenza sovvertono la legislazione sul copyright in tutti i suoi aspetti, tranne uno essenziale: non mettono in dubbio la fondamentale legittimità della proprietà intellettuale, perché da questa dipende, alla fine, l'intera struttura delle licenze. Una tale struttura, a farla breve, permette di spostare l'orologio indietro di parecchi decenni.

Questa ondata di cambiamenti sinistri è stata mimetizzata da un vocabolario progettato per suggerire modernità e progresso: è stata variamente descritta come la mossa decisiva da una situazione just in case (nel caso che) ad una condizione just in time (giusto in tempo), o come il passaggio dalla antiquata proprietà all'accesso che va di moda ora. Belle parole, queste, che però, se esaminate puntualmente, conducono dritto ad una Waterloo dei bibliotecari (da una prospettiva francese, naturalmente!).

In questo scenario, la fase successiva è facile da indovinare: i bibliotecari, presi alla sprovvista da questo attacco inaspettato alle loro posizioni e ai loro ruoli tradizionali, si sono dapprima piegati, poi hanno mugugnato e infine sono riusciti a riorganizzarsi. Il risultato è stata la formazione dei consorzi. Il problema è: quanto sono efficaci?

I consorzi, nel migliore dei casi un movimento di difesa, hanno avuto esiti complessi e in qualche modo contraddittori. Hanno permesso un certo grado di compartecipazione, specialmente nelle esperienze in campo legale e, in virtù dell'aumento della spesa collettiva, sono riusciti a riaprire uno spiraglio per le trattative sul prezzo delle pubblicazioni. Detto tutto ciò, tuttavia, l'effetto collaterale più positivo dei consorzi è lo stimolo al dialogo e alla collaborazione fra biblioteche. Tradizionalmente, queste istituzioni si sono sempre comportate in un modo piuttosto autarchico, appropriato più all'atteggiamento competitivo di fortezze dell'accumulazione che all'operare di nodi che lavorano all'interno di uno "spazio di flussi di conoscenza" 32 . Successivamente, con l'avvento dei consorzi, le biblioteche hanno dovuto riconoscere che le collaborazioni dovevano spingersi oltre quel poco di prestiti tra biblioteche, e che le reti stavano trasformandosi velocemente nella chiave per comprendere il paradigma emergente; e hanno cominciato a esaminare se stesse come elementi aperti all'interno di un sistema di intelligenza distribuita. Ma nel frattempo, le attività dei consorzi sono spesso consistite in battaglie dall'esito incerto.

Perché incerto? Certo i consorzi hanno gradualmente imparato a combattere meglio, ma con risultati ambigui, come dimostra l'esempio del progetto canadese, CNSLP 33 . Vediamo esattamente che cosa è stato realizzato, e come.

Armato di 50 milioni di dollari canadesi, CNSLP ha disegnato una strategia basata su premesse che, retrospettivamente, sembrano le più ingegnose possibili da immaginare. Se l'esperimento di CNSLP è tanto interessante, è anche perché indica che persino con le persone e con le idee migliori, le licenze locali conducono ad un insieme variegato di risultati.

Le strategie dispiegate da CNSLP comprendono i seguenti punti:

  • Il consorzio negozia solo collezioni complete. Con ciò si è inteso creare un effetto di collo di bottiglia finanziario, che contribuisce ad esercitare pressione sui fornitori: dato il prezzo di una transazione globale, possono essere acquistate soltanto alcune raccolte. Quali? Ogni fornitore sa che è una situazione "o tutto, o niente"

  • Il consorzio produce una graduatoria di fornitori che rimane segreta. Ciò punta a generare un grado di incertezza e di ansia sul lato del fornitore.

  • Il consorzio fa sapere che negozierà con i fornitori secondo l'ordine della graduatoria segreta; ogni trattativa infruttuosa condurrà semplicemente a scorrere la lista (segreta) verso il basso, al candidato successivo 34 .

Questo atteggiamento pragmatico ha esercitato pressione sui venditori: essi si sono resi conto di avere un'unica possibilità di spartirsi una somma considerevole di denaro. Da questa impostazione sono derivati risparmi significativi, così come un contenimento della crescita dei prezzi 35 . È interessante notare che l'offerta "Science Direct" di Elsevier ha superato i 50 milioni dollari a disposizione del consorzio. Perciò è rifiutata. E questa osservazione indica un possibile aspetto negativo nel metodo di CNSLP. Se, per una qualche ragione, una trattativa fallisce, la strategia di CNSLP porta a perdere l'accesso a tutta la raccolta corrispondente. Tale strategia sarà inoltre difficilmente ripetibile: una volta concluso un affare con un editore, sarà difficile non rinnovarlo, riducendo così la possibilità di negoziare una seconda volta da una posizione di relativa forza.

Quando ha iniziato la contrattazione, CNSLP era (cosa rara) molto ben preparato, nonostante lo scarsissimo tempo a disposizione 36 . L'estrema professionalità di CNSLP fu una sorpresa per molti editori. Anche questo aiutò a raggiungere ottimi risultati. Ma, di nuovo, cosa accadrà quando CNSLP si troverà, come tutti speriamo, al secondo turno di negoziazioni? Gli editori possono certamente trarre le necessarie conclusioni da questa schermaglia inaspettatamente difficile, e anch'essi sapranno come riorganizzarsi. Più importante: i consorzi - CNSLP o altri - hanno modificato qualcosa della controrivoluzione messa in atto dalle licenze? La mia risposta è negativa; non hanno che guadagnato un po' di tempo, al più un paio d'anni.

A mio parere, i consorzi sono poco più di un transitorio adattamento difensivo all'attacco controrivoluzionario degli editori; ci sono poche possibilità di contrattacco. In determinate circostanze, come nel caso del consorzio canadese, un uso sottile della povertà (relativa) e un atteggiamento risolutamente pragmatico, che mette al bando i convenevoli e le chiacchiere da cocktail accompagnate da banalità PowerPoint, ha permesso di risparmiare denaro.È stato molto divertente e – almeno in quell'occasione – ha funzionato; ma questa situazione presenta le caratteristiche di una vittoria di Pirro: un'altra simile, e perderemo certamente la guerra! Sappiamo anche che il fattore sorpresa non si ripeterà così facilmente. Gli editori, ai prossimi turni di negoziato, saranno preparati.

C'è vita oltre le licenze? È una domanda importante. Per essere credibile, una risposta affermativa richiederà, in definitiva, di muoversi ben oltre le licenze.

Reagendo alle strategie di consorzio, Elsevier sta nuovamente mostrando la strada. Incapace di incrementare i ricavi sulle vendite in Canada tramite il consorzio - cosa che secondo me era il suo obiettivo principale - sta adesso tentando di farlo pezzo per pezzo, sapendo che un ampio numero di grandi università che fanno ricerca semplicemente non possono fare altro che accedere a una proporzione significativa delle sue proprietà. Di conseguenza, è cominciata la spigolatura delle biblioteche. Il negoziato prende all'incirca questa forma: "Signore e signori," comincia il rappresentante di Elsevier, "avete già una licenza con "Science Direct" che vi dà accesso ad alcune delle nostre testate, diciamo all'incirca 300. I vostri costi di licenza oscillano attorno a 5-600.000 dollari americani" 37 . Il rappresentante di Elsevier spiega poi quanto costerebbe aggiungere 100, 200, 300 testate; e all'improvviso sgancia la bomba: "Vi piacerebbe avere tutto questo per 900.000 dollari?". In altre parole, Elsevier sta dicendo: se ci date l'opportunità di aumentare i nostri incassi del 50%, noi aumenteremo di quattro volte i vostri accessi. Di nuovo, si tenga a mente qual è, qui, il distacco tra l'incremento dei prezzi e l'aumento del numero delle testate. Di nuovo, queste non sono le cifre esatte, ma molti di voi potrebbero facilmente adeguarle alle cifre reali in base all'esperienza nelle vostre istituzioni. Ci si riferisce, oggi, a questa operazione come al "grande affare" (Big Deal); Ken Frazier dell'università del Winsconsin ci ha messo vigorosamente in guardia contro tali offerte 38 . Vediamo perché, secondo me, ha sostanziamente ragione.

Perché Elsevier dovrebbe tentare proposte di questo genere? Chiaramente, come ho già indicato, per aumentare gli incassi. Essenzialmente, Elsevier non si preoccupa del numero di accessi che vende; si preoccupa di più dei ricavi e del saldo finale. Ricordiamo che collegare un ugello a un serbatoio pieno non costa più di raccogliere, selezionare e scegliere - in realtà, può essere un pò meno oneroso da gestire. Di conseguenza, la crescita dei ricavi si traduce immediatamente in una crescita di profitti!

Ma questa non è l'unica ragione che porta Elsevier a offrire un "grande affare". Immaginiamo che la nostra biblioteca universitaria di prima abbia deciso di acquistare tutta la collezione "Sciences Direct", e supponiamo che Elsevier, dopo tre anni, dica: "Bene, ora con le fluttuazioni della moneta - da Elsevier amano le fluttuazioni della moneta -, l'aumento dei costi di produzione, e altri fattori, possiamo offrirvi il "grande affare", ma vi costerà 1,5 milioni di dollari. Certamente, se non volete pagare tanto, possiamo prendere in esame il prezzo di accordi parziali come quello che avevate sottoscritto prima del 'grande affare', cioè, 300 testate."

Ovviamente, un bibliotecario che abbia di fronte un simile affare ha ben poca scelta. Ritornare a 300 riviste creerebbe un putiferio tra i ricercatori; inoltre, anche se l'aumento dei costi richiede il taglio di altre testate, può essere giustificato dal fatto che le 900 riviste di Elsevier possono essere conservate sacrificandone, per esempio, 200 prese da altri editori, che non fanno parte di un altro "grande affare". Il sistema dei prezzi di fatto agisce come il meccanismo di una ruota dentata; non può essere invertito, e anche restare nella stessa posizione appare più che problematico.

Esaminiamo adesso la seconda soluzione più da vicino, perché porta alla vista una situazione menzionata di rado - vale a dire le condizioni particolari sotto le quali gli editori scientifici competono tra loro; per esempio, cercando di attirare i vincitori alla gara di Lotka, gli Einstein del mondo scientifico, verso le proprie testate. Ma essi sono anche in concorrenza nello sforzo di creare maggior visibilità per la propria rivista, con l'idea di farla avanzare nella scala dell'ordine gerarchico di importanza. Vediamo come funziona.

Se l'acquisizione del "grande affare" costringe a cancellare l'accesso a molte pubblicazioni di altri editori, ciò è effetto di concorrenza diretta, basata sul confronto di alcuni prezzi/titoli. Elsevier può avere la meglio in qualche scontro a causa dello schema dei prezzi del "grande affare", ma c'è un costo. Senza bisogno del "grande affare", i ricavi possono raggiungere livelli più alti. La concorrenza qui riesce a tenere bassi alcuni prezzi.

Ad ogni modo, la competizione tra editori scientifici non finisce qui; ci sono conseguenze più sottili e indirette della tattica del "grande affare". Scontando le pubblicazioni a un prezzo tale da rendere l'offerta irresistibile, Elsevier contribuisce a creare un panorama accademico che è distorto se confrontato col panorama accademico normalizzato delle "riviste fondamentali' (core journals ). Un esempio concreto lo dimostrerà.

OhioLINK ha contratto un "grande affare" con Elsevier e, come risultato, le riviste di Elsevier dominano largamente l'insieme; lo stesso fanno gli articoli pubblicati nelle riviste di Elsevier. Innocue in apparenza, la conseguenze di questa situazione sono decisamente allarmanti: come riportato nella Newsletter di OhioLINK 39 , nel settembre 2000, il 68,4% degli articoli scaricati dall'OhioLINK's Electronic Journal Center veniva da Elsevier, seguito alla lontana dagli articoli di John Wiley (9.2%), dell'Academic Press (8.5%), di Kluwer (6.5%) e Springer (4.8%). È notevole che Elsevier, nonostante controlli soltanto il 20% circa delle riviste fondamentali, riesca ad ottenere il 68,4% degli articoli scaricati in Ohio.

Come possiamo giustificare un tale uso soverchiante di articoli di Elsevier rispetto a quelli di altri editori? Può essere la qualità? Forse; ma le differenze qualitative nelle riviste fondamentali non possono giustificare una distorsione così sproporzionata. D'altro canto, se il numero di articoli di Elsevier è ampio se confrontato agli articoli di altri editori – e questo è quanto accade oggi, grazie all'effetto combinato del fatto che Elsevier possiede circa 1200 testate e che le spaccia tutte insieme tramite "grandi affari" – allora è ragionevole che un ricercatore dell'Ohio abbia maggiori opportunità di consultare gli articoli di Elsevier che quelli di ogni altro editore 40 . In altri termini, esiste una qualche relazione diretta (pur non necessariamente lineare) tra la proporzione di articoli che un editore riesce ad inserire in una particolare base di dati come OhioLINK e l'uso che viene fatto di questi articoli nella stessa base di dati 41 .

Potreste chiedere: "E allora?". Ritengo che le implicazioni siano profonde e, come ho osservato in precedenza, che abbiano molto a che fare con la concorrenza tra editori. Se un editore, attraverso la manipolazione di un certo numero di articoli in un dato archivio, riesce ad influire sul tasso di uso dei propri articoli, è evidente che l'editore può anche influire sulle citazioni dei propri articoli. Se questa situazione porta almeno uno scienziato dell'Ohio a citare un articolo in più di Elsevier in un suo articolo, ciò influisce sul fattore d'impatto della rivista in cui l'articolo appare. Naturalmente, con una sola citazione l'effetto è troppo piccolo per essere individuato; ma immaginiamo ora che l'evento sia ripetuto un numero indicibile di volte in Ohio e in altri consorzi similmente strutturati. Ciò condurrà a un aumento delle citazioni di articoli di Elsevier. Come risultato, il fattore d'impatto delle riviste di Elsevier dovrebbe aumentare 42 . Di conseguenza, queste riviste cominciano ad attirare più autori; ma allora, con una maggiore scelta di autori, la qualità dovrebbe salire. Nei fatti, è stata messa a punto con successo una sorta di pompa della qualità e questa comincia a spingere le riviste in alto nella scala gerarchica delle riviste fondamentali. Con ogni probabilità, la stessa tattica può inoltre aiutare una nuova rivista a raggiungere il livello di quelle fondamentali, e a laurearsi nel circolo incantato della lista SCI.

Se questo ragionamento funziona, ciò significa che un editore come Elsevier sa come usare i consorzi per far crescere il mercato, diretto e indiretto, delle proprie pubblicazioni. Certamente, uno dei compiti di un editore scientifico è dare la maggior visibilità possibile ai propri autori, ed Elsevier potrebbe ragionevolmente argomentare che sta semplicemente facendo il proprio mestiere; dovrebbe anche aggiungere che questo è parte del "valore aggiunto" che si suppone gli editori apportino alle proprie pubblicazioni. In altre parole, Elsevier ha disegnato una strategia dinamica mirata direttamente agli editori concorrenti, probabilmente con l'idea di indebolirli abbastanza da riuscire finalmente ad inghiottirli e così rafforzare le sua stretta sul nucleo della conoscenza scientifica. L'Unione Europea ha bloccato discretamente la fusione tra ReedElsevier e Kluwer annunciata nell'ottobre 1997, ma il gigante anglo-olandese ha recentemente acquistato Academic Press. Anche solo aggiungere la percentuale di utenti di Academic Press nel 2000 a Elsevier, porterebbe le statistiche di OhioLINK al 76,9%. Inoltre, se Academic Press viene inserita in qualche pacchetto "grande affare", ci si potrebbe aspettare che i numeri crescano sempre di più. L'oligopolio che oggi controlla le riviste fondamentali, potrebbe facilmente trasformarsi in un solidissimo monopolio.

Perciò, la critica di Ken Frazer al "grande affare" è valida e, come ho cercato di mostrare, può essere compresa come una strategia di mercato e di concorrenza nei confronti degli altri editori. A causa delle dimensioni di Elsevier, la strategia del "grande affare" è particolarmente efficace. In altre parole, in un sol colpo, Elsevier blocca le biblioteche (l'effetto ruota dentata descritto precedentemente) e comincia a erodere i fattori di impatto delle pubblicazioni di altri editori.

Da tutto quanto precede, è legittimo chiedersi se le biblioteche controllino ancora quello che offrono ai propri frequentatori. Non sono temporaneamente tranquillizzate da una specie di avvicinamento alla conoscenza di tipo "buffet compulsivo", la cui molto visibile ricchezza maschera l'offerta di una prospettiva distorta sul panorama scientifico? In altre parole, i "grandi affari" non sono causa dell'astigmatismo dell'informazione, per dir così?

Come abbiamo visto, CNSLP, come consorzio, ha avuto la meglio nelle contrattazioni con diversi fornitori solo rafforzando l'impostazione del "grande affare". L'unico vantaggio reale di tale atteggiamento, accanto a qualche pressione, purtroppo probabilmente temporanea, sui venditori riguardo ai prezzi, è che, in questo caso, ha estromesso Elsevier dal consorzio canadese. Come risultato, in Canada l'erosione dei fattori di impatto di altre riviste non può avvenire così facilmente su scala nazionale; nei fatti può accadere il contrario, ma non si tratta d'altro che di una diversa forma di astigmatismo cognitivo. E attraverso "grandi affari" individuali, Elsevier cercherà di compensare questa perdita, e potrebbe avere la meglio.

La forza dei grandi editori commerciali non si ferma qui. Li incontreremo di nuovo nei loro tentativi di contrattaccare le forme di pubblicazione più nuove, che minacciano il loro monopolio. Ad ogni modo, anche prima di fare ciò, vorrei introdurre la nozione di visione panottica. Dal famoso libro di Michel Foucault sulle prigioni 43 , la struttura architettonica panottica di Bentham, incorporata nel progetto delle prigioni al principio del diciannovesimo secolo, ha ricevuto maggiore attenzione. Tale struttura non è soltanto dotata di un forte potenziale di sorveglianza, ma, a sua volta, induce nuove specie di conoscenza. È come se l'aforisma di Bacone fosse stato tramutato in pietra: il sapere può essere potere esattamente come il potere può generare sapere.

Che gli editori abbiano una collocazione panottica riguardo alle trattative delle licenze locali, è evidente. Tramite dozzine di negoziazioni e un numero pressoché equivalente di trattative con diverse biblioteche e consorzi, gli editori acquistano un vasto patrimonio di esperienza, elementi di confronto, e così via, che giungono ad occupare il centro di una potente posizione panottica. E ne fanno un buon uso. Essi possiedono inoltre una ulteriore posizione panottica che sembra ancora più importante – quella offerto dalle statistiche d'uso. Gli specialisti di scientometria morirebbero per mettere le mani su quelle cifre; e lo stesso vale per i pianificatori statali. Con le statistiche d'uso ci si muove più velocemente e si sta più vicini alle realtà della ricerca che con le citazioni. Le statistiche d'uso possono essere elaborate in interessanti indicatori scientifici su questo o quell'argomento, per esempio sull'andamento di un progetto di ricerca in una direzione che potrebbe preparare al progetto di nuovi farmaci o di nuovi materiali. Le possibilità strategiche di tale conoscenza sono semplicemente immense. Esse assomigliano alle possibilità di marketing che emergono dallo studio delle abitudini e dei profili dei consumatori.

È in qualche modo inquietante notare che tali potenti strumenti stiano venendo monopolizzati da interessi privati ed è altrettanto allarmante immaginare che gli stessi interessi privati possano monitorare, misurare e forse fare previsioni. Essi possono probabilmente influenzare le strategie di investimento o le politiche scientifiche nazionali. In breve, potrebbero sviluppare un mercato secondario di ricerche meta-scientifiche, che avrebbero grandi analogie con lo spionaggio. È questo il ruolo degli editori?

In confronto con il progetto di sorveglianza della comunicazione globale, ampiamente pubblicizzato, "Echelon" 44 , ritengo che questa seconda posizione panottica sia molto più minacciosa: ha a che fare col sapere di base e con le sue innovazioni più recenti, e gli editori, al momento, non devono renderne conto a nessuno. Dopo tutto, è il loro database. In breve, il movimento verso la privatizzazione delle banche dati della scienza di base, che ha coinciso con la digitalizzazione delle riviste scientifiche commerciali, sta aprendo nuove, incalcolabili opportunità per gli Elsevier del mondo. Sarebbe sorprendente scoprire che Elsevier non ha riflettuto su tali prospettive: come vedremo più oltre, nella trattazione sul suo Chemical Preprint Server (CPS) di ChemWeb, alcuni dettagli indicano proprio quella direzione.

Ad ogni modo, questa possibilità dovrebbe essere apertamente discussa. Chi meglio dei bibliotecari può portarla alla luce del sole?

11. Gli archivi aperti (Open Archives) e altre iniziative sovversive

Gli scienziati, come abbiamo avuto modo di osservare, leggono in due modi diversi: accedono ad articoli, archiviati e valutati idonei alla pubblicazione per controllare i risultati precedenti, al momento di fare le note per ridare a Cesare quel che è giustamente suo; sul fronte della ricerca, vanno a caccia di informazione in qualunque modo possibile - preprint, comunicazioni personali recenti, ecc. -, e questi documenti circolano in svariati modi, nonostante oggi la posta elettronica tenda a sostituire la maggior parte delle modalità di scambio. Di fatto, può darsi che la distinzione tra le due maniere di leggere sia stata accentuata dal contesto digitale; ad ogni modo, la facilità con cui è possibile copiare e trasmettere i documenti digitalizzati li ha oggi resi uno strumento inestimabile per la ricerca.

Non sorprende che, con i preprint scambiati a ritmo crescente, siano stati sviluppati mezzi pù efficienti delle tradizionali raccolte di preprint di laboratorio ed estratti. Paul Ginsparg sembra essere stato il primo a mettere in piedi un server alla fine del 1991. In seguito egli invitò i propri colleghi di fisica delle alte energie a depositarvi i propri articoli. Col nuovo server, i fisici hanno potuto controllare, in una sola fermata, molti dei nuovi sviluppi nel loro campo di studi. Al crescere del server e del suo uso da parte di un'ampia porzione di fisici, la spesa ad una sola fermata ha cominciato ad avvicinarsi ad una ricerca esaustiva nella fisica delle alte energie. La soluzione apparve rapidamente molto promettente.

Se Ginsparg avesse voluto cercare ispirazione, ora avrebbe dovuto guardare molto più lontano per trovarla. Già nel 1969-70, ARPAnet aveva discretamente cominciato una sua propria riforma editoriale, quando inaugurò una serie di articoli che furono chiamati molto semplicemente (e piuttosto rispettosamente) RFC (request for comments). Il progetto era semplice. Chiunque poteva presentare articoli ad una rete di server - qui non era neppure richiesta l'idea di un solo server singolo, come del resto avviene per quasi tutto quello che sta nel cuore della filosofia distributiva di Internet - purché aderisse ad alcune regole di presentazione elementari.

Sulle Internet RFC, vanno messi in rilievo due punti:

  1. L'atto della pubblicazione è completamente intrecciato col desiderio di comunicare (e vice versa); aspetto che riporta in sintonia due funzioni che la stampa ha via via separato.

  2. Il destino delle idee pubblicate dipende strettamente dal modo in cui sono recepite. Se una proposta o un'idea cola a picco, sparisce velocemente dalla vista e dalla memoria della gente; se resta a galla, di solido alimenta discussione, aggiustamenti ed estensioni; a volte compare un'ulteriore RFC. Infine, alcune idee finiscono per assumere una vita propria. Ancora una volta, non c'è niente di veramente nuovo in questo, se non l'invenzione di nuovi canali di comunicazione in margine al progetto ARPAnet.

Si possono trovare analogie con il server di Ginsparg ancora più lontano, fino a raggiungere sfere professionali lontane dall'evidenza. Consideriamo, ad esempio, il "movimento per il la libertà del codice", che alberga sviluppi come GNU 45 e Linux. Questo movimento non fa altro che adottare il sistema RFC o quello dei preprint. Diverse persone, che non devono necessariamente conoscersi, scrivono codice e lo mettono in un deposito pubblico. L'idea è far controllare il risultato da altri. In quella sede viene dimenticato o migliorato da qualcun altro; e così via. L'intera dinamica creativa e produttiva riposa nella ricerca di visibilità pubblica; di fama ed autorità, esattamente come nella scienza - riconoscimento o capitale simbolico, in breve, piuttosto che moneta sonante, almeno in una prima fase - e sulla consapevolezza che il giudizio pubblico sui risultati è la miglior garanzia della qualità e di una rapida evoluzione. Linus Torvalds, il "padre" del kernel di Linux, ha coniato un simpatico aforisma per spiegare questa situazione: "Con un numero sufficiente di occhi, tutti i 'bachi' (bugs) sono banali". Pur migliorate e razionalizzate dall'uso di strumenti come il Concurrent Version System (CVS), queste forme di collaborazione non fanno niente di più che estendere l'idea fondamentale di Oldenburg di un pubblico registro delle idee, al fine di proteggere la proprietà intellettuale, assicurando, allo stesso tempo, la rapida evoluzione della conoscenza scientifica.

Le Repubblica delle Lettere o della Scienza, gli Internet RFC e il movimento per la libertà del codice sorgente manifestano tutti un principio comune, generalmente noto come "intelligenza distribuita". Henry Oldenburg alla Royal Society di Londra, Jon Postel, Vinton Cerf e i loro colleghi di ARPAnet, e più tardi, i progetti di Internet, Paul Ginsparg e la comunità dei fisici delle alte energie, e Linus Torvalds (come Richard Stallman) nel mondo GNU/Linux, hanno tentato, tutti, di costruire una miglior collaborazione intellettuale tra gli esseri umani sulla base dei principî di un'intelligenza distribuita.

Gli archivi di Los Alamos (di recente trasferiti a Cornell), non passarono inosservati. Si cominciò a pensare e realizzare altri archivi simili, in campi diversi e con svariati progetti organizzativi (cioè, disciplinari, istituzionali, etc.). In breve, il movimento ha cominciato a crescere e ad espandersi fino a che è divenuta evidente la necessità di una sorta di azione federativa. Tale richiesta ha trovato risposta a Santa Fe nell'ottobre 1999, quando fu sancita la fondazione di ciò che dal principio è stato chiamato "Universal Preprint Service" (UPS, il gioco di parole è chiaro) e furono definite le Santa Fe Conventions 46 . Lo spirito che presiedette all'incontro ricorda quello che guidava Vint Cerf e Bob Kahn quando progettarono la prima versione di ciò che è diventato il TCP/IP alla fine del 1973: ottimizzare il rapporto tra i risultati e i vincoli tecnici nel tentativo di mantenere i secondi più bassi possibile. Di nuovo, non è nient'altro che intelligenza ditribuita e, in questo caso, ciò ha rivelato il bisogno di alcuni elementi di interoperabilità che consentano a ogni archivio registrato di essere interrogato facilmente attraverso un comune strumento di ricerca.

In questo tipo di visione, il diavolo è nei dettagli; saggiamente, credo, lascerò l'orribile creatura sulla soglia della nostra trattazione, ma non prima di ricordare che l'interoperabilità fu davvero raggiunta; essa comprese anche una certa coscienza degli interessi (e delle competenze) dei bibliotecari, includendo elementi compatibili con la ben nota impostazione OCLC del Dublin Core metadata. Il risultato finale è stata la Open Archive Initiative 47 , sostenuta finanziariamente da istituzioni americane (Digital Library Federation, Coalition for Networked Information, e National Science Foundation), che meriterebbe di ottenere finanziamenti aggiuntivi anche da Canada, Europa e Giappone.

Non è necessario ricordarne qui la storia, lo scopo e gli obiettivi, in quanto essi sono ben illustrati in un eccellente articolo (liberamente disponibile) di Carl Lagoze e Herbert van de Sompel, entrambi del Digital Library Research Group alla Cornell University 48 ; mi limiterò a sottolineare che la filosofia dell'interoperabilità adottata qui, a differenza di quella insita ad esempio in Z39.50, mira alla semplicità. Il punto è offrire qualcosa facile da applicare e da usare, simile, sotto questo aspetto, al progetto iniziale dell'HTML.

Guardiamo più da vicino al progetto di Ginsparg. Poiché era così decisamente orientato a una trasmissione semplice, veloce ed efficiente degli articoli scientifici, il server di fisica riuscì inavvertitamente a mettere in luce svariati punti importanti, ancora imprevisti:

  1. Le riviste sono piuttosto inadeguate quando diviene necessario comunicare velocemente ed in modo efficiente; risultano assai migliori nel confermare e valutare il valore relativo degli autori scientifici. Sono adatte a preservare la memoria della scienza nel lungo periodo (svariati secoli, nelle migliori circostanze)

  2. Il server di Ginsparg ha inoltre mostrato che la comunicazione rapida di nuovi articoli, la corroborazione delle idee e l'archiviazione a lungo termine non hanno bisogno di fondarsi su un singolo strumento, oggetto o processo. La storia d'amore della nostra civiltà con la stampa ha gradualmente eretto questa fusione di funzioni a una specie di dogma. La digitalizzazione, in effetti, stava contribuendo a scompattare le diverse funzioni della stampa (e a ridurre il dogma in frantumi).

  3. Poiché la scienza passa attraverso diverse fasi – la ricerca, la discussione, la conferma – dipende da unità documentali diverse. La memoria scientifica di breve e di lungo periodo dipende dagli articoli, dai nomi degli autori, e dalle parole chiave; le riviste hanno importanza secondaria, a questo riguardo. D'altro canto, nella fase di conferma, le riviste contano più di ogni altra cosa poiché le procedure di valutazione contano fortemente su di esse, specialmente dopo l'introduzione dei fattori d'impatto. Ciò mostrò anche che se le riviste, in passato, hanno funzionato come un comodo strumento di valutazione, non possono sperare in nessun modo di esservi equiparate. Le riviste possono aiutare a valutare; non sono strumenti di valutazione di per sé.

In breve, la nascita del server di articoli non ancora pubblicati di Ginsparg, ha dimostrato che l'atto della pubblicazione poteva essere disgiunto facilmente e in modo sicuro sia dalla valutazione, sia dall'archiviazione a lungo termine. Ciascun aspetto può essere considerato nel suo isolamento, da sé - una prospettiva che è rimasta a lungo bloccata dalla presenza torreggiante della stampa.

La distinzione tra articolo e rivista, e la relazione che lega ciascuno di essi a una fase distinta della vita della scienza, fu chiaramente sottolineata quando vari scienziati si trovarono ad essere oggetto di pressione da parte dagli editori, perché rimuoveressero i loro articoli dal server di Ginsparg, una volta pubblicati su una rivista cartacea tradizionale. I fisici resistettero e persisterono nel tenere i propri articoli sul server. Perché? Semplicemente, perché per quegli scienziati, la pubblicazione cartacea era legata alla gestione della carriera, mentre la versione digitale sul server pubblico aveva a che fare con la gestione della ricerca intellettuale. Che i due processi siano intrecciati, è evidente; ma è altrettanto evidente che intrecciare è diverso da equiparare. Con il server di Ginsparg, tutta l'enfasi fu posta sull'articolo, e così la presa delle riviste sulla valutazione cominciò ad apparire meno evidente e sicura di prima.

Il progetto di Ginsparg ha inoltre contribuito a incamerare un ulteriore risultato: nel mondo della stampa, l'ampio investimento diretto di tempo, attrezzature, capacità e denaro comporta che una selezione severa debba precedere il processo di pubblicazione 49 . Di fatto, la selezione e la stampa sono divenute così interconnesse, che a volte è difficile dissociarle l'una dall'altra. Stampare vuol dire necessariamente selezionare, e, perciò, tutto ciò che è stampato connota almeno e spesso denota un qualche processo di discriminazione. Il converso è falso, naturalmente, ma, con il lungo potere della tecnologia della stampa, è sembrato che questo semplice aspetto fosse stato definitivamente dimenticato.

Nel mondo digitale, il processo di selezione funziona in modo diverso. Permette la pubblicazione, che qui equivale alla stampa e alla divulgazione, a prezzi molto ridotti e con molta più flessibilità nel fare aggiunte, cancellazioni e correzioni in caso di errori. Con l'abbassamento delle barriere economiche e di capacità, prende piede una forma di potenziamento della pubblicazione, e, come risultato, il bisogno di selezionare non è più legato in modo significativo a vincoli tecnici ed economici. Di fatto, nel mondo digitale, la selezione tramite l'uso diviene il problema principale da porre e da risolvere. In altre parole, il processo di peer review tende a estendersi quasi immediatamente all'intera comunità 50 .

La separazione del processo di selezione dai vincoli tecnici ed economici permette di guardare ad esso sotto una nuova luce e di riformularlo in modi che dovrebbero servire al bisogno degli scienziati in misura maggiore delle forme di valutazione più vecchie che sono emerse come tacito compromesso tra varie specie concorrenti di vincoli nel mondo della stampa. In breve, nel mondo digitale, il processo di valutazione richiede di essere reinventato in modo chiaro e razionale, dalle stesse comunità di ricerca interessate. Ma ciò non significa altro che affermare che il processo di valutazione dev'essere strappato al controllo degli editori, e che non dobbiamo dimenticare che la forma concreta di questo controllo è fatta di gatekeeper, cioè di colleghi! Perciò devono essere trovati i modi per spezzare questa dannosa alleanza, in appoggio alla reale competenza dei gatekeeper. Non si tratta di un problema di semplice risoluzione, ma esso dovrebbe essere oggetto di riflessione da parte tanto delle società di studiosi, quanto degli amministratori delle università. E, ovviamente, dei bibliotecari.

La risposta commerciale all'iniziativa di Ginsparg non si è fatta attendere a lungo. In particolare, sono comparse varianti commerciali al movimento degli archivi - come ad esempio, BioMedCentral 51 , HighWirePress, Bepress e BioOne . È utile sperimentare e classificare queste tendenze.

HighWire, Bepress, e BioOne stanno effettivamente cercando di creare ciò che potrebbe essere detto l'equivalente di un "editore elettronico", con gradi diversi di deleghe di attività ad autori e redattori. Queste organizzazioni offrono aiuto alle riviste, soprattutto di piccole organizzazioni scientifiche, a riviste non commerciali e a simili pubblicazioni; in particolare, provano a rendere semplice la transizione nell'era digitale, e, in questo modo, ad aumentare il proprio fattore d'impatto avvantaggiandosi delle migliori risorse della rete. Lavorando contemporaneamente con svariate riviste, provano a ricreare condizioni favorevoli all'emergere di economie di scala in modo simile a quelle messe in atto da diversi editori commerciali. Questi editori commerciali si trovano in una posizione a metà tra quella di un gruppo commerciale e quella di una cooperativa. In un certo modo, l'intrapresa SPARC si avvicina a questi progetti; come questi, continua a porre la massima enfasi sulle testate delle riviste piuttosto che sugli articoli. Infatti, BioOne è un partner di SPARC, e la presidente di ARL, Shirley Baker, è nel consiglio d'amministrazione di BioOne.

BioMed Central è qualcosa di diverso; ed è un esempio particolarmente interessante, se non altro per il modo in cui è emerso. Anch'esso si sta apparentemente muovendo nella direzione di creare nuove riviste; ad ogni modo, queste "riviste" agiscono, di fatto, come contenitori specialistici o disciplinari, mentre il marchio tramite peer review è in realtà legato all'operazione BioMed nel suo complesso.

BioMed Central fu creata in risposta al parziale fallimento del progetto di NIH, PubMed Central: con l'impulso del premio Nobel Harold Varmus, poi direttore del NIH, PubMed Central ha tentato di incoraggiare le riviste a liberare i propri contenuti più velocemente possibile, meglio fin dal primo giorno. Ancora una volta, PubMed Central mirava all'ambito delle riviste, ma si comportò in modo un pò troppo idealistico: le riviste, in modo specifico quelle commerciali, non erano pronte a dar via i propri archivi, o parti di essi, e criticarono duramente l'iniziativa economica di PubMedCentral; alla fine, la proposta nata da NIH rimase con ben pochi risultati concreti, come, probabilmente, ci si poteva aspettare fin dall'inizio.

Di contro, BioMed Central, parte del Current Science Group 52 , si pone chiaramente come editore commerciale; allo stesso tempo, si vede complementare a PubMed Central. Invita gli scienziati a presentare articoli, che vengono immediamente sottoposti a peer review; una volta accettati, tali articoli sono pubblicati sia in PubMed Central sia in BioMed Central. La maggior parte dei "successi" di PubMed Central, di fatto, vengono da BioMed Central.

Le ragioni offerte dalla BioMed Central per indurre gli scienziati a pubblicare con loro, meritano un esame approfondito:

  1. L'autore o gli autori mantengono il proprio copyright;

  2. È garantita alta visibilità perché, così viene argomentato, la visibilità è favorita dall'accesso libero e immediato a tutto; in più, tutti gli articoli di BioMed sono indicizzati in PubMed e messi in forma facilmente citabile (per gli obiettivi SCI) ; e

  3. L'archiviazione a lungo termine è assicurata da PubMed Central, una referenza credibile da quando è garantita dalla National Library of Medicine.

La principale debolezza di BioMed Central risiede nel suo piano commerciale. Esso riposa su una combinazione di possibili addebiti per pagina 53 , pubblicità e confusi cenni di servizi innovativi. Questi includono collegamenti incrociati tra gli articoli e motori di ricerca ottimizzati che coprono l'archivio gratuito aperto. Ovviamente, il nuovo archivio dovrà essere sostenuto per un pò, fin tanto che non possa sperare di mantenersi da sé.

Al di là dei dettagli finanziari, questo progetto è di fondamentale interesse poiché tenta di rielaborare il rapporto tra gli obiettivi scientifici e quelli commerciali, e di ottimizzare entrambi i termini dell'equazione, a differenza di quanto avviene nei modelli commerciali di oggi. Ricordiamoci che gli autori scientifici di solito vogliono vedere i risultati del proprio lavoro il più possibile divulgati, ma il loro desiderio è tenuto assurdamente a freno dai costi molto elevati della pubblicazione. La contraddizione è evidente; è in verità un affare faustiano, per usare la famosa descrizione della situazione proposta da Stevan Harnad. In effetti, BioMed Central tenta di giungere ad una Aufhebung hegeliana, cioè ad una sintesi che oltrepassa la somma delle parti, per superare la tensione tra gli obiettivi degli scienziati e quelli degli editori. Pur degno di interesse, la realizzazione di una simile ambizione è davvero difficile.

Per quanto possano essere esperimenti interessanti, né BioOne Central, né BioMed sono paragonabili per importanza a un altro sviluppo che al suo emergere, nell'agosto 2000, ha prodotto qualche manifestazione di sorpresa: mi riferisco all'archivio aperto di articoli lanciato da Reed-Elsevier sotto il nome di Chemical Preprint Server (CPS) 54 . Perché Elsevier sia finito coinvolto in un archivio pubblico, è tutt'altro che evidente; ad un primo sguardo, ciò sembra scontrarsi con il loro piano d'affari. Un gran numero di spiegazioni ha motivato questa decisione, e potrebbe non essere troppo presuntuoso provare a scoprirle. Se ho ragione, ciò mostra chiaramente che Elsevier non debba mai essere sottovalutato e che il suo quoziente intellettivo aziendale è impressionante. Ecco tre possibili ragioni di questa mossa, l'ultima delle quali, a mio parere, è la più importante:

  1. Il movimento Open Archive ha cominciato a intrigare Elsevier da tempo; per una azienda - ne sia testimonianza la filosofia "ingloba ed estendi" di Microsoft - non c'è modo migliore per comprendere un movimento potenzialmente minaccioso, che farne parte; è la cosa migliore da fare per manipolarlo o sviarlo in direzioni innocue. La creazione di un proprio Open Archive, che potrebbe anche diventare presto interoperabile con la OAI, è una mossa intelligente da parte di Elsevier 55 .

  2. Elsevier non è un editore molto forte nelle scienze chimiche. Aprire un archivio in una disciplina tanto enorme e, in qualche modo, priva di forma, è un buon modo per saggiare le acque, e indagare come meglio sfidare la posizione dominante della American Chemical Society (ACS). Abbiamo già visto le mosse di Elsevier - per esempio il "grande affare" - mirate direttamente ai concorrenti. In questo caso, sembra che Elsevier aspiri a competere direttamente contro ACS, soprattutto poiché quest'ultima ha permesso che alcune delle proprie pubblicazioni uscissero sotto l'etichetta SPARC. La battaglia, se dovesse svilupparsi, sarà interessante da seguire!

  3. Cosa più importante, credo che Elsevier stia sperimentando modi per ricostruire nel contesto digitale una solida padronanza del processo di valutazione della scienza; potrebbe essere cioè una risposta al progetto BioMed Central che abbiamo in precedenza incontrato.

Alcuni elementi del sito ChemWeb di Elsevier - sede del CPS - credo siano di sostegno all'ultimo punto 56 . Fa sfoggio di un prestigioso consiglio consultivo di cui fa parte, un po' ironicamente, un membro di NIH che può aver sentito parlare del Dr. Varmus, e del suo coinvolgimento in PubMed Central e BioMed Central 57 . È disponibile inoltre una funzione di scelta rapida "Quick Find"; anch'essa presenta particolari che parlano chiaro.

"Quick Find" consente la ricerca secondo le seguenti categorie: "il più consultato", "il più discusso" 58 , "il più alto classificato", "il più recente". Alcune di queste categorie sono piuttosto innocue: "il più recente", ad esempio; anche "il più consultato" sembra oggettiva, nonostante non sappiamo se "consultato" si riferisca ai contatti, alle letture dallo schermo o al numero delle volte che l'articolo è stato scaricato. D'altro canto "il più discusso" è ancora più oscura: i criteri sui quali misurare la "quantità" di discussione restano non chiari: numero di personaggi? Numero di persone coinvolte nella discussione? Una combinazione di entrambi?

La categoria "classificazione più alta" è la più problematica, e anche la più cruciale. Non sappiamo su cosa riposi tale valutazione o giudizio, ma si riferisce chiaramente a metodi di valutazione e al diritto di valutare. Forse Elsevier, se non altro per coprire ogni possibile fronte, sta pensando alle implicazioni di un futuro in cui gli archivi rimpiazzeranno le riviste. Da dove viene il profitto in un contesto del genere?

Elsevier sa che, con l'editoria accademica, è coinvolto nella valutazione del rendimento degli scienziati, e che il proprio piano di affari riposa in modo sostanziale sul controllo di ampi settori di questa attività. Un evento aneddotico a cui ho avuto il privilegio di assistere durante il NDLTD 59 meeting al CalTech, la primavera scorsa, mi ha fatto immediatamente rizzare gli orecchi. Credo che esso vada a sostegno della mia tesi. In una tavola rotonda, cui partecipavano diversi rappresentanti degli editori, si discutevano svariate questioni relative alla pubblicazione in rete di dissertazioni che includessero uno o più articoli pubblicati su carta. Il rappresentante di Elsevier sottolineò affabilmente il fatto che la propria azienda non si sarebbe necessariamente opposta a questa pratica fin tanto che fosse chiaro che l'articolo era parte di una tesi e finché fosse menzionata anche la fonte pubblicata, ad inclusione, ovviamente, dell'editore. Qualcuno poi pose la medesima domanda a proposito del caso degli universitari che cominciano ad archiviare i propri articoli sul proprio sito web, mantenendoli là anche una volta pubblicati su una rivista. Di nuovo, con mia grande sopresa, la risposta sembrò misurata e tollerante: "Nessuna preoccupazione", sembrò dire il cordiale rappresentante, "finché, di nuovo, è chiaro che questa è un'estensione del curriculum vitae, e le fonti, di nuovo, sono chiaramente indicate". Cosa stava accadendo?

La risposta si sarebbe potuta sentire se fosse stata posta una terza domanda: che dire dell'auto-archiviazione (self archiving) che utilizza i formati di descrizione e gli standard dei metadati che permettono agli articoli di essere reperiti in rete dai motori di ricerca OAI 60 ? E che dire di un'impostazione collaborativa e distribuita del collegamento tra citazioni 61 ?

Per immaginare quale avrebbe potuto essere la risposta del rappresentante di Elsevier alla terza domanda, può essere utile un'altra piccola notizia recente: la Software & Information Industry Association (SIIA) ha presentato rimostranze al governo statunitense perché il Dipartimento dell'Energia, attraverso il proprio servizio PubScience:

  • ..."entra nel commercio," e

  • offre accesso ad una base di dati di informazioni bibliografiche che duplicano e fanno conocorrenza alle basi di dati rese disponibili dagli editori di settori privati 62 .

Questa attività è descritta dal documento SIIA come "molto preoccupante".

Tra gli editori commerciali, presumibilmente colpiti dall'iniziativa PubScience, sono nominati BIOSIS, Chemical Abstracts Services, Cambridge Scientific Abstracts, Reed Elsevier (!), ISI, e l'Institution of Electrical Engineers. È curioso che PubScience conti dalla propria parte diversi editori commerciali: Kluwer, Springer, Taylor & Francis, etc. In breve, l'iniziativa di PubScience sembra dividere gli editori, in accordo con uno spartiacque che dovrebbe essere ulteriormente analizzato - vale a dire, quello tra gli editori che si occupano della sola editoria, ed editori impegnati anche nell'indicizzazione bibliografica, attività che contribuiscono ad accrescere la visibiltà delle riviste e a spingerle nel gruppo fondamentale (core group). I secondi si sono allarmati a causa di questo strumento del governo al punto da cominciare a far pressione sul Congresso, con successi fino ad oggi ambigui: la Camera dei Rappresentanti ha annullato ogni impegno finanziario in favore di questa particolare attività, ma il Senato l'ha reintrodotto. Il futuro ci dirà come i due bilanci saranno fatti quadrare; e a quale costo...

Qualunque possa essere l'esito della battaglia politica che si sta accendendo negli Stati Uniti, è facile immaginare come un sistema di archivi aperti, con strumenti di raccolta unici e collegamenti di citazioni costruiti in modo distribuito, possa minacciare vasti interessi commerciali. Se immaginiamo che una frazione significativa di conoscenza scientifica circolerebbe attraverso archivi aperti strutturati nello spirito OAI, è facile comprendere come al tempo stesso potrebbero essere disegnati e collaudati gli strumenti per valutare ogni sorta di dimensione della vita scientifica. Grazie alla unione di specialisti in scientometria e bibliometria, questi strumenti potrebbero essere progettati come bene pubblico - un risultato, a mio parere, ideale. Ciò comporterebbe la creazione di uno spazio panottico aperto - un progetto meraviglioso per i bibliotecari. Anche concedendo che ciò possa realizzato, almeno in parte, da aziende private, gli editori sarebbero ancora indotti a mettersi d'accordo con un nuovo attore, come hanno fatto a suo tempo con ISI. Certamente, possiamo anche immaginare che alcuni degli attori principali tenteranno di distruggere o di controllare ciò che ancora non posseggono, ma se messe opportunamente sull'avviso, le comunità scientifiche e le biblioteche, col sostegno di capaci amministratori, hanno dalla loro valide armi. A differenza di quelle dei consorzi, gravate come sono di molte ambiguità, queste battaglie non sono incerte.

Gli editori, ormai, devono essere consapevoli del fatto che la forma più decisiva di concorrenza che saranno chiamati a fronteggiare in futuro si collocherà sul fronte della valutazione. Grazie ad un'abile alleanza sviluppata con i gatekeeper scientifici, gli editori commerciali sono diventati partner nel solo processo di valutazione finora in uso. Con l'avvento del mondo digitale, una volta che questa unione estremamente redditizia è minacciata, è probabile che il futuro dell'editoria accademica si giocherà prevalentemente su questo terreno di scontro. E i bibliotecari farebbero bene a fare attenzione e, ogni qualvolta sia possibile, intervenire, se non altro per applicare le proprie specifiche competenze al trattamento di dati con cui hanno familiarità. Allo stesso tempo, i bibliotecari possono essere in grado di creare un nuovo canale di discussione tra scienziati e amministratori delle università, mettendo in evidenza il fatto che strumenti di valutazione validi non si limitano a migliorare gli istituti di ricerca, ma contribuiscono, inoltre, a ridurre il costo della comunicazione scientifica.

Per inciso, è interessante notare che Ginsparg sapeva bene quali informazioni avrebbero potuto essere ricavate dalle statistiche relative all'uso del proprio server, ma per ragioni etiche e per prudenza politica si rifiutò di renderle pubbliche. Se una valutazione avesse mai dovuto dipendere dai suoi archivi, era meglio che emergesse come un'istanza conscia e collettiva, originata dall'intera comunità di scienziati, piuttosto che non dall'iniziativa di un singolo individuo. Ora è giunto il momento di costruire gli strumenti di valutazione indipendenti sulle basi loro proprie, senza mescolarvi vincoli derivanti da interessi legati alla stampa. Le biblioteche possono essere d'aiuto.

Prima di proseguire, è importante specificare che il caso delle scienze umane e sociali (social sciences and the humanities, SSH) è stato tralasciato per diverse ragioni. Le riviste SSH differiscono marcatamente da quelle di scienze naturali per il modo in cui collocano sé stesse in un campo. Spesso tendono a rappresentare una posizione teorica o persino un gruppo particolare, piuttosto che un segmento della conoscenza. Le discipline delle scienze umane e sociali possono avere al loro interno paradigmi e orientamenti diversi, mentre le scienze naturali, di regola, non tollerano tale frammentazione cognitiva. Possono inoltre manifestarsi differenze nazionali o linguistiche che vanno ben oltre le forme di specializzazione. Per esempio, svariati filosofi francesi, come Foucault o Derrida, ricompaiono in dipartimenti di letteratura comparata del Nord America. La frammentazione delle scienze umane e sociali rende la nozione di riviste "fondamentali" sempre più confusa, tanto più che il pluralismo linguistico continua a giocare un ruolo fondamentale in queste discipline. Nelle SSH, l'accesso al mondo della notorietà è molto meno legato ad una nozione di autorità universale di quanto non avvenga nel caso delle scienze naturali. In più, il grado di sconnessione varia da disciplina a disciplina. Economia e linguistica tendono probabilmente a comportarsi in modo più simile ad una scienza naturale di quanto non accada a filosofia, antropologia e sociologia.

Per queste ragioni, l'editoria SSH non sarà presa in esame in questa sede. La questione non sarà affrontata, inoltre, perché credo che, per comprenderne il funzionamento, sia necessario studiare questo particolare tipo di editoria ancora a lungo. Per certi versi, esso ricorda le scienze naturali; per altri, no. E la prova migliore che nessuno sia davvero a conoscenza del funzionamento dell'economia politica dell'editoria delle scienze umane e sociali è che, in questo settore, non si è sviluppata nessuna crisi del prezzo dei periodici. Credo che ciò sia dovuto al fatto che gli editori commerciali, nonostante le vaste risorse intellettuali a disposizione, non siano ancora riusciti a scoprire come manipolare il mercato SSH in modo vantaggioso, come hanno fatto nel caso delle scienze naturali. Ma è solo una questione di tempo.

Una conclusione nella forma di modesta proposta tutt'altro che "swiftiana" nello spirito

L'ombra di Oldenburg si allunga molto lontano; dall'intento originario di semplificare la gestione della proprietà intellettuale scientifica alla conseguente possibilità di valutare le prestazioni degli scienziati, corre un filo comune e ininterrotto, che ci lega ai nostri antenati londinesi. Gran parte della struttura di potere della scienza poggia su un duplice interesse: un archivio pubblico e un ordine gerarchico. Non sorprende dunque che gli intrusi commerciali si siano preparati studiando le motivazioni basilari che spingono la tribù scientifica a pubblicare; l'hanno fatto in termini tutt'altro che romantici.

La visione di Oldenburg si è graziosamente integrata con il concetto di eccellenza scientifica mentre quest'ultima si è gradualmente evoluta per giungere a comprendere elementi elitistici. Più recentemente, attraverso i meccanismi precedentemente delineati, in particolare attraverso l'unificazione e la materializzazione del concetto di "riviste fondamentali" (core journals), l'eccellenza - o l'elitismo - intellettuale della scienza ha cominciato ad identificarsi con l'elitismo economico, col risultato che ha avuto francamente inizio lo sfruttamento di un mercato chiuso, ben protetto e anelastico. Così è cominciata la prima rivoluzione nel mercato delle pubblicazioni scientifiche, meglio nota, in generale, con il nome di "crisi dei prezzi dei periodici", ma che meriterebbe, secondo me, un appellativo ben più colorito.

L'avvento delle reti e in particolare di Internet e il fiorire delle pubblicazioni digitali hanno portato alla nascita di una molteplicità di strategie editoriali. Qui ne abbiamo individuate due: in primo luogo, la riformulazione delle vendite in licenze ha completamente sovvertito il modo in cui l'attività economica veniva gestita prima dell'avvento della società digitale. Questo è quello che chiamo controrivoluzione delle pubblicazioni accademiche. Le biblioteche, in particolare, hanno visto la propria esistenza e persino il proprio spirito minacciati da questi sviluppi. Ma per tentare di opporre resistenza a questa tendenza non hanno trovato di meglio che raggrupparsi in consorzi. Sebbene i consorzi siano necessari e alcune volte facilitino gli acquisti, essi inducono anche una serie di effetti collaterali, specialmente quando si scontrano con tattiche di tipo "grande affare". Questo può produrre curiose forme di "astigmatismo cognitivo" che può essere sfruttato da alcuni editori per sopravanzare sugli altri.

La seconda grande tendenza che è scaturita dall'avvento dell'era digitale è il nascere di diversi tipi di "archivi aperti" (open archives). Il quadro è abbastanza complesso anche a causa del fatto che gli editori commerciali vi si sono inaspettatamente introdotti, e stanno tentando di trovare il miglior sistema per trarre vantaggio da uno sviluppo originariamente progettato al di là o addirittura contro di loro. Abbracciando un processo che mira a liberare il meccanismo della comunicazione scientifica e ad estenderlo in varie direzioni, come lo spionaggio, esplorano nuovi modelli di affari che li guidino con profitto attraverso questi territori inesplorati. Alcune di queste prospettive possono far correre uno o due brividi lungo la schiena...

Più chiaramente che mai, il mondo digitale e di rete ha rivelato quanto la pubblicazione scientifica sottoposta a valutazione sia strettamente intrecciata con la valutazione degli stessi scienziati; in pratica essa si fa più vicina al giudizio che alla comunicazione. Al crescere di importanza del mondo digitale la questione della valutazione incalzerà sempre più minacciosa. In particolare, a chi spetti il potere di controllo su di essa, sarà oggetto di sanguinose battaglie.

I bibliotecari devono sviluppare strategie che favoriscano risultati in armonia con i valori più profondi della loro professione, in particolare il desiderio di mantenere aperto il patrimonio collettivo della conoscenza. Da questo punto di vista è chiaro che essi devono, per i seguenti motivi, sostenere con tutta la loro considerevole influenza la Open Archive Initiative:

  1. Essa è l'unica alternativa che ha una possibilità di svilupparsi senza gli svantaggi economici propri delle attuali pubblicazioni digitali spacciate sotto forma di licenze locali.

  2. È l'unica alternativa che, malgrado poggi su una certa misura di finanziamento pubblico, ha una possibilità di sostenere nel medio e lungo periodo la concorrenza dei grandi editori, a differenza della maggior parte delle società di studiosi e di simili, generalmente ineccepibili, istituzioni.

  3. È l'unico modo che i bibliotecari hanno di recuperare la responsabilità e il controllo su compiti tradizionali quali la classificazione e la conservazione delle fonti. In questo modo essi possono anche essere coinvolti nello sviluppo di strumenti che aggiungano valore alle raccolte di articoli scientifici (quella che chiamo "ingegneria epistemologica").

  4. È l'unico modo di assicurarsi che un potente effetto panottico, tanto già scoperto quanto da scoprire, non resti dominio di aziende private irresponsabili e mosse dal profitto, molte delle quali operano offshore.

  5. Gli archivi aperti offrono una buona occasione per sviluppare nuove e positive relazioni con gli scienziati, in particolare con gatekeeper ed amministratori, e per rivedere in profondità il processo di valutazione degli scienziati, ora che tali questioni possono essere trattate indipendentemente dai limiti posti dalla stampa.

Cosa significa sostenere la OAI? Al momento può essere offerto sostegno a diversi livelli:

  • Le descrizioni e i metadati appartengono alla sfera di competenza dei bibliotecari; i quali dovrebbero essere maggiormente coinvolti nel loro sviluppo di quanto oggi non siano. Essi dovrebbero anche sviluppare e proporre, nello spirito delle RFC di Internet, nuovi strumenti e metodi che possano gradualmente essere integrati seguendo i percorsi della saggezza che si incontrano in ogni sistema di creazione/innovazione basato sull'intelligenza distribuita. Tutto questo dovrebbe essere realizzato tenendo a mente che la OAI poggia su una filosofia la quale prevede l'applicazione di funzioni relativamente semplici in modo facile ed affidabile. La OAI rifiuta di progettare un utopico SOE "standard per qualunque cosa" ("Standard of everything"). Come si dice per Internet, "l'applicazione precede la standardizzazione". Lo stesso sembra essere vero anche per la OAI. In breve, si dovrebbe discutere seriamente solo su ciò che dimostra di funzionare.

  • I bibliotecari sono già parte del processo di progettazione del patrimonio collettivo della conoscenza; essi dovrebbero, in armonia con gli scienziati e i ricercatori, dare il proprio contributo offrendo spazio su server che permettano alle Facoltà di auto-archiviare le loro pubblicazioni nel rispetto delle regole della OAI, sì da permettere una facile ed efficiente raccolta dei dati. Questa mossa potrebbe portare anche università e centri di ricerca a intraprendere utili riforme delle procedure di valutazione del proprio personale dedito alla ricerca.

  • I bibliotecari, affidandosi a quelli che tra di loro sono esperti in bibliometria, scienza dell'informazione, scientometria, etc., dovrebbero intraprendere un'iniziativa comune per costruire strumenti capaci di alimentare uno spazio pubblico e panottico della scienza. Questa iniziativa è correlata con il quarto dei motivi per i quali i bibliotecari dovrebbero sostenere OAI. Essi, insieme agli scienziati e agli amministratori, dovrebbero elaborare reti di gatekeeper il cui compito sia quello di separare il grano dal loglio negli archivi aperti. Tali reti non svolgerebbero più la funzione, propria dei gatekeeper, di sorvegliare gli ingressi, bensì quella di conferire "prestigio" a una frazione delle pubblicazioni mondiali. Varie reti giungerebbero certamente a diverse conclusioni, ma - restando le conclusioni sempre visibili e confrontabili, e probabilmente essendo alle volte sovrapponibili - la qualità del giudizio di valutazione in tal modo sarebbe ad ampio spettro.Più che la funzione di custodi (gatekeeper) questi redattori-valutatori (editor-referees) avrebbero la funzione di apportare "valore aggiunto". Queste reti finalizzate ad attribuire prestigio dovrebbero essere il più possibile internazionali in modo da evitare accuse di provincialismo e collusione; e basarsi sulle statistiche di uso per giustificare alcune delle proprie decisioni. In questo modo le comunità scientifiche recupererebbero l'iniziativa nel creare sistemi di valutazione, senza i quali la scienza non può funzionare, e non sarebbero obbligate ad affidarsi alle strategie commerciali dei grandi editori per entrare nel gioco della valutazione 63

  • Lo Science Citation Index resta uno strumento meraviglioso malgrado tutto il male che ha inavvertitamente generato, ma appare in qualche modo arbitrario e limitato nel suo ambito. Infatti esso trae profitto dalle sue stesse limitazioni per vendere una nozione di "riviste fondamentali" che non ha in realtà significato se non come pragmatica risposta alla domanda: come possiamo, nella pratica, tenere traccia delle citazioni in una porzione limitata delle pubblicazioni scientifiche mondiali? Tuttavia con un ben progettato principio di intelligenza distribuita, con l'aiuto degli scienziati che auto-archiviano i propri lavori, e con una selezione che non si basi sulla reputazione a priori che deriva dal marchio, bensì sulla qualità effettiva degli articoli, i bibliotecari hanno in mano la chiave per sviluppare una mappatura totale e globale della scienza. Questa visione dà le vertigini, ma non è nuova; essa si colloca da qualche parte sullo sfondo dei pensieri e delle ricerche di Garfield (e di Vannevar Bush); noi possiamo cominciare ad avere gli strumenti e le conoscenze sociali (di nuovo, intelligenza distribuita) per fare subito tutto ciò. Facciamolo!

I bibliotecari, mentre sostengono le iniziative pratiche di SPARC per fare pressione sugli editori commerciali e sulle loro politiche di prezzo, dovrebbero anche pensare a come creare sinergie tra SPARC e la Open Archives Initiative. Molti aspetti del lavoro di SPARC potrebbero rafforzare ulteriormente questa strategia, per esempio:

  • Promuovere le riviste libere significa che esse possono diventare parte degli archivi aperti - le riviste della Warwick University si sono già mosse in questa direzione creando così una connessione diretta tra SPARC e OAI.

  • Contribuire agli sforzi di rendere libero il contenuto delle riviste - per esempio la proposta NEAR di Provost Shulenburger -, cosa che, dopo un certo periodo di tempo, alimenta direttamente il movimento degli archivi aperti.

  • Usare la cosiddetta "letteratura grigia", tesi di dottorato, rapporti sulla ricerca, etc., per acquisire esperienza pratica nel maneggiare vasti archivi digitalizzati, aiuterà le biblioteche a familiarizzare con la costituzione di archivi aperti. Ricordiamoci che gli archivi digitali aperti possono essere la cosa che più si avvicina agli spazi pubblici aperti dell'era Gutenberg e che difendere questi archivi aperti può essere, per le biblioteche, il miglior modo per mantenere una continuità di propositi attraverso la rivoluzione tecnologica.

  • Anche sfruttare l'opportunità di negoziare l'archiviazione di lunga durata delle riviste commerciali, rendendone liberi i contenuti più velocemente possibile, arricchirebbe gli archivi aperti.

Ricordiamoci che, se gli archivi sono aperti, possono essere creati con poco sforzo dei mirror, con il risultato che l'archivio ha più probabilità di sopravvivere. La replicazione frequente e la larga distribuzione - non i caveau blindati delle banche - sono state lungamente usatei dal DNA per assicurare la stabilità delle specie in milioni di anni. Non dobbiamo mai dimenticare questa lezione! Il progetto LOCKSS di Vicky Reich della Stanford University sembra aver assimilato le implicazioni di questa visione di "stabilità dinamica" per la conservazione di lunga durata dei documenti. Il modello dovrebbe essere discusso dai bibliotecari, raffinato e se necessario ampliato. Se riuscissimo ad associare, sia in teoria sia in pratica, il carattere di apertura con una migliore sopravvivenza nel lungo periodo, avremmo guadagnato un'argomentazione difficile da contrastare.

Un evento molto recente suggerisce un'altra azione possibile. La Public Library of Science, malgrado abbia raccolto circa 27.000 firme, è riuscita a convincere solo poche riviste a rendere liberi i propri contenuti dopo sei mesi dalla pubblicazione. Per offrire sfoghi di pubblicazione adatti ai ricercatori che si sono impegnati a non pubblicare su riviste non cooperative, è stata proposta l'idea di creare nuove riviste, ma ciò non risolve il problema della valutazione che gli scienzati si trovano ad affrontare. Sorprendentemente, BioMed Central lo ha compreso e ha offerto i propri servizi. Questa azione è importante perché ha suggerito che ciò che è in gioco non è tanto una competizione tra le riviste quanto una competizione sulla valutazione. SPARC, magari assieme a BioMed Central, ma anche con qualsiasi altro partner adatto, potrebbe muoversi verso la creazione di comitati di valutazione per i firmatari della Public Library of Science. In questo modo il dilemma degli scienziati potrebbe essere risolto e il campo di battaglia potrebbe essere elegantemente spostato dalla preoccupazione per la qualità delle riviste a quella per la qualità dei comitati editoriali. Le riviste vedrebbero la loro forza diluita dal fatto di divenire solo una tra le tante forme esistenti di valutazione. Con 27.000 scienziati, non dovrebbe essere troppo difficile creare strutture di valutazione la cui qualità può dimostrarsi equivalente, se non superiore, ai sistemi di peer review, così come sono definiti dai diversi comitati editoriali e dai loro gruppi di redattori.

SPARC giocherà un ruolo cruciale se, di qui a pochi decenni, potranno essere osservati un numero tangibile di risultati, come ad esempio una fruttuosa estensione delle attività dei bibliotecari nell'area delle pubblicazioni scientifiche, oppure la creazione di nuove e potenti alleanze con i gatekeeper del sapere scientifico. Inoltre, se gli amministratori e gli scienziati, con l'ausilio dei bibliotecari, creeranno nuovi e migliori strumenti per valutare la prestazione scientifica, generando così metodi più efficaci per promuovere gli scienziati, allora gli editori commerciali saranno ricondotti al loro ruolo, di limitato, ma positivo, apporto al mondo delle pubblicazioni scientifiche. Ricordiamoci che, durante il diciannovesimo secolo, accadde che gli editori commerciali svolsero un ruolo utile nelle transazioni scientifiche introducendo (inconsapevolmente) nel sistema, un certo controllo ed equilibrio. Coloro che si resero conto che i tempi di pubblicazione erano divenuti inaccettabili, o che alcuni rifiuti alla pubblicazione non erano completamente guidati da criteri scientifici, poterono cercare e trovare rimedio nell'esistenza di canali commerciali alternativi.

Non dobbiamo infine dimenticare un altro problema. L'imbarazzante - è chiaramente il miglior eufemismo dell'anno - caso dei paesi poveri ha continuato a tormentare le menti dei più sensibili di noi. Sappiamo che i paesi del Terzo Mondo sono stati, in misura via via crescente, esclusi dall'informazione scientifica e medica aggiornata. È proprio questa forma di apartheid cognitivo che conferisce il suo peggior significato all'espressione "crisi dei prezzi dei periodici": il 70% dell'umanità ne è colpita, almeno indirettamente. Adesso, con la mediazione e il generoso finanziamento di WHO e della fondazione Soros, il "leggero imbarazzo" è stato stirato come una grinza su un pregiatissimo lenzuolo di seta, almeno nel delicato campo della medicina. Con il risultato che i grandi editori possono aggiungere questo nuovo e inatteso mercato alla loro collezione di macchine per far soldi con, in più, la soddisfazione che, per una volta, possono mostrare un certo grado di benevolenza. Provate a immaginare: se "noi" avessimo venduto queste riviste sui mercati normali, avremmo potuto guadagnare molti più soldi!

Ma, di nuovo, immaginate quanto potrebbe essere migliore un sistema mondiale di archivi aperti accompagnati da varie reti di persone che offrono servizi a valore aggiunto (value-adders). Il Terzo Mondo potrebbe organizzare eccellenti gruppi di tali persone che potrebbero, in più, valutare i lavori sulla base di criteri che coinvolgano sia la qualità sia la rilevanza rispetto ai problemi del Terzo Mondo (ad esempio la malaria). Il Terzo Mondo avrebbe accesso a queste informazioni (in realtà patrimonio dell'umanità) senza dover chiedere l'elemosina per averlo, una proposta che non può non mettere in discussione il senso di dignità di ciascuno.

Infine, l'accesso a grandi corpora di testi, ordinati negli archivi aperti, e interrelati in diverso modo, in particolare attraverso citazioni, aprirebbe la strada a varie e utili forme di valutazione. Aiuterebbe anche a monitorare le aree fondamentali di crescita della scienza collocando questa intelligenza collettiva nella sfera pubblica, cioè a disposizione di tutti. Sarebbe parte dell'infrastruttura pubblica, per dir così.

In breve, i bibliotecari non devono perdere di vista il fatto che essi devono favorire la ricostruzione di infrastrutture cognitive simili alle collezioni aperte dell'era Gutenberg. Facendo questo, possono anche recuperare il terreno perduto dall'inizio dei disastri dalle licenze, e con ciò riaffermare il proprio ruolo di ingegneri epistemologici. Essi possono inoltre cominciare a rivendicare un ruolo attivo a fianco dei ricercatori coinvolti nel processo della scienza, così come è stato definito nel corso di questo saggio.

I bibliotecari possono (e devono) aiutare a costruire un oceano di conoscenza universale navigabile e aperto a tutti; e, come Ulisse, sapranno aiutare a fare i conti con i riflussi ingannevoli e i gorghi, i vortici e le risacche dei flussi caotici della conoscenza che accompagnano necessariamente lo sviluppo di una civiltà basata su un'intelligenza distribuita - una civiltà aperta a tutti coloro che sono abbastanza bravi (gli eccellenti) e non solo a chi può permetterselo (le élites).



[1] E non pianeti Galileiani. Galileo non poteva mettere il suo capitale simbolico in un mercato; tutto quello che poteva fare era cercare un patrono e il modo per procurarsene uno era giocare la dimensione eponima della scoperta scientifica. L'invenzione di Phil Trans permette anche agli scienziati di andare oltre il sistema del patronato e cominciare a comportarsi come "autori" moderni.

[2] Chicago, Chicago University Press, 1998. Molte delle idee delle pagine precedenti o si sono tacitamente basate sul magnifico libro di Adrian Johns, o sono state ispirate da qualche sua osservazione.

[3] Mark Rose, Authors and Owners: The Invention of Copyright, Cambridge (Mass.), Belknap Press of Harvard University Press, 1995, passim. Desidero ringraziare Kathryn Hayles per aver portato questo importante libro alla mia attenzione.

[4] E' difficile rimanere politicamente corretti quando ci si trova invischiati con un personaggio da romanzo con un sesso definito. Tuttavia, il lettore sia assicurato che le donne, ahimè, non si sottraggono al fato del comportamento schizofrenico quando diventano ricercatrici...

[5] Il fattore d'impatto è una forma di misura standardizzata introdotta dall'Institute of Scientific Information (ISI). Si calcola dividendo il numero di citazioni che una rivista riceve, in un dato anno, relative agli articoli pubblicati nei due anni precedenti, per il numero di articoli pubblicati in quegli stessi anni. Perciò il fattore d'impatto di una rivista per il 2001 è il numero di citazioni ricevute nel 2001 relative agli articoli pubblicati nel 1999 e nel 2000, diviso per il numero di articoli pubblicati nel 1999 e nel 2000. Vedi M. Amin & M. Mabe, Impact Factors: Use and Abuse, "Perspectives in Publishing" 1 (October 2000), 1-6; http://www.elsevier.com/homepage/about/ita/editors/perspectives1.pdf.

[6] Si veda il suo Scientific Practice and Ordinary Action: Ethnomethodology and Social Studies of Science, New York, Cambridge University Press, 1997.

[7] Dal latino texere, tessere.

[8] Kuhn concepiva la stabilità del paradigma come mantenuta solo attraverso l'esperienza dell'apprendimento, che include gli strumenti e i metodi dominanti un campo in una certa fase della sua storia. Tuttavia, altre relazioni di potere contribuiscono a conservarla, e l'editoria scientifica non dovrebbe essere ignorata, in questo contesto.

[9] Samuel C. Bradford, Sources of Information on Specific Subjects, "Engineering", 137 (January 26, 1934), 85-6

[10] Se N scienziati producono 1 articolo all'anno, il numero di scienziati che producono n articoli all'anno sarà approssimativamente N/n.

[11] Devo questo dettaglio a Michel Bosc, uno scienziato dell'Istituto Nazionale delle Ricerche agronomiche (INRA), in Francia, con una notevole esperienza nell'ambito dell'editoria scientifica.

[12] A. J. Meadows, Access to the Results of Scientific Research: Developments in Victorian Britain, in Id. (a c. di) Development of Science Publishing in Europe, Amsterdam, Elsevier Science Publishers, 1980, pp. 43-62.

[13] Qui di nuovo sarebbe bello avere una storia precisa delle carriere commerciali o finanziarie di riviste che appaiono sullo SCI dal suo inizio. Un altro studio di gruppo, senza dubbio...

[14] Vedi: Ann Okerson, What Price Free? http://www.nature.com/nature/debates/e-access/Articles/okerson.html Il mio tentativo di confutare gli argomenti di Ann Okerson può essere trovato al seguente indirizzo: http://www.nature.com/nature/debates/e-access/webdebdata/webdebate.taf?format=moderatorlist.

[15] Dopo l'incontro dell'ARL tenutosi a Toronto lo scorso maggio, l'Organizzazione mondiale della sanità e la Fondazione Soros hanno annunciato di essere riuscite a negoziare una qualche forma di accesso delle nazioni povere alle riviste mediche. In effetti, essi pagano una tariffa ridotta per queste riviste e le distribuiscono gratis o ad un costo molto basso ad alcuni paesi secondo un qualche criterio che tiene conto del prodotto nazionale lordo a testa. Questa è certamente una bella notizia, sebbene si debba rilevare che questo accordo apre anche nuovi insospettati mercati per gli editori commerciali. Vedi: http://www.who.int/inf-pr-2001/en/pr2001-32.html.

[16] http//www.gbhap.com/about/French_Decision/top.htm. Con sollievo, l'impresa è stata acquista da Taylor & Francis nel febbraio del 2001 e ora sembra che il caso francese sia definitivamente chiuso in favore di Henry Barschall e dei suoi sostenitori.

[17] Vedi: Diana Crane, Invisible Colleges: Diffusion of Knowledge in Scientific Communities, Chicago, University of Chicago Press, 1972, passim.

[18] È importante controllare qui che cosa possono coprire queste categorie. Come osservato sopra, alcune società di studiosi, sebbene non a scopo di lucro, in teoria, usano i loro fondi accumulati per svolgere, sostenere o sviluppare attività sempre più diversificate che estendano il loro potere istituzionale. L'American Chemical Society è una veterana in queste cose. Alcune case editrici universitarie lavorano come vere case editrici universitarie, mentre altre adottano concezioni più commerciali. Di nuovo, le categorie generali non riescono a catturare la sconcertante varietà di modelli di comportamento che incontriamo. Andrebbe svolta un'analisi caso per caso, basata su criteri chiaramente stabiliti, in modo da permettere diversi tipi di comparazione.

[19] Non ho svolto una ricerca sugli Stati Uniti, ma è interessante notare che, per i periodici, la spesa media delle biblioteche della ARL, era di 4.431.593 dollari americani. Sono ben consapevole del fatto che, in statistica, la media non è la moda (ovvero l'evento che si verifica con maggiore frequenza,NdT), ma è già un punto di inizio...

[20] I numeri sono presi da una presentazione fatta dal presidente dell'ARL, Shirley K. Baker. Vedi: http://www.arl.org/sparc/resources/07-01LIBER/sld001.htm. Vorrei ringraziare Alison Buckholtz e Richard K. Johnson, entrambi dello SPARC, per avermi gentilmente fornito dati e consulenza su questa sezione della mia esposizione.

[21] Warwick pubblica anche Geometry & Topology (gratis) contro Topology, un'altra pubblicazione Elsevier. La seconda rivista più costosa pubblicata sotto gli auspici di SPARC è Crystal Growth and Design (1.600 dollari), anch'essa pubblicata da ACS. Delle dieci riviste SPARC, in realtà, tre sono gratis, le due pubblicazioni RCS costano 1.000 dollari ciascuna. Il costo delle dieci riviste SPARC è di 5.238 dollari, dei quali 4.000 sono in relazione alle due riviste ACS. I dieci titoli commerciali equivalenti costano 40.677 dollari.

[22] Anche quest'ultima, che è una pubblicazione dell'American Chemical Society, in realtà non pratica esattamente prezzi bassi. A suo credito, SPARC riesce evidentemente a far giocare un grande giocatore contro l'altro al fine di mantenere i prezzi bassi. Incidentalmente, Organic Letters sta battendo Tetrahedron Letters nella partita del fattore d'impatto. Questo potrebbe spiegare il tono cauto dell'articolo di Amin e Mabe menzionato sopra alla nota cinque?

[23] C'è stato un po' di disaccordo nel 2000 nella Newsletter di Marcia Tuttle a proposito della questione dei prezzi dei periodici; vedi in particolare la critica del prezzo di PhysChemComm sul n. 250 (June 16, 2,000) con una replica sul numero 252. Un'ulteriore discussione sui prezzi delle riviste di chimica è apparsa nel numero 253, grazie alla penna di Dana Roth, del California Institute of Technology. Piuttosto che rivelare necessariamente i limiti della strategia di SPARC, queste discussioni possono riflettere semplicemente il fatto che le condizioni iniziali di lancio sono sempre un po' difficili.

[24] Vedi: http//www.physanth.org/newsletter/spring00.pdf. L'annuncio con i quattro punti principali è specificato a pagina quattro della Newsletter.

[26] La percentuale deve riferirsi ai costi di produzione (fissi e variabili) e non alle entrate come fa, per esempio, Christine Borgman. Unire i costi di stampa e le entrate è privo di senso. Le entrare includono i profitti e e pare ragionevole che, più alto è il profitto, più basso apparirà il costo di stampa... Vedi Christine L. Borgman, From Gutenberg to the Global Information Infrastructure: Access to Information in the Networked World, Cambridge, Mass., MIT Press, 2000, p. 86.

[27] Affermare che una rivista scientifica elettronica dovrebbe essere gratis non significa pretendere che quella rivista si possa produrre a costo zero; significa dire che i costi possono essere ridotti ad un punto tale da poter essere sostenuti da istituzioni interessate a espandere lo spazio pubblico della scienza. Nella misura in cui l'assenza di costi aumenta enormemente le possibilità di accesso, ciò va in una direzione che trova il sostegno sia dei bibliotecari che degli scienziati. Tutti i costi relativi alla gestione degli abbonamenti spariscono anch'essi. http://current-science-group.com/.

[28] Si veda http://www.elsevier.nl/homepage/about/resproj/tulip.htm?mode=tulip. La Princeton University è menzionata nella prima Newsletter. TULIP - un acronimo perfetto per un'azienda olandese - sta per: "The University LIcensing Program". Elsevier non avrebbe potuto essere più chiaro, tuttavia le obiezioni verso l'adesione ad un sistema di licenze furono poche, se ve ne furono.

[29] Si veda la mia conferenza del 1998, The Virtual Library: An Oxymoron?, "Bulletin of the Medical Library Association", disponibile in rete presso http://www.mlanet.org/publications/bmla/leiter98.html.

[30] Microsoft opera con un tale sistema. Ricorrono inoltre regolamente voci riguardo a una convergenza tra Microsoft e Reed-Elsevier.

[31] Corre voce che i presidi, in numerose Università, abbiano suggerito che sarebbe più efficiente se gli studiosi e gli scienziati che pubblicano ricevessero i mezzi per comprare gli accessi a titolo individuale e che le biblioteche si limitassero al sostegno didattico allo studente non laureato. Speriamo sia soltanto una voce...

[32] Sul concetto di "spazio dei flussi", si veda Manuel M. Castells, The Information Age : Economy, Society and Culture, Vol.1, The Rise of Network Society, Oxford, Blackwell Publishers, Ltd, 1996, capitolo 6.

[33] Canadian National Site Licensing Project. È un progetto pilota basato sulla coalizione di 64 istituzioni sostenute dai fondi del Canadian Foundation for Innovation (40%) e da altre fonti di danaro, in misura variabile a seconda della provincia (60%). Si veda http://www.uottawa.ca/library/cnslp/.

[34] Vi sono altre dimensioni nella strategia di CNSLP che non dovrebbero essere dimenticate, tra cui il fatto di lasciare gli editori presentarsi essi stessi ad una chiamata di acquisizione (e trattando licenze come forma di acquisto), che la negoziazione degli abbonamenti avvenga soltanto nella valuta locale, e di imporre un modello di contratto redatto dal consorzio e non dall'editore, ecc. Tuttavia questi punti, anche se cruciali, restano marginali rispetto alla direzione principale della mia argomentazione in questa sede.

[35] Valutare l'ordine di grandezza di queste economie richiederebbe di paragonare i risultati raggiunti da CNSLP con quelli di altri consorzi. Ciò può essere fatto con difficoltà a causa delle clausole che richiedono una certa discrezione sui risultati ottenuti. Tutti i consorzi dovrebbero infatti riservarsi il diritto di scambiare ogni informazione che desiderino, in modo aperto e libero, con chiunque scelgano. Accettando la clausola di discrezione, si torna all'epoca pre-Barschall, quando non erano disponibili cifre comparative, o a prima della fine dei processi Breach e Gordon. Con le clausole di discrezione, i fornitori godono una visione panottica del mercato, mentre i compratori rimangono isolati. Svilupperò questa nozione di visione panottica poco oltre.

[36] Vorrei qui pubblicamente elogiare la sua direttrice esecutiva, Deb de Bruijn, per lo straordinario livello (e l'intensità) del suo lavoro. Lo stesso gruppo di negoziazione ha svolto un lavoro meraviglioso.

[37] Ho sentito di cifre di tale grandezza qui e là, in diversi corridoi. Ciò varia ovviamente dalle condizioni e dalle dimensioni delle istituzioni. Inoltre, vi sottopongo questa grezza approssimazione senza nessuna garanzia, ma faccio tutto ciò in nel modo più pratico, così da non inficiare la logica del mio ragionamento.

[38] Kenneth Frazier, The Librarians' Dilemma: Contemplating the Costs of the 'Big Deal', "D-Lib Magazine" 7.3 (Marzo 2001) http://www.dlib.org/dlib/march01/frazier/03frazier.html.

[39] Cfr. http://www.ohiolink.edu/about/update/. Questi documenti sono in formato PDF.

[40] L'opuscolo di OhioLINK "OhioLINK Snapshot 2000" riporta il numero di articoli disponibili da ciascun editore. In accordo con questi dati, del 2000, Elsevier Science conduce con circa il 58% degli articoli. Academic Press, che si è fusa con Elsevier nel 2001, rappresenta un altro 8%. Ciò significa che nel 2001 Elsevier rappresenta qualcosa come più dei due terzi degli articoli disponbili atrraverso OhioLINK.

[41] Anche questo punto meriterebbe un buon progetto di ricerca...

[42] Si vedano gli articoli di Amin e Mabe citati nella nota 5. Questo potrebbe in parte spiegare perché Elsevier è interessato in modo così evidente ai fattori di impatto.

[43] Michel Foucault, Surveiller et punir. Naissance de la prison, Gallimard, Paris, 1975, (tr. it. Sorvegliare e punire, Einaudi, Torno 1976, NdT).

[44] Si veda, ad esempio, http://www.echelonwatch.org/, un sito organizzato da ACLU negli Stati Uniti.

[45] GNU è un acronimo ricorsivo. Sta per "GNU's Not Unix". Chi è dotato di un'inclinazione matematica o un senso pronunciato dell'assurdo, apprezzerà pienamente la battuta.

[46] Un utile riassunto dell'incontro di ottobre può essere trovato all'URL seguente: http://iubio.bio.indiana.edu/R63470-81653-/news/bionet/journals/note/9910.newsm. Si veda anche: http://www.openarchives.org/meetings/SantaFe1999/sfc_entry.htm.

[48] C. Lagoze & H. Van de Sompel, The Open Archives Initiative: Building a Low-Barrier Interoperability Framework, http://www.openarchives.org/oai.pdf. Si noti, per inciso, che laOpen Achives Initiative si adatta benissimo alla proposta "NEAR" di Provost Shulenburger, presentata all'incontro dei membri di ARL nel ottobre 1998. Si veda http://www.arl.org/arl/proceedings/133/shulenburger.html.

[49] Il vero problema della pirateria è che il fenomeno riguarda solo le opere di successo; come risultato, i pirati si sottraggono a tutti i costosi tentativi di presentare una varietà di opere prima di azzeccare finalmente una combinazione vantaggiosa.

[50] Naturalmente, nel mondo della stampa, il processo di selezione tramite peer review corrisponde, de facto, a una delega di responsabilità ai direttori, ed essi, di contro, delegano a loro volta il compito valutativo ai revisori. Ad ogni modo, in ultima analisi, l'intera comunità è alla fine coinvolta nel processo di valutazione, poiché il lavoro scientifico consiste in buona parte nel confermare, confutare o estendere i risultati di opere pubblicate. La filosofia di Karl Popper afferma più o meno la stessa cosa, in termini molto più rigorosi. Per parte sua, l'editoria digitale permette di eliminare la principale delega di autorità. In altre parole, permette di sottrarre il potente strato dei gatekeeper all'intermediazione. Gli editori commerciali mantengono una potente presa sulla comunità scientifica, influenzando la nomina dei candidati a ricoprire il ruolo di gatekeeper, almeno nel momento di creazione di una nuova rivista. Non sono gli unici ad esservi coinvolti, e tuttavia gli editori in tale processo possono ricoprire una posizione importante, pur mascherata. Ci si potrebbe chiedere: sono davvero adatti per questo ruolo? Il controllo sui gatekeeper non deve appartenere esclusivamente alla comunità scientifica stessa?

[51] Vedi http://www.biomedcentral.com/. BioMed Central distingue se stessa accuratamente da BioMed Net, un progetto di Elsevier. Si posiziona inoltre con cura rispetto a PubMed e PubMed Central. Vedi anche http://highwire.stanford.edu/ , http://www.bepress.com/, e http://www.bioone.org/ .

[53] Il dibattito su questo punto è reso pubblico sul sito di BioMed Central. Vedi http://www.biomedcentral.com/editorial/charges.asp.

[54] Per collocare questo archivio in prospettiva, esso sfoggia al momento (metà agosto 2001), dopo un anno di vita, 282 articoli. Evidentemente, i chimici, nonostante siano molto più numerosi dei fisici, reagiscono cautamente agli appelli dell'editore. [A fine 2003, Elsevier stava progettando di chiudere i suoi portali gratuiti, fra i quali è ora compreso anche Biomed, in quanto non redditizi N.d.T.]

[55] L'influenza di ArXiv (OAI) è apertamente ammessa da CPS: "CPS è stato sviluppato seguendo da vicino gli archivi di Los Alamos http://arxiv.org/ , che coprono le scienze fisiche e le discipline correlate" http://www.chemweb.com/docs/cps/CPSinfo.shtml. La questione dell'interoperabilità deve apparire ad Elsevier problematica, poiché potrebbe rendere CPS dipendente da decisioni sugli standard prese fuori dall'azienda; d'altro canto, non essere interoperabile può anche condannare CPS a diventare un ghetto. Io sospetto che le esitazioni di Elsevier a questo proposito corrispondano al bisogno di osservare l'evoluzione dei fatti, e cercare di guadagnar tempo. E anche ACS, naturalmente, dovrebbe riflettere su tutto questo... Si veda il punto seguente.

[56] Vedi http://www.chemweb.com/ . Per analizzare la struttura del server di preprint, bisogna diventarne membri, un compito abbastanza semplice dal momento che mi sono registrato senza alcuna difficoltà nonostante la mia appartenenza a un dipartimento di letteratura comparata... Ad ogni modo, il processo di registrazione probabilmente funge sufficientemente da filtro da ridurre il rischio di valutazioni critiche da parte di persone che non si interessano alla chimica di per sé, ma sono molto interessate ai più recenti sviluppi nel mondo di Elsevier. È sempre utile tenere d'occhio criticamente Elsevier da vicino. L'URL del server di preprint è http://preprint.chemweb.com/CPS/ ; può essere raggiunto dall'interno del sito ChemWeb. Bisogna abilitare l'uso di cookies, sollevando ulteriori questioni di privacy.

[57] Vedi http://www.chemweb.com/docs/cps/advisory.shtml. Le istituzioni rappresentate comprendono Oxford, Cambridge, NIH, IUPAC, ETH Zurich. C'è anche un rappresentante di ... Procter & Gamble, la Dr. Edlyn S. Simmons, le cui attività sono descritte come segue: "[Dr. E. Simmons] ... lavora come manager di sezione nel 'Patent Information in Business Intelligence Services' alla The Procter Gamble Company in Cincinnati, Ohio, USA." Non occorre dire altro!

[58] Di nuovo, si notino le caratteristiche innovative di Elsevier. Essi trasformano il proprio archivio in un forum di discussione per attirare un maggior numero di lettori. Infatti, se un articolo eccellente esce nei loro archivi, e crea un ampio dibattito, molti chimici interessati dovranno registrarvisi e divenire familiari con questo archivio per non perdere eventuali osservazioni importanti. Le biblioteche non hanno ancora imparato ad utilizzare i propri sistemi automatizzati in questo modo, permettendo, ad esempio, alle facoltà e agli studenti di lasciare commenti sul libro che leggono. Inoltre, per stare al passo con Amazon, le biblioteche potrebbero offrire ai propri frequentatori annunci come "chi ha preso in prestito il libro che avete richiesto ha preso in prestito anche i volumi seguenti:...". Tutto ciò per dire che il mondo digitale ricolloca radicalmente i documenti, i loro gatekeeper e lettori. In altre parole, la digitalizzazione può anche permettere un modello nuovo di intermediazione, ma i bibliotecari, per quanto ne so, non hanno ancora sfruttato queste possibilità.

[59] Networked Digital Library for Theses and Dissertations. Nessuno potrà tessere a sufficienza le lodi di Ed Fox e delle benemerite persone al Virginia Tech (in particolare, John Eaton and Gail McMillan) per tutto il lavoro svolto per pubblicare le tesi on-line, liberarle dalle intrusioni commerciali, federare istituzioni che tendono a comportarsi come un branco di gatti randagi, e, più recentemente, per aver lavorato per armonizzare questo tentativo e le OAI.

[60] Il modo migliore per seguire da vicino e con attenzione tesi, principî ed obiettivi del self-archiving, è consultare il sito personale di Stevan Harnad all'indirizzo http://www.cogsci.soton.ac.uk/~harnad/ , e in particolare i seguenti articoli: The Author/Institution Self-Archiving Initiative to Free the Refereed Research Literature Online http://www.cogsci.soton.ac.uk/~harnad/Tp/selfarch.htm , e The Self-Archiving Initiative: Freeing the Refereed Research Literature Online http://www.cogsci.soton.ac.uk/~harnad/Tp/nature4.htm .

[61] Vedi http://opcit.eprints.org/ per i particolari. OpCit si presenta come un potenziale service provider di OAI.

[62] Questa affermazione è tratta da una pagina di un articolo inviatomi da Mr. David LeDuc di SIIA. Mr. LeDuc può essere contattato all'indirizzo dleduc@siia.net.

[63] Certamente, si svilupperebbero anche qui gerarchie, che andrebbero a ricoprire il ruolo effettivamente svolto dalle testate delle riviste. È necessario altro lavoro per sviluppare progetti praticabili a questo riguardo. .

Come contattarci|Come collaborare|Ricerche locali|Rss feed

Creative Commons License
This work is licensed under a Creative Commons License

angoloangolo

A cura di:
Brunella Casalini
Emanuela Ceva
Dino Costantini
Nico De Federicis
Corrado Del Bo'
Francesca Di Donato
Angelo Marocco
Maria Chiara Pievatolo

Progetto web
di Maria Chiara Pievatolo


Periodico elettronico
codice ISSN 1591-4305
Inizio pubblicazione on line:
2000


angoloangolo

Per contribuire, si vedano le Istruzioni per gli autori
Instructions to contributors