L’articolo è stato originariamente pubblicato dal Bollettino AIB: Rivista italiana di biblioteconomia e scienze dell’informazione, 42 (2002), n. 4, p. 413-437.

 

 

Paradigmi emergenti della scholarly communication

 

di Luca Guerra[1]

 

 

La crisi e il paradosso della scholarly communication

 

Dagli anni settanta, in particolare tra i bibliotecari americani, ricorre insistente l’espressione “journals crisis”, divenuta corrente per indicare il problema dei prezzi crescenti delle pubblicazioni seriali che si occupano, in particolare, della diffusione della produzione accademica. La constatazione allarmata si riferisce alla edificazione in atto di un muro sempre più alto che sta imprigionando la produzione scientifica, impoverendone la potenzialità seminale e compromettendo il lavoro dei ricercatori. 

Dal momento che il mercato editoriale scientifico è sostanzialmente unico per Europa e USA, la crisi è questione che concerne la comunicazione scientifica tout court e quindi ci riguarda direttamente.

Il problema ha un recto e un verso ugualmente preoccupanti: 1) dal punto di vista dell’autore, il risultato del proprio lavoro di ricerca trova crescenti ostacoli alla condivisione all’interno della propria comunità di ricercatori, 2) dal punto di vista del lettore, la possibilità di accedere alle pubblicazioni scientifiche di interesse diventa economicamente sempre più onerosa e in taluni casi (sempre più frequenti) semplicemente impossibile. A rendere ancora più difficili le cose si è posto il rapido incremento del numero delle riviste, raddoppiato negli ultimi dieci anni per rispondere alle esigenze di crescente specializzazione (e, in parte, anche per far allungare di qualche centimetro il curriculum dei docenti[2].) E’ chiaro che journals crisis significa quindi fondamentalmente crisi complessiva dello stesso sistema di condivisione e elaborazione delle conoscenze.

Solo recentemente tuttavia il tema è diventato argomento di discussione presso gli autori, in particolare docenti universitari. Le ragioni del ritardo nella percezione del pericolo possono risiedere nella tradizionale separazione tra bilanci delle biblioteche e bilanci dei dipartimenti, all’origine della caratteristica rigidità della domanda alle variazioni dei prezzi: ai docenti cioè non si è mai posto il trade-off riviste/convegni o riviste/finanziamento delle ricerche e quindi i prezzi in crescita hanno avuto inizialmente un impatto modesto sulla domanda di riviste. Oltre a questo, si è verificato un po’ in tutte le università un processo di cannibalizzazione delle monografie[3] da parte delle riviste che ha ulteriormente attutito l’effetto del rincaro di queste ultime (17% di monografie in meno complessivamente acquistate nel 2000 rispetto al 1986): va detto che la riduzione negli acquisti delle monografie è particolarmente preoccupante perché avviene entro un trend di pubblicazioni crescenti: il numero delle nuove monografie pubblicate negli Stati Uniti è aumentato di circa il 50% tra il 1975 e il 1995 e il loro costo medio è quasi triplicato.  In termini di capacità di copertura da parte delle biblioteche quindi, la crisi dei periodici porta con sé anche la crisi delle monografie. Nel 1976 la spesa per l’acquisto di periodici incideva per il 40% del bilancio complessivo della biblioteca[4], oggi arriva al 70 – 80% del bilancio[5].

Da uno studio[6] dell’ARL risulta che tra il 1986 e il 2000 i prezzi medi unitari per le riviste di interesse accademico sono cresciuti del 226%, incremento costantemente e sensibilmente superiore al tasso di inflazione, pari al 57% negli USA. Tutto questo non poteva ulteriormente essere ignorato e in molti atenei si è dato avvio alla revisione delle politiche degli acquisti, caratterizzata dal ricorso sistematico alle cancellazioni[7] degli abbonamenti. La flessione della domanda così determinata, nel mercato dominato dalle concentrazioni editoriali[8], ha costituito un ulteriore incentivo all’aumento dei prezzi e ha innescato quel circolo vizioso di riduzione della domanda da parte delle biblioteche e aumento dei prezzi che chiamiamo “journals crisis”. Nel 2000 le biblioteche associate all’ARL (Association of Research Libraries, le più grandi e prestigiose biblioteche di ricerca dell’America del Nord) hanno speso il 192% in più per gli abbonamenti ai periodici rispetto al 1986 e hanno ricevuto il 7% in meno di titoli.

Tutta la questione assume un aspetto paradossale quando si pone mente al fatto che la catena del valore, riguardante quella piccola porzione di produzione editoriale rappresentata dagli articoli scientifici universitari,  corre “quasi” interamente fuori dal modello della transazione commerciale. Non è forse molto noto che i docenti che scrivono articoli su riviste scientifiche non ricevono un centesimo dagli editori e i referee, altri docenti che svolgono il “peer review”(cioè quell’essenziale[9] lavoro di revisione dei testi proposti per la pubblicazione al fine di assicurare la qualità degli articoli pubblicati) guadagnano quanto gli autori (nulla). O meglio, il guadagno che proviene da questa attività è certamente per un verso economico ma il nesso è molto mediato: la dinamica delle carriere e degli incarichi dei docenti poggia infatti in maniera fondamentale sulla pubblicazione degli articoli[10], per un altro verso il “guadagno” consiste nel poter diffondere il proprio lavoro nella comunità dei ricercatori ed essere riconosciuti per il proprio contributo personale.

Il quadro delineato ci restituisce alla fine l’immagine, da un lato, di comunità di ricercatori che come autori e referee mettono gratuitamente a disposizione il risultato del loro lavoro qualitativamente certificato e, dall’altro lato, queste stesse comunità che, quando vogliono accedere a quanto esse stesse  hanno prodotto, si trovano a dover fronteggiare serissimi problemi di accesso a causa dei prezzi proibitivi che devono sostenere. Che cosa manca dal quadro? Qualcosa è restato ai margini e riguarda la fonte che finanzia la produzione degli articoli. Ai margini quindi dobbiamo inserire gli studenti e tutti i contribuenti che finanziano l’attività istituzionale della ricerca. La conoscenza è un bene pubblico quindi questo finanziamento può essere visto come un investimento a lungo termine: giunti per così dire al momento di riscuotere, ci ritroviamo però con il solito paradosso: il rendimento è fortemente limitato dal fatto che le potenzialità della ricerca in termini di generazione di altre conoscenze e delle loro possibili applicazioni è fortemente frenato dalla barriera dei prezzi. Il finanziamento per la creazione di articoli non è una cosa da poco: Ginsparg[11] stima un costo medio (includente salario, costo per attrezzature di laboratorio e spese collegate) sostenuto dall’università per articolo pubblicato di circa 50.000$. E gli editori? Nella scena in effetti dobbiamo mettere anche gli editori e li dobbiamo inserire, per così dire, in mezzo ai due lati del quadro, tra le comunità dei ricercatori in quanto autori e le stesse comunità di ricercatori in quanto utilizzatori. La funzione di medio è stata essenziale: gli editori commerciali hanno svolto una serie di compiti importanti perché la scholarly communication potesse avere corso: hanno garantito il lavoro editoriale e di composizione tipografica, stampato gli articoli, impaginati nelle riviste, distribuiti, sostenuto il lavoro di coordinamento tra autori e referee per assicurare la qualità delle loro pubblicazioni. Hanno però adottato una politica dei prezzi che è andata a collidere progressivamente con il compito essenziale dell’editore di rendere possibile la scholarly communication e ciò è stato avvertito come sempre meno accettabile proprio per la caratteristica speciale di questa letteratura di essere ceduta gratuitamente agli editori. M.L.Rosenzweig[12], professore universitario e presidente di comitato editoriale esprime questo punto in maniera molto esplicita: “Several commercial publishers have so emphasized the maximization of profit that they have restricted the flow of knowledge. In so doing they have exiled themselves from the academic enterprise”.

 

La ricerca di una soluzione alla crisi paradossale

 

 

1.            Cancellazioni e just in time

 

Parallelamente alla journals crisis, si è sviluppata la ricerca di possibili soluzioni per porvi rimedio. I bibliotecari, che avevano la percezione diretta della crescita preoccupante dei prezzi, sono stati i primi a cercare delle risposte.

Una delle prime è stato il ricorso alla cancellazione degli abbonamenti con un contestuale potenziamento dei servizi di document delivery e prestito interbibliotecario: con un eufemismo, dal just in case al just in time. Chrzastowski e Schmidt[13] hanno svolto un’indagine su un campione di dieci biblioteche accademiche nordamericane per valutare le politiche di acquisizione relative agli abbonamenti a periodici americani nei tre anni 1992-1994: il risultato indica una riduzione dei titoli posseduti del 16% e una correlazione positiva tra aumento dei prezzi e numero delle cancellazioni. Il 71% delle cancellazioni riguardava periodici con un unico abbonamento per l’intero gruppo. Gli appelli al cd. “coordinated cancelling” non pare abbiano sortito, in generale, effetti significativi. Una conferma implicita sull’impoverimento della diversificazione dell’offerta di contenuti ci viene da McCabe[14] il quale indica come criterio generalmente applicato, per le decisioni di cancellazione, la valutazione del rapporto costo/utilizzo (“cost per use ratio”)  spesso cumulato con l’impact factor al fine di stabilire una gerarchia tra periodici, dai più garantiti ai periclitanti, senza menzionare criteri di natura interuniversitaria. La comprensibile preoccupazione di ciascuna università di garantirsi il possesso del nucleo dei periodici ritenuti fondamentali conferma il rischio di impoverimento della differenziazione del contenuto offerto dalle biblioteche. Aggiungiamo che il criterio prevalentemente impiegato del costo/utilizzo non può certo essere considerato un criterio di valutazione della qualità: riviste che affrontano temi trattati da piccole comunità di ricercatori rischiano di diventare introvabili pur, ipoteticamente, trattandosi di riviste di elevata qualità. In definitiva, la cancellazione combinata con il just in time come risposta alla journals crisis è da considerarsi misura di emergenza con dannosi effetti collaterali.

 

2.            I consorzi per acquisire potere di mercato

 

Una tipica risposta alla mancanza di concorrenza dal lato dell’offerta è stata la scelta di costituire gruppi di acquisto tra biblioteche. Certamente è riduttivo considerare i consorzi come dei meri “buying club” ma, almeno a far data dallo sviluppo della journals crisis, acquisire potere di mercato è stato uno degli scopi primari dei consorzi. Dagli anni trenta[15], le economie di scala erano gli obiettivi fondamentali dei consorzi per ridurre inutili duplicazioni di servizi (ad es. centralizzazione della catalogazione) e acquisti (ad es. condivisione dei rispettivi patrimoni) e abbassare in genere i costi fissi unitari. L’importanza delle economie di scala diventa cruciale a partire dalla seconda metà degli anni sessanta in ragione delle nuove opportunità e dei nuovi, ingenti costi dei processi di automazione delle biblioteche e infatti “It was in the 1960’s and 1970’s that library consortia began to flourish in the United States”[16]. Non si tarda a scoprire che il consorzio porta con sé anche nuove opportunità: l’automazione richiede nuove competenze e la formazione diviene una nuova questione da affrontare efficacemente a livello consortile “[… ]staff members were specialists in certain areas and would provide specialized training and consulting for staff of member libraries”, di più “Another benefit of consortia was that it provided a collegial environment for staff who may otherwise  not had the opportunity to work in dept with their counterparts at other libraries, and to learn from each other”.

Dalla metà degli anni novanta però il consorzio acquisisce un nuovo ruolo, quello dell’attore strategico sul mercato editoriale. E’ soprattutto per rispondere alla sfida di questo nuovo compito che si affermano i consorzi di dimensione statuale come NESLI (National Electronic Site Licence Initiative) collegata al JISC (Joint Information System Committee) in Inghilterra, l’OhioLink in Ohio e guadagnano interesse le iniziative che danno vita a consorzi di consorzi come ICOLC (International Coalition of Library Consortia), la Network Alliance, l’eIFL (Electronic Information for Libraries consortium) dell’Open Society di Soros.  Non c’è dubbio che la risposta consortile, nelle sue molteplici forme, abbia conseguito importanti risultati nello sforzo di contrastare gli effetti della journals crisis. Come spesso succede, cambiamenti di ordine organizzativo e strumentale finiscono per avere riflessi di portata ben più ampia. Le trattative a livello consortile con gli editori commerciali, specialmente riguardanti risorse elettroniche, conducono infatti non soltanto a ottenere significative riduzioni dei prezzi unitari, ma vedono l’affermazione di nuovi e controversi paradigmi di acquisizione e sviluppo delle collezioni. Basti accennare in questa sede all’acceso dibattito tra bibliotecari relativamente al tema selective purchase[17] v. massive purchase[18] (in letteratura anche identificato con l’espressione “big deal”) e cioè, da un lato alle preoccupazioni per l’acquisto in blocco di grandi pacchetti preconfezionati di periodici elettronici dei più disparati soggetti, quindi del notevole aumento dei titoli da acquistare e della contestuale crisi della funzione del bibliotecario come selezionatore professionale, e dall’altro alle nuove possibilità del big deal legate a questioni quali la copertura di soggetti marginali, l’interdisciplinarità, la serendipità e i costi unitari.

 

3.            Pubblicare per concorrere

 

3.1 HighWire

 

La crisi ha visto nascere una nuova figura: il bibliotecario proattivo con penchant imprenditoriale.

HighWire rappresenta il caso più noto nel nuovo scenario digitale e telematico. Nasce nel 1995 per iniziativa della biblioteca di Stanford con gli obiettivi di accorciare i tempi di pubblicazione, facilitare la ricerca dei documenti ma, soprattutto, contrastare la crescita dei prezzi degli abbonamenti: afferma in un’intervista Michael A.Keller[19], fondatore di HighWire “The roots of HighWire Press go back into the stimuli of outrageous prices and prices increases by the for-profit publishers of scholarship [….]”. Il progetto poggia sull’idea di mettere a disposizione le conoscenze informatiche e telematiche, reti e server dell’università per creare un’infrastruttura tecnica  capace di sfruttare le nuove possibilità offerte da internet e in particolare dal web per aprire nuove strade alla scholarly communication,  contando su una collaborazione ad ampio raggio tra preesistenti library press, società scientifiche e “responsible publishers”.  L’esperimento prende avvio con la pubblicazione e la distribuzione elettronica del Journal of Biological Chemistry dell’American Society of Biochemistry and Molecular Biology. Il test viene giudicato un “successo istantaneo” per il numero di accessi e per gli apprezzamenti entusiastici dei lettori. Pochi mesi dopo è la volta di Science Online, versione elettronica di Science Magazine dell’Association for the Advancement of Sciences: il successo si ripete e HighWire viene riconosciuto come un nuovo concreto modello per la diffusione della conoscenza scientifica. HighWire si propone come “co-editore”  che riunisce in un’unica piattaforma web le pubblicazioni di una molteplicità di editori, lasciando a questi ultimi libertà nel definire termini e condizioni d’uso dei documenti pubblicati, purchè venga preservato il principio della primazia della comunicazione scientifica sulla ricerca dei profitti. Oltre  che sul prezzo, HighWire esplicitamente persegue vantaggio competitivo sugli editori commerciali anche sul piano della qualità, aggiungendo valore ai documenti elettronici con la proliferazione delle dimensioni ipertestuali, l’accuratezza della grafica,  la multimedialità, la ricercabilità  a basso rumore e da un unico accesso. Tra gli impegni programmatici, HighWire include l’opera di incoraggiamento presso gli editori affinché concedano l’accesso gratuito ai numeri non correnti delle loro pubblicazioni.

 

3.2 SPARC

 

Anche SPARC (Scholarly Publishing and Academic Resources Coalition) va annoverata tra le iniziative imprenditoriali di rilievo, caratterizzata da un obiettivo molto preciso: contrastare la crisi della scholarly communication attraverso l’introduzione di concorrenzialità nel mercato editoriale. Tutto parte da un’idea, allora passata quasi inascoltata, di Ken Frazier, direttore delle biblioteche dell’università del Wisconsin, avanzata durante il meeting di ARL nel maggio 1997[20] e sintetizzabile nell’obiettivo di creare una decina di nuovi periodici, finanziati da una coalizione di biblioteche, per realizzare una competizione testa a testa con altri periodici specializzati sui medesimi settori di ricerca e pubblicati da editori commerciali considerati poco sensibili alle esigenze di diffusione e accessibilità della ricerca scientifica. Il finanziamento degli start up avrebbe dovuto essere garantito da un contributo economico delle biblioteche coalizzate, da fondi governativi e dall’impegno all’acquisto da parte delle biblioteche partecipanti (chiamiamola protezione della rivista nascente ….); la qualità delle riviste avrebbe dovuto essere assicurata da rigorose procedure di peer review e da un esplicito impegno ad un impiego intensivo delle tecnologie digitali  per creare prodotti innovativi e a più basso costo. Nel maggio 1998 parte concretamente la sfida: l’American Chemistry Society in associazione con SPARC pubblica “Organic Letters” in diretta competizione con la rivista omologa “Tetrahedron Letters” a un terzo del prezzo del competitore commerciale; poi è la volta della rivista esclusivamente online PhysChemComm che esce al 4% del prezzo del competitore commerciale; di straordinario significato è il caso di Evolutionary Ecology Research che vede l’intero comitato editoriale trasferirsi dall’editore commerciale alla nuova rivista “incubata” da SPARC.

 Nel settembre 2001 Organic Letters supera[21] Tetrahedron Letters per impact factor nella graduatoria ISI, la prima si colloca al settimo posto nella categoria disciplinare, la seconda al tredicesimo e vede una riduzione del ritmo di crescita del prezzo (15% all’anno nel perido 1995-98). Interessante è il caso di Wiley che ha ridotto il prezzo per le sottoscrizioni istituzionali dell’American Journal of Physical Antropology da $2.085 a $1.390: J.Friedlaender dell’AAPA (American Association of Physical Antropologists) commenta[22] “SPARC’s activities and counsel played an essential role in our successful negotiations with our journal’s publisher […] probably most importantly, the publisher knew we’d been in contact with SPARC and were considering their advice of starting a competing journal”. Uno dei più recenti progetti sostenuti da SPARC è BioOne[23] con l’obiettivo di convertire in formato elettronico circa cinquanta riviste specializzate in scienze biologiche ed ambientali e concorrere con gli omologhi commerciali.

E’ evidente che il successo di questo paradigma si misurerà dall’impatto che riuscirà ad avere sulle attuali politiche dei prezzi adottate dagli editori commerciali e non tanto dal numero di nuove testate che riuscirà a far nascere ed affermare poiché, in se stesso, questo aumento di titoli potrebbe accentuare ulteriormente i problemi di bilancio delle biblioteche. La partita è quindi ancora tutta aperta e l’efficacia di SPARC si potrà giudicare solo sul lungo periodo . Frattanto si sta lavorando a SPARC Europe[24].

 

4.            Accesso libero per tutti … ma dopo sei mesi

 

4.1 PubMed Central

 

Nel febbraio del 2000 fa la propria comparsa in rete PubMed Central, l’archivio[25] digitale sviluppato dal NCBI (National Center for Biotechnology Information, divisione della National Library of Medicine) presso il National Institutes of Health statunitense, con lo scopo di offrire alla comunità dei ricercatori biomedici accesso libero alla letteratura scientifica da essi stessi prodotta. L’esperimento prende avvio con la pubblicazione di due riviste: la “Molecular biology of the cell” e i “Proceedings of the National Academy of Sciences”. L’iniziativa presenta caratteri spiccatamente innovativi: semplicemente non si deve pagare nulla per accedere al testo integrale degli articoli certificati da peer review, gli unici presenti (non sono ammessi preprint).

Il premio Nobel Varmus è tra i più attivi promotori, animato dagli obiettivi di istituire un unico archivio pubblico, con documenti di molteplici fonti ma di medesimo formato (SGML/XML), ricercabili con un’unica interfaccia e con caratteristiche di navigabilità interna.

PubMed Central non ha funzioni di editore, si limita ad aggregare preesistenti riviste in formato elettronico appartenenti all’ambito delle scienze della vita. Gli articoli sono volontariamente conferiti presso l’archivio ….. dopo un periodo di tempo variabile dalla data della loro pubblicazione, a discrezione dell’editore, purché non oltre un anno (attualmente la media dell’embargo si aggira sui sei mesi). La realizzabilità del progetto, secondo i promotori, poggia sulla drastica diminuzione degli accessi agli articoli dopo circa due mesi dalla pubblicazione e dal conseguente modesto o nullo impatto economico sugli editori nel caso di una eliminazione delle restrizioni; la prassi, adottata autonomamente da molti editori di concedere accesso gratuito sui loro siti ai numeri arretrati, confermerebbe la loro valutazione. R.Campbell[26], presidente della Blackwell Science Ltd., sostiene invece che i pattern di utilizzo presentano scostamenti significativi tra materie e, in taluni casi, i picchi di download si verificano molto oltre i sei mesi.  Come è intuibile, siamo di fronte a un punto critico per la concreta realizzabilità del progetto. Cozzarelli[27], editore dei Proceedings of the National Accademy of Sciences, sostiene a favore dell’iniziativa che il conferimento gratuito presso PMC dei numeri arretrati aumenterebbe esponenzialmente la visibilità della rivista e questo si tradurrebbe in un’operazione di marketing economicamente vantaggiosa.

Per ogni articolo archiviato in PMC, si provvede a creare il corrispettivo record bibliografico in PubMed, la nota banca dati bibliografica che indicizza articoli di migliaia di riviste biomediche risalenti fino al 1966. L’efficienza e l’efficacia della ricerca vengono migliorate ponendo come vincolante per gli editori il deposito dell’intero testo dell’articolo al fine di rendere ricercabili le occorrenze delle parole esca anche all’interno di esso. Agli editori è stata concessa la possibilità di rendere visualizzabile il testo esclusivamente sul loro sito (restando fermo l’obbligo del deposito del testo integrale presso PMC) affinché potessero venire esposte al lettore anche informazioni pubblicitarie di altri prodotti commercializzati dall’editore. Recentemente, con un emendamento al regolamento, PMC rende la propria disponibilità a reindirizzare con link i lettori sul sito degli editori anche relativamente ad articoli visualizzabili solo a pagamento, purché siano stati pubblicati da meno di un anno.

Questo evidente continuo “cedimento” alle esigenze degli editori è un chiaro indice della difficoltà che PMC sta incontrando per acquisire l’obiettivo di divenire il modello di riferimento per il complesso degli editori biomedici. Del resto, riserve e anche critiche molto aspre all’iniziativa sono state manifestate pubblicamente anche da editori senza fini di lucro come le società scientifiche ed è chiaro che, senza l’appoggio della maggioranza di queste ultime, conquistarsi il riconoscimento di qualità scientifica e di prestigio diventa davvero difficile.  Le ragioni della contrarietà si possono riassumere in queste obiezioni: PMC esporrebbe a rischio la stessa esistenza delle società scientifiche le quali comunque vedrebbero diminuire drasticamente i loro introiti e non potrebbero più finanziare iniziative scientifiche di rilievo come congressi e attività formative; l’esistenza di riviste di elevata qualità sarebbe messa in pericolo; si profilerebbe il rischio di un monopolio statale dell’informazione con riduzione dell’indipendenza dei comitati editoriali e l’avvio di un processo di omogeneizzazione della cultura scientifica; la formattazione dei documenti perché siano compatibili per il deposito richiede risorse e tempo, in particolare per gli interminabili microproblemi che comporta; fare affidamento sui finanziamenti governativi è assai aleatorio perché l’ordine delle priorità politiche è altamente volatile. I difensori dell’iniziativa rispondono facendo rilevare che se la mission delle società scientifiche è il perseguimento del massimo grado possibile di diffusione dei risultati della ricerca, parrebbe sensato cercare altre fonti di introito per finanziare le attività di queste istituzioni senza che compromettano la loro ragione fondamentale; sul rischio di insostenibilità finanziaria, Cozzarelli[28] scrive “Publishing is an extremely lucrative business. This idea that people have that it’s some delicate flower that needs to be protected from the vicissitudes of the marketplace is total nonsense”;  relativamente al timore di un controllo statale, si sottolinea come il PMC National Advisory Commitee, responsabile delle politiche di selezione dei contenuti, sia composto da membri rappresentativi delle comunità dei ricercatori, delle biblioteche e del pubblico dei lettori (benché nominati dal direttore del NIH ….); gran parte degli editori utilizza già formati idonei, PMC offre inoltre un servizio di consulenza per risolvere eventuali problemi e garantisce controllo e correzione dei documenti prima della loro pubblicazione; il livello dei trasferimenti richiesto per la gestione dell’archivio è modesto e può essere coperto attraverso forme di cofinanziamento tra governi, università, fondazioni e con la vendita di servizi a pagamento come la creazione di literary review, bibliografie e nuovi servizi da progettare.

 

 

4.2 Public Library of Science[29] prova con il boicottaggio

 

Nei primi mesi del 2001, un gruppo di scienziati dell’ambito biomedico (tra i quali Varmus) con l’ideale della biblioteca pubblica aperta a tutti, evidentemente insoddisfatti[30] della lentezza con cui PubMed Central stava sviluppandosi, decidono di adottare un approccio più assertivo[31]. Viene fatta circolare questa lettera aperta:

 

We support the establishment of an online public library that would provide the full contents of the published record of research and scholarly discourse in medicine and the life sciences in a freely accessible, fully searchable, interlinked form. Establishment of this public library would vastly increase the accessibility and utility of the scientific literature, enhance scientific productivity, and catalyze integration of the disparate communities of knowledge and ideas in biomedical sciences.

We recognize that the publishers of our scientific journals have a legitimate right to a fair financial return for their role in scientific communication. We believe, however, that the permanent, archival record of scientific research and ideas should neither be owned nor controlled by publishers, but should belong to the public, and should be freely available through an international online public library.

To encourage the publishers of our journals to support this endeavor, we pledge that, beginning in September, 2001, we will publish in, edit or review for, and personally subscribe to, only those scholarly and scientific journals that have agreed to grant unrestricted free distribution rights to any and all original research reports that they have published, through PubMed Central and similar online public resources, within 6 months of their initial publication date.

Ad oggi, il numero delle firme raccolte si attesta attorno alle 30.000, con una consistente rappresentanza italiana e cospicue adesioni da parte dei paesi più poveri.

Nell’appello non c’è riferimento alla journals crisis, l’accento è posto sul tema generale della accessibilità come via per consentire il pieno dispiegamento delle nuove potenzialità della ricerca offerte dalla rete. Esplicito è il riferimento a PubMed Central, mentre Patrick O.Brown e Michael Eisen (tra i promotori) prendono posizione critica verso il modello HighWire a causa della persistenza degli ostacoli economici all’accesso e per la struttura centralizzata (ad es. per il rifiuto di creare mirror gestiti da istituzioni diverse dall’università di Stanford).

Anche in questo caso non sono mancate voci di aperto dissenso: in particolare la Federation of American Societies for Experimental Biology definisce[32] l’iniziativa un atto di “coercizione estremo e irrealistico”.

Attualmente non sembra che l’appello abbia sortito grandi effetti e pare lecito dubitare della fermezza di intenti di una buona parte dei firmatari, tuttavia non sono in circolazione dati che misurino l’impatto dell’iniziativa.

Vale forse sottolineare un’ambiguità nella posizione dei promotori laddove[33] scrivono:

 

It’s unlikely that many subscriptions would be cancelled simply because material would be available free of charge six months later, and journals make relatively little money selling access to their archived .... Few scientists who currently subscribe to journals would want to wait six months to read about the latest results in their field.

 

Allora, si tratta di una frase per tranquillizzare (più o meno furbescamente) gli editori oppure si sta realmente facendo tanto rumore per (quasi) nulla? Questa ambiguità potrebbe forse scoprire il paradosso che travaglia questo paradigma: se il documento è interessante fa guadagnare e quindi l’editore non lo cede, se lo cede è perché non fa guadagnare ed è scarsamente interessante.

 

5.            Accesso libero per tutti e per tutto…..ma chi scrive paga

 

5.1 E-biomed

 

Il progetto originario di PMC aveva un altro nome e più dirompenti ambizioni: si chiamava E-biomed. Nel documento di presentazione[34] (risalente alla prima metà del 1999), Varmus identifica le ragioni della nuova proposta nella constatazione che la tecnologia ha prodotto radicali trasformazioni nelle forme della comunicazione ma “Despite these welcome and trasforming changes, the full potential of electronic communication has yet to be realized. The scientific community has made only sparing use thus far of the internet as means to publish scientific work and to distribute it widely and without significant barriers to access”.

Concretamente, il progetto prevede la costituzione di un archivio elettronico a disposizione delle comunità dei ricercatori biomedici, accessibile senza barriere di nessun tipo (soprattutto senza dover pagare alcunché) e contenente i risultati delle ricerche, pubblicati nella maniera più tempestiva possibile.

Due sono i meccanismi previsti per il conferimento dei documenti: il primo prevede un severo processo di valutazione della qualità condotto dai comitati editoriali delle riviste elettroniche, nelle quali l’autore sceglie di voler pubblicare, e dai referee che esercitano il peer review, proprio come avviene normalmente nelle riviste cartacee; il secondo prevede una procedura molto semplificata: l’autore sottopone il proprio lavoro a un comitato di due specialisti del settore, i quali si limitano ad accertare la pertinenza dei documenti e il carattere non offensivo: si tratta in questo caso della letteratura conosciuta come pre-print. In entrambe le opzioni, il copyright rimarrebbe agli autori o, se nel caso, agli editori. Resta inteso che documenti peer reviewed e pre-print rimangono chiaramente distinguibili tra loro.

Sono invitati a contribuire all’iniziativa tutti i comitati editoriali di riviste già esistenti ma anche quelli di riviste che nasceranno, consapevoli di poter utilizzare questa nuova struttura già predisposta per la pubblicazione e la distribuzione.

Il NIH si assume gli oneri finanziari, tecnici e organizzativi esclusivamente per dare avvio al progetto e, si aggiunge, “It is important to emphasize at the outset that in no sense would the NIH operate as the owner or rule-maker of the enterprise”. E’ prevista la costituzione di un “E-biomed governing body” composto da membri della comunità scientifica, editori, tecnici e agenzie sovvenzionanti. L’intero contenuto dell’archivio verrebbe offerto ai lettori in maniera assolutamente gratuita.

Poiché sappiamo che per ogni pasto gratuito, da qualche parte, ci deve essere qualcuno che l’ha pagato, occorre analizzare il modello economico del progetto.

Premesso che ogni editore sarà libero di progettare il proprio modello, una delle scelte caratterizzanti prevede il versamento di una prima modesta quota da parte dell’autore (o più verosimilmente dell’istituzione in cui lavora) al momento del conferimento dell’articolo e un’altra nel momento in cui si decide per la pubblicazione: le istituzioni finanzierebbero queste spese con i risparmi derivanti dal non dover più versare ingenti somme per l’acquisto dei periodici. Ulteriormente, tutti i servizi aggiuntivi offerti dagli editori, i servizi di pubblicizzazione commerciale, le donazioni da parte di mecenati e di sponsor avranno funzioni di finanziamento complementare.

E-biomed non uscirà dalla carta perché troppe furono le società scientifiche editrici che presero posizione ostile al progetto. Furono molte le critiche, le più icastiche meritano una citazione “It will inevitably become a massive repository of taxpayer-supported junk that very few will read”, “[It would be] a takeover by the U.S. government”. Come sappiamo, Varmus iniziò tutto da capo e si ripresentò con PMC.

 

5.2 Budapest Open Access Initiative[35]

 

A rilanciare l’iniziativa per la liberazione della comunicazione scientifica dalle attuali restrizioni questa volta non è un gruppetto di professori occhialuti ma l’Open Society Institute di Soros, un “gorilla da due tonnellate”[36]. Più precisamente, il peso del nuovo attore si può misurare considerando l’impegno di mettere a disposizione del progetto 3 milioni di dollari per un periodo di tre anni, subito disponibili, e il programma di cercare ulteriori fondi. Oltre alle dimensioni, ci sono alcune novità che riguardano la tipologia del materiale oggetto dell’iniziativa: non solo la letteratura scientifica ma tutta la letteratura accademica ceduta gratuitamente dagli autori agli editori. Inoltre, i promotori si pongono l’obiettivo di divenire elemento di raccordo tra le varie iniziative che mirano sostanzialmente ai medesimi scopi.

Il filosofo Peter Sauber, uno dei principali architetti del progetto, è convinto che con i fondi di Soros e di nuovi finanziatori sarà possibile raggiungere una massa critica tale da innescare un “effetto domino”[37] nell’attuale sistema editoriale. Per raggiungere questo scopo BOAI traccia una strategia a due direttrici: “self-archiving” e lancio di nuove riviste impegnate per l’affermazione del principio della libertà di accesso (il che significa libertà di leggere, scaricare, copiare, distribuire, stampare, cercare, linkare, elaborare etc.)“Self-archiving” è la pubblicazione su server locali di ateneo di versioni elettroniche autoprodotte di working paper, articoli etc., regolata da disposizioni interne più o meno formalizzate. BOAI mette inoltre a disposizione le proprie risorse per sostenere la creazione di “alternative journals”che perseguano l’obiettivo di favorire il più alto livello possibile di diffusione dei documenti frutto della ricerca accademica; in nessun modo BOAI può però considerarsi editore. Particolare accento è posto sul prerequisito qualitativo dei documenti: la pubblicazione è rigorosamente limitata agli articoli peer reviewed; vi è sottolineata la considerazione che il peer review e in generale la qualità di ciò che viene pubblicato è indipendente dal medium e dal fatto che sia gratuito o a pagamento. La fondazione mette inoltre a disposizione degli start up un software per la gestione automatizzata del lavoro editoriale. Resta inteso che anche le riviste già esistenti, qualora optino per il libero accesso, potranno prendere parte all’iniziativa. Nessuna preferenza è avanzata relativamente al modello distribuito o centralizzato di archiviazione dei documenti.

Tanto per non ingenerare equivoci terminologici, i promotori specificano: “Free is ambiguous. We mean  free for readers, not free for producers” ma “The costs of producing open-access literature are much lower than the costs of producing print literature or toll-access online literature”. Il modello economico di riferimento è chiaramente quello di E-biomed (o di BioMed Central, esplicitamente citata e che appunto a E-biomed si ispira): il pagamento al momento della pubblicazione finanzia la libertà di accesso per tutti i lettori. Si tratterebbe quindi di un gioco a somma positiva: il denaro, attualmente speso per ottenere un accesso molto selettivo e discriminatorio, è più che sufficiente per coprire il nuovo sistema che non contempla esclusioni (almeno per chi dispone di un collegamento ad internet). Stimato il ricavo medio complessivo derivante dalla vendita di un articolo (online e su carta) nell’attuale sistema a 4000$, e confrontato con il calcolo approssimativo del costo per organizzare (non per pagare il servizio poiché il referee svolge gratuitamente il proprio lavoro) il peer reviewing (che rappresenta il costo di gran lunga preponderante nell’editoria elettronica) in 200-500$, “there are significantly good reasons to think that the money required to provide open access will be significantly less than the money now paid for restricted access”[38].

Public Library of Science, SPARC, Open Access Initiative e l’Association of Research Libraries si sono trovati simpatetici con i principi sostenuti da BOAI e hanno espresso il loro convinto sostegno all’iniziativa. Alcune società scientifiche editrici l’hanno vista invece come il fumo negli occhi: è il caso dell’inglese ALPSP (Association of Learned and Professional Society Publishers) che ha ritenuto di dover prendere posizione formale contro l’iniziativa:  “[It can] only serve to undermine the formal publishing process which these communities value and we find it alarming that a responsible organization (OSI) proposes to subsidize such an initiative[39]”. Anche Ginsparg ha ritenuto di non aderire[40] a BOAI per riserve sulla possibilità reale di riuscire a coprire i costi per il peer reviewing.

Le richieste per l’ottenimento dei fondi sono aperte.

 

5.3 BioMed Central

 

E-biomed è morto, viva E-biomed! Concepito pubblico, nasce privato con il nome di BioMed Central all’inizio del 2000, per iniziativa di Vitek Tracz, presidente del Current Science Group e vecchia conoscenza nel panorama editoriale biomedico.

Il progetto riprende i principi ispiratori di E-biomed: offrire un unico accesso per la letteratura biomedica rigorosamente peer reviewed, tempestivamente pubblicata senza alcun embargo, indicizzata in PubMed, accessibile senza nessun pedaggio o restrizione ai lettori.

Per cercare sorte migliore del progetto di Varmus, vengono introdotte alcune innovazioni. Ad esempio è già stato definito un accordo con l’ISI (Institute of Scientific Information) per l’assegnazione dell’impact factor ad alcune delle riviste pubblicate (attualmente nessuna rivista ha tale indice poiché occorrono due anni di repertoriazione delle citazioni per il suo calcolo),  chiaramente per poter accreditare con dati statistici la qualità delle pubblicazioni. Per rispondere alla sfida della sostenibilità del peer review, sono stati realizzati investimenti tecnologici affinché l’intero processo si svolga in rete, con conseguente sensibile riduzione dei costi e dei tempi  (di regola, l’articolo accettato viene pubblicato dopo circa 35 giorni dalla data del suo iniziale conferimento.) E’ in fase di studio un nuovo sistema di valutazione dell’impatto del singolo articolo che tenga conto della valutazione dei comitati editoriali e di altri ricercatori, del numero delle citazioni ricevute, delle statistiche d’uso e delle recensioni. Anche il modello economico presenta delle novità: l’onere per l’autore (o meglio, per l’istituzione in cui lavora) viene indicato in 500$ ad articolo e viene fissato un limite massimo di due revisioni; nel caso sia accertata l’impossibilità da parte dell’autore di sostenere la spesa, non si procede a nessun addebito; alla fine di ogni anno saranno disponibili per la vendita i formati cartacei delle riviste; banche dati su supporti mobili con un più accurato lavoro editoriale verranno messe in commercio; si svilupperanno nuovi servizi informativi personalizzati a pagamento[41]; le istituzioni che vorranno beneficiare di sconti e servizi verseranno delle quote di sottoscrizione; ci saranno introiti per attività di pubblicizzazione. Trattandosi di un’impresa privata che non può contare su trasferimenti pubblici, la credibilità del modello economico risulta evidentemente decisiva.

Novità ci sono anche riguardo al copyright che resta all’autore, il quale concede libertà di disseminazione del proprio articolo, nella sua integrità e con la corretta indicazione di responsabilità; ogni copia dovrà riportare l’informazione che BioMed Central è l’editore originario dell’articolo. Ogni documento pubblicato in BioMed Central sarà, senza dilazione di tempi, indicizzato in PubMed e inviato nella sua integrità a PubMed Central.

Per offrire agli autori un incentivo ulteriore rispetto al drastico aumento di visibilità dei propri scritti, si è stabilito che il 50% dei guadagni per la vendita dei prodotti commercializzati vada all’autore.

Nei programmi è stata inserita la possibilità di allestire un server di e-print compatibile con OAi e l’indicizzazione dei documenti da parte di motori di ricerca come Google (in certa parte già realizzata).

 

5.4 Open Archives initiative

 

 Così Steven Harnad[42], uno dei più brillanti e pertinaci promotori di OAi, vede l’attuale situazione:  

“It is undeniable that in the present PostGutemberg Era a conflict of interest has arisen between researchers and the current means of production of their published refereed research reports”, “The new era of global digital networks has now made it not only possible, but optimal and inevitable that the refereed contents of their journals, and indeed the entire refereed journal corpus in all disciplines, be made available for free for everyone, everywhere, online”. Il piglio è profetico ma  il progetto di OAi cammina sulle gambe di un gruppo di selezionatissimi informatici della Southempton University, della Cornell University e del National Laboratory di Los Alamos.

Tutto prende avvio nell’ottobre del 1999 alla conferenza di Santa Fe (organizzata tra gli altri dall’ARL, da SPARC e dal Los Alamos National Laboratory) convocata per discutere delle nuove opportunità, offerte dal web, alla circolazione della conoscenza scientifica[43] e avendo come esempio di innovazione l’archivio di e-print utilizzato dai fisici dell’alta energia fin dai primi anni novanta. Dalla conferenza emerge la convinzione della necessità di istituire una cornice di interoperabilità[44] attraverso lo sviluppo e la promozione di standard che rendano integrabili i contenuti degli archivi universitari di e-print geograficamente distribuiti. Dai lavori che ne sono seguiti, si è giunti all’attuale strategia che si affida a una procedura: il “self-archiving”e ad un protocollo: l’“OAi Metadata Harvesting Protocol”.

Con “self-archiving” si intende quell’attività, già adottata da un crescente numero di autori universitari, che  consiste nel rendere disponibili in internet versioni elettroniche autoprodotte di working paper, articoli etc. solitamente pubblicate sulle pagine web dei dipartimenti, secondo regolamenti interni più o meno formalizzati.

L’OAi Metadata Harvesting Protocol[45] è invece un protocollo semplificato[46]. L’architettura, entro il quale esplica la propria funzione, prevede le figure dei “Data providers”e dei “Services Providers”: i primi sono costituiti dai web server di istituto che archiviano i documenti e ne espongono i metadati, i secondi sono server che “mietono” e archiviano i metadati dei “Data Providers”. Il protocollo, composto di sei “richieste” trasportate dall’ HTTP, definisce lo standard per l’interoperabilità dei metadati. Schematicamente, i vari “Services Providers” periodicamente inviano delle richieste (in maniera automatizzata) a un gruppo registrato di “Data providers” i quali rispondono esponendo i metadati richiesti che vengono copiati e importati dai “Services Providers”. In questo modo i “Services Providers” costituiscono e progressivamente alimentano un database di metadati provenienti da una molteplicità di server distribuiti.  Il “servizio” fondamentale reso dai “Services Providers” è quello di rendere ricercabili[47] e visualizzabili, attraverso un’unica interfaccia di interrogazione, i metadati raccolti. Tipicamente, in uno dei campi dei metadati verrà inserito un link che, dal metadato selezionato, permetta la visualizzazione del testo integrale del documento residente su un server periferico.

Relativamente al formato dei metadati[48], si è optato per il Dublin Core unqualified come requisito minimo obbligatorio: si è cioè preferito un formato di semplice presentazione (discovery) a uno di descrizione vera e propria, nella prospettiva di agevolare nella maggiore misura possibile la partecipazione degli istituti. Va chiarito comunque che il protocollo permette l’adozione contestuale di altri metadati, anzi è fortemente auspicato che le comunità di utenti definiscano formati di metadati specialistici, con l’unico vincolo della codifica in XML. Va aggiunto che uno dei possibili e molto interessanti sviluppi, in particolare sotto il profilo dell’economia della ricerca, riguarderà la possibilità della raccolta con OAiMHP non solo dei metadati ma anche del testo integrale[49] dei documenti.

L’OAi quindi, unendo gratuità dell’accesso e interoperabilità tra le diverse fonti, offre al self-archiving (da non confondere con il self-publishing[50] privo di controlli di pertinenza e qualità, altrimenti conosciuto come “vanity press”) una capacità finora inimmaginabile di dare visibilità e impatto internazionali ai documenti pubblicati, di gran lunga superiori a quelli offerti dall’attuale (e pure meritoria) pratica di pubblicare paper in formato elettronico sulle pagine web dei dipartimenti (è infatti evidente che pagine dipartimentali di qualsiasi università rischiano di essere “inghiottite” dalla rete.)  

Deve essere citato, tra i “servizi” che aggiungono valore ai database di metadati, l’Open Citation Project[51]. Si tratta di un progetto ancora in fase sperimentale che ha il proprio antecedente nell’ Open Journal Project[52] e che ha trovato applicazioni molto promettenti proprio con l’integrazione ad OAi. I servizi[53] realizzati dal set di software concernono il “reference linking”, il “forward linking” e la “citation analysis”. La direzione è la medesima, procedere nella costruzione di un corpo di conoscenze sempre piu’ interconnesso e organico, di sostituire sentieri alle interdizioni. Praticamente, il reference linking  consiste nel rendere navigabili le citazioni bibliografiche che sono raccolte alla fine dei documenti,  il forward linking permette di richiamare, a partire da un documento, gli articoli successivamente pubblicati che l’hanno citato (la cui importanza è stata ben dimostrata da ISI), la citation analysis permette di misurare le citazioni ricevute in funzione del tempo (l’“impatto”) e di tenere traccia dei percorsi di navigazione. Molto sinteticamente, il software costruisce un metadato di citazione a partire da una citazione:

 

Es. 
da:
Oughton,S., Radler, K.H., Matthaeus,W.H. (1997) Phys. Rev. E 56, 
No.3, 2875”
 
costruisce (“extracts”):
Authors:        S.Oughton:K.H.Radler:W.H.Matthaeus
First Author:   S.Oughton
Journal:        PHYS.REV.E
Volume:         56
Issue:          3
Start Page:     2875
Year:           1997 
 
Questo metadato viene confrontato con un database di metadati di citazioni nei quali è presente anche un campo con l’URL che localizza il documento; se si realizza “riconoscimento” tra i due record, il software applica un link al documento originario e un link al documento citato. Una volta stabilizzato, il componente verrà integrato al software per la gestione delle procedure OAi. 

Per abbattere drasticamente gli ostacoli tecnici che una biblioteca dovrebbe affrontare per prendere parte all’iniziativa, l’università di Southampton ha realizzato il software Eprints 2.0[54] per UNIX, con elevate caratteristiche di personalizzazione, gratuitamente scaricabile e utilizzabile, con il quale il web server di una biblioteca puo’ trasformarsi con poco sforzo in un “Data provider”.

Il modello fondamentale da cui OAi trae ispirazione[55] è l’e-print ArXiv[56] di Los Alamos, l’archivio dei fisici dell’alta energia, sorto per iniziativa di Paul Ginsparg e che vanta un indiscutibile successo: 150.000 e-print archiviati (con il termine e-print si designano sia i pre-print sia i post-print, articoli peer reviewed pubblicati in riviste), ritmo crescente di conferimento dei nuovi documenti (attualmente circa 30.000 nuovi documenti all’anno), 70.000 utenti in tutto il mondo,  13.000.000 di download solo nel 2000.

OAi ha però ambizioni che vanno ben oltre lo scopo di rendere diffusa la pratica standardizzata del self-archiving: l’obiettivo strategico è quello di liberare[57] l’intero corpo della letteratura scientifica peer reviewed da qualsiasi forma di restrizione (in particolare economica) e di indurre gli editori, bon gré mal gré, a trasformarsi profondamente, a diventare agenzie di certificazione della qualità degli articoli pubblicati. Il modello immaginato ha molti punti di tangenza con E-Biomed e Bio-med Central (la questione degli archivi centralizzati o distribuiti è secondaria) ma Harnad ritiene che, affinché quello diventi il paradigma generalizzato della scholarly communication per tutte le comunità di ricercatori, occorre che venga percorsa le “pervia” strada del self-archiving. Il progetto non si affida alle controverse statistiche che contabilizzano i download degli articoli dopo i primi sei mesi dalla pubblicazione e non confida troppo nella collaborazione degli editori (commerciali e senza fini di lucro) ma considera la “liberazione” della letteratura peer reviewed a portata di mano, ora. Innanzi tutto, per dissipare timori e incertezze da parte degli autori, viene presentato un esame delle caratteristiche funzioni del copyright[58] relativamente a quella speciale letteratura scientifica dalla cui creazione e diffusione gli autori non attendono nessuna royalty. Normalmente il copyright definisce quando la produzione della copia (o la riproduzione) di un’opera sia illegittima al fine di tutelare[59]: 1) il riconoscimento economico per il lavoro intellettuale dell’autore e 2) la veritiera attribuzione della paternità dell’opera e il rispetto della sua integrità . Il punto di discrimine fondamentale, riguardante la produzione intellettuale ceduta gratuitamente, è che il copyright non solo non svolge nessuna tutela del riconoscimento economico per gli autori (i soli a beneficiarne essendo gli editori) ma  costituisce un grave ostacolo alla diffusione dell’opera, unico vero interesse dell’autore. Peter Suber[60] è molto chiaro sul punto: “ […] the unauthorized copying prohibited by copyright law doesn’t deprive these authors of money, but only of readers”. Similmente Harnad[61] si chiede “for whom the gate tolls?” e, indicando gli editori come gli unici beneficiari, mette in forte evidenza il netto contrasto tra income e impact, tra tutela economica del copyright e diffusione della conoscenza. La “garanzia”, offerta dagli editori, di tutela del copyright garantisce effettivamente gli utili degli editori a grave detrimento degli autori. Ulteriormente, i diritti morali dell’autore trovano migliore tutela proprio grazie alla eliminazione di ogni restrizione dell’accesso. La paternità di un lavoro infatti potrà molto più difficilmente essere indebitamente appropriata perché “tutti” possono testimoniare su chi per primo ha scritto che cosa: Harnad usa la metafora dello skywriting, dello scrivere in cielo, su una pagina dispiegata per tutti. E’ certamente vero che il copia/incolla sui documenti elettronici facilita tecnicamente il plagio ma, dovendo realizzarlo sotto gli occhi di tutti, diventerebbe molto più difficile farla franca. Riconosciuto che il copyright è meglio tutelato “all’aperto” e predisposta una rete per la distribuzione su scala globale dei documenti elettronici, gli autori non dovrebbero avere ulteriori obiezioni a un futuro “downsized” per gli editori. L’unica funzione essenziale dell’editore di pubblicazioni periodiche, secondo Harnad, sarà quella di predisporre una struttura organizzativa e tecnica per permettere il lavoro del peer review (gratuitamente svolto dai referee), finanziabile con ampio eccesso utilizzando i risparmi derivanti dal non dover più acquistare abbonamenti o licenze. Agli editori potrà certamente restare la possibilità di produrre copie cartacee o anche copie elettroniche con  più elegante lavoro editoriale ma la scholarly communication potrà avvenire del tutto a prescindere da queste attività supplementari.

Che cosa deve fare l’autore persuaso in favore della causa? Non molto. Innanzitutto non deve rinunciare a nulla: può continuare a pubblicare sulle riviste preferite senza dover partire per nessuna battaglia: gli è richiesto soltanto di pubblicare i suoi scritti anche sul server che le biblioteche partecipanti ad OAi avranno predisposto.

Dal momento che la letteratura fondamentale che sostanzia la scholarly communication è costituita da articoli peer reviewed il cui copyright gli autori cedono agli editori, per poter pubblicare quegli articoli, due strade sono possibili. La prima richiede che, nel contratto di trasferimento del copyright per il proprio articolo, l’autore aggiunga una clausola in base alla quale si riserva il diritto di pubblicare quell’articolo sul web server dell’università. La clausola dovrebbe essere di questo tenore:

 

I hereby transfer to [publisher or journal] all rights to sell or lease the text (on-paper and on-line) of my paper [paper-title]. I retain only the right to distribute it for free for scholarly/scientific purposes, in particular, the right to self-archive it publicly online on the Web”.

 

Gli editori che rifiuterebbero questa clausola sarebbero una minoranza e già ora alcuni la prevederebbero esplicitamente nei contratti anche senza esplicita richiesta (ad es. l’American Physical Society[62]).

E se l’editore dice no? Nessun problema! Risponde Harnad e dal cilindro estrae il “linked corrigenda file”. Questo file conterrebbe la lista delle correzioni che debbono essere apportate al pre-print (il cui copyright l’autore non cede mai) perché si possa ricostruire il testo del “referred post-print” (l’articolo pubblicato, con la certificazione di qualità.) Lo stratagemma del corrigenda file pare giuridicamente ineccepibile ed è adottato esattamente negli stessi termini dalla Budapest Open Access Initiative.

Nella peggiore delle ipotesi quindi, ci sarà da fare qualche copia/incolla ma, fin da ora, la liberazione della letteratura scientifica è una possibilità reale. E’ importante ricordare che la clausola aggiuntiva o lo stratagemma verrebbero adottati solo per un “periodo di transizione”, fino a quando gli editori accetteranno (sia pure obtorto collo) il fatto di diventare agenzie di gestione tecnico-organizzativa e amministrativa del processo di certificazione di qualità, dopo che cioè il self-archiving avrà reso inessenziali tutti gli altri servizi e reso non più profittevole l’attività editoriale nelle sue forme tradizionali, legate all’editoria cartacea.

E’ realistico tutto questo? Non è facile dare una risposta. Possiamo esaminare qual è il trend là dove il self-archiving è da oltre dieci anni attività corrente, nella comunità dei fisici dell’alta energia utenti di ArXiv. Gli editori della disciplina sono diventati delle agenzie di peer review? No. L’APS (American Physical Society) tuttora pubblica on line e su carta le proprie riviste (Physical Review A, Physical Review B, etc.) …… ma non se la passa molto bene. M.Doyle[63], responsabile di APS, denuncia una costante emorragia di abbonati (senza per altro collegarla al self-archiving) e la necessità di continuare ad aumentare i prezzi per coprire i costi: “Clearly this is unsustainable in the long run”. L’ArXiv parla come un oracolo e non ci aiuta molto a prevedere il futuro.

Possiamo allora sinteticamente prendere in esame qualche punto critico del progetto.

E’ verosimile attendersi la collaborazione degli autori-docenti nel self-archiving? Chiedere all’editore il diritto di pubblicare il proprio articolo sul server di ateneo può, ragionevolmente, ritenersi uno sforzo affrontabile ….. anche da un docente, soprattutto in ragione del fatto che (anche a prescindere dalle opportunità offerte da OAi) diventa sempre più diffusa la consapevolezza[64] che  questo semplice atto ha un effetto moltiplicativo dell’impatto (confermato dall’analisi delle registrazioni sui file di log dei siti universitari che conteggiano i download). Questa sola azione sarebbe sufficiente per la strategia di Harnad, tuttavia tale consapevolezza  si sta diffondendo ora ed è molto variabile tra le comunità disciplinari e tra i singoli autori, richiederà quindi tempo per divenire diffusamente condivisa. Il punto fondamentale però che può decidere del ritmo e della diffusione del self-archiving è il valore che viene conferito all’aumento di visibilità, circolazione e citazioni dei singoli articoli che tale pratica rende possibile. Attualmente questo valore si esaurisce nella gratificazione morale del docente, resta cioè senza “impatto” …. sulla carriera. Fin quando promozioni, assegnazione di incarichi e finanziamenti ai dipartimenti dipenderanno, in sostanziale misura, dall’impact factor di ISI (potremmo dire dal …. riflesso postdatato della media) senza tenere conto di misure più serie e veritiere, soprattutto capaci di misurare l’impatto effettivo dei singoli lavori anche di quelli pubblicati su riviste non considerate da ISI, il self-archiving sarà un’opportunità aggiuntiva ed eventuale, non molto di più. Progetti come OpCit, in grado di documentare con dati quantitativi analitici l’impatto effettivo del singolo articolo, potranno avere un ruolo importante nel determinare cambiamenti negli attuali approcci di misurazione della produttività della ricerca di autori e dipartimenti e dare quindi un forte impulso al self-archiving. Ulteriormente, potremmo (astrattamente!) ipotizzare un atteggiamento di interesse al self-archiving da parte degli organi gestionali dell’università e degli organi statali che finanziano la ricerca. Negli Stati Uniti, ad esempio, alcune università[65] richiedono espressamente che l’autore si accordi con l’istituzione perché prodotti protetti da copyright possano, gratuitamente o con prezzi agevolati, essere utilizzati per fini didattici all’interno dell’università (per evitare di dover  comprare un prodotto di cui si è già finanziata la produzione); un gruppo di studio dell’American Academy of Arts and Sciences (pur estranea al progetto OAi), con riferimento alla ricerca finanziata con fondi pubblici, sostiene che “Federal agiencies that fund research should recommend (or even require) as a condition of funding that the copyrights remain with the author. The author, in turn, can give  prospective publishers a wide-ranging nonexclusive licence to use the work in a value-added publication, either in traditional or electronic form. The author thus retains the right to distribute informally, such as through a Web server for direct interaction with peers[66]”.

E’ verosimile attendersi dai docenti un’ampia condivisione del nuovo modello di editoria prefigurato? L’obiettivo dell’accesso senza restrizioni al corpo delle conoscenze scientifiche pubblicate su riviste comporta alcuni costi per gli autori. Se pure è possibile che il nuovo paradigma farà risparmiare fondi alle biblioteche e quindi alle università, l’autore (probabilmente non troppo preoccupato delle vicende economiche dell’università) si ritroverebbe nella non gradevole situazione di dover chiedere all’istituto il finanziamento per l’effettuazione del peer review sul proprio articolo. E’ vero che già attualmente, in alcune discipline, gli autori debbono pagare per vedere pubblicati i propri lavori ma, nella maggior parte dei casi,  l’autore non deve sopportare nessun onere aggiuntivo rispetto allo sforzo già profuso per la realizzazione dell’articolo. Possiamo immaginare quindi che l’atteggiamento degli autori dipenderà, in consistente misura, da come verranno regolate e gestite le procedure per l’erogazione di questi finanziamenti.

 

 

6.            Le iniziative europee

 

Il dibattito sulla scholarly communication è stato fino a pochissimi anni fa quasi esclusivamente “americano”. Oggi, tuttavia, possiamo dire che il problema della journals crisis è diventata questione attuale anche in Europa e ciò è chiaramente confermato dalla moltiplicazione di convegni, seminari e iniziative operative centrate sul tema.

Con uno sguardo di sorvolo, possiamo individuare le iniziative europee di maggiore interesse.

Come abbiamo visto, SPARC Europe rappresenta un segno tangibile dell’impegno europeo sul fronte operativo. Il nucleo organizzativo è costituito da LIBER (Ligue des Bibliothéques de Recherche, la principale associazione di biblioteche di ricerca europee, fondata nel 1971 per iniziativa del Consiglio d’Europa) a cui si sono unite[67] importanti associazioni come l’inglese JISC (Joint Information Sistems Commitee), l’inglese CURL (Consortium of University Research Libraries), l’anglo-irlandese SCONUL (Society of College, National and University Libraries), l’olandese UKB (Cooperativa delle Biblioteche di Ricerca). Il peso e la credibilità di queste istituzioni dovrebbero garantire che SPARC Europe possa diventare qualcosa di molto diverso da una “filiale” di SPARC, il rischio semmai è quello di un ruolo asimmetrico tra le parti attive europee (il Comitato operativo provvisorio, nella sua composizione, prevede: un membro inglese, uno belga o olandese, uno scandinavo, un tedesco e ....... uno per il Sud Europa.)

Roquade[68] (“Arrocco”) è un’altra iniziativa che sta dando prova di capacità ed efficacia. Istituito nel 1999 con finanziamenti statali per iniziativa della Royal Academy e delle università di Delf e di Utrecht con l’esplicito obiettivo di contrastare la journals crisis e il fenomeno delle “elseviered universities”, Roquade si propone come struttura tecnico organizzativa flessibile, capace di offrire risorse ed expertise per tutti quei progetti, autonomamente sviluppati dalle comunità accademiche, animati dall’obiettivo di restituire agli autori il controllo sulle proprie pubblicazioni. L’iniziativa  non prende posizione per nessun paradigma in particolare: “The extraordinary aspect of the Roquade project is marked by the fact that it offers a variety of possibilities, which togeter constitute an expeditious way for gradually changing the publication behaviour of scientists”[69]. Il progetto sostiene inziative per la pubblicazione di pre-print e letteratura peer reviewed, promuove l’adozione di standard compatibili con OAi, propugna il principio del mantenimento all’autore del copyright e l’adozione di politiche basate sul fair price laddove non sia sostenibile l’accesso totalmente gratuito. Attualmente sono circa una dozzina i progetti operativi sorti grazie al lavoro di Roquade.

Tra le istituzioni governative, il britannico Joint Information Systems Commitee [70]si distingue per dinamismo, tempestività e visione. Laddove sono in atto progetti che riguardano l’applicazione delle più innovative risorse dell’information technology agli ambiti dell’educazione superiore e della ricerca, sia di portata nazionale che internazionale, quasi sempre lo si ritrova all’opera.

Per venire all’Italia, va segnalata l’attività della Scuola Internazionale Superiore di Studi Avanzati (SISSA) di Trieste che gestisce il mirror italiano di ArXiv e svolge un’intensa attività di ricerca e  di progettuazione rivolta in particolare alla comunità dei fisici dell’alta energia ma con evidente interesse per l’intero sistema della scholarly communication. Tra i lavori di maggiore interesse, va menzionato il prototipo di piattaforma “Torii”[71], prodotto nell’ambito  del TIPS project (Tools for Innovative Publishing in Science) finanziato dall’Unione europea e condotto da un consorzio di sei partner (tra cui la SISSA e l’università di Udine). La piattaforma presenta avanzate funzionalità, tra cui la possibilità di aggiungere ai documenti valutazioni personali, un sistema di filtraggio dell’informazione (narrow casting), servizi di reference linking, forward linking e  alerting, un’organizzazione personalizzata dell’informazione, l’integrazione in un'unica interfaccia di una molteplicità di database e di tipologie di documenti. Una volta stabilizzato, Torii potrebbe diventare uno dei punti di accesso privilegiati alla documentazione scientifica pubblicata sui server distribuiti di università e istituti di ricerca aderenti ad OAi: “Trough the use of the Open Archives Initiative Protocol, torii will be easily extensible to each archive that will implement the Open Archives Protocol”[72].

Relativamente alla letteratura scientifica periodica in lingua italiana, va menzionato il progetto DAFNE (District Architecture For Networked Editions, finanziato dal MURST e affidato alla responsabilità della Biblioteca Nazionale Centrale di Firenze) che si propone l’obiettivo di dare visibilità e accessibilità in rete alla produzione accademica italiana attualmente invisibile nelle grandi banche dati bibliografiche e fattuali internazionali. L’idea è quella di approntare un’infrastruttura tecnologica e organizzativa basata su formati interoperabili, in partnership con biblioteche, editori e distributori italiani, quale condizione di possibilità per un mercato elettronico dei periodici italiani. Si realizzerebbe così una piattaforma costituita da una banca dati bibliografica multidisciplinare, corredata di abstract in italiano e in inglese, con possibilità di accedere ai full text mediante pagamento elettronico. Il progetto potrebbe avere un ruolo di rilievo nel dare cittadinanza digitale a una parte significativa della nostra produzione scientifica. Non si presenta come risposta alla journals crisis ma la stessa transizione al formato digitale delle attuali riviste potrebbe avere impatto anche su costi e prezzi.

 

 

Interpretare i paradigmi

 

Conclusivamente, resta da fare una valutazione più generale sul senso delle trasformazioni che la comunicazione scientifica ha attraversato e che sempre più’ profondamente la vedrà coinvolta, documentate, per una parte almeno, dall’emergere dei paradigmi descritti.

Le più incisive azioni di risposta alla crisi della scholarly communication, tra quelle che abbiamo passato in rassegna, non sarebbero state pensabili senza l’importante cambiamento di sfondo entro cui la comunicazione scientifica ha luogo, senza cioè l’apertura della soglia telematica e digitale. Anche il coinvolgimento attivo dei bibliotecari sarebbe stato difficilmente pensabile al di fuori di quella che attualmente si definisce biblioteca ibrida[73]. Oggi, si tratta di focalizzare l’attenzione sul fatto straordinario che quella “ventina di segnetti” che fanno l’alfabeto si siano staccati dal libro e abbiano trovato un nuovo “teatro” in cui rappresentarsi: questo movimento ha infatti aperto nuovi, inesplorati spazi di costituzione della comunicazione scientifica. Il corpo digitale del gramma è certo restato quello della lettera morta[74] (aniconica, meramente differenziale, decontestualizzata, a-patica) tuttavia la gestualità decisiva per le possibilità della scienza e cioè il controllo puramente ottico[75] del discorso è attualmente attraversato da contaminazioni multimediali inedite e ibridazioni con nuove pratiche[76].

Si è già visto come lo spazio abbia smesso di essere una risorsa scarsa nel medium elettronico. Questo potrà aprire a nuove forme stratificate di organizzazione e condivisione  delle conoscenze. Varmus parla di “layered viewing” per riferirsi a un nuovo, più esteso corpo di conoscenze attingibili a più livelli di profondità e di dettaglio: dai risultati conclusivi di una ricerca, ai “dati grezzi” di partenza, alle dettagliate descrizioni delle metodologie adottate, alla possibilità di replicare e manipolare simulazioni elettroniche sperimentali. Potranno trovare il loro spazio anche quei risultati sperimentali che non validano le ipotesi iniziali e quindi far risparmiare tempo ad altri ricercatori. La composizione del corpo delle conoscenze potrà essere molto più eterogenea, ibrida e presentare conglomerazioni di testo, immagini statiche e dinamiche, database, suoni a contestazione dell’“istanza della linea”[77] e cioè delle sue regole informative di continuità, omogeneità, sequenzialità. Sarebbe però azzardato dare per scontato un processo di uniforme convergenza verso un unico paradigma da parte di tutti gli ambiti disciplinari con differenze solo dei tempi[78]. Ci sono troppe e troppo profonde differenze nelle pratiche e nelle esigenze specifiche di ciascuna comunità. E’ più verosimile che possano coesistere più paradigmi capaci di rispondere in maniera differenziata alle specifiche istanze. Difficilmente però qualche comunità potrà ripetere inalterate le prassi disciplinari del tempo del libro.

Quello che più conta, però, nello sforzo di apprezzare la misura delle trasformazioni attraversate e attese della scholarly communication è aver chiaro che ciò che accade alla “comunicazione” non può non avere profondi effetti sul “comunicato”, si tratta cioè di non restare a quell’“espressivismo”[79] di cui parla Derrida, in base al quale il medium sarebbe il vettore di un significato pre-segnico o, per dirla in altro modo, che i mezzi telematici semplicemente offrirebbero nuove modalità di gestione dell’informazione. Anche l’informazione (in quanto tale e nei suoi modi) è l’effetto di un insieme di media, sta all’interno di un’apertura di pratiche e non se ne sta in qualche purezza oggettiva pre-scritturale[80], comoda “passeggera” dei  mezzi di comunicazione che passano. Di più, McLuhan parla dei media come di estensioni corporee[81]: “I media sono estensioni degli arti, organi e sensi (una forma di accrescimento), con profondi effetti reciproci sul fruitore[82]” e ancora “Parlo dei media nei termini di una più grande entità di informazione e di percezione che forma i nostri pensieri, struttura  la nostra esperienza e determina la visione del mondo[83]”.

Alla luce di queste posizioni, va percepita la rilevanza del fatto che è specificamente la conoscenza scientifica a trovare nuovi spazi di riscrittura, che cioè è in questione quell’insieme di pratiche e gestualità che producono la nostra più propria identità di “Europei”. Non ha molto senso chiedersi che cosa ne verrà fuori. Neppure ha molto senso annunciare una nuova era dell’orecchio (come in talune occasioni fa McLuhan, con le relative valutazioni in termini di gradienti termici) e cioè una ripresa dei tratti costitutivi delle civiltà orali. Più realisticamente, possiamo immaginare che la (attuale) multimedialità possa avere l’effetto di offrire nuova visibilità per differenza alla scrittura (e, per conseguenza, ad ogni evento mediale), di sottrarla a quell’inavvertito[84] operare e produrre in cui si è posta fin dall’invenzione dell’alfabeto. Potremmo aspettarci che l’ibridazione elettronica multimediale metta in esercizio (anziché l’orecchio) la coda dell’occhio ….. staremo a vedere.

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 



[1] LUCA GUERRA, Biblioteca centrale interfacoltà dell’Università degli Studi di Brescia, via F.lli Porcellana, 21, 25122 Brescia. E-mail guerra@eco.unibs.it.

Tutti gli indirizzi Web sono stati controllati in data 20 luglio 2002.

 

[2] Su questo tema si è ormai sviluppata una letteratura che chiama “publish or perish” la situazione in cui si trovano i docenti universitari.

[3] Robert Darnham. The new age of the book. <<The New York review of books>>, 18 marzo 1999, <http://www.nybooks.com/articles/546>. 

[4] Michael S.Malinconico. Biblioteche digitali: prospettive e sviluppo. <<Bollettino AIB>>, 38 (1998), n. 3, p. 275-301.

[5] Hans Geleijnse. Electronic publishing of scholarly scientific information: an overview of developments and key issues. Paper presentato all’ International spring school on digital library and e-publishing for science and technology. CERN, Ginevra, Svizzera, 3-8 marzo 2002.

[6]ARL. Monograph and serial costs in ARL libraries , 1986-2000: graph 2. <http://www.arl.org/stats/arlstat/graphs/2000t2.html>.

[7] Paul McCarthy. Serial killers: academic libraries respond to soaring costs. <<Library journal>>, 119 (1994), n. 11, p. 41-44.

[8] Sulle caratteristiche del mercato editoriale dei periodici si veda: Luca Burioni. Un anno vissuto pericolosamente: il mercato dei periodici scientifici è concentrazione o monopolio?(2002) < http://www.burioni.it/cat/cd-rom/editor02.htm >.

Mark McCabe. The impact of publisher mergers on journal prices: a preliminary report. << ARL Newsletter>>, settembre 1998, n. 200, [s.p].

Frederic H.Murphy. The occasional observer: market structure matters: the case of academic journals. << Interfaces>>, 28 (1998), n. 2, p. 16-20.

[9] Per una posizione svalutativa dell’importanza del peer review nei paradigmi emergenti di comunicazione, si veda Andrew Odlyzko. The rapid evolution of scholarly communication (2001) <http://www.research.att.com/~amo/doc/rapid.evolution.doc>.

 Stefano Mizzarro avanza invece un progetto di reviewing automatizzato in  A concrete proposal for an automatically refereed scholarly electronic journal (1999) <http://citeseer.nj.nec.com/433819.html>. Steven Harnad in ogni suo articolo sottolinea in maniera perentoria il ruolo insostituibile del peer review, si veda ad es. Learned inquiry and the net: the role of peer review, peer commentary and copyright (1998) <http://www.ecs.soton.ac.uk/~harnad/Papers/Harnad/harnad98.toronto.learnedpub.html> e The invisible hand of peer review(2000) < http://www.princeton.edu/~harnad/nature2.html> ; la stessa difesa del peer review si trova in Renato Spiegler. Peer reviewing and electronic publishing, <<HEP Library webzine>>, marzo 2002,  n. 6 e in Blaise Cronin. Peer review and the stuff of scholarship. << Library journal>>, 126 (2001), n.15, p. 57.

[10] La cui valutazione si effettua facendo, in realtà molto incautamente, affidamento sull’Impact Factor, indice che misurerebbe (sulla base dell’andamento delle citazioni alla rivista nei due anni precedenti) il numero di citazione medie annue che  gli articoli dovrebbero ricevere nei due anni successivi alla pubblicazione, quantifica il prestigio della rivista stessa e quindi, di riflesso, degli autori che riescono pubblicare in essa. Per considerazioni di cautela sull’utilizzo dell’I.F. si veda Mayur Amin – Michael Mabe. Impact factors: use and abuse. << Perspectives in publishing>>, 1 ottobre 2000 <www.ece.rochester.edu:8080/users/elstat/perspectives1.pdf>;  invece, per una valutazione nettamente critica, si veda il lavoro di Figà Talamanca. L’impact Factor nella valutazione della ricerca e nello sviluppo dell’editoria scientifica. IV Seminario Sistema informativo nazionale per la matematica (2000) <http://siba2.unile.it/sinm/4sinm/interventi/fig-talam.htm>.

[11]Paul Ginsparg. Creating a global knowledge network. Second Joint ICSU Press – UNESCO Expert Conference on Electronic Publishing Science (2001), abstract reperibili presso <http://user.ox.ac.uk/~icsuinfo/cofer01.htm>; articolo presso <http://arxiv.org/blurb/pgø1unesco/.html>.

[12] Michael L.Rosenzweig. Reclaiming what we own: expanding competition in scholarly publishing (1999) < http://www.arl.org/sparc/rosenzweig.html>.

[13] Tina E.Chrzastowski – Karen A. Schmit. The serials cancellation crisis: national trends in academic library serials collections. <<Library Acquisitions: Practice and Theory>>, 21 (1997), n. 4, p. 431-443.

[14]Mark McCabe, The impact of public mergers cit.

[15] Sharon L. Bostick. The history and development of academic library consortia in the United States: an overview. <<The journal of academic librarianship>>, 27 (2001), n. 1, p. 128-130.

[16] Ivi.

[17] Per una difesa del selective purchase, si veda Kenneth Frazier. The librarians’ dilemma: contemplating the costs of the “Big Deal”. <<D-Lib Magazine>>, 7 (2001), n.3, p. 1-9.

Robert Michaelson. The Big Deal: the future of electronic publications. <<Newsletter on serial pricing issue>>, 19 dicembre 2002, n. 254, [s.p.].

[18] Per una difesa del massive purchaise, si veda David Khol. US consortial licencing: good lessons, hard lessons, warning lessons. Paper presentato all’International spring school on dogital library and e-publishing for science and technology. CERN, Ginevra, Svizzera, 3-8 marzo 2002.

Thomas A. Peters. What’s the Big Deal?. <<Journal of Academic Librarianship>>, 27 (2001), n. 4, p. 302-304.

[19]Frances C.Wilkinson (et al.). Back to the future: at least librarians chart a new course in scholarly electronic publishing. <<Against the grain>>, 9 (1997), n. 5, p. 80-85.

[20] Sarah C. Michalak. The evolution of SPARC. << Serials Review>>, 26 (2000), n. 1, p. 10-21.

[21] SPARC partner Organic Letters surpasses competition. <<SPARC News>>, 10 settembre 2001 <http://www.arl.org/sparc/core/index.asp?page=45>..

[22] Myer Kutz. The scholars’ rebellion against scholarly publishing practices: Varmus, Vitec and Venting. <<Searcher>>, 10 (2002), n. 1, p. 28-44.

[23] Richard K.Johnson. A question of access: SPARC, BioOne, and society-driven electronic publishing. << D-Lib Magazine>>, l6 (2000), n.5 [s.p.].

Richard T. O’Grady. The BioOne Online Journals initiative. <<Bioscience>>, 50 (2000), n.3 <http://www.aibs.org/biosciencelibrary/vol50/mar00ogrady.html>.

23 <http://www.sparceurope.org>..

[24] <http://www.sparceurope.org>.

[25] Per quanto la terminologia possa sembrare inappropriata, è ormai invalso nella letteratura sull’argomento l’uso scambievole dei termini “archive” e “repository” per indicare una banca dati elettronica.

[26] Robert Campbell. Information access: what is to be done? << Nature>>, 27 aprile 2001 < http://www.nature.com/nature/debates/e-access/Articles/campbell.html>.

[27] Eugene Russo. A science publishing revolution. <<The Scientist>>, 15 (2001), n.8, <http://www.the-scientist.com/search.htm>.

[28] Ivi.

[29] <http://www.publiclibraryofscience.org>.

[30] Nicole B.Husher. Harvard scientists’ efforts for free online journal access make little ground. <<University wire>>, 1 marzo 2002 [s.p.].

[31] Florence Olsen. Scholars urge a boycott of journals that won’t release articles to free archives. <<The cronicle of higher education>>, 26 marzo 2002, <http://chronicle.com/free/2001/03/2001032601t.htm>..

[32] David Stephens. More noise in the public Library of Science. <<Trends in cell biology>>, 11 (2001), n.8.

[33] Public Library of Science. Frequently asked questions < http://www.publiclibraryofscience.org/plosFAQ.htm>.

[34] E-Biomed: a proposal for electronic publishing in the biomedical sciences (1999)  <http://www.nih.gov/about/director/pubmedcentral/ebiomedarch.htm>.

[35] < http://www.soros.org/openaccess>.

[36] Robin Peek.The great BOAI experiment. <<Information today>>, 19 (2002), n. 4, p. 40.

[37] Declan Butler. Soros offers access to science papers. <<Nature>>, 14 febbraio 2002. <http://www.nature.com/natura/dabates/e-access/articles/soros.html>.

[38] Per una stima dei costi di produzione di un articolo in formato elettronico si veda Andrew M.Odlyzko. The economics of electronic journals. <<The journal of electronic publishing>>, 4 (1998), n.1, <http://www.press.umich.edu/jep/04-01/odlyzko.htm>..

[39] http://www.alpsp.org/budapest0202.pdf.

[40] Richard Poynder. Gorge Soros gives $3 million to new Open Access Initiative. <<Information Today>>, 18 febbraio 2002.

[41] Per alcuni dei nuovi servizi, si veda Michael Rogers. BioMed Central meeting abstracts. Centralized site will make for free flow of scientific discussion. <<Library Journal>>, 15 December 2001, p.27.

[42]Steven Harnad. E-knowledge: freeing the refereed journal corpus online. <<Computer law & security report>> 16(2000), n. 2, p.78-87.

[43] Richard E.Luce. The Open Archives initiative: interoperable, interdisciplinary author self-archiving comes of age. <<The serials librarian>>, 40 (2001), n.1/2, p.173-181.

[44] Carl Lagoze - Herbert Van de Sompel. The Open Archives initiative: building a low-barrier interoperability framework (2001) <http://www.openarchives.org/documents/oai.pdf>.

[45] The Open Archives initiative protocol for metadata harvesting <http://www.openarchives.org/OAI_protocol/openarchivesprotocol.html>.

[46]Ipoteticamente, si sarebbe potuto utilizzare il già esistente e complesso Z39.50 (protocollo specifico per l’information retrieval) che permette la ricerca in parallelo su un insieme di server, raccoglie e ordina i risultati, elimina i doppioni. Tuttavia sono emersi problemi di qualità della ricerca: server diversi tendono ad interpretare diversamente le interrogazioni dello Z39.50, la velocità delle risposte tende ad avvicinarsi a quella del server più lento e si sono riscontrati problemi di scalabilità. Il nuovo protocollo ha quindi il vantaggio della semplicità anche relativamente al lavoro di configurazione (non molte biblioteche dispongono di team di informatici pronti ad accorrere) e la ricerca si effettua su un unico database precostituito dai “Services Providers”.

 

[47] Per un esempio di interfaccia che permette l’interrogazione contestuale su più di un archivio di metadati, si veda il lavoro (ancora in progress) di MyOai <http://www.myoai.com>.

[48] Clifford A.Linch. Metadata harvesting and the Open Archives initiative. <<ARL bimonthly report>>, agosto 2001, n. 217, <http://www.arl.org/newsltr/217/index.html>.

[49] Simeon Warner. Exposing and harvesting metadata using the OAI metadata harvesting protocol: a tutorial. <<HEP Libraries webzine>>, giugno 2001, n. 4, <http://library.cern.ch/HEPLW/4/papers/3>.

[50] Per una difesa del self-publishing, con particolare riferimento agli articoli di dottrina giuridica, si veda Bernard J.Hibbits. Last writes? Re-assessing the law review in the age of cyberspace. <http://www.law.pitt.edu/hibbits/last.htm>; per una critica di questa posizione si veda invece David A.Rier. The future of legal scholarship and scholarly communication: publication in the age of cyberspace. << Akron law review>>, 1996, n. 183, p. 183-213.

[51] The open citation project. Second year report to JISC. Reference linking for open archive, agosto 2001 < opcit.eprints.org/y2report/y2report20.pdf>.

 Steven Hitchcock [et al.]. Developing services for open eprint archives: gobalisationm intgration and the impact of links (2000) <http://opcit.eprints.org/dl00/dl00.html>.

Stevan Harnad - Lesly Carr. Integrating, navigating, and analysing open Eprint archives through open citation linking (the OpCit project). <<Current science>>, 79 (2000), n. 5, p. 629-638.

[52] Steven Hitchcock (et al.). Linking electronic journals: lessons from the Open Journal Project. <<D-Lib Magazine>>, dicembre 1998, <http://www.dlib.org/dlib/december98/12hitchcock.html>.

[53] Citebase <http://citebase.eprints.org/cgi-bin/search>  consente di farsi un’idea delle potenzialità del progetto.

[54] EPrints 2.0, liberamente scaricabile dal sito <http://www.eprints.org>

[55] Richard E.Luce. E-prints intersect the digital library: inside the Los Alamos arXiv. <<Issues in  science and technology librarianship>>, inverno 2001, n.29, <http://istl.org/istl/01-winter/article3.html>.

[56] <http://arxiv.org/multi>.

[57] Steven Harnad. E-knowledge: freeing the refereed journal corpus online. <<Computer law & security report>>, 16 (2000), n.2, p. 78-87.

[58]“[…] rimedio legale al fallimento del mercato della creatività” in: Giovanni B. Ramello. Diritto d’autore, duplicazione d’informazioni e analisi economica: il caso delle biblioteche universitarie. <<Bollettino AIB>>, 41 (2001), n. 4, p. 443-454.

[59] Emanuella Giavarra scrive: “The rights provided by copyright are twofold: economic rights and moral rights. The main aim of copyright is to provide a stimulus for creativity. This means that law has to make sure that the author will have an economic return on his creation and that he can protect his creation from being violated in one way or the other. The economic rights include the right to copy or otherwise reproduce the work. They also include right to translate the work, to transform, to perform in public or broadcast it.  [....] The moral rights generally include the right of paternity, which is the authors right to claim authorship of his work, for instance by having his or her name mentioned in connection with it. The other moral right is the right of integrity, wich includes the right to object to transformation of the work” in: Copyright and licensing in the digital age. Paper presentato all’International spring school on digital library and e-publishing for science and technology. CERN, Ginevra, Svizzera, 3-8 marzo 2002.

[60] Sam Vaknin. Copyright and scholarship. Part 1 -  Part 2. <<United Press International>>, 19 febbraio 2002, <http://www.upi.com.view.cfm?StoryID=15022002-015414-4119r>.

[61] Steven Harnad. For whom the gate tolls?: how and why to free refereed research literature online through author / institution self-archiving, now < http://cogprints.soton.ac.uk/documents/disk0/00/00/16/39/cog00001639-00/resolution.htm>.

[62] Il modello per il trasferimento del copyright è disponibile in linea: <http://forms.aps.org/author.html>.

[63] Mark Doyle. Electronic journals and the American Physical Society. Paper presentato all’International spring school on digital library and e-publishing for science and technology. CERN, Ginevra, Svizzera, 3-8 marzo 2002.

[64] Per una rilevazione statistica delle persistenti remore a pubblicare in formato elettronico presso le comunità accademiche, si veda Aldrine E.Sweeney. Should you publish in electronic journals?. <<The journal of electronic publishing>>, 6 (2000), n.2.

[65] Si veda ad es. Harvard University. Statement of policy in regard to inventions, patents, and copyrights < http://www.fas.harvard.edu/~research/greybook/patents.html>.

[66] Steven Bachrach (et al.). Intellectual property: who should own scientific papers?.<< Science>>, 281 (1998), n. 5382, p. 1459-1460.

[67] European organizations band togeter to launch SPARC Europe. <<Nordinfo>>, (2001), n. 3, <http://www.nordinfo.helsinki.fi/publications/nordnytt/nnytt3_01/news.htm>.

[68] <http://www.roquade.nl>

[69] Bas Savenije – Natalia Grygierczyk. The Roquade project: a gradual revolution in academic publishing (2000) <http://www.library.uu.nl/staff/savenije/publicaties/RoquadeProject.htm>.

[70] <http://www.jisc.ac.uk>

[71] < http://torii.sissa.it/>

[72] Sara Bertocco. Torii, an Open Portal over Open Archives, <<HEP Library webzine>>, giugno 2001, n. 4, <http://library.cern.ch/HEPLW/4/papers/4/>.

[73] Nell’uso di questa espressione, è però opportuno avere consapevolezza non solo che tra i media da sempre vige un processo di “trasposizione e assimilazione” (che riguarda quindi anche quel sistema di media in continua trasformazione che è la biblioteca) ma, essenzialmente, che non esistono media non “ibridati”, che, per ogni medium, l’inizio è un’ibridazione. In questo senso, sarebbe infondato ritenere che una biblioteca interamente digitalizzata non sia ibrida, potendo funzionare solo per il concorso di un indefinito intreccio di media.

[74] Sulla “spoliazione” del segno, dai pittogrammi alle lettere aniconiche, si veda Alfred Kallir. Segno e disegno: psicogenesi dell’alfabeto. Milano: Spirali/Vel, 1994 e Carlo Sini. I segni dell’anima. Torino: Laterza, 1989, pp. 141 e seg.

[75] Nulla di strano, visto che è l’esercizio che sta attualmente compiendo il lettore (il quale difficilmente starà declamando, borbottando o facendo oscillare il busto) e che tanto faceva ridere gli spettatori delle Rane di Aristofane.

[76] Sul rapporto tra media e pratiche si veda Carmine Di Martino. Il medium e le pratiche. Milano: Jaka Book, 1998.

[77] Sulla linea come spazio logico, si veda Carlo Sini. Etica della scrittura. Milano: Il saggiatore, 1992, p.82 e seg. e Carmine Di Martino. Il medium e le pratiche. Cit. pp. 131-142.

[78] Rob Kling – Geoffrey McKim. Not just a matter of time. <<Journal of the American Society for Information Science>>, 51 (2002), n. 14, p. 1306-1320.

[79] Derrida, sempre in riferimento al medesimo tema, parla del “fonocentrismo” in base al quale il mezzo espressivo, esemplarmente la scrittura, è interpretato come “segno di segno”, ossia  come segno della voce (i caratteri della scrittura fonetica sono letteralmente porta-voce) la quale a sua volta mancherebbe giusto di un soffio il vouloir dire, il significato puro pre-espressivo (è, ad esempio, da questo presupposto fonocentrico che muove l’opera di F. de Saussure). Il rovesciamento che gioca tale posizione va individuato nel fatto  che il significato è istituito proprio dalla scrittura riducendo la voce al silenzio e attraverso l’istituzione grafica di una parola che prescinde da qualsiasi intersoggettività empirica e da qualsiasi contesto situazionale vivente, una parola in prosa, per tutti e in generale, logica.

[80] Questo è un punto che perlopiù sfugge a coloro i quali se la cavano mettendo in fila: dati - informazioni - conoscenza.

[81] Dire che l’artefatto tecnico è un’ “estensione corporea” ha lo stesso effetto disorganizzante della con-fusione tra mezzo e messaggio.

[82] Marshall McLuhan. La legge dei media. La nuova scienza. Roma: Edizioni Lavoro, 1994, p.37

[83] Id. L’uomo e il suo messaggio. Milano: SugarCo, 1992, p.56. Il passo, a una lettura radicale, potrebbe offrire un’interpretazione  della nostra esperienza e di noi stessi come effetti di media (per quanto ciò possa suonare poco umanistico.)

[84] Nel senso di questo “occultamento”, rappresenta uno straordinario documento la Lettera VII di Platone.