Copyright © 2004 Francesca Di Donato
26 ottobre 2004
Sommario
Sul dossier di Sciences de l'homme e de la societé della primavera del 2004 viene pubblicizzata la nascita di uno "European Citation Index for the Humanities" 1 . Il nuovo indice delle citazioni si fonda sulla selezione di un insieme di "core Journals", riviste considerate fondamentali per la ricerca europea nelle scienze umane e sociali; e si offre come strumento per garantire al mondo della ricerca europea criteri di selezione comuni.
Nel documento preparatorio dello European Science Foundation pubblicato nel 2001 si riconosce che nel campo delle scienze umane, e diversamente da quanto accade nelle scienze naturali, la valutazione dei ricercatori (come singoli e come gruppi) non avviene a livello internazionale e, ancor meno, europeo; il mondo della ricerca scientifica vede piuttosto la compresenza di diversi sistemi che sono applicati a livello nazionale, paese per paese: il panorama delle pubblicazioni nelle scienze umane e sociali appare frammentato e privo tanto di canali di comunicazione quanto di parametri di valutazione comuni 2 .
L'isolamento delle numerose e variegate discipline nei diversi paesi dell'Unione, deriva per buona parte da specifiche peculiarità delle scienze umane e sociali: in esse, l'oggetto della ricerca "is not exterior to the person (as it is in natural sciences), and consequently to the researcher him/herself. It is indeed difficult for the researcher to remove him/herself from the research, whatever efforts are made or the methodological approaches used" (F. Kiefer, A. Mustajoki, A. Peyraube, E. Vestergaard, Building a European Citation Index in Humanities). La varietà delle lingue, inoltre, è e sarà costante, e gioca nelle scienze umane un ruolo rilevante; tale caratteristica è una ricchezza che il nuovo indice delle citazioni si propone di valorizzare.
Dal 2001 lo Standing Committee for the Humanities (SCH) ha dato avvio a un'ampia consultazione e ad una riflessione sui criteri fondamentali usati per valutare la produttività dei ricercatori come singoli e in gruppo, a partire da una duplice e radicata convinzione: che fosse necessario includere, nella valutazione, criteri tanto quantitativi quanto qualitativi; e che si dovesse evitare di concentrarsi solo sui risultati scientifici (in particolare gli articoli) dando il giusto peso a tutte le forme di pubblicazione (specialmente i libri, che rivestono una funzione importante nella ricerca in campo umanistico) e all'integrità del processo della ricerca.
Il problema da cui nasce questa iniziativa sembra dunque essere la necessità di un paradigma di valutazione comune e condiviso dai paesi dell'Unione Europea; un paradigma che tenga conto della pluralità delle lingue e delle singole culture e possa, al contempo, dare alle scienze umane e sociali europee strumenti comuni per valutare il prestigio delle pubblicazioni, dei centri di ricerca e degli studiosi che vi afferiscono.
Sono prospettive accattivanti per l'umanista e per chi si esprime e comunica in lingue minoritarie. Le scienze umane, povere di finanziamenti e degradate perché meno utili e meno capaci di generare profitto, sembrano essere in grado di colmare una distanza; uno scopo nobile, se maturato al fine di proporre un paradigma culturale alternativo. Tuttavia questa iniziativa merita di essere analizzata più nel dettaglio, poiché nasconde dei pericoli e dà origine ad alcune perplessità. Infatti, in primo luogo l'istituzione dell'indice delle citazioni, ad oggi, limita la sua portata ai criteri quantitativi (in particolare alla ridefinizione dei criteri di valutazione della ricerca in termini bibliometrici) e si concentra sui risultati e, in particolare, sulle riviste (con la creazione di un database istituzionale di riviste scientifiche fondamentali, divise per discipline). Per ora è invece carente una riflessione sui criteri qualitativi e sull'integrità del processo della ricerca. Pertanto, in secondo luogo, una serie di questioni a monte del problema, qui solo accennate, meritano più attenzione. Qual è stato e qual è lo scopo delle riviste nel processo di pubblicazione scientifica? Come si concilia il bisogno di comunicare e di accedere alle fonti della ricerca con tale scopo? Cosa possono fare gli studiosi per accrescere il valore della propria produzione scientifica?
Le pagine che seguono cercano di costruire risposte a queste domande, e ne pongono di nuove per sostenere, in conclusione, che il ritardo delle scienze umane può essere un vantaggio, e che l'istituzione di un ECIH non solo non è necessaria, ma potrebbe rivelarsi dannosa.
Il momento della nascita delle riviste scientifiche merita un'attenzione particolare; la storia, narrata nel saggio di Jean Claude Guédon dal titolo La lunga ombra di Oldenburg, ne mostra l'importanza e indica alcune tappe fondanti nell'evoluzione della funzione delle pubblicazioni scientifiche. L'origine delle riviste porta con sé un'ombra lunga che, dalla fondazione nel 1665 di The Philosophical Transactions, si estende attraverso un'epoca (tra il diciassettesimo e il diciannovesimo secolo) in cui la questione della proprietà intellettuale era al centro di un dibattito internazionale ricco e vivace, e giunge fino a noi 3 .
In sintesi The Philosophical Transactions, la prima rivista scientifica fondata da Henry Oldenburg della Royal Society di Londra, nacque come pubblico registro della proprietà intellettuale; essa funzionava come una specie di ufficio brevetti delle idee scientifiche. La rivista voleva introdurre chiarezza e trasparenza nel processo di fondazione delle pretese innovative e tali pretese venivano soddisfatte col conferimento, da parte di pari, di un titolo di "nobiltà intellettuale"; la quale assicurava un particolare titolo di proprietà: quella intellettuale, appunto. La pubblicazione sulla rivista avrebbe indotto a creare regole di comportamento tendenti a istituire un'organizzazione gerarchica strutturata. Starne dentro o fuori comportava grandi cambiamenti per lo scienziato e The Philosophical Transactions venne rapidamente ad assumere il ruolo di arbiter elegantiarum, lo strumento tramite cui titoli e ranghi venivano distribuiti (Cfr. La lunga ombra di Oldenburg: i bibliotecari, i ricercatori, gli editori e il controllo dell'editoria scientifica; par. 2. Un registro sociale dell'innovazione scientifica).
La gerarchia si fondava su un ideale di eccellenza; e tuttavia, poiché i risultati per essere apprezzati avevano bisogno di pubblicità, l'organizzazione delle regole di pubblicazione assunse un ruolo centrale nell'organizzazione della stessa "repubblica della scienza". Per uno scienziato, rendersi visibile diveniva fondamentale per acquistare notorietà e prestigio; al contempo, la definizione delle regole e delle garanzie della pubblicità andò progressivamente allontanandosi dalla sfera di competenza e di controllo degli scienziati. Dal 1665 ai giorni nostri, grazie alla diffusione della stampa, le riviste si sono moltiplicate, e l'importanza del loro ruolo nell'organizzazione della repubblica scientifica si è accresciuta. L'ampia diffusione delle riviste si è tuttavia dovuta scontrare con ostacoli difficili da sormontare. Soprattutto dopo la seconda guerra mondiale, in un periodo di crisi economica, il problema per le biblioteche è divenuto quello di gestire, grazie all'aiuto di strumenti di rilevazione bibliometrica, le tracce di migliaia di citazioni; un problema che nella pratica si è trasformato nel comune tentativo di rispondere ad una questione: come scegliere che cosa comprare? (La lunga ombra di Oldenburg: i bibliotecari, i ricercatori, gli editori e il controllo dell'editoria scientifica 6. Lo Science Citation Index e alcune delle sue conseguenze).
Lo Science Citation Index, antenato dello European Citation Index for the Humanities, nasce in risposta a questa esigenza. Nei primi anni Sessanta Eugene Garfield 4 ha visto nel sistema della citazione degli articoli scientifici le basi per la costruzione di una gigantesca rete della conoscenza; Lo Science Citation Index è uno strumento bibliografico che nasce per costruire una cartografia delle citazioni facendo uso del "fattore d'impatto" 5 , una forma di misura standardizzata introdotta dall'Institute of Scientific Information (ISI) che rende possibile valutare l'impatto di un articolo su successive pubblicazioni. Il fattore d'impatto, com'è ovvio, è un criterio meramente quantitativo, poiché non permette di distinguere se un articolo abbia ricevuto citazioni positive o negative; dal punto di vista del fattore di impatto, e' infatti sufficiente che un articolo sia citato. Ad un concorso, paradossalmente, potrebbe infatti accadere - e accade - che un concorrente abbia pubblicazioni con un fattore di impatto altissimo sulle riviste ISI, ma solo perché ha scritto delle sciocchezze tanto clamorose da provocare molte reazioni indignate; tale criterio di valutazione, inoltre si basa più sul titolo della rivista che sul singolo articolo. Tuttavia, il fattore d'impatto, e altri strumenti bibliometrici come le leggi di Bradford e di Lotka sono divenuti gli standard per le biblioteche. L'idea fondamentale di Garfield fu dunque quella di contrarre l'intera collezione delle riviste delle scienze naturali, fatta di piccoli nuclei, in un unico nucleo di riviste scientifiche "fondamentali", cui ha limitato l'applicazione delle leggi bibliometriche.
Nel corso dei secoli, le riviste si sono trovate ad assolvere a una duplice funzione: hanno garantito titoli di proprietà intellettuale (sotto forma di diritto alle citazioni); e sono servite a dare un marchio, diventando uno strumento per acquisire prestigio e per valutare e gestire le carriere degli scienziati. Così, il fatto di restringere l'interesse dei bibliotecari dall'immenso parco delle riviste a un numero limitato di "core journals", ha trasformato il mercato dell'editoria scientifica in una miniera d'oro per gli editori (La lunga ombra di Oldenburg: i bibliotecari, i ricercatori, gli editori e il controllo dell'editoria scientifica, 6. Lo Science Citation Index e alcune delle sue conseguenze).
Nel mondo tradizionale dell'editoria scientifica, le ricerche sono finanziate da istituzioni pubbliche, università, centri di ricerca, etc; alcuni autori fondano le riviste, le dirigono e/o fanno parte dei comitati scientifici. Sono i cosiddetti "gatekeeper": i guardiani delle porte di accesso alla pubblicazione. La maggior parte degli autori scrive per pubblicare su riviste senza corrispettivo economico, e cede i diritti degli articoli agli editori che, generalmente, li acquisiscono in forma esclusiva. Molte riviste, principalmente i "core journals", sono controllate da grandi gruppi editoriali e sono pubblicate su carta (spesso anche sul web, ma l'accesso ai documenti è subordinato al pagamento di una quota di iscrizione). Negli ultimi anni gli editori hanno imposto prezzi sempre più alti alle biblioteche per accedere agli articoli; la necessità di accedere ai core journals ha infatti trasformato questi ultimi in un bene senza succedanei, il cui prezzo è indipendente dalla domanda. Le biblioteche sono così costrette ad acquistare abbonamenti (o diritti di accesso) alle riviste fondamentali a prezzi molto elevati; al crescere dei prezzi e al contrarsi dei bilanci delle biblioteche, poche istituzioni possono permettersi l'accesso alle riviste (in particolare a quelle che non sono "fondamentali"). Questo meccanismo ha dato origine alla cosiddetta "Serial Price Crisis", una crisi in cui versa il mondo dell'editoria scientifica nelle scienze "dure", a cui le scienze umane e sociali sono rimaste estranee anche grazie alla scarso impatto dello Arts and Humanities Citation Index (AHCI) 6 . Perché dunque proporsi di ripercorrere un percorso che porta ad un destino in parte già scritto, quando esistono oggi valide alternative sostenibili?
Pubblicare significa, letteralmente, rendere pubbliche produzioni intellettuali (artistiche, culturali e scientifiche). In linea di principio, mettere a disposizione del pubblico equivale a massimizzare l'accesso ai testi e ai documenti; tuttavia, nella pratica questa equivalenza non funziona, a causa di una duplice tensione.
La prima è la tensione tra scienza e tecnologia, vale a dire tra il processo della ricerca (il bisogno degli scienziati di una comunicazione rapida e completa dei risultati), e le possibilità e i limiti tecnologici legati al "mezzo di fruizione" (oggi in particolare la carta stampata, Internet, il Web e i computer). Nel modello di pubblicazione tradizionale dell'età della stampa, l'accesso alla letteratura scientifica è limitato da una serie di vincoli tecnologici ed economici; ma l'avvento delle nuove tecnologie fornisce, al contempo, soluzioni alternative e innovative per disseminare la letteratura scientifica a costi contenuti e offre strategie complementari e non concorrenti per garantire l'accesso aperto alla letteratura scientifica 7 . In particolare, il movimento e le iniziative che si mobilitano per l'accesso aperto alla letteratura scientifica (Open Access), hanno esplorato nuove soluzioni per disseminare la produzione scientifica finanziata con fondi pubblici. La seconda è la tensione tra catalogazione e selezione, e riguarda il bisogno di archiviare e di rendere disponibile la letteratura scientifica (un problema relativo al modo di catalogare); e il bisogno, al crescere della quantità e della disponibilità delle pubblicazioni e con l'insorgere di svariati vincoli, di selezionare. Si tratta di questioni correlate, poiché chi fa un catalogo propone, al contempo, criteri di selezione. Al cuore del secondo problema sta la nozione di qualità, intesa sia come eccellenza, vale a dire come criterio per l'attribuzione di un valore, sia come elitismo; e in quest'ultima accezione, la selezione diviene uno strumento per il conferimento di valore e di privilegi.
L'idea a fondamento del Web è, dall'origine, quella di costruire un sistema di documentazione: un archivio e un catalogo basato sulle citazioni (i link); a tale idea si erano già dedicati, in tempi più remoti, Vannevar Bush, Ted Nelson ed altri. In As we may think?, apparso nel 1945 su "The Atlantic Monthly", Bush descriveva uno scenario in cui sarebbe stato possibile, per un utente ideale di una teorica macchina di nome Memex, archiviare e reperire documenti collegati tramite associazioni. Il Memex avrebbe funzionato in modo molto simile a quanto fa oggi il Web, ed avrebbe avuto la medesima finalità, cioè costruire sistemi informativi più ricchi e intelligenti. Attivamente coinvolto nella messa a punto di sistemi informativi in epoca bellica, nel suo saggio ormai celebre l'ingegnere americano si interroga sulle possibili applicazioni di nuovi strumenti informativi per una migliore comunicazione della conoscenza 8 a fini pacifici. L'ipotesi di partenza dello scienziato americano è che il modo di pensare dell'uomo sia fondamentalmente diverso dal modo in cui vengono organizzate le enciclopedie e i libri; mentre questi contengono informazioni esposte in modo sequenziale, numerico o alfabetico, la mente umana funziona invece per associazioni mentali e collegamenti di oggetti differenti attraverso l'analogia. Più tardi, lo stesso concetto sarà esplorato da Tim Berners Lee, che lo esprimerà affermando che il sapere umano non è un albero ma una rete (Web). Che la scienza si fondi sul "collegamento" non è una novità; come scrive l'inventore del Web, "la comunità dei ricercatori usa da sempre dei collegamenti del genere tra documenti cartacei: tavole dei contenuti, indici analitici, bibliografie e sezioni di consultazione e rimandi sono tutti quanti link ipertestuali" (T. Berners Lee, L'architettura del nuovo Web, Feltrinelli, Milano 2004, p. 45). La novità nell'ipotesi di Bush e dei suoi successori è che essi si propongono di costruire un sistema informativo basato sulle associazioni, quello che Ted Nelson definirà nel 1981 "Hypertext", una griglia in espansione in grado, potenzialmente, di raccogliere in un unico sistema tutti i testi della letteratura mondiale. Sin dalla sua prima formulazione, l'ipertesto avrebbe mantenuto una parte delle funzioni assolta dalle riviste cartacee; nell'ipotesi di Nelson, ogni citazione sarebbe infatti stata dotata di un link con la fonte, garantendo così una ricompensa agli autori citati. Nell'applicazione oggi più diffusa di tali idee, vale a dire il World Wide Web, le potenzialità di un sistema informativo basato su collegamenti si è dimostrata pervasiva: i link ipertestuali possono essere seguiti nel giro di pochi secondi, invece che in settimane di telefonate e di inoltro della posta, e le possibilità della ricerca tramite collegamenti si stanno sviluppando in più direzioni.
E' interessante notare che il lavoro di Bush è stato d'ispirazione anche alla creazione dello Science Citation Index. Il problema che la nascita delle riviste e l'indice delle citazioni prima, e poi il Web vogliono risolvere è infatti unico ma ha due facce: archiviare e catalogare, cioè organizzare le informazioni in modo tale da renderle durevoli e reperibili nel tempo; e selezionare, cioè stabilire criteri di qualità sulla base dei quali scegliere che cosa leggere. Tuttavia, la fondamentale differenza tra l'invenzione di Eugene Garfield da una parte e dall'altra parte l'idea di Nelson, degli inventori di Internet e del Web, è che la prima si basa sull'accentramento, concentrando l'applicazione dei criteri bibliometrici su un insieme di "riviste fondamentali"; al contrario, i secondi condividono l'idea della necessità di un sistema distribuito e decentrato come pre-condizione dell'universalità (cioè di apertura e di massima inclusività) del sistema.
Alla questione dell'archiviazione e della catalogazione è infatti legato il problema dell'accesso. La scelta in favore di un sistema fondato sull'accentramento o sulla distribuzione dei documenti, dei cataloghi e dei criteri di catalogazione produce significative conseguenze in termini di accessibilità dell'informazione, come la "crisi del prezzo dei periodici" mostra. E' infatti ovvio il pericolo insito nell'esistenza di grandi archivi digitali di proprietà degli editori, e nella politica di licenze che ne deriva. Come i bibliotecari sanno, le nuove normative in materia di copyright e di prestito bibliotecario permettono alle biblioteche un accesso solo temporaneo alle collezioni 9 , tanto che diventa difficile solo pensare all'archiviazione di lungo periodo. Tuttavia, soprattutto oltre Oceano sono nate numerose iniziative per mettere in relazione scienziati, editori universitari, società di ricercatori e biblioteche allo scopo di innovare e ripristinare la concorrenza (si veda in particolare The Scholarly Publishing Academic Resources Coalition (SPARC)), sostenute soprattutto dalla Open Archives Initiative 10
Sul piano della catalogazione, per costruire un sistema universale il catalogatore deve includere tutto, e il criterio di inclusione deve essere trasparente. La Santa Fe Convention del 1999 ha stabilito le linee guida per la definizione di alcuni elementi di interoperabilità tali da permettere a ogni archivio registrato di essere interrogato facilmente attraverso un comune strumento di ricerca; lo scopo è ottimizzare il rapporto tra i risultati e i vincoli tecnici nel tentativo di mantenere i secondi più bassi possibile (si veda il sito ufficiale:the Santa Fe Convention for the Open Archives Initiative). Così, gli archivi facenti parte della Open Archives Initiative, grazie ad un protocollo (OAI-PMH) per la raccolta di metadati fondamentali (Dublin Core Metadata), si scambiano in modo automatizzato i dati sui documenti in un sistema distribuito di nodi in cui l'informazione è condivisa da ogni nodo dell'archivio. L'applicazione di questo meccanismo favorisce la creazione e l'uso di nuovi canali di comunicazione tra gli scienziati, e aumenta il fattore d'impatto degli articoli, anche qualora pubblicati in forma di pre-prints a costi molto minori di quanto non avvenga nel mercato tradizionale delle pubblicazioni scientifiche. Nel nuovo modello, se è sempre al centro dei lavori della repubblica della scienza l'idea di un pubblico registro delle idee, tale registro non è però fondato da un'istituzione centralizzata, ma è costituito da un'intelligenza distribuita e da un'azione federativa. Nonostante gli evidenti vantaggi di tale sistema, nel nostro paese, in particolare nelle scienze umane, la diffusione di archivi istituzionali e pubblici è purtroppo ancora quasi assente.
Il compito di selezionare dovrebbe invece spettare alle riviste. Ogni rivista sceglie di adottare una prospettiva, poiché propone una selezione di alcune pubblicazioni scelte sulla base di criteri particolari, condivisi da un comitato scientifico, e approvate tramite peer-review, attribuendo a tali pubblicazioni un certo valore aggiunto. Nell'articolo sopra menzionato Vannevar Bush metteva in luce come il principale problema di un ricercatore sia quello della selezione e del reperimento delle informazioni; gran parte del suo tempo e della sua attività sono infatti impiegati soltanto per trovare e per capire ciò che è già stato scoperto da altri. La scelta di leggere una rivista piuttosto che un'altra risponde a tale esigenza, poiché significa adottare prospettive sulla base di criteri di fiducia; per soddisfare un personale bisogno di informazioni aggiornate sulla politica, ad esempio, non potendo leggere ogni giorno tutti i quotidiani mi affido alle selezioni di alcune fonti di informazione che scelgo poiché mi fido di quanto (generalmente) affermano. Allo stesso modo, la lettura di alcuni periodici scientifici consente di tenersi aggiornati su un determinato campo di studio monitorando un certo numero di titoli fondamentali. Tuttavia, l'applicazione delle tecnologie del Web a tali esigenze sembra mostrare che è possibile fare tutto questo in modo più rapido, e meglio.
Notoriamente, gli umanisti sono convinti che le pubblicazioni digitali abbiano un valore minore rispetto a quelle su carta. Ciò dipende in parte probabilmente dal fatto che, su Internet, è possibile trovare di tutto; al contrario, molti sistemi di documentazione sono soliti essere disegnati per particolari collezioni di informazione, e uno può assumere che l'informazione in un tale sistema abbia raggiunto un certo livello di qualità. Così, a prima vista potrebbe dunque sembrare che tra apertura dell'accesso (universalità del sistema) e qualità ci sia un conflitto. Infatti il Web in sé non può rafforzare, a causa della sua architettura, nessuna singola nozione di qualità. Se facesse ciò, non sarebbe un sistema universale visto che tali nozioni sono molto soggettive e cambiano col tempo (T. Berners-Lee, The World Wide Web - Past, Present and Future. Japan Prize 2002, Commemorative lecture. "Quality"). Tuttavia, proprio in virtù della sua apertura il Web può rispondere alle esigenze di persone i cui criteri di giudizio sono diversi. Ad oggi, esso contiene reti di archivi istituzionali (ospitati da biblioteche, Università, fondazioni e centri di ricerca) che contribuiscono a formare una rete distribuita di conoscenza scientifica. Accanto a questi e ad essi legati, potranno affiorare, come isole, numerose selezioni che, offrendogli diverse e molteplici prospettive proposte dai comitati scientifici delle riviste, gli forniscano al lettore una percezione soggettiva di qualità elevata.
“Come autori, mi sia consentito chiamare (i ricercatori) Dottor Jekyll; come lettori diventano Mr. Hyde. Per quanto possa essere triste, i bibliotecari incontrano in genere Mr. Hyde piuttosto che il Dottor Jekyll, specie quando si presenta in ufficio a protestare per delle recenti cancellazioni di abbonamenti. Nel complesso, il Dottor Jekyll è molto più simpatico. Tuttavia, egli sembra un po' divertito dagli aspetti economici della pubblicazione delle sue nobili idee, o tratta questioni così prosaiche con benevola trascuratezza. Quando pubblica un articolo in una rivista, il Dottor Jekyll è molto attento alla sua visibilità, alla sua autorevolezza, al suo prestigio, nonché a una quantità nota come "fattore d'impatto" (...); d'altra parte, il Dottor Jekyll chiude un occhio sul costo delle riviste su cui pubblica, anche se il suo lato di lettore soffre per questo stesso prezzo. In qualche modo, i due lati della sua personalità non sembrano connettersi - e da qui la caratterizzazione schizofrenica che attribuisco alla maggioranza dei miei colleghi studiosi.” (J.C. Guédon, La lunga ombra di Oldenburg: i bibliotecari, i ricercatori, gli editori e il controllo dell'editoria scientifica, par. 5. La prospettiva degli scienziati e degli studiosi)
In qualità di lettori, i ricercatori hanno percepito, sin dall'inizio, l'avvento e la diffusione di Internet come un reale progresso. Lo studioso ha immediatamente avuto modo di sperimentare i benefici che l'uso di motori di ricerca come Google, la diffusione della posta elettronica ed altri più raffinati strumenti comportano. Oggi, usiamo per la ricerca e per la produzione di risultati molte altre fonti oltre alle riviste e ai libri. Nell'uso più raffinato e meno diffuso, il lettore attento dispone di potenti strumenti di selezione per la ricerca negli archivi istituzionali, che permettono di affinare le ricerche sulla base di filtri costruiti sulla base di criteri di catalogazione trasparenti.
Come autori, la diffusione delle pubblicazione sul Web ha fatto crescere il "fattore d'impatto". Se l'interesse di chi pubblica e' evidentemente quello di massimizzare la diffusione delle sue teorie, molte ricerche hanno mostrato che la diffusione e di conseguenza l'impatto di un articolo pubblicato online è, a parità di altri fattori, in media fino a cinque volte superiore di quello di un articolo pubblicato in una rivista cartacea (Cfr. S. Lawrence, Online or Invisible, "Nature", Volume 411, Number 6837, p. 521, 2001). Naturalmente questo rapporto è enormemente più alto se si tratta di una rivista Open Access dato che possono accedervi gratuitamente tutti coloro che lo desiderino. Le possibilità di comunicazione tra i ricercatori, che possono lavorare a distanza e tenersi reciprocamente aggiornati, e sfruttano la rete telematica per la pratica stessa della ricerca, si sono vistosamente arricchite. La rete permette infatti agli autori di assumere parte dei compiti degli editori, e di dotarsi di nuovi strumenti che favoriscono la comunicazione tra ricercatori, e permettono di imparare a fare ricerca 11 .
In questo campo, le scienze umane sono in ritardo; tali sistemi sono infatti poco diffusi, e l'applicazione dell'informatica si limita per lo più a strumenti per l'uso dei linguisti, dedicati alla codifica di manoscritti e di testi. Tuttavia, è possibile immaginare uno scenario ideale futuro, in cui la ricerca (finanziata da istituzioni pubbliche come Università, Centri di Ricerca, etc.) sia massimamente accessibile. In questo scenario, la maggior parte degli autori continua a scrivere per pubblicare su riviste (senza corrispettivo economico); tutti gli autori depositano pre-print e articoli già pubblicati in un Open Archive (facente capo alla propria Università o biblioteca) e mantengono e i diritti sugli articoli in forma esclusiva; alcuni autori fondano riviste, le dirigono e/o fanno parte dei comitati scientifici, occupandosi in prima persona e con l'aiuto di colleghi della pubblicazione sul Web; gli editori pubblicano le versioni cartacee delle riviste, anche con selezioni ad hoc e grazie a sistemi di Print on Demand; gli informatici sviluppano piattaforme Open Source per archivi e per e-Journals 12 , che le biblioteche ospitano e si preoccupano di mantenere in collegamento con la rete degli archivi aperti; le biblioteche, inoltre, offrono assistenza alle riviste: le catalogano, fanno loro da mirror (cioè le ospitano "in copia" su un proprio server) e contribuiscono alla loro diffusione. Le Università e le istituzioni preposte allo sviluppo e alla disseminazione della scienza potrebbero così garantire la conservazione di lunga durata della conoscenza umana.
Per accrescere l'impatto reale delle proprie ricerche e aumentare la disseminazione della conoscenza, oggi gli studiosi hanno a disposizione molti strumenti. Possono condividere programmi e contenuti, e contribuire a costruire un immenso ipertesto della scienza. Cosa potrebbe dunque aiutare chi fa ricerca, in particolare nelle scienze umane e sociali, a riconciliare quei tratti di personalità schizoide, così come affettuosamente descritti da Guédon?
1) La durabilità dell'informazione. Il movimento Open Access ha avuto il merito di ricordare che il problema dell'archiviazione di lungo periodo può essere affrontato con mezzi nuovi; le biblioteche che ospitano i manoscritti, i libri e le riviste su carta non sono in grado di assicurare la conservazione della conoscenza, come molte esperienze storiche dimostrano (dal fuoco di Alessandria, fino, in tempi più recenti, agli incendi di Sarajevo e di Weimar). Le Università devono incoraggiare le biblioteche a favorire l'accessibilità agli archivi attraverso servizi di mirroring; a garantire l'interoperabilità e l'aggiornamento dei formati; e a fare in modo che i repository pubblici restino aperti, cioè che i server siano mantenuti accesi.
2) L'autore e le licenze. A causa delle leggi sul diritto d'autore vigenti, è richiesta una politica di licenze tramite cui è l'autore stesso ad abbattere le barriere che limitano l'accesso ai propri saggi, articoli e libri. La soluzione pragmatica a tali restrizioni è offerta dalla possibilità di adottare licenze Open Content (come ad esempio una Creative Commons, cui è sottoposto questo articolo), che garantiscono all'autore la paternità intellettuale di un'opera senza tuttavia limitarne la diffusione; l'uso delle licenze è stato mutuato dall'esperienza delle licenze copyleft adottate dagli informatici che sviluppano codice a sorgente aperta 13 . L'adozione di una licenza a propria scelta consente all'autore di mettere in atto strategie che favoriscono un accesso più ampio ai risultati del suo lavoro. (Si tratta tuttavia di strategie di breve respiro, che lasciano uno spazio limitato alla libertà degli autori; per produrre risultati incisivi, sarà infatti necessario ripensare lo stesso concetto di diritto di autore).
3) Accentramento e distribuzione delle risorse e della selezione. Una organizzazione centralizzata della informazione (vale a dire un controllo monopolistico sugli archivi, sui database dei documenti o dei link (linkbase)) pone seri rischi di sostenibilità e mette in pericolo la democraticità di un sistema. In uno spazio dove la quantità di informazioni disponibili è di gran lunga superiore a quella che la mente umana è in grado di elaborare nell'arco di una vita, l'opera di selezione e di collegamento viene ad assumere un ruolo fondamentale. Tuttavia, la libertà totale di pubblicazione offerta dal Web pone il problema, tutt'altro che marginale, della qualità delle pubblicazioni. Google, ad esempio, è uno strumento di ricerca (cioè di selezione) molto potente, ma presenta alcuni limiti: è ad una dimensione (cioè mostra un'unica prospettiva, per quanto condivisa); si basa su criteri a posteriori (fondamentalmente statistiche d'uso); e non trova esattamente quello che vogliamo se cerchiamo informazioni scientifiche, non è, cioè, in grado di distinguere il grano dal loglio 14 . Viceversa, la Open Archives Initiative è costruita allo scopo specifico di archiviare, catalogare e ricercare la letteratura scientifica. Essa si fonda sul decentramento e sulla definizione di un numero minimo di criteri a priori di catalogazione (metadati), che vengono scambiati tramite un protocollo comune (OAI-PMH), permettendo l'esistenza e favorendo la nascita di moltissimi archivi. Anche gli umanisti dovranno preoccuparsi in prima persona di depositare i propri testi in appositi archivi istituzionali, e, ove non siano presenti, di richiederne alle proprie istituzioni l'apertura. A partire da essi è e sarà possibile creare diverse prospettive di partenza (riviste), che potranno a loro volta costruire reti basate sulla fiducia, e contribuire alla riflessione sui criteri di valutazione nell’organizzazione della vita della scienza 15 .
4) Un sistema per fare ricerca. Da oltre trent'anni, la linguistica computazionale mette a punto strumenti informatici che facilitano l'indicizzazione e l'analisi testuale, aiutano la lettura dei manoscritti, e offrono ai ricercatori crescenti vantaggi. La codifica in XML dei testi letterari, cui si dedica l'informatica umanistica, non è stata tuttavia applicata alla scrittura, alla pubblicazione e all'archiviazione dei risultati della ricerca. Benefici notevoli possono derivare tanto dalla nascita di riviste compatibili con il protocollo OAI-PMH, quanto dall'inserimento di strumenti particolari in progetti che colleghino e creino veri e propri ambienti di ricerca; il Web offre grandi possibilità in tal senso, perché permette l'accesso alle fonti, e nuovi modi di vederle, di collegarle, di visualizzare i testi e i collegamenti tra testi 16 .
5) L'estensione del concetto di peer review. Grazie alla gestione autonoma delle riviste, e svincolati dai voleri degli editori, gli scienziati si vedranno così restituiti i propri diritti di cittadinanza e di legislatori della repubblica della scienza; sarà dunque loro compito reinventarne i criteri di valutazione con l'aiuto degli amministratori delle università e dei bibliotecari, e pretendere e garantire politiche concorsuali trasparenti e comuni che si fondino su nuovi modelli di peer-review, modelli che potranno essere pensati come bene pubblico, e non per il beneficio di pochi.
[1] Si veda La lettre d'information SHS, numéro 69 2004 "Les revues en sciences humaines et sociales", e in particolare: C. Henriot, Introduction ; F. Kiefer, A. Mustajoki, A. Peyraube, E. Vestergaard, Building a European Citation Index in Humanities.
[2] Lo European Science Foundation (e in particolare il suo Standing Committee for the Humanities) si è pertanto assunto l'incarico di compilare l'elenco delle "riviste fondamentali", e di dare poi specifiche istruzioni a livello nazionale. Per le scienze umane fino ad oggi esisteva lo Arts and Humanities Citation Index (AHCI), il database dell'Institute of Scientific Information (ISI) che, al contrario dello SCI (l'analogo strumento delle scienze naturali) non rappresenta il mondo delle pubblicazioni nelle scienze umane e sociali, limitandosi a raccogliere riviste americane e anglofone. Alle definizione dei criteri guida per la creazione dell'elenco hanno partecipato 29 persone di 17 paesi, tra cui il nostro. Sul sito della European Science Foundation si vedano il documento preparatorio e gli allegati.
[3] L'ampio saggio del canadese Guédon è liberamente accessibile in lingua originale (J.C. Guédon, In Oldenburg’s Long Shadow: Librarians, Research Scientists, Publishers, and the Control of Scientific Publishing, Association of Research Libraries, Proceedings of the 138th Annual Meeting (2001)) e in traduzione italiana (La lunga ombra di Oldenburg: i bibliotecari, i ricercatori, gli editori e il controllo dell'editoria scientifica) descrive il configurarsi dell’attuale mercato delle pubblicazioni scientifiche. Quella qui proposta è una sintesi che mira a mettere in luce i momenti essenziali del sistema di pubblicazione oggi prevalente nelle scienze naturali. Il saggio contiene la spiegazione di fenomeni ed eventi qui solo accennati; per una ricostruzione più puntuale, se ne raccomanda la lettura. Nel seguito si farà riferimento ai paragrafi della traduzione italiana.
[4] Cfr. E. Garfield, Citation Indexes for Science: A New Dimension in Documentation through Association of Ideas, Science, Vol:122, No:3159, p.108-111, July 15, 1955.
[5] "Il fattore d'impatto (...) si calcola dividendo il numero di citazioni che una rivista riceve, in un dato anno, relative agli articoli pubblicati nei due anni precedenti, per il numero di articoli pubblicati in quegli stessi anni. Perciò il fattore d'impatto di una rivista per il 2001 è il numero di citazioni ricevute nel 2001 relative agli articoli pubblicati nel 1999 e nel 2000, diviso per il numero di articoli pubblicati nel 1999 e nel 2000. Vedi M. Amin, M. Mabe, Impact Factors: Use and Abuse, "Perspectives in Publishing" 1 (October 2000), 1-6; nota 5 in J.C. Guédon, La lunga ombra di Oldenburg: i bibliotecari, i ricercatori, gli editori e il controllo dell'editoria scientifica
[6] Cfr. Nota 2.
[7] A partire dal 1991, il fisico delle alte energie Paul Ginsparg ha fondato un archivio digitale con sede a Los Alamos (poi spostato a Cornell) con l'intento di dare vita a uno strumento per la condivisione delle ricerche in corso nel suo campo di studi. Dal grande successo di tale iniziativa si è sviluppata, negli anni Novanta, la Open Archives Initiative, il cui principale esponente è Stevan Harnad della Università di Southampton; il movimento in favore dell'Open Access, più in generale, promuove la diffusione di contenuti e di software liberamente accessibili. Cfr. Budapest Open Access Initiative (2001-2004); Berlin Declaration on Open Access to Knowledge in the Sciences and Humanities (Oct. 2003) e l'ottima rassegna di Peter Suber, a partire da Open Access Overview(2004) .
[8] Scrive Bush: "Professionally our methods of transmitting and reviewing the results of research are generations old and by now are totally inadequate for their purpose. If the aggregate time spent in writing scholarly works and in reading them could be evaluated, the ratio between these amounts of time might well be startling. Those who conscientiously attempt to keep abreast of current thought, even in restricted fields, by close and continuous reading might well shy away from an examination calculated to show how much of the previous month's efforts could be produced on call. Mendel's concept of the laws of genetics was lost to the world for a generation because his publication did not reach the few who were capable of grasping and extending it; and this sort of catastrophe is undoubtedly being repeated all about us, as truly significant attainments become lost in the mass of the inconsequential. The difficulty seems to be, not so much that we publish unduly in view of the extent and variety of present-day interests, but rather that publication has been extended far beyond our present ability to make real use of the record. The summation of human experience us being expanded at a prodigious rate, and the means we use for threading through the consequent maze to the momentarily important item is the same as was used in the days of square-rigged ships. "
[9] In Europa, la EUCD ha posto pesanti limiti alle possibilità del diritto di copia, introducendo la logica del consumo a scadenza dei prodotti. Inoltre la normativa sul diritto di prestito pubblico (direttiva 92/100), di cui recentemente la Commissione ha sollecitato in Italia l’applicazione, prevede di far pagare i prestiti in biblioteca per ridistribuire royalties agli editori e, in parte minima, agli autori
[10] La OAI è nata per promuovere il Self-Archiving, ovvero l'archiviazione da parte degli scienziati stessi di una versione completa di un contributo e di tutti i materiali che lo corredano, inclusa una copia della licenza, in un formato elettronico secondo uno standard appropriato "in almeno un archivio in linea che impieghi standard tecnici adeguati (come le definizioni degli Open Archives) e che sia supportato e mantenuto da un'istituzione accademica, una società scientifica, un'agenzia governativa o ogni altra organizzazione riconosciuta che persegua gli obiettivi dell'accesso aperto, della distribuzione illimitata, dell'interoperabilità e dell'archiviazione a lungo termine" (Accesso aperto alla letteratura scientifica (Dichiarazione di Berlino), tr. it. (scaricabile in formato PDF) di S.Mornati, P. Gargiulo, 2003). Si veda anche l'iniziativa Lot of Copies Keep Stuff Safe (LOCKSS).
[11] Tali pratiche sono certamente più diffuse nelle scienze naturali. Esistono tuttavia esperienze pilota nel campo delle scienze umane che sfruttano le nuove tecnologie per la ricerca filologica e filosofica. Cfr. più oltre, nota 16.
[12] Ad oggi, i software più diffusi e più importanti per la creazione di open repository, compatibili col protocollo OAI-PMH sono e-prints, sviluppato dall'Università di Southampton, e D-Space, un progetto del MIT e della Hewlett-Packard. Non esistono invece progetti di software per la gestione di riviste elettroniche di pari portata.
[13] Si veda il sito della Free Software Foundation, anche in italiano , e in particolare la Filosofia del progetto GNU
[14] Se fosse considerato uno strumento di valutazione (e non un "semplice" motore di ricerca), anche il fatto che l'algoritmo di Google non sia noto porrebbe problemi di democraticità
[15] Questo è uno degli obiettivi del progetto HyperJournal, un (free-)software per la creazione e la gestione di riviste elettroniche dedicato in particolare agli umanisti. La prima versione sarà disponibile a fine dicembre di quest'anno (2004).
[16] Nel campo delle scienze umane esistono esperienze pilota che sfruttano le nuove tecnologie per la ricerca filologica e filosofica. Ad esempio, il progetto HyperNietzsche (che permette agli autori l'adozione di licenze Open Content appositamente create, ed è basato su software Open Source), ha messo a disposizione i manoscritti del filosofo tedesco, le trascrizioni (lineari, genetiche, diplomatiche) nonchè saggi ripubblicati e nuove pubblicazioni su Nietzsche, fornendo al navigatore svariati utili strumenti per la visualizzazione, l'analisi e la stampa dei testi; grazie ad una caratteristica nota come 'contestualizzazione dinamica', durante la lettura di un documento è possibile visualizzare e collegarsi a tutti i contributi che quel documento cita, e a tutti i documenti che lo citano, interni all'ipertesto.