http://www.aidainformazioni.it
AIDAinformazioni
trimestrale - ISSN 1121-0095, e-ISSN 1594-2201

Manifestazioni dopo
Supplemento elettronico alla versione analogica del n. 1-2, a. 27, gennaio-giugno 2009

OAI  [Open Archives Initiative] 6: CERN Workshop on Innovations in Scholarly Communication. Ginevra 17-19 giugno 2009.
Elena Giglia Elena Giglia
Università di Torino - elena.giglia@unito.it
Coordina l'Ambito 6 "Scienze storiche e  filosofiche, pedagogiche e psicologiche" del Sistema Bibliotecario di Ateneo dell'Università di Torino. Fa parte della "Commissione Nazionale Università e Ricerca" dell'AIB. Ha lavorato presso la Divisione Biblioteche dell'Università di Milano, presso la Biblioteca Centrale di Economia e presso la Biblioteca Centralizzata di Medicina dell’Università di Torino. Si interessa - oltre che dei suoi tre bimbi - di Open Access, di strategie di ricerca dell’informazione biomedica e di integrazione fra risorse informative e sistemi avanzati di e-learning.

Il clima che si è respirato nei tre giorni di OAI 6 è evidente nei ritratti di alcuni dei partecipanti: apertura al dialogo, al dibattito, e interesse e passione per le innovazioni più recenti e le posizioni più avanzate in tema di nuove tecnologie e nuovi paradigmi della comunicazione scientifica.

Il convegno era strutturato in una giusta alternanza di sessioni plenarie - delle quali sono online i video oltre che le slide - e di piccoli gruppi di condivisione, oltre che di momenti conviviali nei quali, comunque, continuava lo scambio e il dialogo e si sentivano circolare proposte e nascere nuovi progetti o applicazioni.

Nelle sessioni plenarie sono stati affrontati alcuni dei punti nodali intorno cui si va costruendo un nuovo paradigma di comunicazione scientifica:

Compound objects

Herbert Van de Sompel ha aperto il workshop invocando un globale e profondo ripensamento che eviti alla comunicazione scientifica di essere solo la "scanned copy" della carta. Tre le leve sulle quali attuare il cambiamento: l'aumento di record scientifici con un substrato "machine readable", che apre non solo alle potenzialità del text mining, del Web semantico e delle ontologie, ma anche della creazione di nuovi agenti-macchina che fungano da filtro e che aiutino a connettere i punti dispersi nel diluvio dell'informazione presente in rete; la presenza sempre più massiccia dei dataset come parte integrante del "record scientifico" - da notare che mai ha usato la parola "articolo", indice chiaro di una visione che va oltre -, che impone un ripensamento delle funzioni tradizionali della comunicazione scientifica; l'attenzione sempre maggiore al processo della comunicazione scientifica, alle sue regole e alla sua mappatura, che sta mettendo in discussione canoni di valutazione quali le citazioni - nuove metriche sono possibili grazie allo studio delle reti e dai dati di uso - e la peer-review. Uno strumento come My Experiment è segno di questa visione innovativa.

Nelle tre comunicazioni della sessione sono stati presentati

Mandates and preservation

Nella sessione coordinata da David Prosser si sono toccati i temi vitali della sostenibilità economica, dei mandati e della preservazione a lungo termine. John Houghton ha presentato i dati della ricerca condotta per conto di JISC sui diversi modelli economici, dalla quale si evince non solo l'enorme risparmio di scala in un eventuale passaggio a un regime di Open Access, ma anche la crescita nel ritorno degli investimenti; il dato senz'altro più notevole è che la transizione sarebbe possibile solo con la diversa allocazione dei fondi già in circolo (almeno nella realtà britannica in cui lo studio è stato condotto).

Tom Cochrane ha portato l'esperienza della Queensland University of Technology nella definizione dei mandati istituzionali, indicando come leve per il successo l'individuazione da una parte dell'interesse primario dei ricercatori nelle singole discipline, e dall'altra delle motivazioni e degli incentivi, primo fra tutti il ritorno in termini di prestigio e di visibilità; ha invitato a fugare i dubbi dei ricercatori sul copyright dimostrando come sia un "enabler" della diffusione e non una barriera. In controluce resta il tema della valutazione della ricerca, nel quale i bibliotecari devono svolgere un ruolo sempre più attivo nella definizione di nuove metriche.

Di conservazione del digitale hanno parlato Wouter Spek, che ha presentato il progetto PARSE.INSIGHT mirato alla preservazione a lungo termine dei risultati della ricerca in Europa, e Andreas Rauber, che ha posto l'accento sulla fase di progettazione, dalla definizione di cosa si vuole preservare e come, alla finalità. PLATO, un software open source, risponde proprio a quest'esigenza, creando una mappa pesata di valutazione delle scelte possibili per orientare una progettazione efficace e sostenibile.

Use and re-use

La sessione moderata da William Nixon ha portato in primo piano le questioni del copyright dal punto di vista di un gestore di deposito istituzionale (Morag Greig) che ha sottolineato le preoccupazioni correnti dei ricercatori che depositano - soprattutto relative alle diverse versioni presenti in un archivio, e alla possibile perdita o dispersione di citazioni - e ha ripercorso le tappe dell'approccio al tema del riuso e delle paure iniziali dei ricercatori rispetto ai contratti editoriali, ora fugate dalle politiche che gli editori hanno capito conviene loro esplicitare e che SHERPA così bene raccoglie e aggiorna, e dal punto di vista di un editore tradizionale ("Nature", per voce di David Hoole) che ha sottolineato come un bilanciamento dei diritti deve evolvere insieme alle tecnologie, e ha presentato il Deposit Manuscript Service e la Licence to Publish esclusiva del "Nature" publishing group, che pur essendo appunto esclusiva permette però una serie di riusi agli autori.

La novità del prossimo ottobre sarà "Nature" Communication, un servizio veloce di pubblicazione peer review, online, con opzione Open e licenze Creative Commons. "Nature" sta del resto sperimentando modelli ibridi, e, nell'attesa dei risultati del progetto PEER sugli effetti di una  massiccia auto archiviazione, si è detto aperto alle forme di riuso inedite e fino qui ancor impensate e forse impensabili, ma possibili in futuro.

Sophia Ananiadou ha mostrato le possibilità offerte dal text mining per l'arricchimento dell'esperienza dell'utente in sede di ricerca e di navigazione semantica, mentre Alexander Lerchl ha sottolineato l'importanza assoluta di pubblicare anche i dati grezzi della ricerca, da una parte per permettere la riproducibilità, dall'altra per scovare - come nei due esemplari casi descritti - ricerche condotte su dati falsi o costruiti ad hoc.

Embedding

Frank Scholze ha coordinato i lavori della sessione dedicata all'integrazione delle risorse, declinata secondo diverse prospettive da Martin Van Lujit, con l'installazione D-Space all'Università di Utrecht che si è evoluta secondo i bisogni dei ricercatori offrendo non più solo il deposito, ma anche spazi virtuali di discussione, di collaborazione, di comunicazione; da Peter Burnhill e il progetto britannico JORUM per la open education e l'integrazione di risorse; da Travis Brooks che ha presentato INSPIRE, l'evoluzione congiunta di arXiv e SPIRES per offrire un unico punto d'accesso e servizi a valore aggiunto alla comunità dei fisici delle alte energie, fra cui un bellissimo profilo autore con i link ai coautori, alle riviste di preferenza, alle keyoword più usate.

Community building

Al tema della creazione di coesione e degli incentivi alla creazione di comunità di utenti ha tentato di rispondere la sessione moderata da Thomas Krichel, fondatore di RePEC, di cui Christian Zimmermann ha evidenziato le logiche vincenti: la brevità dei tempi di diffusione dei preprint in una comunità - quella degli economisti, abituata a tempi lunghissimi di pubblicazione - è stato il catalizzatore che ha ingenerato il circolo virtuoso fra autori, istituzioni ed editori - per cui "esserci" è divenuto fondamentale. Per dare coesione alla comunità e fidelizzare gli utenti si sono pensati servizi a valore aggiunto quali l'aggiunta del full text in accordo con le politiche di copyright, le statistiche di download, il servizio di citation tracking, il nuovo servizio di ranking di autori e istituzioni, che ha creato un clima di positiva competizione.

James Prigle ha presentato il nuovo servizio ResearcherID di Thomson Reuters mentre Jim Pitman ha portato le istanze della comunità dei matematici e del progetto di Bibliographic Knowledge Network volto all'identificazione univoca degli autori e alla raccolta dei metadati bibliografici sparsi in diverse banche dati.

Quality assurance

Johan Bollen è stato il protagonista indiscusso di questa ultima sessione, in cui ha presentato i frutti del progetto MESUR - in collaborazione con Herbert Van de Sompel. La suggestiva mappa della scienza creata a partire dai log file raccolti permette di visualizzare relazioni e rapporti inediti fra discipline pensate finora non contigue. Sfruttando le potenzialità delle ricerche sulle reti e sui fattori di uso (download e page rank) si è voluto andare alla ricerca di misure che rendano il concetto di impatto in modo più immediato - senza attendere i tre anni necessari al computo dell'Impact Factor - e più esaustivo, tenendo conto non solo delle citazioni, che riducono al solo ambito accademico, ma anche dei valori di "uso" all'interno delle comunità professionali che non citano ma leggono per aggiornarsi e tradurre la ricerca in pratica.

Le 39 misure individuate sono state riportate su una mappa, la cui visualizzazione mostra molto bene la correlazione fra le misure di uso e di ranking, legate al prestigio (page rank, usage factor) e la marginalità delle misure di citazione, legate piuttosto alla popolarità. L'esempio di Britney Spears, che vende milioni di dischi ma non per questo può essere considerata artista di prestigio, rende bene il concetto, dimostrando come l'Impact Factor sia solo una, e molto parziale, misura di impatto.

Ulrich Poeschl ha poi chiuso con un'altrettanto innovativa messa in discussione del canone della peer review tradizionale, proponendo il metodo di "Atmospheric chemistry and physics" - adottato da altre otto testate - nel quale l'articolo accettato in via preliminare viene immediatamente messo online in una sezione, dove rimane esposto, accessibile per la lettura, l'uso e il commento pubblico - anonimo o meno - e, a séguito di integrazioni e revisioni da parte dell'autore che di solito accoglie i suggerimenti costruttivi dei lettori, pubblicato in versione definitiva sulla rivista.

Gli ottimi risultati in termini di Impact Factor tradizionale e di altre misure d'uso dimostrano il gradimento di questa formula, che non solo assicura un bilanciamento fra il controllo di qualità aperto e trasparente e l'accesso immediato, ma ingenera anche un circolo virtuoso per cui gli autori, consci di essere pubblicamente giudicati, inviano solo le loro ricerche migliori.

Paul Ayris ha poi tentato di tirare le fila di tre giorni così intensi di dibattito, compito davvero arduo.

Ultime due note a margine: dal tutorial iniziale sulla proprietà intellettuale la notizia che la Licence to Publish di JISC e SURF è in corso di revisione, con focus particolare sui sei mesi di embargo - troppi? Meglio aspettare ma avere il PDF?

Dal breakout group sul futuro delle pubblicazioni scientifiche tanti suggerimenti, dalla forma dell'articolo del futuro - più breve, più interattivo, con finestre sui dati - alle nuove tecniche di comunicazione come wiki e blog che in alcune discipline stanno diventando un vero e proprio canale parallelo, alle istanza della valutazione per la carriera - perché, ha fatto notare Heather Morrison, dato che le regole sono create dalle stesse comunità dei ricercatori, non vengono cambiate se non sono più in linea? -, ai paradossi di un mercato del tutto inelastico nel quale gli enti di finanziamento stanno giocando ruoli inediti ma fondamentali nel determinare nuove logiche e spostamenti di flusso, alla crisi economica e alle sue possibili implicazioni - fermo restando che con i big deal gli editori hanno di fatto bloccato il mercato -, alla necessità di una peer review trasparente e che non funga da costrizione ai paradigmi esistenti, alla necessità di nuove metriche di misurazione dell'impatto, in una parola, alla necessità di profondi cambiamenti culturali che devono accompagnare la transizione in atto.

E a chi rimproverava e ammoniva a considerare le possibili implicazioni economiche e culturali - per esempio in relazione agli effetti dei mandati, o a un Open Access globale - qualcuno ha risposto: ma quale rivoluzione mai nella storia si è fatta mettendo prima sulla carta tutte le possibili implicazioni e gli effetti desiderati e non?


© AIDA - Mail to Webmaster - Creato 2009-06-21