http://www.aidainformazioni.it
AIDAinformazioni
trimestrale - ISSN 1121-0095, ISSN elettronico 1594-2201
anno 28, numero 1-2, gennaio-giugno 2010

Supplemento solo elettronico alla versione analogica
Manifestazioni dopo
ELPUB 2010: non solo editoria elettronica, Helsinki, 16-18 giugno 2010
jpg
Maria Cassella
Università di Torino - maria.cassella@unito.it

Maria Cassella, laureata in Lingue, ha diretto dal 1997 la biblioteca d'ateneo dell'Università "Partenope" di Napoli  e quasi fin da subito ha collaborato con CIBER. Ha partecipato al gruppo di lavoro di ITALE per la catalogazione UNIMARC del libro antico. All'Università di Torino dal 2005, è oggi coordinatore per le Scienze dell’antichità, filologico-letterarie e storico-artistiche del sistema bibliotecario universitario. Redattrice di "AIDAlampi" e parte del gruppo di lavoro del Wiki italiano sull’Open Access. Ha al suo attivo diverse pubblicazioni, tutte rigorosamente su E-Lis, e attività didattica sulla misurazione e valutazione delle raccolte digitali.

Helsinki, luminosa e vivace, ha accolto presso la Hanken School of Economics la quattordicesima edizione di ELPUB, il convegno tradizionalmente dedicato ai temi dell'editoria elettronica, della comunicazione scientifica, dell’Open Access, della digitalizzazione ecc. ecc. che quest’anno ha allargato lo sguardo ai temi del Web sociale, della scrittura partecipata, dei social network come strumenti che, grazie al contributo degli utenti, arricchiscono l’esperienza e le potenzialità comunicative della ricerca scientifica.

Il titolo del convegno quest’anno era “Publishing in the networked world: transforming the nature of communication”. Nove le sessioni del convegno, di cui quattro le sessioni parallele. Si darà qui di seguito un breve resoconto delle quattro sessioni programmate nella Assembly Hall che sono state seguite da chi scrive.

Carol Tenopir, docente di Information Sciences presso la School of Information Sciences dell’Università del Tennessee e autrice di numerosissimi studi sul comportamento di ricerca degli utenti delle biblioteche digitali, ha tenuto il giorno 17 giugno il discorso di apertura (keynote speech) del convegno dal titolo : Building the future by understanding the past: scholarly use patterns and E-pubs.

Carol Tenopir ha parlato della relazione simbiotica tra ricercatori, editori e biblioteche, una relazione che, nonostante il cambiamento di ruolo che ha investito tutti e tre gli attori della catena della comunicazione scientifica, si è rafforzata con l’avvento del digitale. La Tenopir ha riassunto in tre postulati i suoi numerosi studi sul comportamento di ricerca e di lettura degli studiosi nell’era digitale:

  1. gli articoli restano un prodotto fondamentale della comunicazione scientifica, ma
  2. sempre più spesso l’interesse dei ricercatori si focalizza solo su alcune parti dell’articolo;
  3. sempre più spesso i ricercatori necessitano di accedere a risorse e dati che sono correlati con l’articolo ma che in esso non sono direttamente incardinati.

Secondo le ricerche svolte dalla Tenopir, il numero di articoli che un ricercatore legge mediamente in un anno è aumentato dal 1977 al 2005 in modo esorbitante: da 150 a 280, mentre è diminuito in proporzione il tempo medio che ogni ricercatore spende nella lettura del singolo articolo: da 48 minuti nel 1977 a 31 minuti nel 2005. Questo trend appare chiaramente non sostenibile e la soluzione, ha ribadito Carol Tenopir, potrebbe risiedere nell’offerta da parte di vendors e di biblioteche di strumenti che facilitino effettivamente la scoperta e l’accesso alle risorse. Anche la presenza costante di abstract e un lavoro di indicizzazione sempre più raffinato e mirato sulle esigenze delle diverse discipline di ricerca possono rappresentare un valido aiuto al lavoro dei ricercatori per i quali l’elemento tempo rappresenta un fattore critico.

La Tenopir ha proposto velocemente alcuni modelli alternativi di periodici elettronici tra i quali PLoSONE e l’Article of the future dell’Elsevier che mettono in evidenza come gli editori stiano cercando nuove strade per rispondere all’esigenza dei ricercatori di accedere direttamente ai dati primari, alle immagini, alle mappe, alle formule che corredano e completano l’informazione contenuta nell’articolo. Sui dati primari della ricerca si sta recentemente concentrando l’attenzione del mondo dell’informazione scientifica e degli enti finanziatori. Carol Tenopir ha, quindi, presentato brevemente il progetto statunitense Data Observation Network for Earth (DataONE) il cui scopo è quello di creare un’infrastruttura internazionale a supporto della manutenzione e della conservazione dei dati relativi all’ambiente terrestre.

Nella prima sessione del convegno si è discusso di accesso aperto. Polydoratou e Schimmer, della Max Planck Society (Germania), hanno presentato i risultati preliminari dello Study for Open Access Publishing (SOAP), una ricerca finanziata dalla comunità europea per capire quale modello di business adottato dagli editori Open Access (OA) sia il più durevole e sostenibile. A tale scopo gli autori hanno preso in considerazione, e tra loro comparato, i principali modelli di sostenibilità economica OA: membership fee, article fee, pubblicità, sponsorship, sussidio, abbonamento alla versione cartacea, altro. I titoli OA presi in considerazione per lo studio sono quelli indicizzati nella Directory of Open Access Journals (DOAJ) che elenca un totale di 4032 titoli, pubblicati da 2588 editori. Di questi il 56% pubblica un solo titolo, il 21% pubblica tra i due e i nove titoli, il 9% tra i 10 e i 49 titoli. Solo 4 editori pubblicano più di 50 titoli. Per gli editori più grandi i maggiori proventi vengono dalla pubblicità, dalle membership fees e dall’article fees. Per gli editori più piccoli, invece, una parte consistente di entrate deriva dalla vendita dell’abbonamento cartaceo.

Gumieiro & de Souza Costa (Brasile) hanno presentato un secondo studio sui business models dei periodici Open Access mettendo in relazione gli ambiti disciplinari e i modelli commerciali. Gli autori hanno rilevato delle differenze sostanziali nelle pratiche comunicative e nei meccanismi di finanziamento e di sostegno alle riviste OA tra il settore STM da una parte e le scienze umane e sociali dall’altra. In ambito scientifico, ad esempio, il modello author-pays è più sostenibile a causa del numero di finanziamenti più elevato. Gli autori del segmento STM sono inoltre anche più motivati ad adottare questo modello e a praticare l’autoarchiviazione grazie al vantaggio citazionale che ne deriva.

Di Open Access e citazioni ha discusso Elena Giglia (Università di Torino, Italia) nel suo intervento. L’autrice ha condotto uno studio sulle riviste OA indicizzate da ISI nel Journal Citation Reports e, quindi, dotate di Impact Factor. Dopo avere ricondotto l’IF e l’Immediacy Index a percentili la Giglia ha dimostrato come sia le riviste OA indicizzate nel Social Science Citation Index (SSCI) che quelle indicizzate nel Science Citation Index (SCI) rientrino nei primi 50 percentili. I risultati dello studio sono rilevanti ma il numero di riviste oggetto della ricerca è piuttosto esiguo. Infatti le riviste OA indicizzate nel SSCI sono l’1.52% dell’intero database e quelle indicizzate nel SCI sono il 5.32%, con una crescita costante per queste ultime a partire dal 2003.

A seguire Dubini, Galimberti e Micheli (Italia) hanno concluso la prima sessione del convegno presentando i risultati di una ricerca sulle differenti strategie di pubblicazione nelle diverse discipline. Scopo dello studio era quello di rispondere alle seguenti domande:

  1. ci sono differenze disciplinari nelle strategie di pubblicazione e nella quantità di ricerca pubblicata?
  2. a cosa sono riconducibili tali differenze?
  3. fino a che punto le riviste OA sono considerate un valido strumento di pubblicazione e di avanzamento nella carriera universitaria?

Come base empirica per lo studio è stato utilizzato AIR il repository istituzionale dell’università degli studi di Milano che contiene allo stato attuale la registrazione di 43.264 pubblicazioni di 7.646 autori. In AIR la facoltà più attiva è quella di Medicina che conta per il 38% delle pubblicazioni archiviate nel repository. Seguono le facoltà di Fisica, Matematica e Scienze naturali. Le facoltà di Lettere, Legge e Scienze Politiche, invece, hanno una percentuale di pubblicazioni archiviate pari al 12.3%. Questi dati sono allineati alle pratiche di pubblicazione delle diverse discipline scientifiche: nelle facoltà scientifiche, infatti, il principale prodotto della ricerca è l’articolo mentre nelle scienze umane e sociali prevale ancora il modello monografico. Per valutare il grado di internazionalizzazione delle diverse discipline si è misurata la percentuale di pubblicazioni in lingua inglese. Per Fisica, Matematica, Scienze naturali e Farmacia la maggior parte delle pubblicazioni sono in lingua inglese, Medicina ha un 46.9% di pubblicazioni in inglese e 40.6% di pubblicazioni in lingua italiana. Nelle altre discipline prevale la lingua italiana, ma la Facoltà di lettere ha un numero rilevante di pubblicazioni in lingue diverse da quella italiana e da quella inglese. Per ciò che riguarda l’Open Access i ricercatori della Facoltà di Informatica e della facoltà di Medicina appaiono più proattivi verso la scelta di pubblicare ad Accesso aperto.

La sessione pomeridiana del giorno 17 era dedicata al tema della comunicazione scientifica.

Bukvova, Kalb e Schoop (Germania) hanno realizzato uno studio qualitativo sull’utilizzo dei blog per scopi scientifici. Per condurre lo studio gli autori hanno selezionato due campioni di blogger accademici, il primo composto da 5, il secondo da 12 ricercatori, ed analizzato per ogni blog i contenuti degli ultimi 15 post pubblicati. Il contenuto dei blog “scientifici” può essere suddiviso in tre macrotemi:

  1. post su argomenti specializzati di interesse precipuo del ricercatore;
  2. post che offrono report sulle attività didattiche e di ricerca svolte dai ricercatori. In genere in questo caso vengono pubblicati sul blog brevi report delle ultime conferenze alle quali il ricercatore ha partecipato;
  3. post dedicati alla descrizione del ricercatore come persona, contenenti informazioni personali o riflessioni di vario tipo.
Molto frequentemente i blog contengono link esterni e riferimenti bibliografici. Talvolta le risorse esterne sono oggetto del contenuto stesso del post .

Ovviamente il livello di coinvolgimento dei ricercatori e di approfondimento dei post non è omogeneo. Alcuni blogger sono più essenziali e mostrano un livello di interattività e di personalizzazione inferiore dal momento che scopo del blogger è quello di disseminare le informazioni, altri mostrano invece un livello di personalizzazione più elevato. In quest’ultimo caso scopo del blogger è fare delle riflessioni, commentare con opinioni personali ciò che accade.

Emma Tonkin dell’università di Bath (UK) ha descritto il servizio sperimentale Writeslike.us il cui scopo è quello di estrarre i metadati sugli autori dagli archivi OAI-PMH per creare delle comunità virtuali di interessi e consentire così agli studiosi di scoprire e mantenere contatti con ricercatori che possiedono affinità professionali e prossimità di interessi. Il servizio si ispira al precedente progetto The Friend of a Friend (FOAF) che linka automaticamente tra loro pagine web che descrivono "persone". Una delle principali difficoltà dell’estrazione dei metadati sugli autori riguarda la disambiguazione dei nomi. A tal uopo Writeslike.us integra i metadati raccolti via OAI-PMH con set di metadati provenienti da altre fonti.

Terzo intervento della sessione pomeridiana quello di Linda O’Brien della Griffith University (Australia): la O’Brien ha descritto le strategie che hanno condotto la Griffith University ad allineare i suoi servizi informativi alle esigenze della ricerca scientifica. La relatrice ha discusso dell’importanza strategica che, nell’àmbito della competizione internazionale tra università, ha assunto la valutazione della ricerca e di come le biblioteche possano svolgere un ruolo strategico nel fornire servizi bibliometrici ai ricercatori e alle istituzioni.

Un altro nuovo paradigma da esplorare per le biblioteche accademiche, così come per le biblioteche nazionali e i centri di ricerca è quello della raccolta, gestione e conservazione dei dati primari della ricerca.Christine Borgman, ad esempio, suggerisce che i dati grezzi potranno diventare le nuove collezioni speciali delle biblioteche.

In risposta a queste nuove esigenze del mondo scientifico nel 2009 la Griffith University ha creato un set di servizi orientato alle priorità professionali dei ricercatori che va sotto il nome di Scholarly Information and Research (SIR). Scopo del SIR è supportare l’intero ciclo di produzione e valutazione della ricerca scientifica. Alcuni bibliotecari della Griffith University hanno quindi assunto il ruolo di contact librarian, con il compito di studiare le esigenze delle varie comunità di riferimento per sviluppare servizi personalizzati orientati alle necessità di ciascuna comunità.

Di dati primari della ricerca si è nuovamente parlato nell’ultimo intervento della sessione. Gregory Tourke, Emma Tonkin e Paul Valdes (UK) hanno infatti presentato un repository di dati paleoclimatici.

Il giorno 18 giugno la prima sessione mattutina del convegno si è aperta con lo studio di usabilità di Birrel, Dobreva, Ünal e Feliciati sugli utenti di Europeana. Condotto su gruppi di utenti diversi, molti dei quali giovanissimi, in quattro diverse città europee (Sofia, Amsterdam, Glasgow e Roma), ma ovviamente con una metodologia uniforme, scopo dello studio era quello di investigare l’usabilità del portale Europeana, la grande biblioteca digitale europea, e la sua capacità di rispondere a precise esigenze di ricerca di gruppi di utenti non omogenei. Il task generale assegnato agli utenti prescelti per l’indagine era quello di creare un ritratto virtuale della città che accoglieva ciascun gruppo. All’interno del task generale una serie di task definiti mirava ad incoraggiare negli utenti l’utilizzo di funzionalità di ricerca avanzate del portale. Tra i principali problemi riscontrati dallo studio vi sono: la mancanza di granularità nella descrizione e classificazione degli oggetti (carte geografiche che sono classificate come testi) e la scarsa qualità delle immagini. Molti giovani utenti hanno inoltre lamentato l’impossibilità di accedere liberamente a materiale video e audio. Lo studio ha anche rivelato come gli utenti utilizzino molto raramente l’opzione di ricerca avanzata e i menù a tendina disponibili sull’interfaccia di ricerca di Europeana.

Calvi, Cassella e Nuijten (Università di Breda, Università di Torino) hanno invece discusso i risultati di uno studio condotto su 12 pagine di biblioteche di università britanniche su Facebook. Lo studio, realizzato tramite il metodo dell’osservazione diretta, ha messo in evidenza come Facebook sia utilizzato come strumento di comunicazione e di promozione della biblioteca, delle sue collezioni, dei suoi servizi, ma non sia ancora percepito ed utilizzato come un canale per offrire servizi a valore aggiunto. L’analisi delle pagine ha inoltre messo in evidenza che:

  1. WorldCat e JSTOR sono le applicazioni più comuni sulle pagine di Facebook;
  2. i fan interagiscono poco con le biblioteche su Facebook (81 post su 95 sono scritti dai bibliotecari), ma una chiave per il successo di queste pagine si conferma la presenza costante del bibliotecario che cattura l’attenzione degli utenti “postando” notizie quotidiane;
  3. le biblioteche più grandi sono anche quelle più attive.

Uno studio sugli strumenti del Web 2.0 è stato presentato anche da Ellen Collins e Branwen Hide del Research Information Network (UK). Le autrici hanno investigato tramite un questionario inviato via e-mail a 12.000 ricercatori britannici l’utilizzo dei social tools. Il tasso di risposta al questionario è stato dello 0.8%. Alcuni risultati del questionario appaiono sorprendenti. Nel complesso la percentuale di ricercatori che utilizza strumenti del Web 2.0 in modo frequente è del 13%, un utilizzo occasionale è appannaggio del 45%, il 39%, invece, dichiara di non utilizzarne. Tra le fasce di età prevalgono le fasce dei 25-34enni e dei 35-44enni. I blog si associano con un profilo di ricercatore prevalentemente maschile e con discipline quali l’informatica, la matematica, le scienze e le scienze umane. I network sociali sono associati in genere con ricercatori appartenenti ad una fascia di età giovane e con discipline quali l’informatica, la matematica ma anche l’economia e le scienze sociali. Nello studio di Collins e Hide sono anche state investigate le attitudini dei ricercatori verso il peer review sociale ovvero quella forma indiretta di controllo della qualità realizzata attraverso gli strumenti del Web 2.0. Dall’indagine emerge che i ricercatori che utilizzano di frequente i tools del Web sociale sono anche quelli che li considerano validi ai fini di una valutazione qualitativa della ricerca soprattutto se associati con forme di peer review più tradizionali.

Ultima presentazione della sessione quella di Arjan Hogenaar, Marga van Meel e Elly Dijk (Olanda) che hanno descritto uno studio di usabilità condotto sugli utenti di NARCIS, il portale di ricerca unificata dei repositories olandesi sviluppato dal National Academic Research and Collaborations Information Systems. NARCIS contiene 530.719 pubblicazioni, la metà delle quali è disponibile ad accesso aperto, e poco più di 15.000 datasets. Vi sono registrati 44,256 autori. Per gli autori olandesi NARCIS adotta un sistema identificativo univoco il Digital Authors Identifiers (DAI) che consente di disambiguare i nomi.

La seconda sessione mattutina era dedicata agli short papers. Tra gli altri lavori degni di menzione sono lo studio di Cantao Zhong e Meng Wang (Cina) che hanno presentato il caso di "Sciencepaper Online" una rivista costruita su un repository rispetto alla quale si sovrappone un sofisticato sistema di peer review basato su una griglia valutativa a cinque livelli e quello di Kalin Georgiev e Miloslav Sredkov, due giovanissimi ricercatori bulgari, che hanno descritto le funzionalità di Sophie 2.0 una piattaforma per leggere ed editare libri elettronici multimediali.

Nell’ultima sessione del convegno si sono susseguiti gli interventi di alcuni nomi molto conosciuti nel campo della comunicazione scientifica. John W. Houghton (Victoria University, Australia), autore dell’ormai famoso studio sponsorizzato dal JISC “Economic implications of alternative scholarly publishing models : exploring the costs and benefits” si è concentrato sulle indagini che hanno applicato il modello macro economico EI-ASPM da lui stesso proposto nello studio del JISC per condurre un’analisi costi-benefici relativa all’accesso aperto. Lo schema EI-ASPM è stato applicato in due successivi studi, analoghi a quello di Houghton, il primo condotto in Olanda, il secondo in Danimarca e, in seguito, in uno studio tedesco che esaminato la relazione costi-benefici dell’OA in relazione al National Site Licensing Program, il programma governativo tedesco che finanzia a livello nazionale i contratti di licenza di uso delle risorse elettroniche. Ultimo in ordine di tempo ad applicare il modello di Houghton è lo studio di Alma Swan sponsorizzato dal JISC e pubblicato a febbraio 2010 dal titolo: "How to build a business case for an Open Access policy". Il report della Swan dimostra i benefici economici del passaggio all’OA per le università. Vengono presentati quattro casi diversi per altrettante tipologie di università. Per ognuna delle quattro tipologie viene discusso come è possibile calcolare i costi dei diversi modelli di comunicazione scientifica, i risparmi che le università possono realizzare sostenendo le due strade verso l’accesso aperto (Green Road e Gold Road) e, infine, quale può essere l’impatto sociale dell’accesso aperto alla ricerca scientifica.

Bjoerk et al. (Hanken School of Economics, Finlandia, Innovation Center Iceland, Islanda), infine, hanno condiviso con i presenti i risultati di una ricerca condotta allo scopo di misurare la percentuale di articoli peer-reviewed disponibili ad accesso aperto. Lo studio di Bjoerk et al. è l’unico a non essere inserito nei conference proceedings del convegno in quanto i risultati sono stati pubblicati di recente sulla rivista Open Access PLoSONE in un articolo dal titolo: "Open Access to the scientific journal literature: situation 2009" . Gli autori hanno analizzato un campione di articoli pubblicati nel 2008 in 1837 titoli selezionati ad hoc per lo studio. Una percentuale di articoli pari all’8,5% risulta disponibile ad accesso aperto sui siti degli editori, secondo la strategia comunemente definita Gold Road, mentre una percentuale pari all’11.9% è archiviata nei repositories (la cosiddetta Green Road ) o sui siti web personali dei ricercatori. In totale il 20.4% degli articoli peer-reviewed risulta disponibile ad accesso aperto. Esistono naturalmente delle enormi differenze disciplinari. La chimica mostra la percentuale più bassa di articoli OA (13%), le scienze della terra quella più alta (33%). Nella biomedicina prevale la Gold Road, mentre nelle scienze della terra è prevalente la strategia dell’autoarchiviazione. Nel dettaglio il 43% degli articoli viene archiviato in un deposito disciplinare, il 33% sui siti web personali degli autori o altro e solo il 24% viene archiviato in un deposito istituzionale. Gli articoli pubblicati nelle riviste indicizzate da ISI sono più facilmente reperibili ad accesso aperto di quelli pubblicati in riviste non ISI. Secondo gli autori questo dato si spiegherebbe con la tendenza dei ricercatori ad archiviare i loro articoli migliori, quelli pubblicati comunque nella riviste più prestigiose.

ELPUB si è confermato anche quest’anno un appuntamento estremamente interessante per chi segue le complesse tematiche dell’editoria digitale e della comunicazione scientifica.

I conference papers sono pubblicati sul sito del convegno negli atti a cura di Turid Hedlund e Yasar Tonta.


© AIDA - Mail to Webmaster - Creato 2010-07-05 - Ultima modifica 2010-07-05