http://www.aidainformazioni.it
|
AIDA
Informazioni |
ISSN 1121-0095, trimestrale
anno 18, numero 1, gennaio-marzo
2000
|
Opinioni
Il
mercato dell'editoria scientifica tra concentrazione, democratizzazione
e trasformazione
Luca
Burioni
E.S. Burioni Ricerche Bibliografiche
Nell'ultimo anno e mezzo abbiamo registrato una
ulteriore accelerazione del processo di concentrazione dell'industria dell'informazione;
se è facile concludere che si tratta del riflesso, in un mercato
verticale, di una tendenza generalizzata in tutti i settori industriali,
è peraltro possibile individuare una particolare specificità
se si pensa al notevole grado di parcellizzazione che caratterizza l'industria
editoriale, e quindi quella dell'informazione, rendendola particolarmente
debole di fronte alle sfide della globalizzazione, ma soprattutto particolarmente
sensibile al cambiamento epocale di scenario indotto dalle nuove tecnologie.
Se la scena più recente è stata dominata
dalla spettacolare fusione AOL-Time Warner, i casi che ci riguardano più
da vicino fanno riferimento a un settore molto specializzato della ben
più vasta industria editoriale sono:
-
l'acquisto della Springer Verlag da parte del gruppo
Bertelsmann e la conseguente vendita della agenzia di abbonamenti Lange
& Springer al maggiore concorrente EBSCO;
-
la incorporazione di Blackwell's Information Services
(la divisione abbonamenti di Blackwellís Ltd) in Swets Subscription
Service;
-
la vendita della divisione abbonamenti di Dawson (compresiva
della sede britannica, delle filiali francese e spagnola, della Faxon USA
e di Information Quest) a un azienda relativamente nuova quale la RoweCom
Inc., specializzata in e-commerce di risorse informative;
-
la successiva acquisizione da parte della stessa RoweCom
di NewsEdge Corp., un servizio di informazione in linea specializzato in
notizie e informazioni economico-commerciali, formatosi circa un anno fa
dalla fusione di tre altri servizi concorrenti;
-
l'acquisto da parte di Bell & Howell (proprietaria
di UMI, ora Bell & Howell Information & Learning) di Chadwyck-Healey,
prestigioso editore specializzato in risorse elettroniche per le scienze
umane e sociali;
-
la fusione di Ingenta Ltd., una società commerciale,
nata dalla collaborazione fra líUniversità di Bath e un imprenditore
privato come sviluppo di BIDS (Bath Information & Data Services), in
pratica il primo in ordine cronologico dei servizi che distribuiscono informazioni
alla comunità accademica britannica, con Uncover, il popolare servizio
di fornitura di sommari di periodici e document delivery, ritornato di
proprietà di CARL Corp. dopo la dismissione effettuata dalla "nuova"
Dialog di Dan Wagner.
Ciascuna di queste fusioni e acquisizioni risponde a
strategie diverse e a logiche proprie: chi ricerca nuovi capitali per irrobustire
e ingrandire il proprio vascello, chi si sbarazza di ciò che viene
percepito come zavorra, chi si assicura di avere sufficienti scorte di
vele e un timoniere di provata esperienza, ecc.; comune a tutti è
la sensazione che i tempi che verranno saranno tempestosi, ma anche forieri
di grandi opportunità, e che occorra quindi attrezzarsi adeguatamente
per resistere ai marosi e scoprire nuove vie delle Indie.
A proposito di tempeste, uno dei problemi che travagliano
l'industria dell'informazione è quello della possibilità
(della minaccia), dischiusa dalle nuove tecnologie, di un nuovo sistema
della comunicazione scientifica, che tagli fuori ó o almeno ridimensioni
drasticamente ó il ruolo degli editori commerciali nella pubblicazione
delle riviste scientifiche.
È divenuta infatti sempre più insistente
la domanda: fino a quando gli autori saranno disposti a pagare agli editori
il privilegio di affidare loro qualcosa da pubblicare e vendere, per poi
spendere uno sproposito in denari pubblici per il privilegio di accedere
al medesimo materiale?
La domanda percorre la comunità accademica
internazionale da ormai parecchi anni, anche se in modo carsico, ma le
ricadute pratiche, pur significative (in particolare quelle rispetto alle
quali ha svolto una funzione pionieristica la comunità dei fisici),
hanno avuto effetti assai limitati sul ruolo dei grandi editori internazionali.
La discussione è entrata in una fase più
concreta nella seconda metà dell'anno scorso, da quando Harold Varmus,
allora direttore dell'autorevole National Institute of Health (NIH) di
Bethesda, MD, lanciò una proposta, inizialmente denominata E-Biomed
che, destinata a una comunità, quale quella biomedica, del tutto
differente da quella dei fisici e meno confinata entro ambiti strettamente
accademici, si propone di realizzare un circuito alternativo al modello
commerciale che sia in grado di conciliare tutti i vantaggi dell'editoria
elettronica (tempestività, accessibilità, economicità,
integrazione con altre risorse, ecc.) con l'autorevolezza del modello peer-reviewed.
L'annuncio del progetto ha dato origine a una vivacissima
ed estesa discussione, all'interno del mondo dell'informazione, ma soprattutto
nella comunità biomedica; il NIH ha dato comunque seguito al suo
progetto, costruendo un sito che funge da deposito pubblico di articoli
scientifici per le scienze della vita, in libera distribuzione sul web
e articolato in due sezioni, una per articoli peer-reviewed e l'altra per
i pre-print; il deposito, denominato PubMedCentral è attivo da gennaio
di quest'anno, anche se al momento in cui scrivo è limitato ad articoli
di due soli periodici.
Dal modello di PubMed Central ha preso inoltre le
mosse un analogo progetto europeo, sponsorizzato dallíEuropean Molecular
Biology Organization, ma sostenuto da una trentina di organizzazioni scientifiche
europee; dopo il lancio della proposta in autunno, durante il mese di gennaio
si è svolta ad Heidelberg una riunione a cui hanno partecipato anche
importanti editori scientifici e rappresentanti governativi europei.
È da registrare inoltre la costituzione, da
parte dell'editore commerciale Current Science Group di una nuova azienda,
denominata BioMed Central, la cui missione sarà di organizzare e
facilitare la pubblicazione di lavori scientifici in PubMed Central secondo
il modello proposto da Varmus.
Anche se le iniziative sopra ricordate sono venute
via via aprendosi alla partecipazione dellíeditoria tradizionale,
occorre peraltro ricordare che, sul terreno più proprio e più
autonomo degli editori commerciali, praticamente tutti i principali editori
di periodici scientifici hanno raggiunto un accordo, a metà di novembre
dello scorso anno, per lanciare, nell'ambito del sistema DOI (Digital Object
Identifier), la cosiddetta "reference linking initiative", che prevede
la realizzazione di link reciproci dai riferimenti bibliografici degli
articoli pubblicati su un determinato periodico al testo completo degli
articoli pubblicati su altri periodici. Mi pare sia difficile non vedere
in questa iniziativa, anche se non modifica il modello economico di accesso
alle riviste elettroniche di ciascun editore, una prima risposta da parte
commerciale alle iniziative di parte scientifica.
Se il mercato delle riviste scientifiche è
sottoposto a tali e tanto significative pressioni, viene naturale domandarsi
se quello dellíinformazione secondaria, degli indici bibliografici
e dei repertori, delle basi dati insomma, possa considerarsi al riparo
da tanta temperie.
Il problema in sintesi può essere riassunto
nella seguente domanda: le basi dati specialistiche che siamo abituati
a conoscere ed a usare e che sono nate verso la fine degli anni '60 per
un pubblico di specialisti sono lo strumento adeguato per un pubblico di
dimensioni e caratteristiche completamente differenti, quale il nuovo utente
sempre più disintermediato dell'era di Internet?
La domanda diventa tanto più importante se
si pensa che:
-
la quantità di informazione disponibile continua
ad aumentare, senza che aumenti di pari passo líefficacia degli
strumenti di accesso e soprattutto di selezione;
-
il numero degli utenti, reali e potenziali, aumenta
in misura esponenziale senza trovare peraltro risposte pertinenti e di
qualità;
-
le basi dati specialistiche, che hanno rappresentato
per decenni lo strumento principe di accesso allíinformazione scientifica,
sono pressoché sconosciute al pubblico non specialistico;
-
le basi dati specialistiche possono vantare caratteristiche
di esaustività e completezza rispetto allíuniverso cartaceo
da cui derivano la propria validità scientifica e superiorità
nei confronti dei motori di ricerca del web; ciò nonostante, e nonostante
che molte basi dati indicizzino ormai anche riviste elettroniche, è
legittimo qualche dubbio sul loro grado di copertura rispetto a ciò
che viene pubblicato al di fuori del circuito editoriale formalizzato e
quindi di gran parte della informazione disponibile su Internet.
Lo scenario può dunque presentarsi in modo paradossale:
una massa crescente di utenti non specialisti, ma evoluti e alla ricerca
di informazioni di qualità, che avrà difficoltà a
trovare risposte pertinenti alle proprie domande, nonostante líinformazione
non sia mai stata tanto ampia e tanto accessibile come oggi.
Le ragioni di questo disallineamento fra domanda
e offerta sono state molto spesso, e con ragione, ricondotte allíinsufficienza
degli strumenti di accesso e ricerca sul web, i cui principali limiti possono
essere così ricordati:
-
l'universo su cui effettuiamo la nostra ricerca è
molto spesso indifferenziato e indistinto: sappiamo cosa stiamo cercando,
ma non sappiamo dove stiamo cercando;
-
i criteri di indicizzazione e classificazione (e i metadata
creati dagli autori) non rispondono a criteri oggettivi o omogenei, ma
variano da documento a documento o da motore di ricerca a motore di ricerca;
-
i criteri di selezione e di ordinamento in base alla
rilevanza dei risultati non sono sempre trasparenti;
-
le interfacce sono amichevoli, ma quando sono maggiormente
sofisticate i criteri di costruzione delle strategie di ricerca non sono
espliciti.
È però necessario domandarsi anche perché
strumenti sofisticati e costruiti scientificamente come le basi dati specialistiche
non siano "ancora" in grado di rappresentare una valida alternativa alla
ricerca sul web. Ecco alcune delle possibili risposte:
-
l'utente non specialista ma evoluto non è in
grado di orientarsi fra le tante basi dati specialistiche, ma si aspetta
di trovare uno strumento multidisciplinare, o almeno pre-disciplinare;
-
le basi dati specialistiche sono strumenti complessi,
fortemente strutturati e articolati e presuppongono che líutente
conosca e sfrutti questa complessità per ottenere i migliori risultati;
-
non esiste una struttura standard delle basi dati, ma
ognuna di esse ha una propria struttura, propri criteri di indicizzazione
e compilazione dellíabstract, il proprio tesauro, la propria classificazione;
-
dove l'interfaccia consente ricerche multiple su più
basi dati, non viene salvaguardato il livello di complessità di
ciascuna base dati e di strumenti quali il tesauro ecc., ma viene piuttosto
operata una riduzione al minimo comun denominatore ed un appiattimento
al minimo livello possibile; le basi dati considerano quasi esclusivamente
líuniverso cartaceo, o comunque (e lentamente) l'informazione organizzata
in contenitori tutto sommato tradizionali come gli e-journal, mentre non
prendono in esame líaltra informazione disponibile su internet,
che, se non qualitativamente omogena, non è neppure tutta qualitativamente
scadente;
-
e infine, le politiche di prezzo volte a incoraggiare
un'utenza che per quanto evoluta, non ha, almeno quantitativamente, gli
stessi bisogni informativi di un'utenza accademica, sono ancora troppo
poco frequenti o troppo timide.
Si può quindi dire che le stesse ragioni che
hanno fatto delle basi dati specialistiche uno strumento forte per decenni
per i ricercatori e líaccademia, sono oggi la ragione della loro
debolezza una volta confrontate con una base di utenti qualitativamente
e quantitativamente diversa.
Le basi dati specialistiche nascono all'epoca della
ricerca on-line con interfaccia a carattere e vengono inizialmente dotate
di linguaggi di interrogazione sofisticati, ma assai poco amichevoli; vengono
pensate per un mercato ristretto, ma disponibile ad accettare tariffe assai
elevate e legate ai tempi di collegamento più che ai risultati e
si presentano, insomma, come strumenti destinati non allíutente
finale, ma a un intermediario specializzato.
Con la rivoluzione del CD-ROM le basi dati cambiano
e diventano uno strumento per l'utente finale, intendendo però questo
termine limitato prevalentemente allo studioso e al ricercatore specialistico;
in questa fase la struttura delle basi dati rimane esattamente la stessa,
ma vengono compiuti notevoli sforzi per rendere le interfacce più
amichevoli senza pregiudicare, almeno nella maggior parte dei casi, la
sofisticazione dei sistemi di interrogazione.
Ci troviamo ora, nell'era del web e di una nuova
generazione di utenti, di fronte a una nuova e più difficile sfida:
è possibile immaginare per i prossimi anni, e per un mercato dellíinformazione
cresciuto di un fattore dieci, strumenti che riescano a conciliare il meglio
dei due mondi e che cioè:
-
abbiano caratteristiche di esaustività e completezza
pur rappresentando sia il circuito della comunicazione scientifica tradizionale
che l'universo in continua evoluzione del web;
-
abbiano criteri di selezione e di indicizzazione oggettivi
e trasparenti;
-
rendano conto esplicitamente dei processi impliciti
incorporati nell'algoritmo di ricerca;
-
consentano all'utente di effettuare la propria ricerca
sulla o sulle basi dati appropriate senza costringerlo a conoscere (e a
scorrere sullo schermoÖ) una lunga lista di basi dati disponibili;
-
effettuino ricerche su più basi dati e forniscano
risultati multidisciplinari senza sacrificare la struttura e i metadata
nativi di ciascuna risorsa;
-
consentano la navigazione trasparente dall'informazione
bibliografica al testo completo.
Si tratta di una sfida che al momento sembra essere
stata raccolta principalmente da distributori o integratori di informazione,
e che quindi vede all'opera tipicamente strumenti software assai sofisticati
a cui viene delegato il compito di armonizzare risorse informative diverse
in uno strumento unico e organico, conciliando multidisciplinarietà
e specializzazione.
Restano per il momento alla finestra i compilatori
di basi dati, i cosiddetti information providers, che continuano a produrre
ciascuno le proprie basi dati sostanzialmente nello stesso modo e con le
stesse caratteristiche con cui le producevano trentíanni fa.
Resta da verificare se la vera e propria mutazione
genetica che i tempi sembrano richiedere possa essere compiuta solo dalla
parte del software, con una operazione dinamica di postconfezionamento,
che, per quanto sofisticata, è pur sempre esterna al contenuto,
o se non debba invece coinvolgere la filosofia e il metodo di costruzione
delle basi dati stesse.
Concentrazione industriale, rivoluzione del sistema
dell'editoria scientifica, rigenerazione degli strumenti di accesso all'informazione:
sono solo tre aspetti fra i tanti che caratterizzano una trasformazione
molto ampia e destinata a intaccare tutti quei ruoli ó nessuno escluso
- che siamo abituati a dare per scontati nella catena di produzione e distribuzione
dell'informazione.
Questo articolo (febbraio 2000) riprende e aggiorna
il contenuto dellíeditoriale del Catalogo basi dati e pubblicazioni
elettroniche 2000 (Genova: Burioni, 1999)
Mail to Webmaster
- Created 2000-04-01