martedì 6 ottobre 2009

Mapping

Sottintendendone il genitivo "information", ma si può anche dire single sourcing o, nel campo dell'informazione e al di fuori delle strategie degli uffici acquisti che si servono di un solo fornitore, single source publishing o, ancora, modular writing.

Già la psicologia cognitiva ci aveva dimesticato con la nozione di chunking, l'acquisizione di quell'unità discreta d'informazione (chunk, appunto, cioè una "quantità", un "blocco", un "tot") che ci è divenuta tanto familiare da poter entrare quasi senza sforzo nella nostra memoria a breve o a lungo termine come, per esempio, il fischiettare il tormentone musicale dell'estate (a breve termine) o la capacità di guidare una bicicletta (a lungo termine).
Se n'era occupato niente di meno che William James nel 1890 teorizzando i due tipi di memoria, ma è stato solo negli anni Cinquanta che George Miller è riuscito a misurare la quantità d'informazione che la memoria a breve è in grado di ritenere.

Più tardi il concetto di chunk si è ampliato a significare, più genericamente, un «insieme strutturato di informazioni immagazzinate nel momento in cui la conoscenza viene acquisita» (Clayton Lewis, 1978) intendendo spiegare il meccanismo con il quale, appreso il chunk relativo a un comportamento, ogni risposta a sollecitazioni analoghe accade in tempi sempre più brevi. Con il procedere dell'acquisizione di conoscenza, i chunk si fanno via via più complessi, passando da conoscenze solo dichiarative («so che si fa così») a conoscenze procedurali («so farlo»).

Ora, è proprio il chunking a essere alla base della mappatura dell'informazione, cioè di quell'attività che consiste nello sminuzzare ed etichettare l'informazione per facilitarne la comprensione, l'uso e il richiamo.
Il metodo, messo a punto alla fine degli anni Ottanta da Robert E. Horn, docente di Scienze politiche e creatore di Information Mapping Inc. e che ha identificato più di duecento chunk, dai quali derivano diversi tipi di information mapping (come Procedure, Process, Principle, Concept, Fact, e Structure), è ormai quasi universalmente impiegata nella strutturazione di testi (structured writing) destinati alla comunicazione tecnica: esattamente il mestiere del "documentalista" nell'accezione americana, che s'ingegna nello sfruttare un singolo documento come fonte per una molteplicità di esiti più complessi, come manuali d'uso o help in linea.
Perché riscrivere il medesimo testo per destinazioni e formati differenti o, altrimenti detto: come riusare l'informazione disponibile? Cioè: come trasformare un'informazione lineare in una modulare in modo che possa essere assemblata e ri-assemblata? E, soprattutto, lo si può fare in automatico? (Da tempo ci si provano desktop publisher come Adobe FrameMaker o Apache Forrest o Altova StyleVision).

Ma il mestiere di questo tipo di documentalista è applicabile ad altre attività, come quelle che vedono il moderno webmaster impegnato a definire la granularità dell'unità minima d'informazione necessaria in un àmbito determinato, come un singolo testo (ma anche una registrazione audio-visiva) che veicola una singola idea (fino, al limite, a una sola idea per ogni pagina web) da distribuire entro l'architettura più efficace di un sito. Oppure, tutto ciò che abbiamo detto alla voce Catene cognitive nel precedente numero del «Bibliotecario».

La cosa va anche oltre il webmastering e può toccare la progettazione e l'ottimizzazione dei flussi documentali a fini di knowledge management. Per esempio, era applicazione di single sourcing in un contesto non usuale l'abbandonato progetto "Chiaro!" del dipartimento della Funzione Pubblica per la semplificazione del linguaggio amministrativo: moduli composti in anti-burocratese da poter assemblare per le più diverse necessità procedimentali.
  • Kurt Ament, Single sourcing: building modular documentation. Norwich: William Andrew & Noyes Publications, 2002. ISBN: 0815514913. [L'opera è leggibile online con Google Libri].
  • Mindy McAdams, Tips for writing for the Web.
[post-print da "Il bibliotecario", III serie, ISSN 11250992, 1-2/2010, p. 248-249]

Falso documentale

All'IFLA 2009 di Milano anche la Biblioteca Europea di Formazione e Cultura esponeva il proprio spazio negoziale distribuendo una bellissima brossura illustratrice di sé e delle sue realizzazioni:
«Alla BEIC trovate... / 900.000 volumi in consultazione / 50.000 documenti audiovisivi / 3.400.000 titoli in deposito / 300 testate quotidiani [!] / 3.000 periodici / 3.500 posti di lettura / 1.000 posti in auditorium / 300 persone occupate».
E altrove:
«Si può dire che la BEIC è "una grande struttura bibliotecaria e multimediale con libri, documenti visivi e musicali a libero accesso, con una forte integrazione tra cartaceo, multimediale e digitale". Ma la BEIC è molto di più. È un portale della conoscenza in cui tutti possono entrare, fisicamente o virtualmente, sentirsi a casa propria e, al tempo stesso, provare l'emozione di essere su una piattaforma interconnessa con il mondo intero».
Un'altra biblioteca di Alessandria del XXI secolo.

Sorprendono però queste coniugazioni all'indicativo presente, che inducono l'ingenuo a precipitarsi (ma che senso ha consultare materiale "in linea" ma solo dall'interno di una biblioteca?) nella zona di Porta Vittoria a Milano per godere di cotante possibilità cognitive. Troverebbe una grande spianata recintata ma abbandonata, destinata a un progetto ormai vecchio e ricco di interessanti contraddizioni e che, verosimilmente, non sarà mai realizzato, nemmeno per il fatidico 2015.

Forse è per questo che la nota illustrativa della brossura di cui sopra conclude rivelando: «La BEIC è semplicemente un'idea che guarda al futuro».

[post-print da "Il bibliotecario", III serie, ISSN 11250992, 1-2/2010, p. 246-247]

ULTIMA ORA
Su eddyburg.it di Eduardo Salzano, Luca Beltrami Gadola ha pubblicato il 27 aprile 2004 "Perché Milano non è una città normale" dove tra altro, e al riguardo, scrive:
Notizia numero tre: la Beic – Biblioteca europea di informazione e cultura – quella che doveva nascere a Porta Vittoria, non si farà più. L’assessore Masseroli sta già pensando a un riassetto urbanistico della zona. Si nutrivano speranze di trovare i soldi per la Biblioteca tra gli stanziamenti per le celebrazioni dell’Unità d’Italia. Pure di questo nulla, dell’Unità d’Italia alla Lega non importa un fico secco e l’ultimo baluardo della cultura milanese a seguire [...].


Crisi

Il problema è in parte linguistico e in parte epistemologico. Quella che in Europa chiamiamo "del documentalista" è professione nata quasi per caso per dar modo alle industrie o alle aziende "investigative" di trovare informazione e documenti per la realizzazione dei loro fini.
C'era bisogno del lavoro di individui che conoscessero il dominio nel quale insistevano i fini istituzionali. Di norma, questi operatori non dipendevano dagli enti interessati né possedevano ancora titoli di studio adeguato - al più, erano ingegneri o fisici o chimici - ma erano ricchi di un sapere pratico molto raffinato ed efficace e conoscevano o trovavano le fonti come nessun altro.

Quando fu necessario dar loro un nome professionale, l'Europa scelse, illustre tradizione, "documentalista" ma gli anglosassoni, ancora oggi, diedero nessun nome: quelle di "information scientist/expert" o, successivamente, "information manager" o "information/gate keeper" e altre, sono denominazione tarde, conseguenti al sorgere di scuole e facoltà dedicate alla gestione del complesso informazione-documentazione o, più recentemente ancora, alle esigenze del knowledge management.

La sistematizzazione accademica ha però creato una mescolanza concettuale con professioni simili - il bibliotecario, l'archivista - responsabile di una certa stagnazione prospettica, intesa più alla conservazione e alla localizzazione dell'informazione piuttosto che ai fini proattivi del documento (vedi Comunità di prassi su «Il bibliotecario» 1/2009).
L'aggregazione/integrazione delle professioni dell'informazione tra di loro sta continuando, aumentando la sensazione di crisi del documentalista: un progetto UNESCO ha proposto un'unica professione articolata in tre categorie non ben definite, il Processo di Bologna sta imponendo un'unificazione formativa per tutti i professionisti, quando sarebbe forse vantaggioso, per la specializzazione documentalistica e per coordinare formazione con professione, un modello curricolare basato su brevi corsi in scienze della documentazione insieme con quelli relativi al dominio applicativo aziendale.
Il fatto è che non si tratta, veramente, di "scienza" della documentazione ma di attività ancelle o sussidiarie o complementari a qualche altra scienza o tecnica. L'informazione-documentazione è come la ruota di un'automobile: senza di essa la macchina non si sposta, ma è il motore che la fa andare... e il motore - lungi dalle dichiarazioni di centralità dell'informazione - non è già o non ancora la gestione dell'informazione-documentazione.

La crisi non è recente. I documentalisti erano esperti dell'online quando Internet ancora non era ma, dopo, nessuno più si ricordò di loro, perché il motore risiedeva nella computer science e nelle sue applicazioni sull'informazione (la cosiddetta informatica in senso proprio), alle quali i documentalisti hanno sì contribuito, ma senza collocarsi mai nel cuore della disciplina: utilizzatori, perfezionatori, non creatori diretti.
Così, gli informatici hanno progredito da soli, anche inventando a spese della documentazione nuovi termini per vecchi concetti: tag, metadati, taxonomy, web semantico... e consentendo agli utenti finali di trovare da soli il necessario.
Ma il mestiere di documentalista non è, tanto, quello di trovare informazione e documenti quanto, e soprattutto, di rielaborare il materiale trovato per poter dare una risposta certa alle esigenze cognitive del "cliente".
Il futuro dirà se c'è un futuro...

Del documentalista quanto a identità professionale, a sicurezza dell'impiego e a posizione nel mercato del lavoro si è discusso a margine di IberSid 2008 (convegni ottobrini della Facultad de Filosofía y Letras dell'Università di Saragozza); Emilia Currás - consulente e storica dell'informazione e della scienza, già docente di chimica e di documentazione scientifica in Germania e in Ispagna - ne ha elaborato sue riflessioni, qui sopra sintetizzate e commentate.
  • Francisco Javier García-Marco (ed.), Ibersid 2008. Avances y perspectivas de sistemas de información y documentación, Prensas Universitarias de Zaragoza, 2008, ISBN 9788492521258
  • Emilia Currás, El documentalista en crisis, 2008, nuova edizione su «El profesional de la información», 2009, julio-agosto, v. 18, n. 4, p. 421-423, DOI: 10.3145/epi.2009.jul.09
[post-print da "Il bibliotecario", III serie, ISSN 11250992, 1-2/2010, p. 245-246]

Biblioterapia

Prima si classifica il paziente (di solito, depresso o ansioso), poi gli si scelgono i libri appropriati. Questi li legge e poi ne discute i risultati. Effetto atteso è una catarsi. Una volta così sensibilizzato, il sofferente viene guidato alla soluzione dei suoi problemi. Semplice.

Le prime avvisaglie scientifiche risalgono alla metà degli anni Novanta, quando a qualche centinaio di professionisti fu chiesto conto dell'uso della lettura come metodo terapeutico: tre quarti di loro risposero affermativamente e sei settimi giudicarono che la lettura era stata determinante per un miglioramento. In séguito furono registrate diverse rilevazioni positive attraverso gruppi di controllo.

L'evoluzione disciplinare è stata intensa, per cui abbiamo ora almeno quattro tipi di biblioterapisti: psicoterapeuti (per la cura di disturbi mentali - e la sotto-disciplina è detta "biblioterapia psicoterapeutica"), medici (soprattutto per educazione sanitaria), psicologi (per prevenzione e sostegno psicologico - si tratta di “biblio-psicologia”, “biblioterapia psicologica” o “psicobiblioterapia”) nonché educatori e operatori della formazione (in àmbito pedagogico, artistico, motorio, sociale, ricreativo, eccetera - e si parla allora di “counseling biblioterapeutico”, “letteratura-evolutiva”, “orientamento biblioterapeutico”).

La scelta del materiale librario va da manuali ad hoc per adulti (come Feeling good di David Burns o Control your depression di Peter Lewinsohn o, in italiano, Psicologia della solitudine di Antonio Lo Iacono o I no che aiutano a crescere di Anthony De Mello, o altri) a letteratura specializzata per l'infanzia e l'adolescenza, fino a qualsiasi opera venga giudicata adatta, nel qual caso diventa cruciale la collaborazione specialistica del "buon" documentalista, utile per la scelta di libri che siano anche ben scritti (estetico-terapia?) oltre che efficaci. Queste due tendenze (manuali di auto-aiuto o buone letture) si dividono il campo teorico della disciplina.

Ansioso? Leggi un romanzo, invitava Paola Emilia Cicerone su «L'espresso» del 23 gennaio 2008, dando conto anche di bibliografie preparate dal National Health Service britannico. La posizione è sostenuta anche da Shechtman e Nir–Shfrir dell'Università di Haifa, che esaltano gli effetti "affettivi" della lettura nel trattamento psicoterapico. Freud, dal canto suo, sconsigliava ai nevrotici di leggere trattati scientifici o filosofici per non esaltare troppo le componenti intellettuali del loro disagio.

Non possiamo, qui, alla ricerca dei prodromi, dimenticare l'arte medica di François Rabelais quando sostiene, nel cosiddetto "Ancien prologue" a "Le Quart Livre / des faicts et dicts heroïques du bon Pantagruel":
«Si je prenoie en cure tous ceulx qui tombent en meshaing & maladie, la besoing ne seroit mettre telz livres en lumière & impression. [...] Puis doncques que possible n'est que de tous malades soys appellé, que tous malades je prenne en cure, quelle envie est-ce tollir ès langoreux & malades le plaisir & passetemps joyeux, sans offense de Dieu, du Roy ne d'aultre, qu'ilz prennent, oyans en mon absence la lecture de ces livres joyeux?».
Che in realtà, proponendo la lettura delle sue opere gioiose come surrogato della presenza di se stesso come medico, egli dimostra di appartenere all'altra corrente, quella degli autori di manuali di auto-aiuto, come effettivamente sono i cinque libri della serie Gargantua-Pantagruel.
Oppure, con intento contrario e maligno - ma sarebbe un oggetto della voce "A (o Pseudo) biblía" -, indurre seri problemi di certezza di sé e del mondo consigliando di rintracciare e leggere qualcuna delle opere catalogate da Johann "Mentzer" Fischart nel suo Catalogus catalogorum perpetuo durabilis (1567) o da qualcuno dei suoi molti epigoni... E al di fuori dei libri? Non rimane che consigliare le "pietre che cantano" (Marius Schneider, ISBN 887710645X) per rivivere, dopo la catarsi, al ritmo dei chiostri catalani di stile romanico.
  • Dheepa Sridhar, Sharon Vaughn, Bibliotherapy: practices for improving self-concept and reading comprehension, In The social dimensions of learning disabilities. Essays in honor of Tanis Bryan. Mahwah, NJ: Erlbaum, 2000.
  • Zipora Shechtman, Rivka Nir–Shfrir, The effect of affective bibliotherapy on clients' functioning in group therapy, «International Journal of Group Psychotherapy», gennaio 2008.
[post-print da "Il bibliotecario", III serie, ISSN 11250992, 1-2/2010, p. 243-244]

sabato 18 luglio 2009

Information Architecture

Recensione di Mary Joan Crowley (Sapienza Università di Roma)

«The Journal of Information Architecture» - ISSN 19037260 - è una nuova rivista accademica semestrale in inglese, dotata di sistema peer-review, pubblicata da REG-iA (Research and Education Group in Information Architecture), iniziativa internazionale promossa dall’IAI (Information Architecture Institute) e collegata alla Copenhagen Business School.

L’IAI, creato nel gennaio 2008, conta oggi tra i suoi membri ricercatori e professionisti provenienti da Danimarca, Svezia, Italia (Andrea Resmini, Luca Rosati), Polonia e Norvegia. La premessa fondante del gruppo è che, sebbene l’architettura dell’informazione sia una professione ormai riconosciuta< style="font-style: italic;">phrase “Information Architecture”) non è tuttora una disciplina accademica a tutti gli effetti (come un monte di altre cose essenziali, ovviamente...) e, a parte qualche eccezione, non costituisce un corso di studio nelle scuole e nelle università
L’istituto dell’Architettura dell’Informazione definisce il proprio oggetto (IA) come "la scienza e l’arte" di classificare i siti web, le Intranet, le comunità in rete e il software che ne facilita usabilità e fruibilità e abbraccia una vasta gamma di discipline diverse, ivi comprese biblioteconomia, informatica, informatica sociale, progettazione (design) dell’informazione, visual design, eccetera.

La rivista è stata presentata durante il 10° IA Summit a Memphis nel marzo 2009 e il primo numero è ora disponibile in rete ad accesso libero, mentre ogni successivo fascicolo sarà prima visibile ai soli membri dell’IAI e solo successivamente, con il procedere dell'archiviazione, sarà aperto a tutti: una specie di embargo a privilegiare i membri "operativi". Obiettivo principale della rivista è di creare un forum sufficientemente ampio e diffuso al fine di incrementare la "scientificità" dell’architettura dell’informazione. Per questo, intende usare tutti gli strumenti disponibili su Web, dal blog a Twitter alle liste di discussione.

L'interesse del gruppo promotore è infatti quello di abbracciare sotto questa denominazione altri dominii di contorno, per conseguire una conoscenza collettiva del dominio e dei suoi membri stessi; offre perciò l'opportunità a tutti i practitioner, accademici e professionisti, di sistematizzare e riflettere su come svolgono il loro lavoro o la loro ricerca insieme con la conoscenza pratica oltre che i principii che guidano il loro operato.

Questo numero inaugurale è uno specchio delle varie questioni e dei temi che l’architettura dell’informazione deve affrontare e trattare:
  • Dorte Madsen. Editorial: shall we dance?, p. 1-5
  • Gianluca Brugnoli. Connecting the dots of user experience, p. 6-15
  • Helena Francke. Towards an architectural document analysis, p. 16-36
  • Andrew Hinton. The machineries of context, p. 37-47
  • James Kalbach. On uncertainty in Information Architecture, p. 48-55.
È attivo un call for papers per il numero autunnale del 2009, all’indirizzo journalofia.org/cfp. Interessante la strategia autoriale che rispecchia la doppia natura disciplinare (professionisti e ricercatori) della Rivista: agli autori che si proporranno sarà chiesto di indicare se vogliono sottomettere il loro manoscritto a una recensione "accademica" o una recensione "professionale".

Rappresentazione

Si sa che un documento elettronico non è che una serie di impulsi in logica binaria ospitati nelle tracce di un calcolatore, che nessuno potrà mai vedere né interpretare senza l’ausilio del calcolatore stesso. Succede così che nel documento elettronico la forma sia definitivamente separata dal contenuto e che non si possa disporre d’altro che di interventi su questa o quella rappresentazione (a video o a stampa) del documento, tutte copie (conformi?) di un “originale” altrimenti invisibile.

Il documento come oggetto sincronico è letteralmente scomparso: come di un ipotetico dio, ne potremmo percepire gli effetti ma la loro radice è inconoscibile. La diplomatica diventa digitale e si confronta con linguaggi di marcatura e con il controllo delle procedure di produzione/conservazione, alla ricerca di dichiarazioni solo diacroniche di autenticità. Il documento non dà più garanzia di se stesso ma la garanzia proverrebbe dalla catena cognitiva delle relazioni che esso intrattiene con tutti gli altri documenti dell’insieme, come accade per i dataset delle pagine web.

L’esistenza del documento come rappresentazione di un oggetto inconoscibile perde, così, la certezza booleana di appartenenza a un insieme definito e si trasferisce entro la certezza probabilistica, tipica delle scienze umane, della logica fuzzy e dei suoi insiemi incerti, sfumati, con valori di verità compresi fra zero e uno. Così come sta accadendo nei tribunali, la presunzione di autenticità di un documento prodotto (non importa se analogico o digitale) è più comodo darla per scontata, fino a querela di falso.

Se ne è recentemente (30 giugno - 3 luglio 2009) discusso in un seminario romano del progetto CASPAR (Cultural, Artistic and Scientific knowledge for Preservation, Access and Retrieval), progetto co-finanziato dal sesto programma-quadro dell’Unione Europea per lo sviluppo e le applicazioni del modello, di fonte NASA e norma ISO, OAIS (Open Archival Information System) per la conservazione a lungo termine degli oggetti digitali.

Catene cognitive

La natura transeunte e distribuita del Web, insieme con la natura non unitaria ma procedurale del documento web, presuppone ed esige un’infrastruttura sotterranea composta da diversi servizi, il valore dei quali non è individuale ma collettivo perché dipende dal loro complesso e dalla loro integrazione: Internet Archive (per la “preservazione” digitale mediante la registrazione temporale dei cambiamenti e delle evoluzioni dei siti), WebCite (che fa la medesima cosa ma a cura degli stessi autori), Spurl (che - forse in modo più efficace di altri tipici prodotti del 2.0 - raccoglie organizza e fa condividere e soprattutto ritrovare la segnatura dei siti preferiti), CiteSeerX (per la disseminazione dei contenuti scientifici) o alla provvidenziale cache di Google che contrasta il famigerato link rot «Errore 404. File non trovato», e altri. Tutti servizi intesi a dare stabilità al sistema e a riportare tendenzialmente a segnatura unitaria la disseminazione delle risorse e delle fonti.

Ma il Web possiede nel medesimo tempo anche una natura intrinsecamente e spontaneamente organizzativa che sa dare individualità a elementi sparsi, per il fatto che un’unità qualsiasi è spesso costituita da frammenti unificati ad hoc e quindi unificabili anche alla bisogna e per scopi e in modi differenti: una pagina in HTML può, a corredo, contenere - o rinviare a, sparsi per il mondo - file PDF, immagini, eventi sonori, presentazioni di diapositive o di video, blog, RSS, dati grezzi od organizzati in tabelle statistiche, eccetera.

Ciò è possibile perché il sistema informativo del Web non intende più rappresentare la realtà “esterna” (come fa un documento tradizionale e come fa una base di dati) ma, in quanto sistema informativo oggettuale, contiene oggetti - i documenti digitali - che non sono più forme simboliche di fatti che compongono la rappresentazione di una realtà indipendente dal sistema, ma rappresentano solo se stessi, sono parte della realtà e anzi sono la realtà stessa, realtà che ci appare coesa solo perché i metadati (rappresentazione contestuale di fatti “esterni” in un àmbito tuttavia oggettuale) riescono in qualche modo a essere la “colla” che lega tra loro, pur essendone subordinati, i documenti digitali nella totalità del sistema informativo. Tra parentesi, è questa la “rivoluzione” di Internet: un sistema informativo che si sostituisce alla “vera” realtà...

Da una parte, dunque, è attraverso una serie di servizi; dall’altra, è attraverso la stessa natura aggregativo-diffusiva dei documenti Web che viene consentita una certa quota di certezza delle risorse e delle fonti.

Complichiamo il quadro: se un essere senziente può facilmente, seppur alla fine di un processo a volte non facile, percepire e quindi dominare i confini e i legami di tali frammenti, non è così facile farlo quando l’essere in campo è un agente automatico, che deve distinguere perinde ac cadaver catene cognitive di un determinato dominio da altri aggregati non specificamente interessanti o appartenenti a diversa ontologia. È il problema posto da Pavel Dmitriev nella sua dissertazione PhD alla Cornell University nel gennaio 2008, As we may perceive: finding the boundaries of compound documents on the Web. Quasi in risposta a questa sfida, OAI (Open Archives Initiative) ha appena creato ORE (Object Reuse and Exchange), progetto di elaborazione normativa per definire e scoprire le aggregazioni di risorse Web mediante l’introduzione di un’apposita resource map, ReM, unità che descrive, appunto, confini e legami dei frammenti - per esempio, e tra le più famose: arXiv.org, ReM interna a un repository, mantenuta da un nutrito gruppo molto finanziato della Cornell.

Andiamo avanti: ma se la ReM fosse esterna all’archivio? In questo caso sarebbe sottoposta alle medesime transitorietà e fluttuazioni del Web: pagine scomparse, URL spostate, contenuti mutati nel tempo, a fronte di una gestione “democratica” e distribuita, tipica di questi tempi da 2.0. Soccorre qui Herbert van de Sompel, già di Ghent e ora dei Laboratori nazionali di Los Alamos e inventore dell’open URL link resolver, che con altri ha creato “ReMember”, ReM esterna che enumera le risorse aggregate (AR) che reintegrano un’aggregazione dispersa e includono metadati descrittivi per ogni AR:
«ReMember attempts to harness the collective abilities of the Web community for preservation purposes instead of solely placing the burden of curatorial responsibilities on a small number of experts».
Dando conto della sua invenzione nel recente OAI 6 di Ginevra (17-19 giugno 2009) con Everyone is a curator: human-assisted preservation for ORE aggregations, dove curator ed everyone sono le parole-chiave, de Sompel sostiene che l’applicazione a un insieme di citazioni bibliografiche online mescolate con semplici rinvii a siti web, ha consentito di separare correttamente le une dalle altre: un ausilio semi-automatico e di poca spesa ai servizi per la stabilità di cui sopra.

Il bello auspicato delle ReM è che potrebbero, si entusiasma de Sompel, essere efficacemente create da chiunque, con un minimo di organizzazione umana e quindi di costi, “alla Wikipedia”. Ancora una volta, l’identità (e l’individuazione e l’identificazione) dell’autore può passare in secondo piano a vantaggio non solo del lavoro collaborativo ma anche a vantaggio di prodotti “cresciuti” praticamente da soli, autocreati (autore, auctus, da augeo, aumentare - il diritto penale parlerebbe forse di “autore mediato”; ma: esistono davvero autori “unici”? e come la metteremmo, in questo caso, con la tutela del copyright, se perfino Dublin Core [1] dà definizioni abbastanza tautologiche e tutto sommato interscambiabili delle figure author, creator, contributor, curator, publisher)? Infatti, all’OAI 6 de Sompel non ha mai parlato, pur trattandone, di “articoli scientifici”, ma solo e sempre di dataset come parti integranti di un non meglio identificato “record scientifico”, per la qual cosa chiunque potrebbe essere il curatore di una pubblicazione scientifica.

Chiunque lavori su una ReM, ovviamente. Ciò impone un ripensamento delle funzioni tradizionali della stessa comunicazione scientifica, delle sue regole e della sua mappatura, che sta mettendo in discussione canoni di valutazione tradizionali come la metrica delle citazioni, per esempio e quindi delle funzioni del peer reviewing. Nemmeno sfuggono le riviste scientifiche tradizionali, in corso di trasformazione in enhanced journal: le “pubblicazioni liquide” proposte dal gruppo Casati-Giunchiglia-Marchese (vedi alla voce Liquefazione in «il Bibliotecario» 3/2008, p. 137-138).

Tra le prime applicazioni di OAI-ORE - a parte il felice esito del controllo delle citazioni in JSTOR, l’archivio storico in linea delle maggiori riviste accademiche a partire dal XVII secolo - è da tener d’occhio www.myexperiment.org, un ambiente collaborativo nel quale scienziati e ricercatori possono pubblicare in sicurezza i loro flussi di lavoro, i propri oggetti (o raccolte di oggetti) digitali e sperimentare progetti di ricerca, condividendoli con il proprio gruppo o trovando gruppi affini: un Facebook o un MySpace sì controllato e protetto e riservato ma per il quale la sostanzia della (nuova) relazione autoriale non cambia

Archivisti d'assalto

La semplificazione dell’Archivistica nel generico Records management (che per noi vale solo per gli archivi correnti) ha fatto sì che, oltre al tradizionale sistema d’archivio vero e proprio, rientrassero nelle competenze della disciplina e dei suoi professionisti anche documenti e attività tipicamente gestionali, come il governo dei contenuti e del ritrovamento, nonché il complesso dell’apparato burocratico e tecnologico insieme con le risorse, le strutture, le attrezzature e, soprattutto, le responsabilità gerarchiche, che un intero sistema documentario mantengono e sviluppano.

Trasdurre in digitale interi archivi storici richiede, in più, cautele tradizionalmente ignorate dagli ingegneri del calcolatore, che volentieri confondono i dati con le informazioni - non diversamente da quanto accadde ai primi cataloghi elettronici delle biblioteche. Qual è la natura del documento? E quale quella del documento elettronico? E di quello archivistico? E come la mettiamo con la conservatività e con la leggibilità di questi documenti per le prossime centinaia di anni ai fini non solo della Storia ma anche della certezza giuridica? E le condizioni del riuso e dell’interoperabilità? Domande non poste o, al più, mal risposte.

ll problema si aggrava quando i documenti e gli archivi sono multi-mediali o interattivi, o ”semplici” pagine web composte da oggetti digitali diversi e di formato eterogeneo. Questi documenti e questi archivi non sono più un complesso unitario ed esclusivo, auto-referenziale, come il documento cartaceo, ma devono essere collegati ad altri documenti e ad altri archivi per restituire una rappresentazione adeguata della conoscenza: i documenti e, insieme, i processi che li hanno costituiti.

Si esce, poi, dalla problematicità della pura applicazione tecnologica per approdare a quella della gestione organizzativa quando l’archivio è creato, sì, in formato elettronico ab origine ma già con la giusta preoccupazione della sua destinazione archivistica, tenendo conto della destinazione strumentale, non finale, dell’archivio; anzi, del sistema degli archivi. Risultati ottenibili quando il responsabile del procedimento possiede una formazione archivistica e quando l’archivista possiede una formazione gestionale.
Era già così nelle procedure garanti il documento analogico; ora la cautela va moltiplicata e i mutati strumenti vanno ri-appresi

Come la filosofia, anche il linguaggio segue la tecnologia. Abbiamo così cómpiti che prospettano, per il nuovo archivista, nuove denominazioni professionali come knowledge worker (nel caso, protocollista) o knowledge manager (nel caso, responsabile del flusso di lavoro documentale) che aggiungono al profilo professionale competenze connesse, quanto meno, con l’IR e la diplomatica digitale. In più, le rinnovate complessità e sfaccettatura semantica, oltre a quella operativa, di questo profilo, generano innovazioni lessicali che non sempre fanno facilmente comprendere che abbiamo di fronte un “archivista digitale”: da digital asset manager o digital preservation officer a preservation consultant o anche information management consultant, fino al progetto europeo di master, già attivo almeno a Luleå e a Glasgow (senza dimenticare il Digital Curation Centre, finanziato dal solito JISC), per il nuovo profilo professionale di digital curator : addirittura, il riferimento all’archivio e all’archivistica non compare nel nome ma di archivi e di archivisti comunque si tratta.

Le competenze dell’ingegnere del calcolatore si arricchiscono così, e questa volta per davvero, di competenze tipiche dell’esperto dell’informazione: è la realizzazione del sogno dell’ing. Philippe Dreyfus, ma non sul lato del cosiddetto e ambiguo “informatico”, termine di sua invenzione, bensì su quello del cosiddetto - e altrettanto ambiguo - “documentalista” (archivista, bibliotecario, ecc.).

Secondo l’articolo Digital archivists, now on demand di Conrad De Aenlle del 7 febbraio 2009 su diversi quotidiani americani, la richiesta di questi professionisti da parte del mercato del lavoro sia pubblico sia privato è, almeno negli Stati Uniti e specialmente dopo il caso Enron, in forte crescita ed è previsto che nei prossimi dieci anni essa venga triplicata, a partire dalle attuali 20 mila unità: si suppone che questi professionisti dovranno soprattutto scrivere le routine per la produzione di documenti archive compliant a certezza del diritto e della conservazione a lungo termine - anche lo stipendio medio per un lavoro che diventa sempre più “chiave” è in crescita: si va da 70 mila dollari/anno nel pubblico a 100 mila nel privato.

Webology

Recensione di Mary Joan Crowley (Sapienza, Università di Roma)

«Webology» ISSN 1735-188X, è una rivista internazionale, open access e peer-reviewed, dedicata al World Wide Web. Una particolare attenzione è data alla diffusione dell’informazione e ai processi comunicativi così come alle implicazioni sociali e culturali del web. La Rivista è stata fondata nel 2004 ed è pubblicata trimestralmente. L’editore della rivista è il Dipartimento di Scienza dell’Informazione e dell’Università di Teheran (Iran); i redattori capo e associato sono, rispettivamente, Alireza Noruzi e Hamid R. Jamali. Entrambi i redattori, come si può vedere dai rispettivi profili personali, posseggono una vasta esperienza internazionale e gli altri membri della redazione provengono da diversi Paesi come Australia, Canada, Sud Africa, USA, Cina, Francia, eccetera.

La connotazione internazionale della rivista si manifesta anche nella sua stessa natura, ovvero una rivista online orientata al Web (come medium), ma anche ai suoi contenuti. I contenuti della rivista, che sono ampiamente indicizzati (non mancano gli abstract), sono pubblicati sotto i termini della licenza Creative Commons, cioè con quel sistema giuridico che offre sei diverse articolazioni di diritti d’autore secondo il modello “alcuni diritti sono riservati” al fine di garantire circolazione e riuso dell’opera.

Fin dalla sua fondazione, «Webology» ha spaziato su una notevole varietà di argomenti e interessi. C’è una forte enfasi sulle nuove metodologie e tecnologie dell’informazione, orientandosi principalmente verso lavori sperimentali, ma non mancano lavori di tipo teorico e storico. A oggi gli argomenti trattati sono molteplici: la biblioteca digitale, le biblioteche ed il Web, il trasferimento dell’informazione, il comportamento umano nella ricerca dell’informazione, l’impatto sociale dell’informazione, il marketing nell’informazione, i sistemi di gestione dell’informazione (MIS), infometrica, scientometria, bibliometrica, analisi citazionale, studi sugli utenti e sull’usabilità, la libertà intellettuale, il filtraggio dei siti, l’open access, organizzazione della conoscenza e, sempre con il termine Web nel nome: semantica, ontologia, thesaurus, “metrica” (Webometrics), intelligence (WI), mining, e molto ancora.

Non mancano i numeri speciali. L’ultimo numero della Rivista ha come redattore ospite Louise Spiteri della School of information management dell’Università di Dalhousie (Canada). L’intero numero è dedicato alla folksonomy.
L’editoriale del numero così recita:
«The papers in this special issue reflect the diversity of approaches taken to create Web resources that reflect better the needs of end users. Particular emphasis is placed on the need to manage the increasing volumes of tags and information available on the Web, particularly as more people are becoming engaged with numerous social applications. As is discussed in some of the papers in this special edition, there is certainly scope to consider ways in which to combine the more traditional controlled vocabularies with the free-flowing nature of tagging».
Peters e Weller suggeriscono nel loro articolo di introdurre un tag garden che permetta una corrispondenza tra termini sinonimi, fornendo così una struttura addizionale diversa dalle tag clouds o tags-user-document co-occurences, al fine di migliorare l’accessibilità.
Alcuni articoli interessanti pubblicati nei numeri precedenti:
  • Application of web 2.0 tools in medical librarianship to support medicine 2.0, di Vahideh Zarea Gavgani e V. Vishwa Mohan, Osmania University, India;
  • Deterring digital plagiarism, how effective is the digital detection process? di Jayati Chaudhuri, University of Northern Colorado Libraries, USA;
  • Cybercrime and the law: an islamic view di Mansoor Al-A’li, University of Bahrain;
  • Library 2.0 theory: web 2.0 and its implications for libraries di Jack M. Maness, University of Colorado at Boulder Libraries, USA;
  • Search engines and power: a politics of online (mis-)information di Elad Segev, Keele University, UK;
  • A personalized word of mouth recommender model di Chihli Hung, Chung Yuan Christian University, Taiwan.
Come di può vedere, il campo è realmente vasto, essendo trattati argomenti di interesse topico di autori da ogni parte del globo. A dimostrazione di questo fatto, osserviamo dalle statistiche del sito che anche i lettori di «Webology» provengono da tutto il mondo, principalmente da Singapore, USA, Federazione Russa e Germania seguiti da Benin, Emirati Arabi Uniti, UK, Arabia Saudita e Australia.

Un altro servizio della rivista sono le recensioni di libri, che non solo costituiscono una buona sorgente di informazione sulle ultime pubblicazioni, ma sono anche un modo per i bibliotecari di oggi di essere aggiornati nelle loro particolari aree di specializzazione, come pure di addentrarsi in aree non familiari. «Webology» presta così voce a diversi punti di vista e dà copertura ad argomenti che sarebbe difficile, se non impossibile, trovare altrove. Senza dubbio è un contributo ben accetto nel mondo delle biblioteche e nelle scienze dell’informazione, tanto più gradito in quanto il contributo proviene da un Paese “emergente”.

È possibile iscriversi per ricevere avvisi per email delle novità; tuttavia, data la grande quantità di posta elettronica che oggi riceviamo, forse sarebbe preferibile un servizio RSS.

[post-print da "Il bibliotecario", III serie, ISSN 11250992, 1/2009, p. 125-127]

Webologia

Alireza Noruzi è un poco più che trentenne meritorio ricercatore iraniano formatosi in Library & Information Science alle Università di Shiraz e di Tehran e ora presso il Dipartimento di Sciences de l'Information all’Università Paul Cezanne di Marsiglia. Dal 2004 è fondatore ed editor-in-chief di «Webology», trimestrale internazionale (con sede web in Iran) peer-reviewed in lingua inglese e disponibile in accesso aperto, prima rivista nel mondo a essere dedicata - come dice il nome - alla scienza e alla tecnologia del Web (struttura, organizzazione, topologia, funzioni, caratteristiche, interconnessioni, sviluppo), con ovvi apparentamenti alle Scienze dell’informazione e alla Biblioteconomia e, naturalmente, all’ICT. La rivista è oggi arrivata al quinto anno di edizione, per un totale di sedici numeri. Essendo gratuita, non prevede abbonamenti se non il servizio, iscrivendovisi, di ricevere per posta elettronica il sommario dei fascicoli appena pubblicati. La rivista nel suo complesso è recensita ampiamente più sotto da Mary Joan Crowley.

Il Web, sostiene Noruzi - probabilmente sulla scorta di Perspectives of Webometrics di Lennart Björneborn e Peter Ingwersen («Scientometrics», v. 50, n. 1, p. 65-82) - realizza, in quanto aspetto più visibile di Internet, il maggior impatto mai registrato da parte di una tecnologia sulla comunicazione e sulla società e di questa risorsa sta crescendo a dismisura l’influenza sull’istruzione, sull’informazione commerciale, su quella giornalistica e sui modi di governare. A ciò fa contrappeso l’opacità della qualità di questa informazione e di questa conoscenza, create da volenterosi, forse esperti, ma non certificati, nell’assenza di ogni peer reviewing sistematico: motivo in più, conclude Noruzi, per studiare questo conglomerato non strutturato e molto complesso di ogni tipo di informazione prodotta in qualunque modo da chiunque e rivolta a chiunque altro.

Il soggetto /webology/, di conseguenza, è da poco una disciplina accademica e perciò si trova in uno stadio sperimentale e in corso di definizione, anche se qualche università (per primo il Northern Marianas College nelle Marianne settentrionali) sta già istituendo dipartimenti di Webology e stanno nascendo nel mondo con questo nome imprese anche individuali di servizi.

[post-print da "Il bibliotecario", III serie, ISSN 11250992, 1/2009, p. 124-125]

Webliografia

Ovvero, l’innovazione della bibliografia in un mondo ipertestuale.

Webliography è, ovviamente, una lista enumerativa, annotata o meno, di rinvii a ipertesti o a gateway alle fonti scientifiche d'informazione sulla Rete. Creatore e primo teorizzatore del termine e della funzione è stato nel 1997 Steven R. Harris della Louisiana State University con Webliography: the process of building Internet subject access su «The acquisitions librarian», v. 9, n. 17, p. 29-43, sostenendo il ruolo-chiave dei bibliotecari non solo per fornire accesso semantico all’informazione elettronica ma anche per acquisire e sviluppare per sé e per gli altri conoscenza approfondita di tale letteratura ai fini del reference e dei servizi di educazione dell'utente - attività tipiche del documentalista più che del bibliotecario.
L'anno dopo Nancy Robinson Marino in Webliographies: much more that just a bibliography, «Library talk», v. 11, n. 2, p. 13-14, ha aggiunto regole per il controllo di validità delle fonti elettroniche oltre che a norme procedurali per una esatta compilazione delle liste, linee guida della webliography e organizzato un completo corso universitario; nel medesimo anno è comparso uno dei primi e sistematici esemplari di webliography relativa a Ralph Waldo Ellison, a cura di C. H. Potts per l’UCLA [Università della California a Los Angeles] che fa il pari con un altro precedente monumento: la Poe webliography di Heyward Ehrlich.

La disciplina si sviluppa e allarga i confini. Sempre nel 2004 l’iraniano Dariush Alimohammadi in Annotated webliography of webliographies: a proposal, «The electronic library», v. 23, n. 2, p. 168-172 e in Webliography: a brief report of an experience at the ATU [Allame Tabataba’e University], «Informology», v. 1, n. 3, p. 217-230 (non visibile perché la rivista non è in accesso aperto) ma, soprattutto, in Web-based reference projects: an approach for Iranian LIS departments, «Library philosophy and practice», v. 9, n. 1, ha introdotto altri nuovi termini, come Webbook (equivalente digitale del libro analogico - handbook - come collezione strutturata di pagine web su un dato argomento, soprattutto ai fini del reference), Webopedia (o enciclopedia digitale - modello Wikipedia) e Webtionary (dizionario online solitamente via Web, generale o specifico, mono o multi-lingua).

[post-print da "Il bibliotecario", III serie, ISSN 11250992, 1/2009, p. 124]

Social software

Questo strumento per i “club degli amici della biblioteca” allargati, serve alle biblioteche per sviluppare la propria interazione sociale con l’utenza, considerata come un’unica comunità (di prassi) insieme con i bibliotecari e la biblioteca stessa, secondo i tipi di comunicazione uno-a-uno (posta elettronica, messaggeria istantanea), uno-a-molti (blog) e molti-a-molti (Wiki).
Diversamente dal modello “top-down”, nel quale i ruoli degli utenti nei confronti della biblioteca sono rigidamente determinati da un’autorità loro esterna e limitati da meccanismi software predeterminati, il software sociale ricorre al modello “bottom-up” per l’organizzazione della comunicazione, per cui obiettivi e organizzazione dei contenuti sono stabiliti dagli stessi membri della comunità, alla pari con bibliotecari e altri utenti. Non è solo questione di tecnologia o di tecnica sociale, ma anche di ideologia: ci si contrappone alla “chiusura” della produzione della conoscenza e dello sviluppo di interazioni, per abbracciare i concetti di intelligenza sociale e di contenuto “aperto”. In fondo, il vero potere di Internet risiede sulla capacità della Rete di sviluppare la comunicazione (l’informazione sarebbe solo un pretesto?).

Da non molto le biblioteche hanno scoperto questa risorsa e le iniziative di applicazione alle loro realtà si moltiplicano. Due casi recenti, tra i tanti in letteratura, sono meritevoli di segnalazione per il loro carattere sistematico, interpretativo e sperimentale del fenomeno, per aiutare il viaggio del bibliotecario che intende affrontare questo percorso.

Al tema è dedicato l’ultimo fascicolo (v. 7, n. 6) di «El profesional de la información», (che nessuna biblioteca italiana sembra possedere nonostante la rivista sia nata, pur con altro nome, nel 1992 e sia da tempo presente nei maggiori repertori citazionali) del quale sono accessibili in rete indice e sommari e qualche articolo depositato su E-LIS o altrove. L’editoriale di Juan Freire affronta le reti sociali come modello organizzativo e riflette sul significato delle interazioni sociali nel mondo digitale e nei servizi di networking: questi ultimi rappresenterebbero una semplificazione e al medesimo tempo una restrizione della varietà delle interazioni sociali, per cui la combinazione dei vari strumenti del Web 2.0 sarebbero più interessanti del modello chiuso di Facebook. Di avviso contrario è Didac Margaix-Arnal, che illustra con abbondanza di esempi l’uso di Facebook nelle biblioteche universitarie. Fernanda Peset, Antonia Ferrer-Sapena e Tomas Biaget invece riflettono sull’impatto che le reti sociali hanno sulla comunità dei bibliotecari e dei documentalisti e, anzi, sul ruolo attivo dei bibliotecari proprio per la socializzazione e l'ampliamento della Rete.

Vi si dedica anche, con giovanile passione e intenso attivismo, Meredith G. Farkas (nel 2006 insignita da «Library Journal» del premio Mover & Shaker in quanto persona «highly respected, key figure in her particular area with a lot of influence and importance» che ha beneficato la professione con l’uso innovativo della tecnologia), autrice di un fortunato volume dal titolo Social software in libraries. Oggi è bibliotecaria della formazione a distanza alla Norwich University e tiene regolarmente la rubrica Technology in practice per «American Libraries». Nell’ambiente è conosciuta per diverse iniziative Web come i blog Information wants to be free (che realizza la parola d’ordine enunciata da Stewart Brand al primo congresso degli hacker nel 1984) e, con Roy Tennant e altri, TechEssence («the essence of information technology for library decision-makers»), nonché la frequentata pagina Library success: a best practices Wiki. Ma, soprattutto, è impegnata in www.sociallibraries.com, che ci fa tornare al volume di cui sopra, perché il sito è simbionte al libro e luogo di sperimentazione analitica di tutti gli strumenti citati nell’opera a stampa e di quelli successivi, luogo di complemento, sviluppo, presentazione e sperimentazione degli strumenti e delle tecniche che possono accrescere il valore e l'utilità delle biblioteche, compreso Five weeks to a social library, corso gratuito online per insegnare ai bibliotecari l'uso del social software per le loro biblioteche.
  • Meredith G. Farkas. Social software in libraries. Building collaboration, communication, and community online. Medford: Information Today. 2007.
[post-print da "Il bibliotecario", III serie, ISSN 11250992, 1/2009, p. 122-123]

Informologia

Che si stia assistendo a profondi rivolgimenti delle concezioni del mondo conosciuto ci viene attestato anche dall’intenso fiorire di neologismi con i quali si cerca di ridefinire fenomeni antichi o categorizzare fenomeni nuovi che ci si trova inaspettatamente di fronte ma al di fuori della cinta del giardino della conoscenza - si sa che senza nome le cose non esistono (o esistono di meno).
Non è un caso se il luogo dove più numerosi questi stanno nascendo sia il dominio delle scienze dell'informazione, a partire dagli anni ’40 viste soprattutto come espressione matematica per misurarne la produzione e la trasmissione (effetto Shannon), mentre ora ne appare preponderante l’aspetto semantico ed ermeneutico (effetto Wiener), cioè, in definitiva, le sue interpretazioni da parte del ricevente - ed è anzi questa la base di tutto il knowledge management più avanzato.

Come termine, Informology è nato nel 1993 per iniziativa di Abbas Horri dell’Università di Tehran ma l’anno dopo, con significato leggermente diverso, è stato proposto in Russia da V. S. Mokiy nella comunicazione Problems of economic informology, presentata alla prima International scientific, practical conference di Mosca. Probabilmente, il termine è stato coniato indipendentemente dai due ricercatori. Nel senso “iraniano”, l’informologia studierebbe l’informazione come una totalità insieme con il suo ambiente ecologico (framework, dimensions and aspects) mentre nel senso “russo” sarebbe più sbilanciata verso la tecnologia (ma anche la sistemica - così che i due significati del termine tendono a ricongiungersi) dei sistemi informativi.

Dall’autunno 2003 «Informology» è anche, diretta dallo stesso Horri, una rivista iraniana , che pare molto interessante e d’avanguardia a stare agli abstract pubblicati - ma è pubblicata preferibilmente in lingua farsi con qualche articolo in inglese. Peccato anche che il testo degli articoli non sia accessibile su Web. L’ultimo numero pubblicato è, per ora, del 2007: sopravviverà «Informology»?

[post-print da "Il bibliotecario", III serie, ISSN 11250992, 1/2009, p. 121-122]

Esposizione/conoscenza

Così come se lo chiede Nicholas Carr («Is Google making us stupid?»), anche Gary Small e Gigi Vorgan, neuropsichiatri, si chiedono la medesima cosa, ma prendendola più alla lontana: «Is technology changing our brains?». L'uso/abuso di Internet stimolerebbe i lobi frontali legati ai ragionamenti complessi e, quindi, manterrebbe “giovane” il cervello.
A parte la congruenza, da dimostrare, /mente≡cervello/, probabilmente i due scritti trattano di cose differenti con i medesimi termini. Parrebbe che per Carr sintomo di intelligenza sia una capacità di concentrazione lunga e costante, tipica del “periodo Gutenberg” della diffusione della conoscenza, caratterizzata da esposizione a testi lunghi e complessi. Il che non è più.

Dimenticherebbe, sulla scorta di Herbert Marshall McLuhan (ma, prima di lui, Valerio Tonini...), che la tecnologia dei media non è esterna alla mente ma stabilisce con essa relazioni di interdipendenza perché sia essa sia noi “abitiamo il” medesimo ecosistema, come ecologia trans-organica che “ci vive” tutti, uomini e macchine, nel medesimo modo con il quale “ci si immerge” nel libro. Per Small e Vorgan si tratterebbe, semmai, di “attenzione divisa”, schizoide; un fenomeno relativamente nuovo inaugurato, nella cultura occidentale, dal surrealismo La metafora di Carr è perfetta: non si darebbe più il caso dell’esploratore subacqueo immerso nel mare dell’essere e della conoscenza, ma del pilota di acquascooter sfrecciante sulla superficie. In più, a vantaggio del navigatore di superficie, c’è la possibilità di svolgere più cómpiti contemporaneamente (multitasking) come leggere e scrivere in più lingue, usare diversi indirizzi di posta, e pagine web multi-mediali - il sovraccarico dell’informazione e l’esposizione a molti stimoli contemporaneamente.

Tutte cose che un buon computer sa governare ma l’uomo ancora no. L’attenzione divisa porta, così, trattando molta informazione di qualità differente, a sovraccaricare la mente e a determinare un calo delle funzioni cognitive tradizionali. Il fenomeno non è da accettare o da respingere, ma da studiare.
  • Nicholas Carr. Is Google making us stupid? «The Atlantic Monthly», luglio-agosto 2008.
  • Gary Small - Gigi Vorgan. iBrain: surviving the technological alteration of the modern mind. Collins Living, 2008.
[post-print da "Il bibliotecario", III serie, ISSN 11250992, 1/2009, p. 120-121]

e-ISSN

Gli standard (ovvero, le norme) non sono un bene in sé, ma per sé, ovvero interessano per la loro funzione, che è quella, rara, di semplificarci la vita. Ogni norma nasconde un sistema tassonomico al quale, più o meno occultamente, rinvia. Ma la realtà è meritoriamente più ricca di qualsiasi tassonomia. La concezione del mondo di ISSN è ancora a nostro favore o lavora contro di noi?

I documenti elettronici e quelli analogici trasdotti in formato elettronico vengono ospitati, insieme con la loro descrizione simbolica, nel medesimo archivio o base di dati. Anche le biblioteche in parte lo fanno: il catalogo non è poi tanto lontano dagli scaffali - ma lo fanno solo in parte: il record catalografico è comunque separato dal documento. Nel caso elettronico è l’opera, più che l’edizione, a essere oggetto di conservazione e diffusione, insieme con la propria descrizione simbolica, tanto che l’una e l’altra fanno, quasi, corpo comune (embedded), per cui accedere al dato (“scaricarlo”) comporta l’accesso anche ai suoi metadati: l’involucro editoriale diviene per ciò stesso secondario rispetto al contenuto dell’opera e anzi all’opera stessa, che ormai solo virtualmente è ospitata in quei contenitori. E ancora: se il documento è formalizzato in linguaggio XML (e se tutte le aree della rete sono ugualmente accessibili - cosa che non sempre il commercio editoriale favorisce: queste restrizioni sono una delle ragioni del travolgente sviluppo degli accessi aperti, che consentono anche sperimentazioni di tecniche di retrieval impensabili sui siti degli editori), ciascun lettore può diventare data miner creando il proprio, personale e personalizzabile, networked information environment. Il Web 2.0 ne è pieno. L’operazione non è diversa da quella del documentalista che rielabora e riconfeziona (repackaging) l’informazione trovata per un dato ricercatore/utente/cliente.

Ma ISSN identifica solo la testata della rivista (al limite, aggiunge un codice relativo al luogo di pubblicazione...), né tratta il volume né il fascicolo né tanto meno l’articolo. Dal 1991, nella coscienza di questa deficienza, ISSN identifica anche il formato della testata (manifestation identifier), rafforzando e ampliando, così, proprio la voragine fra opera ed edizione. e-ISSN consente sì l’identificazione di un record unico insieme con la molteplicità delle sue manifestazioni, ma solo la base di dati centrale ISSN tiene traccia di tutte le manifestazioni dell’oggetto, ovviando così al fatto che una qualsiasi altra base di dati possa citare questa o quella forma del documento, ma ISSN-IC (International Centre) non è interrogabile dal lettore...

A questo punto, bisogna domandarsi quale sia l’oggetto codificato, cioè che cosa sia una rivista elettronica, elencando le sue varierà: è copia elettronica della rivista cartacea? è copia arricchita, o meno, di metadati? oppure è rivista autonoma, ipertestuale, ipermediale, interattiva e magari in XML? Tutte queste variazioni della realtà meritano per ISSN uno e un solo codice identificativo. È come se si riproponessero le medesime “delizie” del Web: l’identificazione dei contenuti viene affidata all’indicizzatore che sta “a valle” della produzione, invece che all’autore o all’autorità che ha prodotto o pubblicato “a monte” il documento.

L’importanza di un ISSN corretto è sottovalutata, tanto che non ci sono catalogatori presso gli editori mentre ce ne sono presso gli archivi ospitanti o aggregatori.

È allora assai più importante di prima che ogni documento elettronico in quanto tale possieda un codice identificativo univoco. Il DOI, identificatore di oggetti digitali, possiede una granularità che scende fino al documento e non dice nulla dell’editore o della testata (che, abbiamo visto, diventa secondaria per la base di dati che ospita il documento), e permane anche al cambiare dell’ISSN. Altre soluzioni (MEDRA, SICI, CODEN, ISTC, eccetera) servono per altri scopi e non raggiungono i medesimi risultati. I problemi gestionali, così, aumentano: cambiare codici e cataloghi ogni volta che una testata cambia padrone (perché la globalizzazione editoriale è oggi in piena febbre da concentrazione) ogni volta che cambia l’URL del documento? o affidarsi all’impianto di un ERMS, Electronic Resources Management System per ogni biblioteca o sistema bibliotecario?

Così, la funzione di ISSN permane vitale nonostante la differenziazione fra l’opera e la sua manifestazione e nonostante che l’editore tenda ormai a utilizzare preferibilmente il DOI: finché il sostrato elettronico non avrà sostituito quello cartaceo, il ricorso a questo doppio canale rimane inevitabile, a meno che non venga separata nettamente la gestione delle riviste elettroniche da quella delle riviste cartacee digitalizzate e da quella delle riviste cartacee digitalizzate e arricchite, secondo il principio che, al cambiare di una manifestazione esistenziale, ne debba cambiare l’identificativo (ma il numero delle varianti possibili delle riviste è superiore a due - cartaceo contro elettronico). Per ora, le revisioni dello stesso ISSN Manual sono pressoché continue e gli anni di contraddizione non accennano a finire.

C’è un’ulteriore strategia, in corso ma non d’immediata realizzazione e che va nel senso del Web più avanzato, e che ne potenzia proprio le spiacevoli “delizie” di cui sopra: aumentare la numerosità delle strategie di ricerca e di aggiramento di questi ostacoli, affidando la propria salvezza alla Rete e alle sue integrazioni, più che affidarla all’escogitazione di una codifica univoca e universale.

[post-print da "Il bibliotecario", III serie, ISSN 11250992, 1/2009, p. 118-120]

Comunità di prassi

Navigatori, lettori, utenti, archivisti, bibliotecari, documentalisti possono esser visti tutti insieme come una comunità di prassi, cioè come un gruppo più o meno auto-organizzato che scambia documenti, informazione e conoscenza per portare a compimento un processo comune e condiviso.

Ma ci sono delle differenze fra una comunità di prassi che organizza soprattutto documenti e una che organizza soprattutto conoscenza, anche se la massima parte dell’organizzazione della conoscenza avviene attraverso il trattamento di documenti. La comunità “della conoscenza” (di solito, aziendale) organizza il flusso documentale con intenzioni diverse rispetto a quel che fa la comunità “dei documenti” (di solito, bibliotecaria) e, in più, con un’enfasi differente riguardo ai progetti di trattamento dei documenti: se quest’ultima è più orientata al contenuto dei documenti stessi, l’altra lo è maggiormente all’utente (e alle sue aspettative esistenziali) - detto in altro modo, per l’una (quella che abbiamo chiamato bibliotecaria) il documento costituisce soprattutto un fine mentre per l’altra (quella che abbiamo chiamato aziendale) è soprattutto un mezzo, uno strumento.

La comunità di prassi che è più orientata all’utente considererà il documento più per le aspettative e i rischi attesi che da questo possono derivare sia per il processo in corso che la vede coinvolta sia per gli stessi membri della comunità, che non per l’oggettualità del documento. Il documento costituisce uno degli elementi (conoscitivi) di un progetto nel quale la comunità è impegnata e, al mutare dei fini del progetto (o all’evolversi del progetto stesso), ogni documento preso in considerazione può esser indicizzato in modi del tutto differenti e anche contraddittori tra loro. Lo scopo attribuibile al documento prevale sulla sua struttura e sulla sua storia.

Questa distinzione corrisponde, in metafora, al doppio significato dell’avverbio “perché”, che in italiano può avere indifferentemente valore causale (e qui sarebbe forse meglio dire “poiché”) o valore finale: mentre alla comunità di prassi più vicina all’ontologia “bibliotecaria” interessa il “poiché” del documento (quale ne è la storia, quali sono le cause che l’hanno prodotto e come la sua storia lo situa nel presente), alla comunità di prassi più vicina all’ontologia “aziendale” interessa maggiormente il suo “perché” finale, il suo posizionamento nel futuro, come se essa si chiedesse: «a che cosa serve, dove tende e dove mi porta questo documento?» invece di «che cos’è e da dove viene questo documento?». Così, questa comunità di prassi “aziendale” crea liberamente il proprio orizzonte cognitivo attribuendo significati nuovi alla realtà non solo documentale, governando la creazione del caos che genera l’ordine (perché l’ordine è per sua natura sterile e ripete eternamente se stesso: per innovare ci vuole il caos - la gestione intenzionale del documento).

Ma anche il sostantivo “caos” possiede due significati. Il più moderno (di ascendenza stoica) ne assimila il concetto a quello di “disordine” mentre quello più antico (di ascendenza esiodea) lo avvicina all’immagine di “abisso”, di gola aperta, di cavità vuota e oscura fonte di vita (in sostanza, un utero) e di conoscenza: la fonte femminile dell’azione (bello spunto per ulteriori indagini...). La comunità “bibliotecaria-stoica” sarebbe virile e “cubica” e vedrebbe il caos come un limite all’ordine, mentre quella “aziendale-esiodea” sarebbe femminile e “sferica” nell’ispirazione e nel comportamento e vedrebbe il caos come stimolo per un riordino del mondo. Da Dioniso ad Apollo.

Al di là di intellettualismi come questo, la gestione strutturale del documento tenderebbe, quindi, a posizionarlo entro le coordinate cartesiane che gli appartengono per la sua storia, in una visione chiara e distinta del mondo e della cultura che l’ha determinato. Sono la ricchezza e la bellezza della bibliografia. La gestione intenzionale del documento non possiede, invece, visioni né chiare né distinte del mondo, perché il mondo nel e sul quale opera è un progetto in divenire, che nasce in occasione della discussione, della lite, della contrattazione (perfino sindacale), della mediazione e del compromesso, dell’esperimento, del feedback emotivo, della contrapposizione dei sentimenti. Nulla di tutto ciò è esprimibile adeguatamente con una conoscenza esplicita (come, invece, in una scheda di bibliografia o di catalogo).

La rivoluzione di Internet ha mescolato maggiormente le carte, per cui in una medesima realtà sono compresenti entrambe le filosofie: unità del documento e sua dissoluzione, rigore indicale e folksonomy, conservazione e accesso aperto, tracciamento della storia e pulsione verso il futuro. In una sola coppia: biblioteconomia e documentazione. L’archivistica (digitale) starebbe nel mezzo. Dove sta la bibliografia web?

[post-print da "Il bibliotecario", III serie, ISSN 11250992, 1/2009, p. 117-118]

Web librarianship

Recensione di Mary Joan Crowley (Sapienza, Università di Roma)

Journal of web librarianship”, iniziato a pubblicare nel 2007, vuol fornire una nuova risorsa alla biblioteconomia anche aiutando i bibliotecari a definire con maggiore esattezza cosa sia realmente una “Web librarianship”, e come sia possibile sostenere le tante e nuove responsabilità e ruoli richiesti dal mondo virtuale.

La biblioteca online è un concetto difficile da spiegare, afferma Jody Condit Fagan nell’editoriale del primo numero. Jody oggi lavora come digital services librarian alla James Mason University, ed è autrice di vari lavori sul digital reference, sulla fruibilità e sul Web interface design, ma fin da piccola ha sempre frequentato la biblioteca pubblica locale, dove la lasciava sua madre quando doveva spiegare alle autorità scolastiche la sua scelta di educare i figli a casa. Ironia della sorte, è stata proprio la bibliotecaria a denunciare Jody perché non andava a scuola costringendola, così, a frequentare un regolare corso di studi. Ed è proprio in biblioteca che Jody ha cominciato a giocare con i computer disponibili, in particolare con un gioco educativo basato sugli operatori booleani che, a suo avviso, hanno condizionato le sue scelte professionali. Nel podcast dell’homepage della rivista, Jody dichiara che una delle ragioni fondamentali che l’ha spinta a fondare JWL è stata la necessità di definire quale possa essere la biblioteca del XXI secolo. «La biblioteca» afferma «è uno spazio indefinito, grande quanto e di più della biblioteca vera e propria». È difficile, per la gente, avere una visione concreta ed esatta della biblioteca virtuale, e uno degli scopi di questa Rivista è di fornire una visione virtuale di un uso innovativo e pratico del Web, in ogni suo aspetto, lì dove la biblioteca interseca la Rete come meta spaziale.
Joe Janes, specialista dell’informazione e pro-rettore dell’Università di Washington individua, in un altro podcast, la novità della rivista nell’unione dei concetti di “biblioteconomia” e di “rete”. A suo avviso, il Web non è una tecnologia passeggera, ma qualcosa che rimarrà con noi a lungo. «Non puoi essere un bibliotecario e non navigare in rete; almeno, non un buon bibliotecario» afferma e ritiene che JWL possa aiutare gli operatori del settore a pensare in modo nuovo e differente, ad affrontare nuove sfide e a indicare gli strumenti necessari ad affrontare tali sfide.

Tramite questa rivista, la sempre più ampia comunità di Web librarians può avere a disposizione le ultime recensioni di libri o di altre risorse utili al loro lavoro, gli ultimi risultati delle ricerche, e regolari aggiornamenti sullo stato dell’arte nella biblioteconomia web, sui nuovi progetti di biblioteca digitale all’estero e sugli ultimi sviluppi nella catalogazione e nella classificazione dell’informazione digitale. Scopo del board di JWL è di creare una rivista con finalità specifiche e un’informazione rapida. Per ovviare a ogni ritardo nella pubblicazione, il testo è sùbito reso disponibile online, così come avviene anche con altri periodici come “Nature” o “Science”, e i loro esperimenti con le nuove tecnologie o gli strumenti del Web 2.0 sono intesi a rendere il prima possibile disponibili i risultati delle loro ricerche. Queste e altre notizie e informazioni sulla rivista sono reperibili sul blog editoriale, sul podcast e sul RSS feed.

Qui di séguito, alcuni esempi degli argomenti trattati nei primi numeri del JWL: web page design, test di fruizione della biblioteca o dei siti a essa correlati, catalogazione e classificazione dell’informazione digitale, nuovi risultati internazionali della biblioteca digitale, progetti di biblioteca digitale in Paesi diversi dagli Stati Uniti, uso del Web da parte dei ricercatori, information architecture, pagine Web di biblioteche di dipartimento, RSS feed, podcasting, servizi bibliotecari attraverso il Web, motori di ricerca, uso del “Wiki” per scambi professionali, uno studio di valutazione sull’uso di banner pubblicitari, un tutorial utile su come integrare il catalogo della biblioteca nella barra di ricerca di Mozilla’s Firefox, e altro ancora, in un buon insieme di ricerche approfondite e di suggerimenti pratici.
La Review Section, edita da Phillip M. Edwards, che attualmente insegna alla Information School dell’Università di Washington, dove è dottorando, si occupa di presentare una breve evoluzione del materiale pubblicato riguardante tecnologie emergenti e argomenti relativi al mestiere di bibliotecario. Una visita qui permette di ottenere maggiori informazioni su libri ricevuti, recensioni in corso, o anche informazioni sul numero in uscita, ed è anche una miniera di informazioni e un modo di tenersi aggiornati riguardo alle pubblicazione nel settore. Il materiale recensito nella rivista è elencato su Amazon e può essere ordinato.

I numeri più recenti offrono, nel medesimo modo, una vasta gamma di articoli, che comprendono: cosa fanno le biblioteche con il social Web, come accedere online al patrimonio culturale e storico della Scozia, che cosa fa il webmaster di biblioteche accademiche medio-piccole, l’utilizzo dei course packs digitali per promuovere l’alfabetizzazione informatica tra i nuovi immatricolati, uno studio di fattibilità sull’uso di MetaLib, uno studio di usabilità per studenti sull’homepage delle biblioteche dell’Università del Western Michigan, la ricerca bibliografica con l’ausilio di LibX e di Zotero (due fortunate estensioni open source di Firefox), che cosa vuole l’utente (riorganizzare il sito web sulla base dell’analisi svolta, promuovere lo sviluppo della comunità d’apprendimento online, casi di tutoraggio online, come rapportare le tecnologie sociali con il processo di alfabetizzazione informatica, venti suggerimenti per la promozione commerciale di una biblioteca), e altro ancora.

Sia gli articoli di ricerca più propriamente accademica sia quelli di pratica Web sono “peer-reviewed”, un processo che non durerà più di 6 settimane, assicurano i redattori (Joe James crede fermamente che essere “peer-reviewed” sia importante e che garantisca la qualità delle pubblicazioni). JWL cerca, così, di trovare un equilibrio tra la ricerca accademica originale e articoli di taglio pratico. Recentemente, la rivista ha lanciato un “call for papers” che riguarda siti di biblioteca ai fini della valutazione e degli studi di usabilità. Le metodologie possono essere quantitative e qualitative, studi longitudinali, focus group, indagini, questionari, interviste e altro. Gli articoli possono comprendere la valutazione per il test di nuove metriche che hanno l’utente come riferimento centrale.

JWL è, insomma, una rivista importante per bibliotecari specializzati sulla Rete o sulle risorse digitali, e per quei ricercatori che riconoscono nella biblioteca digitale uno strumento utile al proprio lavoro. D’altro canto, tuttavia, mente si sa che attività a valore aggiunto come il peer-reviewing, il copyediting e la stampa sono cruciali per la comunicazione scientifica ma che sono, nel contempo, strumenti costosi, si sarebbe sperato che una rivista così start-up e di tale natura avrebbe optato per un modello differente di pubblicazione. Inoltre, l’editore pretende che gli autori concordino nel trasferire il copyright dei loro lavori alla Hawthorne Press, anche se permette che essi mantengano i diritti di distribuzione del preprint dei loro articoli e che l’autore possa aggiornare il suo preprint con la versione finale dell’articolo, dopo la review and revision dell’editore scientifico.

Semmai, nel momento stesso in cui i bibliotecari stanno giocando un ruolo accresciuto nella distribuzione dei risultati scientifici della loro istituzione, nel momento in cui hanno cominciato a promuovere la tutela della riserva accademica sul copyright dei loro ricercatori e stanno criticando il potere economico e gli enormi profitti che dà agli editori il mantenimento della proprietà degli articoli, la decisione di pubblicare una rivista così innovativa scritta da e per bibliotecari - la maggior parte dei quali lavora in università - con un editore commerciale è, probabilmente, una scelta non felice.

JWL è una rivista internazionale e peer-reviewed, trimestrale pubblicato da Haworth, da poco assorbito dalla Taylor & Francis. Le informazioni sugli abbonamenti possono essere reperite sulla pagina web della Haworth. Un singolo abbonamento permette l’accesso online da parte dell’intero campus.
[post-print da "Il bibliotecario", III serie, ISSN 11250992, 3/2008, p. 140-143]

Turn

Successivamente ad altre ricerche condotte sull’information retrieval in context, Peter Ingwersen affronta con Kalervo Järvelin la possibilità di integrare information seeking con information retrieval mediante lo sviluppo di uno schema cognitivo di tipo olistico. Non più, dunque, IS separato da IR ma IS&R. Se il retrieval funziona per stringhe testuali, il seeking utilizza qualsiasi altro strumento: da una parte, dunque, testo affrontato in modo positivistico; dall’altra, un andare alla scoperta, a valutazione qualitativa e interpretativa, dell’informazione appropriata a seconda dei cómpiti assegnati, delle ricerche in oggetto, fino alla vita quotidiana dell’utente, indipendentemente dal supporto sul quale l’informazione è depositata.

Al di là dello scritto, per esempio, c’è la comunicazione verbale e, al di là di questa, c’è quella non verbale. Ma, anche rimanendo nell’àmbito dello scritto, si sa che la totalità del documento significa assai di più della somma delle sue stringhe di testo o, comunque, di tutti i descrittori simbolici dei quali è composto. Siamo, evidentemente, nel dominio delle scienze cognitive, quel settore interdisciplinare che si avvale di psicologia, gnoseologia, linguistica e intelligenza artificiale che a sua volta reca con sé cibernetica, teoria dell’informazione, teoria della decisione, e che tutte insieme presuppongono che l’elaborazione dell’informazione negli esseri viventi non sia qualitativamente (molto) diversa da quella che è operabile da un elaboratore elettronico. Se questo è vero su un piano grossolanamente operativo per la maggior parte dei concetti che agitano la mente, c’è pur sempre da ricordare F. W. Lancaster quando osservò che tra mente e calcolatore era proprio l’hardware dei due a essere diverso...

La soluzione prospettata, però, lungi dall’abbandonare i punti di vista cognitivisti, intende espanderli e l’innovazione consisterebbe proprio nella nuova (tanto da suggerire il titolo del volume “The turn”, appunto) attenzione data al contesto nel quale il documento (qualsiasi esso sia) viene costruito, elaborato, cercato, per cui verrebbero ad assumere importanza cruciale il tempo, lo spazio, la storia dell’interazione uomo-informazione: il seeking/retrieval si orienta, dunque, anche verso il mondo di colui che sta cercando.
In Italia, per quanto se ne sa, non ne ha parlato nessuno, anche se l’opera è di più di due anni fa.
  • The turn. Integration of the information seeking and retrieval in context / Peter Ingwersen, Kalervo Järvelin. - Berlin Heidelberg : Springer, 2005. - ISBN 140203850X, e-book ISBN 1402038518.
[post-print da "Il bibliotecario", III serie, ISSN 11250992, 3/2008, p. 139-140]

Scientografia

Se dal Medioevo in poi uno dei sogni persistenti è stato la costruzione di una grande mappa delle scienze, l’informatica odierna può aiutare sia nella costruzione stessa sia nella sua visualizzazione e a diversi gradi di complessità. Se ne stanno occupando due ricercatori spagnoli, entrambi attivi nella Facultad de Biblioteconomía y Documentación dell’Università di Granada. Benjamín Vergas-Quesada scrive regolarmente anche su “El profesional de la información” e da tempo si occupa di epistemologia, mentre Félix de Moya-Anegón ha pubblicato molto sull’information retrieval anche multimediale.

Insieme, i due affrontano il tema della scientografia, la disciplina che si occupa della mappatura grafica e concettuale della scienza, ai fini di una sua migliore comprensione e, quindi, diffusione, ma anche utile nella delimitazione dei confini di nuove discipline, specialmente quando queste nascono entro aree adiacenti di altre discipline. Per esempio, la bioinformatica o le nanotecnologie, per citare i casi più recenti. Le analisi scientografiche consentono anche di scoprire connessioni inedite tra le categorie di un determinato settore disciplinare, con la conseguenza che la rappresentazione grafica dei legami interdisciplinari può conseguire già da sola una semplificazione concettuale delle discipline stesse, insieme con una migliore percezione della loro complessità strutturale, soprattutto a vantaggio dei ricercatori o dei documentalisti neofiti di un determinato dominio concettuale.

La metodologia impiegata applica le tecniche algoritmiche del pathfinder networks (PFNET), dell’analisi di dominio, del social network, del clustering, ai dati bibliometrici relativi agli autori e alle loro opere citate e co-citate, così come sono presenti nel “Journal of citation report” (Thomson) sia nella versione SCI (science citation index) sia in quella SSCI (social science citation index) applicati soprattutto alla letteratura scientifica spagnola. Verrebbero così evidenziate le connessioni più significative tra le categorie di un determinato dominio, oltre a mostrare come queste stesse categorie si raggruppino in macro-aree tematiche e come funzionino le inter-relazioni logiche interne, oltre a presentarne le varietà differenziabili.
Dal sito sono scaricabili gli scientogrammi a colori che nel testo sono riportati in gamme di grigio.

Una sintesi sul “midollo” della cosa è leggibile sul “Journal of the American Society for information science and technology”, 58(14):2167-2179, 2007 Visualizing the structure of science / Benjamín Vergas-Quesada, Félix de Moya-Anegón. - Berlin Heidelberg : Springer, 2007. - ISBN 9783540697275.

[post-print da "Il bibliotecario", III serie, ISSN 11250992, 3/2008, p. 138-139]

Liquefazione

L’iniziativa di "Liquidpub", curata da Fabio Casati, Fausto Giunchiglia e Maurizio Marchese dell’Università di Trento, nasce da Publish and perish: why the current publication and review model is killing research and wasting your money, pubblicato dai tre autori su “ACM Ubiquity” nel febbraio del 2007. A esso fa naturale séguito il più recente - dello scorso ottobre - Liquid publications: scientific publications meet the web. Changing the way scientific knowledge is produced, disseminated, evaluated, and consumed, e che costituisce il documento d’apertura di liquipub.org.

Il mondo delle pubblicazioni scientifiche - sostengono - continua a comportarsi come se il Web (e il Web 2.0) e la tecnologia dell’informazione e della comunicazione, non esistessero, continuando piuttosto a basarsi sui paradigmi tradizionali della pubblicazione a stampa e del controllo di qualità dei pari. Il risultato è che ogni innovazione portata a un risultato scientifico continua a produrre un nuovo documento a stampa essenzialmente statico, senza vero riuso né evoluzione della pubblicazione e, fatto non secondario, con un tempo abbastanza lungo per la sua diffusione nella comunità scientifica di riferimento nonché - ed è forse questa la conseguenza che giudicano più grave - con un continuo accavallarsi di nuove pubblicazioni in un’ansia isterica da pubblica-o-muori, ciascuna originale nell’identificazione della proprietà intellettuale, ma assai poco originale nei contenuti. Le “pubblicazioni liquide” dovrebbero invece seguire le modalità evolutive del software, specialmente di quello aperto, per il quale un innovatore non riscrive, aggiornandolo, il vecchio manufatto, ma semplicemente lo integra con le novità apportate.

Ne discendono alcune conseguenze. Nascerebbero oggetti cognitivi che si presentano come evolutivi, collaborativi e sfaccettati e che potrebbero essere composti e fruiti a diversi livelli di dettaglio, anche a quello di “lavoro in corso”. Si potrebbe operare una rimozione e una sostituzione del concetto stesso di rivista e di convegno, così come ordinariamente costrette nelle fattispecie di collezioni editoriali spesso non coerenti con i contenuti ma che, viceversa, attraggono le pubblicazioni per la fama editoriale riconosciuta alla collezione stessa: queste concezioni di “rivista”, “convegno” e “collezione” diventerebbero presto obsolete per quanto consistono, oggi, di istantanee periodiche di documenti più o meno unitari nell’argomento e sottoposti a, e selezionati da, una determinata élite. Infine, verrebbero mutati anche i criterî di valutazione dello scritto, sulla base dell’interesse che ha suscitato nella comunità di riferimento e dei contributi innovativi che ha stimolato, più che sulla base di considerazioni a priori da parte di “pari” e di “esperti”.

La discussione (internazionale) è sollecitata: gli autori invitano ad acquisire gli esempi proposti sul sito Web e scrivere commenti all’indirizzo liquidpub@liquidpub.org.

[post-print da "Il bibliotecario", III serie, ISSN 11250992, 3/2008, p. 137-138]

Knowware

Il termine non è nuovo, e da tempo aziende informatiche promettono di vendere il loro knowware su Web. In più, sull’opposizione hardware/software si sono create altre dicotomie, come firmware/staffware per contrapporre la struttura aziendale al personale che la fa funzionare, e termini come brainware (competenze presenti un un gruppo), knowware appunto (patrimonio di esperienze operative) o shareware, bannerware, crippleware, eccetera. Ma il termine può essere interpretato in modo nuovo, soprattutto per le scienze dell’informazione.

Illustrando il progetto giapponese della quinta generazione di calcolatori (sostanzialmente, calcolo parallelo con obiettivo l’intelligenza artificiale), Edward A. Feigenbaum scrisse che si entrava (1983) in un’era di «knowledge industry in which knowledge itself will be a salable commodity like food and oil», concludendo con una profezia che avrebbe virtualmente gettato le basi del knowledge management: «knowledge itself is to become the new wealth of nations».

Se ogni merce ha la sua forma, qual è la forma della conoscenza come merce? La risposta varia a seconda dei casi. Per esempio, nel caso delle industrie manifatturiere, questa forma è il brevetto; nel caso delle pubblicazioni, è il diritto d’autore; ma, nel caso del software, la risposta è più complessa, perché si dovrebbe separare la conoscenza contenuta nel software dal software stesso: a ciascuna delle due componenti si applicano diverse forme (e protezioni) della proprietà intellettuale. Ora, le basi di conoscenza sono contenute in ampi moduli software chiamati “sistemi”, ma non è facile separare l’una cosa dall’altra e usare, per esempio, una certa base di conoscenza in un sistema diverso da quello originario perché una base di conoscenza è sensibile al contesto e non costituisce una merce indipendente. Inoltre, una base di conoscenza è spesso incorporata in un determinato sistema gestionale, per cui il risultante intreccio di conoscenza e di codici software è ancor più difficile da separare.

Ruqian Lu, matematico dell’Accademia cinese delle scienze, ritiene di aver trovato la soluzione, ponendo le basi tecniche e normative di ciò che chiama “comprensione del linguaggio pseudo naturale” per la separazione abbastanza automatica dei processi di sviluppo di una shell relativamente stabile (per la gestione dei rapporti fra uomo e macchina) dai processi di sviluppo di una determinata base “mobile” di conoscenza. Le due parti, sostiene, possono essere sviluppate separatamente e indipendentemente l’una dall’altra, purché si seguano norme precise e invalicabili. Si creerebbe, così, una concentrazione della conoscenza - altrimenti distribuita o diluita in un software - entro un nucleo (core) modulare, indipendente e intercambiabile. Questo nucleo di conoscenza può ben, allora - sostiene l’autore - caratterizzarsi come merce identificabile e, soprattutto, indipendente dal contesto. È ciò che egli chiama, appunto, “knowware” tertium genus dopo hardware e software, suscettibile, così, di brevetto o di copyright autonomi.

L’opera è pubblicata in Italia da "Polimetrica", casa editrice diretta da Giandomenico Sica della Bicocca di Milano, che pubblica di conoscenze innovative. Il volume in questione, protetto da un’ampia licenza creative commons, è liberamente scaricabile in PDF da eprints.rclis.org/archive/00012119; è strutturato come FAQ cioè come risposte a domande (fittizie); ogni voce esibisce i termini contenuti nell’argomento; è corredato da un buon indice analitico.
  • Knowware the third star after hardware and software / Ruqian Lu. - Monza: Polimetrica, 2007. - ISBN 9788876990953, e-ISBN 978887699050, ISSN 19736061, e-ISSN 19736053
  • The fifth generation : artificial intelligence and Japan’s computer challenge to the world / Edward A. Feigenbaum, Pamela McCorduck. - Reading, Mass.: Addison-Wesley, c1983. - ISBN: 0201115190
[post-print da "Il bibliotecario", III serie, ISSN 11250992, 3/2008, p. 136-137]