lunedì 7 marzo 2011

Culturomica

O culturomics per chi ama gli originali, è il nuovo servizio infor-biblio-scientometrico che innova l’informatica umanistica - talché il NYT è pronto a parlare di «Humanities 2.0» -  appoggiato sull’inevitabile Google da parte di ricercatori di Harvard che hanno messo a punto il grafico di un n-gramma markoviano su una popolazione di dati estratti dal 4% di tutti i libri mai scritti in sei lingue per un totale di 500 miliardi di parole, presenti su Google Books: «scrivete una parola o una frase in una delle sette lingue (inglese, francese, tedesco, spagnolo, ebraico, russo, cinese) e guardate come la sua frequenza di utilizzo è cambiata nel corso dei secoli scorsi» invita l’home page di Culturomics.

Oggi la risorsa è però ancora ottimizzata per la sola lingua inglese del periodo 1800-2000. Scienziati di varie discipline dall’Università di Harvard hanno creato, così, un Google Books N-gram Viewer  che fornisce elementi statistici in campi diversi come la lessicografia, la grammatica, la memoria collettiva, l’uso della tecnologia, la fama, la censura, l’epidemiologia storica.

Per citare un esempio fornito da Patricia Cohen, scrivendo la parola “women” in confronto con “men” si può vedere l’evoluzione della frequenza dei due termini, stabile fino all’arrivo del femminismo degli anni ’70 che ha capovolto e incrementato il rapporto di frequenza.

La risorsa, sostengono ad Harvard, può accelerare, tra l’altro, lo studio dell’evoluzione del linguaggio per l’aggiornamento dei vocabolari.
[pre-print per "Il bibliotecario", III serie, ISSN 11250992, 1-2/2011]

Griglie e nuvole (e folla)

E s’intenda grid e cloud, sottinteso computing, dove la prima è nota come architettura di calcolo distribuito per l’elaborazione di grandi quantità di dati mediante la condivisione coordinata di risorse all’interno di un’organizzazione virtuale, come la griglia di calcolo scientifico del CERN, per esempio, e che è fonte storica della seconda e nella quale i confini tra le risorse non sono più così dettagliati e i serventi non così più specializzati (basta una serie di PC domestici) per condividere, soprattutto, documenti e informazioni alla riduzione dei costi, alla semplificazione della gestione e al dono dei rischi al fornitore, che è fornitore non di prodotti ma di servizi («I prodotti stanno diventando servizi», scriveva Marshall McLuhan nel 1966) : tutto ciò che usiamo in rete compresa la banca sotto casa è ormai appollaiato su una qualche nuvola, da qualche parte... con una tale assenza di garanzie giuridiche da preoccupare chi teme numeri così grandi nelle mani di così pochi grandi affidatari di organizzazioni così complesse (che varranno 150 miliardi di dollari nel 2013) presso le quali depositare i nostri dati “sensibili” e dei quali non si è sempre certi di poter mantenere la proprietà esclusiva.

Poi è arrivato il 2.0 che ha pensato bene di espandere griglie e nuvole di macchine a una folla di persone: crowd computing, appunto, o crowd source, da rendere pletorico il concetto stesso di calcolatore come oggetto fisico (ma anche di mente individuale, almeno a credere a Cinecarta, «Il Bibliotecario» 3-4/2010) insieme con l’obsolescenza dei concetti e delle prassi di download e di upload perché tutto si tiene in un altrove sempre accessibile e quindi sempre disponibile.

Grazie a griglie e nuvole, aziende come InnoCentive, per dirne una, vendono servizi di analisi statistica ed economica, di progettazione industriale e di problem solving con investimenti “leggeri” in infrastrutture altrimenti impossibili senza il ricorso al calcolo distribuito. Ma non ci sono solo, in altri campi, Wikipedia o Facebook: c’è da poco anche Digitaltkoot  della biblioteca nazionale finlandese per digitalizzare i suoi testi ripartendo tra gli utenti volontari la correzione dei caratteri non riconosciuti dallo scanner e che si presenta come un video-gioco a premi, per fuggire la noia della ripetitività, vincere qualcosa e sentirsi parte di una comunità utile alla cultura finlandese.
Quanto è grande questa griglia di nuvole in mano alla folla? Non poi molto, apparentemente: meno di un 1 seguito da cento zeri - il Numero di Googol - (ma la quantità approssimativa delle partite a scacchi possibili è potenza 120 di 10) e che è sempre, però, più grande della stima del numero delle particelle subatomiche nell'universo cosiddetto “conosciuto”, che, dicono, si aggira “solo” intorno alla potenza 70 di 10...
[pre-print per "Il bibliotecario", III serie, ISSN 11250992, 1-2/2011]

Hita-hita

Ovvero, in giapponese, qualcosa che penetra delicatamente e senza intoppi (gently and smoothly) come spiega un documento della Digital Repository Federation nipponica sulla politica di advocacy (patrocinio, appoggio, propugnazione...) dell’Open Access negli archivi istituzionali. È metodo contrario a quello, faticoso e di scarso risultato, cosiddetto “del bastone e della carota” generalmente in uso nel nostro mondo, attraverso il quale le università, gli enti di ricerca o i governi cercano di “costringere” i ricercatori a depositare gli esiti documentali della loro attività scientifica in archivi di libero accesso alla comunità internazionale, prospettando (carota) grande visibilità e alti fattori d’impatto oltre che (bastone) la consapevolezza che solo il materiale in essi archiviato verrà utilizzato per valutare la produttività scientifica individuale anche ai fini dell’ulteriore finanziamento delle ricerche.

Come tutto ciò che vuol adottare il metodo della dolcezza, queste penetrazioni richiedono una lunga e paziente preparazione di ammorbidimento e umidificazione psicologica della parte, attraverso azioni di informazione capillare gestite dai bibliotecari, conversazioni con i ricercatori, diffusione di materiale illustrativo, pubblicazione a passo a passo dei risultati, condivisione di problemi e appello alla discussione di idee per la loro soluzione. Una soluzione dai migliori esiti del knowledge management che, non a caso, è strategia industriale da Sol Levante...

Sono così oggi in Giappone 122 le istituzioni che detengono globalmente 760 mila articoli (una media di più di 6000 articoli a istituzione su un totale europeo di 250 archivi che valgono in tutto due milioni e mezzo di documenti, con una media di mille articoli a istituzione).


[pre-print per "Il bibliotecario", III serie, ISSN 11250992, 1-2/2011]

Peer Web

Per prima ha cominciato, nel suo sessantesimo compleanno, la «Shakespeare Quarterly» e ora ci sta provando anche «Postmedieval» ma già da tempo la cosa è corrente nel mondo umanistico della Matematica dove, usando blog e wiki, nel giro di una sola settimana è stato pubblicato e valutato un articolo, decidendo di non usare il metodo tradizionale, che in genere impiega mesi o anni per conseguire il medesimo risultato.

«Shakespeare Quarterly» - annuncia Katherine Rowe, guest editor dello speciale 61:4, “Shakespeare and New Media” - ha infatti condotto da marzo a maggio 2010 un esperimento di parziale open peer review.

Ne dà conto in Italia «CIBER Newsletter» (sul sito sono riportate le fonti), raccontando come accademici umanistici comincino a sfidare il sistema del peer review tradizionale chiedendosi se non ci sia un modo più efficace, usando Internet, per sottoporre il prodotto a un giudizio rapido e collettivo di un pubblico più ampio, invece di dipendere da pochi esperti scelti dagli editori - e a costi più alti. La Rivista di cui sopra ha infatti invitato a fare commenti scientifici su quattro articoli già sottomessi a giudizio da un gruppo "interno", tanto per godere della scientificità del confronto con un gruppo di controllo. 

Alla fine dell’esperimento, 41 persone hanno fatto più di 350 commenti di buona qualità, spesso sollecitando à rebours i commenti degli autori che, in questo modo, sono stati coinvolti a confrontarsi, e sùbito, con i propri lettori, innescando così, anche, una circolarità virtuosa del dibattito scientifico, approdando a un'intelligenza e a un'autorialità, di fatto, collettive.

[pre-print per "Il bibliotecario", III serie, ISSN 11250992, 1-2/2011]

Ovo Qwiki

Ovvero: guardare l’informazione.

L’invenzione di cui a <www.qwiki.com> (in fase alpha e accessibile ancora solo per inviti), è stata premiata da CrunchBase 2010 che valuta le idee più innovative del web e consiste in una enciclopedia multimediale nella quale la consultazione sfrutta la trasformazione automatica di fonti testuali e visive in presentazioni video, grafica e in una voce narrante che racconta al non lettore i fatti salienti di un personaggio, un fatto storico, una città, un tipo di tecnologia, un genere musicale. Il processo di trasformazione è completamente automatizzato non prevedendo l’intervento umano nella creazione dei filmati. L’idea nasce da un ex-collaboratore di Facebook, Eduardo Saverin e dal fondatore di YouTube, Jawed Karim.

Diversa ma correlata nelle prospettive è l’iniziativa italiana di Ovo <www.ovo.com> creata in due tempi da Andrea Pezzi (che condivide con Vincenzo Monti la nascita ad Alfonsine) e che la racconta in Fuori programma, Bompiani, 2008. A differenza di Qwiki - e a parte il diverso ammontare di finanziamento e il numero di informazioni disponibili - Ovo non è costruita automaticamente, si presenta con una ricca interfaccia grafica cliccabile ed è organizzata in categorie: Ovobio (uomini e donne che hanno fatto la storia), Ovopedia (sapere enciclopedico) e Ovopolis (le strutture culturali create dall’uomo).

La vera novità sta però altrove, e consiste nel rifiuto di qualunque contributo user generated o frutto di un lavoro di crowd sourcing, a vantaggio di voci firmate, edite ed eventualmente anche finanziate dal singolo autore, che diviene così “proprietario” di una voce d’enciclopedia, fino al mecenatismo culturale di aziende che usano questa forma di editoria per acquisire spazio pubblicitario.


[pre-print per "Il bibliotecario", III serie, ISSN 11250992, 1-2/2011]

Vook

Non è Video, non è Book ma la sincresi di entrambi (a meno di non tradurre il neologismo in Vibro...). Lo ha lanciato ormai da più di un anno l'editrice americana "Simon & Schuster" con <vook.com>, immettendo sul mercato un brevetto di Bradley Inman, creatore di una piattaforma innovativa sulla quale tutte le forme di media possono integrarsi per realizzare nuove esperienze di comunicazione.

Il video-libro o libro+film è scaricabile per pochi dollari da iTunes (ma per il San Valentino del 2011 bastavano 99 centesimi) sul proprio iPhone o iPod, iBook, iPad, Kindle, o direttamente online e, se all’inizio conteneva soprattutto manuali didattici e qualche prima opera di narrativa (come  un racconto di Anne Rice sui vampiri corredato anche da un booktrailer girato dal figlio), il catalogo è ora più ricco e completo.

La lettura del libro (o, in misura minore, l'ascolto della radio), proprio perché priva di figure (proprio quelle che Alice avrebbe desiderato incontrare nella lettura), consente all'immaginazione di costruire lo scenario e le fisionomie in piena autonomia, così che due letture del medesimo libro, anche da parte del medesimo lettore, non dànno all'intelletto il medesimo risultato. Un film o uno spettacolo teatrale o un fumetto consentono, viceversa, seppur in differenti misure, un'interpretazione meno o per nulla personalizzata perché castrante della struttura imaginifica di ciascuno e impositiva di soluzioni visive scelte da altri, anche se è vero che l’immedesimazione emozionale del “lettore” con l’eroe della storia avviene in modo più rapido e profondo. Comunque sia, l'integrazione di due modi tanto differenti di percorrere una storia creerà, verosimilmente, un nuovo tipo esperenziale di lettura: immersiva, estrattiva, didattica o tutte e tre insieme o una quarta forma ibrida di interattività che ancora non conosciamo?

In ogni caso: «Noi crediamo che sia possibile "vookkare" ogni libro», dice Bradley Inman, fautore del trionfo di ogni comodità: guardare di più e lèggere di meno.

[pre-print per "Il bibliotecario", III serie, ISSN 11250992, 1-2/2011]

Zotero e gli altri

Zoh-tair-oh, come dicono gli anglosassoni, deriva dall’albanese zotëroj che significa “padroneggiare”, “imparare particolarmente bene” ed è un’applicazione di Mozilla Firefox (ma da febbraio 2011 è disponibile in standalone anche per i browser Chrome e Safari) che dal 2006 aiuta a compilare bibliografie estratte da pagine web oltre a costruire una base di dati bibliografici personale. Da settembre 2010 è disponibile anche nella versione everywhere che consente l’accesso al proprio materiale anche da Web e da mobile con controllo di username e password.

Vi è memorizzata all’origine una quindicina di stili di citazione (dal “Chicago manual of style” a quello della IEEE o della National Library of Medicine e altri) ma è possibile incorporare stili usati da quasi 1500 riviste. Intrepreta interamente le schede di quasi 400 OPAC internazionali - SBN ovviamente escluso - e altri solo parzialmente. Capostipite storico del servizio è BibTeX, a sua volta evoluzione di LaTeX, per la formattazione di liste bibliografiche e glorioso nella scrittura di formule matematiche, usato come output da molte basi di dati bibliografiche, come quelle di Amazon, di CiteSeer, di PubMed e altre. Zotero non è però unico nel suo àmbito, anche se è per ora il solo che può lavorare direttamente da pagine web: tra gli affini, Aigaion, Bib-it, Jabref, Pybliographer, Referencer,  RefTeX e BibDesk (per Mac OS X).

Che ne avrebbe ricavato un Conrad von Gessner?

[pre-print per "Il bibliotecario", III serie, ISSN 11250992, 1-2/2011]

mercoledì 15 dicembre 2010

Nube delle Nozze al 14 dicembre 2010

lunedì 15 novembre 2010

Cinecarta

Non è la tessera d'abbonamento al cinema ma, secondo Pierre Lévy, lo strumento d'identità degli intellettuali "puri" e quasi angelici che abitano lo "spazio" del Sapere (quarto elemento antropologico, Noolitico, della storia del mondo, dopo - ma compresenti nelle coscienze - la Terra, il Territorio e la Merce). A differenza del nome (iscrizione in una genealogia terrestre), dell'indirizzo (iscrizione in un confine territoriale), e della professione (iscrizione in un àmbito merceologico), che tendono alla permanenza nel tempo, non è facile essere riconoscibili nella e da parte della collettività a seconda del sapere (savoir) del quale si è portatori, se non altro perché il sapere di ciascuno e di tutti è un'entità non solo interiore e riservata che esce raramente allo scoperto ma anche mobile e in continua trasformazione e che, di fatto, de-gerarchizza tutti gli altri segni di riconoscimento più esteriori. Inutile, allora, combattere contro l'intrinseca de-strutturazione che la conoscenza (savoir) esige: meglio premere il pedale dell'acceleratore e rinunciare a staticizzare qualcosa che è fluido, cinetico (appunto) e caotico nel senso esiodeo. Questo miracolo lo fa, per Lévy, il ciberspazio, eccetera.


La cinecarta è, intende l'Autore insieme con Michel Authier, il solo documento d'identità valido a rappresentare la totalità dell'individuo al di là e al di sopra (o al di sotto) delle cristallizzazioni della personalità, che tendono a sclerotizzare il mutamento in segmenti lineari e codificati a-priori, controllabili (e non solo dagli psicologi). Paradossalmente, qui lo sbocciare delle potenzialità dell'individuo sembra realizzabile solo accedendo a un'intelligenza collettiva che fa e disfa, tesse e sfila in modo ricorsivo e cooperativo i contenuti dell'orizzonte dei segni, sottraendolo alla logica binaria, non-contraddittoria e coercitiva dell'appartenenza. Il ricorso alla realtà virtuale, così, consente di possedere tante identità quanti sono i "corpi virtuali" che di volta in volta assume quel "cervello collettivo" che è, propriamente, la totalità del sistema cognitivo. È un'organizzazione topologica di relazioni e rapporti tra punti-segno che esprimono qualità. Ogni punto-segno è però una struttura ipertestuale e al suo interno vi sono ulteriori informazioni; insomma, una realtà virtuale, un ciberspazio generato dalle attività esplorative di un intellettuale collettivo in seno a un universo dell'informazione. «Nello spazio del Sapere, l'uomo ridiventa nomade, rende plurale la propria identità, esplora mondi eterogenei, è egli stesso eterogeneo e multiplo, in divenire, pensante». «È un nuovo umanesimo che passa dal cogito cartesiano al cogitamus».


Di conseguenza, quando l'intreccio degli Spazi (Terra, Territorio, Merce) era configurato da rapporti diretti tra gli individui (pensiamo al lavoro artigianale e al minimo - per noi - della tecnologia), la realtà poteva essere reale; le conseguenze non solo sociali ma anche intellettuali del lavoro alienato fanno ora sì che solo nella realtà virtuale e tecnologica sia possibile ricostituire un'identità autentica ma che si dà solo nel collettivo. L'intelligenza collettiva. Per un'antropologia del cyberspazio (Feltrinelli, 1994) segna e fonda la scomparsa di quell'essere individuale che la tecnologia aveva inteso, viceversa, "liberare".


[pre-print per "Il bibliotecario", III serie, ISSN 11250992, 3-4/2010]

Diogene

Secondo Marcos Ros-Martín, i primi navigatori della Rete soffrivano di un’acuta “sindrome di Diogene” ma al contrario, nel senso che il timore della morte li induceva a sognare, "alla Borges", che tutto dovesse essere conservato e, per farlo, bisognasse riporlo da qualche parte e che, quando il contenitore fosse pieno, si dovesse trasferire il tutto in uno più grande (a patto che nel trasloco non si perdesse qualcosa). Tra l’altro, è quanto ci accade quando cerchiamo una casa più grande perché la libreria è talmente satura da non accogliere più nemmeno un foglio. All’inizio fu così per i file di testo, poi per quelli sonori e via via per tutte le forme degli oggetti della comunicazione elettronica che dicono multimediale. Unica alternativa, inventare sistemi di compressione degli archivi in grado di far risparmiare spazio - cosa che non possiamo fare per la libreria domestica.


Ma fu tutto inutile, continua Ros-Martín: dai primi contenitori floppy si è sì passati ai CD poi ai DVD e ora alle pen-drive, cioè contenitori sempre più piccoli ma con capacità maggiori, mentre il problema della conservazione non risiede, tanto, nelle dimensioni del contenitore, quanto e piuttosto nell'organizzazione del contenuto, cioè nella catalogazione del materiale conservato che, come si sa, ha l’unico obiettivo di consentire l’efficacia del recupero. Il fatto è che, con il passare del tempo, a meno di disporre di un sistema catalografico ferreo e permanente e sempre rispettato, non ci ricordiamo più qual fosse la chiave d’accesso: sconsolati guardiamo e con sospetto le cartelle chiuse del nostro PC cercando di immaginare che cosa possano mai contenere... Così, spesso si reinterroga la Rete (e oggi la “Nube”, dove l'inter-operabilità vige al suo massimo delle possibilità) cercando all’esterno qualcosa che, invece, custodiamo da qualche parte in casa, ma dove?


È qui, conclude Ros-Martín, che il vecchio Cinico prende la sua rivincita: l'evoluzione in senso sociale della tecnologia di rete realizza finalmente il nuovo-vecchio sogno di non conservare nulla ma tutto acquisire quando serve, come se fosse la prima volta, da contenitori esterni ai quali demandare non solo conservazione, e sicurezza, dei documenti (come con la nostra posta elettronica, come con le nostre immagini e i nostri filmati digitali depositati e condivisi, se del caso, sui varii Google-mail, Google-Docs, Flickr, YouTube, SlideShare, eccetera) ma anche, rinunciando all’intelletto individuale per fiducia nell'intelligenza collettiva "alla Pierre Levy" della Folksonomy, per l'elaborazione e l'uso diffuso dei codici semantici necessari per scoprire, individuare e identificare gli oggetti quando e se ne abbiamo ancora bisogno. L'oggetto insieme con il metodo e con lo schema euristico.


Oppure, riflettiamo, sulla medesima linea ma in un altro universo, non riempirsi a priori le "librerie" di casa ma lavorare in biblioteca... dove, tra l'altro, viene obbligatoriamente riconfermata, almeno fino a ora per dovere di fisicità dei supporti, un'identità di forma con contenuto che si è, intanto, perduta per strada con l'approdo al digitale: insieme, una grande opportunità e una fonte di angosce sul nostro destino identitario. Quanto il versioning degli scritti incide sulla conservazione dei documenti? Quanto la ridondanza obbligata dei documenti (come la tiratura degli esemplari cartacei) garantisce approcci filologicamente corretti all'esemplare unico? L'eco-sistema costituito da Internet è davvero in grado di scartare automaticamente le copie alterate o del tutto false?

Marcos Ros-Martín, El fin del Diógenes digital, «El documentalista enredado», settembre 2010.


[pre-print per "Il bibliotecario", III serie, ISSN 11250992, 3-4/2010]

Informivori

Primo a buttare il sasso in piccionaia (si fa per dire, perché è storia vecchia, dai tempi del contrasto di Thamus con Thot, almeno a credere al Fedro di Platone) è stato Nicholas Carr nell’articolo Is Google making us stupid? («The Atlantic Magazine», luglio-agosto 2008) che ha creato scandalo mediatico ma poi, in tempi recenti, a cominciare da Frank Schirrmacher di La libertà ritrovata. Come (continuare a) pensare nell'era digitale (Codice Edizioni, 2010) e passando per il numero speciale Internet ergo sum di «L'Internazionale» del 29 gennaio 2010, è tutto un improvviso rifiorire di commenti, da Clay Shirky con Does the Internet make you smarter? («The Saturday Essay», 4 giugno 2010) a Nick Bilton intervistato da Kayla Webley in Why the Internet isn't making us stupid («Time», 7 ottobre 2010), per finire con il "grande vecchio" Howard Rheingold (inventore del termine "comunità virtuale") che, tagliando la testa al toro, insegna come fuggire alla stupidità piegando ai propri fini la tecnologia, con How I use Twitter, search, Diigo Delicious, DEVONthink, Scrivener to find, refine, organize information --> knowledge che diffonde una lezione in streaming via screenr.com.


Un "Informavores rex" come stiamo diventando, convive comunque, stupidità o meno, secondo Schirrmacher, con un lato oscuro di se stesso: l'affanno dell'impossibile rincorsa all'informazione da acquisire, digerire e condividere con ritmi sempre più frenetici, talché «non saremmo più all’altezza degli impegni mentali della nostra epoca» perché la mente (ma qui e sempre confusa con il cervello) è indotta alla distrazione a causa del proliferare degli stimoli, nemici della concentrazione e, ancor più, della meditazione. Anche Pavlov, osserviamo, mostrava come la reiterazione dello stimolo facesse diminuire l'intensità della risposta e, viceversa, gli esicasti abbisognano solo della ripetizione continua di poche accurate parole, sempre identiche nei secoli... mentre oggi la funzione fantasticante (che per Zolla è tipica del burattino) diventa sfrenata e incontrollabile e preminente su quella immaginativa, proprio perché confinata in una realtà non corporea. E diverrebbe, insiste Schirrmacher, più sintetica: una sorta di taylorismo digitale che apparenta ai cómpiti lineari e binari dei microprocessori, per cui quando «la nostra attenzione è stata divorata» siamo portati a comportarci come secondo un programma, non riuscendo più a selezionare le informazioni rilevanti, ma agendo secondo degli script che processano chunk elementari (vedi «Il Bibliotecario», De nuptiis... alla voce Mapping) «Non sono né Internet né le tecnologie a limitare o instupidire la gente, bensì l’ansia di perdere il controllo e di conseguenza l’agire secondo un copione».


La soluzione? Insistere a proseguire nella direzione indicata anni fa da Wreckert e Ferguson, cioè aumentando le differenza fra uomo e macchina, perché «no machine can be made to function in the way that a human does, because of the different stuff of the hardware»...


Gabriella Longo, Animali informivori. La testa che non regge il passo della tecnologia, «Apogeonline», 15 ottobre 2010.

[pre-print per "Il bibliotecario", III serie, ISSN 11250992, 3-4/2010]

Inter-operabilità

L'inter-operabilità, nel senso di "azione reciproca", serve per unificare l'interscambio e l'interazione di sistemi diversi anche non omogenei e, quindi, per cooperare e scambiare informazioni o servizi per il riutilizzo delle informazioni, ovviamente non solo nell'àmbito di biblioteche digitali. Questa sinergia vale, infatti, per tutto ciò che deve consentire il ricorso a un unico mezzo di trasmissione per oggetti diversi, come le reti ferroviarie, telefoniche, stradali, ma anche basi di dati, governo dei flussi di lavoro e lo stesso XML. Poiché l'inter-operabilità sta diventando un diritto sancito anche dall'Unione Europea, specialmente dopo la "Dichirazione di Valencia" (22-24 novembre 2006) «per uno sviluppo efficiente, sostenibile e solidale dell’eGovernment e per la costruzione di un Governo Intelligente Comune Europeo (ECIG)», vale chiedersi se, chissà, esistano delle regole oggettive e, magari, quasi meccaniche, che la consentano.


Secondo William Arms («MIT Press», gennaio 2000), devono verificarsi due condizioni perché di inter-operabilità si possa parlare: costruire servizi coerenti le cui componenti individuali sono differenti nella tecnologia usata e sono gestite da organizzazioni diverse. Christine Borgman (id., ibid.) esige, da parte sua, tre altre caratteristiche: far lavorare insieme i diversi sistemi in tempo reale, garantire la portabilità del software su diversi sistemi operativi, nonché consentire lo scambio dei dati tra sistemi differenti. Paul Miller («Ariadne», 24, 2000) aggiunge invece che l'inter-operabilità non sia tanto dei sistemi quanto delle organizzazioni, purché pongano particolare enfasi alla gestione dell’informazione, e ne elenca sei aspetti radicali: quello tecnico come le vie di trasporto e comunicazione o le norme di rappresentazione dei dati, quello semantico e le sue nominazioni, quello umano o politico per le scelte strategiche di accessibilità e controllo, quello dell’integrazione delle comunità disciplinari o istituzionali, quello legale per l’accesso tra legislazioni tra Paesi differenti e quello internazionale con i suoi problemi di linguaggio e di approcci differenti alla tecnologia e alle prassi di lavoro.


In pratica, si tratta sempre della compresenza "al minimo" di due tipi inter-operabilità: quella tecnica e quella concettuale, che vanno previsti all'inizio dell'intero processo architetturale di un sistema informativo. Tutta la casistica è stata così sintetizzata dal “DL.org Policy Working Group” in tre soli caposaldi, perché quello tecnico comprende tutto ciò che è software e sistemi e dati, quello semantico tutto ciò che riguarda il contenuto fino all’inter-operabilità sintattica dei dati bruti e quello organizzativo aggrega tutte le istanze umane e politiche insieme con gli aspetti inter-comunitarii, quelli legali nonché la gamma delle differenze culturali internazionali.


I sistemi aperti facilitano la standardizzazione, che di suo è strettamente connessa con l’inter-operabilità e con la necessità di poter procedere alla decompilazione del software (risalire dal codice "oggetto" a quello "sorgente") al fine di conseguire i medesimi risultati anche con prodotti differenti. È per realizzare questi obiettivi - affermano Herbert Kubicek e Ralf Cimander presentando nell’«European Journal of ePractice», 6, gennaio 2008, una ricerca iniziata nel maggio 2008 - che dovrebbe impegnarsi la politica dei governi per far muovere in questa direzione le istituzioni preposte ai grandi sistemi che garantiscono accesso alla letteratura scientifica, insieme e in collaborazione con gli utenti iniziali e finali:

Organisational interoperability occurs when actors agree on the why and the when of exchanging information, on common rules to ensure it occurs safely, with minimal overhead, on an ongoing basis, and then draw up plans to do all these things, and carry them out.


Su tutto il tema, Antonella De Robbio, Organisational Interoperability.


Da regole dell'ingegneria siamo, perciò approdati a regole della politica, ribadendo implicitamente che l’unico motore sicuro ed efficace sembrano essere, come sempre, le cosiddette "risorse umane", così che il tema si ampia e si sviluppa entro canali maggiori: il principio economico di poter lavorare insieme tra sistemi diversi in modo efficace e senza compromettere le caratteristiche distintive di ciascuno può infatti favorire, anche e ovviamente, la realizzazione dell'obiettivo dell'integrazione non omologativa fra culture diverse, al limite dell'intelligenza collettiva, del che sanno qualcosa, per esempio, governi e aziende del Canada e dell'Australia (ancora in lite fra loro, del resto, sull'impiego esclusivo e non generico del termine /aborigeno/), primi nel mondo nello sviluppo di quella branca della gestione della conoscenza detta "difference management": come far lavorare insieme, e bene, cattolici con ebrei e mussulmani, etero e omosessuali, astemii con alcoolisti, tabagisti e non-fumatori, carnivori con vegani e, naturalmente, aborigeni canadesi e australiani con l'homo oeconomicus Occidentale, nonché regole e princípi di catalogazione...


[pre-print per "Il bibliotecario", III serie, ISSN 11250992, 3-4/2010]

Istruzione digitale

Sarebbero sostanzialmente tre, ritiene Evan Schnittman, le modalità con le quali leggiamo: quella immersiva, che di solito usiamo quando ci immergiamo, appunto e anche e magari, «full leisurely we glide» nella lettura sequenziale di testi dall'inizio alla fine su formati analogici, ma che lo schermo e-ink di strumenti come Kindle e compagni promettono ora di riconvertire al digitale creando così un nuovo genere: la lettura immersiva digitale; quella estrattiva, tipica dell'ambiente digitale e della Rete nella quale cercare e trovare dati e informazioni con gli alti gradi di ottimizzazione alla quale siamo ormai abituati - ma non per leggere bensì per trovare fonti o riferimenti; e quella didattica, tipica dell'apprendimento da libri di testo, esperienza lineare che contiene prassi sia estrattive sia immersive, e che è stata la forma primitiva di lettura, quella che abbiamo usato per imparare a leggere.


I primi tentativi di editoria elettronica si basavano, con grande insuccesso, sulla creazione di documenti di tipo immersivo; il passaggio a documenti estrattivi, invece, ha segnato una “nuova epoca” di pubblicazioni elettroniche perché viene fatta facilmente sullo schermo, in quanto non necessita (anzi, li rifiuta...) di periodi lunghi di lettura al monitor. Quanto alla lettura didattica, soffrirebbe per l'arretratezza degli strumenti tecnologici e pedagogici finora utilizzati che non sanno, tra l'altro, ancora ricreare nel digitale e nella distanza l'eco-ambiente che fa la fortuna della didattica "in presenza" (ma sappiamo che, a quanto riferisce una recente indagine di “Social Media Higher Education” già oltre l’80% dei docenti universitari utilizza i social media e più della metà ne fa strumenti per l’insegnamento).


Tutto vero, continua Schnittman, finché Apple non ha lanciato iPad, che sarebbe destinato a diventare il primo dispositivo-piattaforma per conseguire progressi significativi al campo dell'istruzione - in particolare di quella superiore, e per diversi motivi. Il primo si chiama iWork, la suite di produttività Apple che integra presentazione, foglio di calcolo, elaboratore di testi, e quindi intrattenimento. Il secondo si chiama pornografia, esplicitamente non accessibile con iPad, tanto per dare una vernice puritana a uno strumento "educativo": «Folks who want porn can buy an Android phone», promette caustico Steve Jobs. Il terzo è l'inter-operabilità che consente a iPad di leggere applicazioni concorrenti, da Kindle a Kobo a Nook, eccetera. Il quarto si chiama iBookstore, lo strumento "muraglia" per la suddetta "balcanizzazione" della Rete in sottoreti protette esclusive e garantite attraverso rapporti commerciali con gli editori per influenzare le vendite e sperimentare modelli di accesso al contenuto. Ma quest'ultimo è il più importante, dice Schnittman, anche se ancora non è contenuto nella configurazione corrente di iPad, e riguarda proprio i contenuti educational e prevede che proprio questa funzione permetterà di arricchire il mercato digitale di libri di testo come mai è stato fatto. Perché ci sono già strumenti che tentano questo matrimonio, come www.entourageedge.com ma non con le forme accattivanti di iPad: un'astuzia della ragione che attraverso la ricerca del piacere individuale obbliga a perseguire fini universali: «By putting the horse before the cart, Apple will have given students what they want first, only then following it with the education content they will need».

Evan Schnittman, The iPad: gateway drug to digital learning?


[pre-print per "Il bibliotecario", III serie, ISSN 11250992, 3-4/2010]

Muraglie

“Contro-rivoluzione” la definisce «The Economist», allarmato dai tentativi di balcanizzazione di Internet attraverso una programmata e aggressiva frammentazione della Rete da parte di quelli che, forse per sottrarci all'obbligo di reazione, piace chiamare "poteri forti". Solo una quindicina d'anni fa, dice l'editoriale, esplodeva la religione per un paradiso digitale di democrazia diretta - religione che Apple, ancora, riesce a vendere nei suoi “iQualcosa” - : «You have no sovereignty where we gather» scriveva (1996) il “Thomas Jefferson del ciberspazio” John Perry Barlow nella sua A Cyberspace Independence Declaration.


Ma adesso i conti, riflette la Rivista, si fanno con i governi, le aziende IT e i proprietari delle reti, che tentano (magari con la scusa della pornografia la cui persecuzione viola il sacro della neutralità della Rete), la frammentazione del virtuale in isole protette e allineate alle proprie esigenze e, soprattutto, chiuse a chi non dev’essere della partita. Facebook ne è già un esempio innocente, ma lo sono anche la fidelizzazione più o meno forzata dei servizi forniti da un’Apple o un’Amazon o un Google. Pierre Levy riconoscerebbe qui il "male del Nord", per il quale «lo spazio delle Merci vuole spadroneggiare sullo spazio del Sapere».


Questa libertà è nata grazie al silenzio, in anni di connettività universitaria "sotto traccia" ma, ora che si è rivelata al mondo, rischia l’ingabbiamento: «Tutto sta a sapere quanto alte saranno queste muraglie...», si sconsola Jonathan L. Zittrain della Harvard University.


[pre-print per "Il bibliotecario", III serie, ISSN 11250992, 3-4/2010]


Informazionismo

Di solito il termine riceve dai giornalisti più o meno professionisti una connotazione negativa («Fate informazione non informazionismo!») per contrastare l'ansia o l'orgasmo di informare in tempo reale - e spesso a pioggia e de-contestualizzando - tipica di certe espressioni del social Web. Oppure valgono le stigmate assegnategli (insieme con il cognitivismo) da Antonio Pavan:

«... l'informazionismo propiziato dalle nuove tecnologie della società dell'informazione (che tende a "ridurre" conoscenza a informazione, sapere a documentazione, elaborazione delle conoscenze a simulazione di casi, progettazione conoscitiva a virtualità); il cognitivismo (che può ridurre, nella società della conoscenza, il sapere al possesso più o meno "atomico" e comunque specialistico, di conoscenze - al plurale - a prescindere dalla loro "ruminazione", per dirla con l'Unesco, nel "sapere" della persona e della società)».

O da Alessio Bertallot:

«L’accessibilità all’oceano di informazioni di questi anni non produce cultura, ma accumulo, estensioni del database, informazionismo».

(Invece Pekka Himanen in L'etica hacker e lo spirito dell'età dell'informazione (Feltrinelli, 2001) parla, positivamente, di "informazionalismo" come nuova età del mondo e massima evoluzione dell'etica protestante: confusione linguistica del termine o approssimazione antropologica?). Per la citata Emilia Currás («…considerar el Informacionismo desde un aspecto panteísta, de connotaciones globalizadoras, tenida ésta en sentido positivo...») si tratta di una nuova epistemologia, capace dell'integrazione verticale di tutti gli archivi in nuova disciplina universale. Un nuovo nome per le geniali utopie di Otlet.

  • Emilia Currás, Informacionismo en la integración vertical de archivos, Exposición y Conferencias Internacional de Archivos (Excol '07), Bogotà, 23-27 Mayo, 2007

[post-print da "Il bibliotecario", III serie, ISSN 11250992, 1-2/2010, p. 247]

martedì 6 ottobre 2009

Mapping

Sottintendendone il genitivo "information", ma si può anche dire single sourcing o, nel campo dell'informazione e al di fuori delle strategie degli uffici acquisti che si servono di un solo fornitore, single source publishing o, ancora, modular writing.

Già la psicologia cognitiva ci aveva dimesticato con la nozione di chunking, l'acquisizione di quell'unità discreta d'informazione (chunk, appunto, cioè una "quantità", un "blocco", un "tot") che ci è divenuta tanto familiare da poter entrare quasi senza sforzo nella nostra memoria a breve o a lungo termine come, per esempio, il fischiettare il tormentone musicale dell'estate (a breve termine) o la capacità di guidare una bicicletta (a lungo termine).
Se n'era occupato niente di meno che William James nel 1890 teorizzando i due tipi di memoria, ma è stato solo negli anni Cinquanta che George Miller è riuscito a misurare la quantità d'informazione che la memoria a breve è in grado di ritenere.

Più tardi il concetto di chunk si è ampliato a significare, più genericamente, un «insieme strutturato di informazioni immagazzinate nel momento in cui la conoscenza viene acquisita» (Clayton Lewis, 1978) intendendo spiegare il meccanismo con il quale, appreso il chunk relativo a un comportamento, ogni risposta a sollecitazioni analoghe accade in tempi sempre più brevi. Con il procedere dell'acquisizione di conoscenza, i chunk si fanno via via più complessi, passando da conoscenze solo dichiarative («so che si fa così») a conoscenze procedurali («so farlo»).

Ora, è proprio il chunking a essere alla base della mappatura dell'informazione, cioè di quell'attività che consiste nello sminuzzare ed etichettare l'informazione per facilitarne la comprensione, l'uso e il richiamo.
Il metodo, messo a punto alla fine degli anni Ottanta da Robert E. Horn, docente di Scienze politiche e creatore di Information Mapping Inc. e che ha identificato più di duecento chunk, dai quali derivano diversi tipi di information mapping (come Procedure, Process, Principle, Concept, Fact, e Structure), è ormai quasi universalmente impiegata nella strutturazione di testi (structured writing) destinati alla comunicazione tecnica: esattamente il mestiere del "documentalista" nell'accezione americana, che s'ingegna nello sfruttare un singolo documento come fonte per una molteplicità di esiti più complessi, come manuali d'uso o help in linea.
Perché riscrivere il medesimo testo per destinazioni e formati differenti o, altrimenti detto: come riusare l'informazione disponibile? Cioè: come trasformare un'informazione lineare in una modulare in modo che possa essere assemblata e ri-assemblata? E, soprattutto, lo si può fare in automatico? (Da tempo ci si provano desktop publisher come Adobe FrameMaker o Apache Forrest o Altova StyleVision).

Ma il mestiere di questo tipo di documentalista è applicabile ad altre attività, come quelle che vedono il moderno webmaster impegnato a definire la granularità dell'unità minima d'informazione necessaria in un àmbito determinato, come un singolo testo (ma anche una registrazione audio-visiva) che veicola una singola idea (fino, al limite, a una sola idea per ogni pagina web) da distribuire entro l'architettura più efficace di un sito. Oppure, tutto ciò che abbiamo detto alla voce Catene cognitive nel precedente numero del «Bibliotecario».

La cosa va anche oltre il webmastering e può toccare la progettazione e l'ottimizzazione dei flussi documentali a fini di knowledge management. Per esempio, era applicazione di single sourcing in un contesto non usuale l'abbandonato progetto "Chiaro!" del dipartimento della Funzione Pubblica per la semplificazione del linguaggio amministrativo: moduli composti in anti-burocratese da poter assemblare per le più diverse necessità procedimentali.
  • Kurt Ament, Single sourcing: building modular documentation. Norwich: William Andrew & Noyes Publications, 2002. ISBN: 0815514913. [L'opera è leggibile online con Google Libri].
  • Mindy McAdams, Tips for writing for the Web.
[post-print da "Il bibliotecario", III serie, ISSN 11250992, 1-2/2010, p. 248-249]

Falso documentale

All'IFLA 2009 di Milano anche la Biblioteca Europea di Formazione e Cultura esponeva il proprio spazio negoziale distribuendo una bellissima brossura illustratrice di sé e delle sue realizzazioni:
«Alla BEIC trovate... / 900.000 volumi in consultazione / 50.000 documenti audiovisivi / 3.400.000 titoli in deposito / 300 testate quotidiani [!] / 3.000 periodici / 3.500 posti di lettura / 1.000 posti in auditorium / 300 persone occupate».
E altrove:
«Si può dire che la BEIC è "una grande struttura bibliotecaria e multimediale con libri, documenti visivi e musicali a libero accesso, con una forte integrazione tra cartaceo, multimediale e digitale". Ma la BEIC è molto di più. È un portale della conoscenza in cui tutti possono entrare, fisicamente o virtualmente, sentirsi a casa propria e, al tempo stesso, provare l'emozione di essere su una piattaforma interconnessa con il mondo intero».
Un'altra biblioteca di Alessandria del XXI secolo.

Sorprendono però queste coniugazioni all'indicativo presente, che inducono l'ingenuo a precipitarsi (ma che senso ha consultare materiale "in linea" ma solo dall'interno di una biblioteca?) nella zona di Porta Vittoria a Milano per godere di cotante possibilità cognitive. Troverebbe una grande spianata recintata ma abbandonata, destinata a un progetto ormai vecchio e ricco di interessanti contraddizioni e che, verosimilmente, non sarà mai realizzato, nemmeno per il fatidico 2015.

Forse è per questo che la nota illustrativa della brossura di cui sopra conclude rivelando: «La BEIC è semplicemente un'idea che guarda al futuro».

[post-print da "Il bibliotecario", III serie, ISSN 11250992, 1-2/2010, p. 246-247]

ULTIMA ORA
Su eddyburg.it di Eduardo Salzano, Luca Beltrami Gadola ha pubblicato il 27 aprile 2004 "Perché Milano non è una città normale" dove tra altro, e al riguardo, scrive:
Notizia numero tre: la Beic – Biblioteca europea di informazione e cultura – quella che doveva nascere a Porta Vittoria, non si farà più. L’assessore Masseroli sta già pensando a un riassetto urbanistico della zona. Si nutrivano speranze di trovare i soldi per la Biblioteca tra gli stanziamenti per le celebrazioni dell’Unità d’Italia. Pure di questo nulla, dell’Unità d’Italia alla Lega non importa un fico secco e l’ultimo baluardo della cultura milanese a seguire [...].


Crisi

Il problema è in parte linguistico e in parte epistemologico. Quella che in Europa chiamiamo "del documentalista" è professione nata quasi per caso per dar modo alle industrie o alle aziende "investigative" di trovare informazione e documenti per la realizzazione dei loro fini.
C'era bisogno del lavoro di individui che conoscessero il dominio nel quale insistevano i fini istituzionali. Di norma, questi operatori non dipendevano dagli enti interessati né possedevano ancora titoli di studio adeguato - al più, erano ingegneri o fisici o chimici - ma erano ricchi di un sapere pratico molto raffinato ed efficace e conoscevano o trovavano le fonti come nessun altro.

Quando fu necessario dar loro un nome professionale, l'Europa scelse, illustre tradizione, "documentalista" ma gli anglosassoni, ancora oggi, diedero nessun nome: quelle di "information scientist/expert" o, successivamente, "information manager" o "information/gate keeper" e altre, sono denominazione tarde, conseguenti al sorgere di scuole e facoltà dedicate alla gestione del complesso informazione-documentazione o, più recentemente ancora, alle esigenze del knowledge management.

La sistematizzazione accademica ha però creato una mescolanza concettuale con professioni simili - il bibliotecario, l'archivista - responsabile di una certa stagnazione prospettica, intesa più alla conservazione e alla localizzazione dell'informazione piuttosto che ai fini proattivi del documento (vedi Comunità di prassi su «Il bibliotecario» 1/2009).
L'aggregazione/integrazione delle professioni dell'informazione tra di loro sta continuando, aumentando la sensazione di crisi del documentalista: un progetto UNESCO ha proposto un'unica professione articolata in tre categorie non ben definite, il Processo di Bologna sta imponendo un'unificazione formativa per tutti i professionisti, quando sarebbe forse vantaggioso, per la specializzazione documentalistica e per coordinare formazione con professione, un modello curricolare basato su brevi corsi in scienze della documentazione insieme con quelli relativi al dominio applicativo aziendale.
Il fatto è che non si tratta, veramente, di "scienza" della documentazione ma di attività ancelle o sussidiarie o complementari a qualche altra scienza o tecnica. L'informazione-documentazione è come la ruota di un'automobile: senza di essa la macchina non si sposta, ma è il motore che la fa andare... e il motore - lungi dalle dichiarazioni di centralità dell'informazione - non è già o non ancora la gestione dell'informazione-documentazione.

La crisi non è recente. I documentalisti erano esperti dell'online quando Internet ancora non era ma, dopo, nessuno più si ricordò di loro, perché il motore risiedeva nella computer science e nelle sue applicazioni sull'informazione (la cosiddetta informatica in senso proprio), alle quali i documentalisti hanno sì contribuito, ma senza collocarsi mai nel cuore della disciplina: utilizzatori, perfezionatori, non creatori diretti.
Così, gli informatici hanno progredito da soli, anche inventando a spese della documentazione nuovi termini per vecchi concetti: tag, metadati, taxonomy, web semantico... e consentendo agli utenti finali di trovare da soli il necessario.
Ma il mestiere di documentalista non è, tanto, quello di trovare informazione e documenti quanto, e soprattutto, di rielaborare il materiale trovato per poter dare una risposta certa alle esigenze cognitive del "cliente".
Il futuro dirà se c'è un futuro...

Del documentalista quanto a identità professionale, a sicurezza dell'impiego e a posizione nel mercato del lavoro si è discusso a margine di IberSid 2008 (convegni ottobrini della Facultad de Filosofía y Letras dell'Università di Saragozza); Emilia Currás - consulente e storica dell'informazione e della scienza, già docente di chimica e di documentazione scientifica in Germania e in Ispagna - ne ha elaborato sue riflessioni, qui sopra sintetizzate e commentate.
  • Francisco Javier García-Marco (ed.), Ibersid 2008. Avances y perspectivas de sistemas de información y documentación, Prensas Universitarias de Zaragoza, 2008, ISBN 9788492521258
  • Emilia Currás, El documentalista en crisis, 2008, nuova edizione su «El profesional de la información», 2009, julio-agosto, v. 18, n. 4, p. 421-423, DOI: 10.3145/epi.2009.jul.09
[post-print da "Il bibliotecario", III serie, ISSN 11250992, 1-2/2010, p. 245-246]

Biblioterapia

Prima si classifica il paziente (di solito, depresso o ansioso), poi gli si scelgono i libri appropriati. Questi li legge e poi ne discute i risultati. Effetto atteso è una catarsi. Una volta così sensibilizzato, il sofferente viene guidato alla soluzione dei suoi problemi. Semplice.

Le prime avvisaglie scientifiche risalgono alla metà degli anni Novanta, quando a qualche centinaio di professionisti fu chiesto conto dell'uso della lettura come metodo terapeutico: tre quarti di loro risposero affermativamente e sei settimi giudicarono che la lettura era stata determinante per un miglioramento. In séguito furono registrate diverse rilevazioni positive attraverso gruppi di controllo.

L'evoluzione disciplinare è stata intensa, per cui abbiamo ora almeno quattro tipi di biblioterapisti: psicoterapeuti (per la cura di disturbi mentali - e la sotto-disciplina è detta "biblioterapia psicoterapeutica"), medici (soprattutto per educazione sanitaria), psicologi (per prevenzione e sostegno psicologico - si tratta di “biblio-psicologia”, “biblioterapia psicologica” o “psicobiblioterapia”) nonché educatori e operatori della formazione (in àmbito pedagogico, artistico, motorio, sociale, ricreativo, eccetera - e si parla allora di “counseling biblioterapeutico”, “letteratura-evolutiva”, “orientamento biblioterapeutico”).

La scelta del materiale librario va da manuali ad hoc per adulti (come Feeling good di David Burns o Control your depression di Peter Lewinsohn o, in italiano, Psicologia della solitudine di Antonio Lo Iacono o I no che aiutano a crescere di Anthony De Mello, o altri) a letteratura specializzata per l'infanzia e l'adolescenza, fino a qualsiasi opera venga giudicata adatta, nel qual caso diventa cruciale la collaborazione specialistica del "buon" documentalista, utile per la scelta di libri che siano anche ben scritti (estetico-terapia?) oltre che efficaci. Queste due tendenze (manuali di auto-aiuto o buone letture) si dividono il campo teorico della disciplina.

Ansioso? Leggi un romanzo, invitava Paola Emilia Cicerone su «L'espresso» del 23 gennaio 2008, dando conto anche di bibliografie preparate dal National Health Service britannico. La posizione è sostenuta anche da Shechtman e Nir–Shfrir dell'Università di Haifa, che esaltano gli effetti "affettivi" della lettura nel trattamento psicoterapico. Freud, dal canto suo, sconsigliava ai nevrotici di leggere trattati scientifici o filosofici per non esaltare troppo le componenti intellettuali del loro disagio.

Non possiamo, qui, alla ricerca dei prodromi, dimenticare l'arte medica di François Rabelais quando sostiene, nel cosiddetto "Ancien prologue" a "Le Quart Livre / des faicts et dicts heroïques du bon Pantagruel":
«Si je prenoie en cure tous ceulx qui tombent en meshaing & maladie, la besoing ne seroit mettre telz livres en lumière & impression. [...] Puis doncques que possible n'est que de tous malades soys appellé, que tous malades je prenne en cure, quelle envie est-ce tollir ès langoreux & malades le plaisir & passetemps joyeux, sans offense de Dieu, du Roy ne d'aultre, qu'ilz prennent, oyans en mon absence la lecture de ces livres joyeux?».
Che in realtà, proponendo la lettura delle sue opere gioiose come surrogato della presenza di se stesso come medico, egli dimostra di appartenere all'altra corrente, quella degli autori di manuali di auto-aiuto, come effettivamente sono i cinque libri della serie Gargantua-Pantagruel.
Oppure, con intento contrario e maligno - ma sarebbe un oggetto della voce "A (o Pseudo) biblía" -, indurre seri problemi di certezza di sé e del mondo consigliando di rintracciare e leggere qualcuna delle opere catalogate da Johann "Mentzer" Fischart nel suo Catalogus catalogorum perpetuo durabilis (1567) o da qualcuno dei suoi molti epigoni... E al di fuori dei libri? Non rimane che consigliare le "pietre che cantano" (Marius Schneider, ISBN 887710645X) per rivivere, dopo la catarsi, al ritmo dei chiostri catalani di stile romanico.
  • Dheepa Sridhar, Sharon Vaughn, Bibliotherapy: practices for improving self-concept and reading comprehension, In The social dimensions of learning disabilities. Essays in honor of Tanis Bryan. Mahwah, NJ: Erlbaum, 2000.
  • Zipora Shechtman, Rivka Nir–Shfrir, The effect of affective bibliotherapy on clients' functioning in group therapy, «International Journal of Group Psychotherapy», gennaio 2008.
[post-print da "Il bibliotecario", III serie, ISSN 11250992, 1-2/2010, p. 243-244]

sabato 18 luglio 2009

Information Architecture

Recensione di Mary Joan Crowley (Sapienza Università di Roma)

«The Journal of Information Architecture» - ISSN 19037260 - è una nuova rivista accademica semestrale in inglese, dotata di sistema peer-review, pubblicata da REG-iA (Research and Education Group in Information Architecture), iniziativa internazionale promossa dall’IAI (Information Architecture Institute) e collegata alla Copenhagen Business School.

L’IAI, creato nel gennaio 2008, conta oggi tra i suoi membri ricercatori e professionisti provenienti da Danimarca, Svezia, Italia (Andrea Resmini, Luca Rosati), Polonia e Norvegia. La premessa fondante del gruppo è che, sebbene l’architettura dell’informazione sia una professione ormai riconosciuta< style="font-style: italic;">phrase “Information Architecture”) non è tuttora una disciplina accademica a tutti gli effetti (come un monte di altre cose essenziali, ovviamente...) e, a parte qualche eccezione, non costituisce un corso di studio nelle scuole e nelle università
L’istituto dell’Architettura dell’Informazione definisce il proprio oggetto (IA) come "la scienza e l’arte" di classificare i siti web, le Intranet, le comunità in rete e il software che ne facilita usabilità e fruibilità e abbraccia una vasta gamma di discipline diverse, ivi comprese biblioteconomia, informatica, informatica sociale, progettazione (design) dell’informazione, visual design, eccetera.

La rivista è stata presentata durante il 10° IA Summit a Memphis nel marzo 2009 e il primo numero è ora disponibile in rete ad accesso libero, mentre ogni successivo fascicolo sarà prima visibile ai soli membri dell’IAI e solo successivamente, con il procedere dell'archiviazione, sarà aperto a tutti: una specie di embargo a privilegiare i membri "operativi". Obiettivo principale della rivista è di creare un forum sufficientemente ampio e diffuso al fine di incrementare la "scientificità" dell’architettura dell’informazione. Per questo, intende usare tutti gli strumenti disponibili su Web, dal blog a Twitter alle liste di discussione.

L'interesse del gruppo promotore è infatti quello di abbracciare sotto questa denominazione altri dominii di contorno, per conseguire una conoscenza collettiva del dominio e dei suoi membri stessi; offre perciò l'opportunità a tutti i practitioner, accademici e professionisti, di sistematizzare e riflettere su come svolgono il loro lavoro o la loro ricerca insieme con la conoscenza pratica oltre che i principii che guidano il loro operato.

Questo numero inaugurale è uno specchio delle varie questioni e dei temi che l’architettura dell’informazione deve affrontare e trattare:
  • Dorte Madsen. Editorial: shall we dance?, p. 1-5
  • Gianluca Brugnoli. Connecting the dots of user experience, p. 6-15
  • Helena Francke. Towards an architectural document analysis, p. 16-36
  • Andrew Hinton. The machineries of context, p. 37-47
  • James Kalbach. On uncertainty in Information Architecture, p. 48-55.
È attivo un call for papers per il numero autunnale del 2009, all’indirizzo journalofia.org/cfp. Interessante la strategia autoriale che rispecchia la doppia natura disciplinare (professionisti e ricercatori) della Rivista: agli autori che si proporranno sarà chiesto di indicare se vogliono sottomettere il loro manoscritto a una recensione "accademica" o una recensione "professionale".

Rappresentazione

Si sa che un documento elettronico non è che una serie di impulsi in logica binaria ospitati nelle tracce di un calcolatore, che nessuno potrà mai vedere né interpretare senza l’ausilio del calcolatore stesso. Succede così che nel documento elettronico la forma sia definitivamente separata dal contenuto e che non si possa disporre d’altro che di interventi su questa o quella rappresentazione (a video o a stampa) del documento, tutte copie (conformi?) di un “originale” altrimenti invisibile.

Il documento come oggetto sincronico è letteralmente scomparso: come di un ipotetico dio, ne potremmo percepire gli effetti ma la loro radice è inconoscibile. La diplomatica diventa digitale e si confronta con linguaggi di marcatura e con il controllo delle procedure di produzione/conservazione, alla ricerca di dichiarazioni solo diacroniche di autenticità. Il documento non dà più garanzia di se stesso ma la garanzia proverrebbe dalla catena cognitiva delle relazioni che esso intrattiene con tutti gli altri documenti dell’insieme, come accade per i dataset delle pagine web.

L’esistenza del documento come rappresentazione di un oggetto inconoscibile perde, così, la certezza booleana di appartenenza a un insieme definito e si trasferisce entro la certezza probabilistica, tipica delle scienze umane, della logica fuzzy e dei suoi insiemi incerti, sfumati, con valori di verità compresi fra zero e uno. Così come sta accadendo nei tribunali, la presunzione di autenticità di un documento prodotto (non importa se analogico o digitale) è più comodo darla per scontata, fino a querela di falso.

Se ne è recentemente (30 giugno - 3 luglio 2009) discusso in un seminario romano del progetto CASPAR (Cultural, Artistic and Scientific knowledge for Preservation, Access and Retrieval), progetto co-finanziato dal sesto programma-quadro dell’Unione Europea per lo sviluppo e le applicazioni del modello, di fonte NASA e norma ISO, OAIS (Open Archival Information System) per la conservazione a lungo termine degli oggetti digitali.

Catene cognitive

La natura transeunte e distribuita del Web, insieme con la natura non unitaria ma procedurale del documento web, presuppone ed esige un’infrastruttura sotterranea composta da diversi servizi, il valore dei quali non è individuale ma collettivo perché dipende dal loro complesso e dalla loro integrazione: Internet Archive (per la “preservazione” digitale mediante la registrazione temporale dei cambiamenti e delle evoluzioni dei siti), WebCite (che fa la medesima cosa ma a cura degli stessi autori), Spurl (che - forse in modo più efficace di altri tipici prodotti del 2.0 - raccoglie organizza e fa condividere e soprattutto ritrovare la segnatura dei siti preferiti), CiteSeerX (per la disseminazione dei contenuti scientifici) o alla provvidenziale cache di Google che contrasta il famigerato link rot «Errore 404. File non trovato», e altri. Tutti servizi intesi a dare stabilità al sistema e a riportare tendenzialmente a segnatura unitaria la disseminazione delle risorse e delle fonti.

Ma il Web possiede nel medesimo tempo anche una natura intrinsecamente e spontaneamente organizzativa che sa dare individualità a elementi sparsi, per il fatto che un’unità qualsiasi è spesso costituita da frammenti unificati ad hoc e quindi unificabili anche alla bisogna e per scopi e in modi differenti: una pagina in HTML può, a corredo, contenere - o rinviare a, sparsi per il mondo - file PDF, immagini, eventi sonori, presentazioni di diapositive o di video, blog, RSS, dati grezzi od organizzati in tabelle statistiche, eccetera.

Ciò è possibile perché il sistema informativo del Web non intende più rappresentare la realtà “esterna” (come fa un documento tradizionale e come fa una base di dati) ma, in quanto sistema informativo oggettuale, contiene oggetti - i documenti digitali - che non sono più forme simboliche di fatti che compongono la rappresentazione di una realtà indipendente dal sistema, ma rappresentano solo se stessi, sono parte della realtà e anzi sono la realtà stessa, realtà che ci appare coesa solo perché i metadati (rappresentazione contestuale di fatti “esterni” in un àmbito tuttavia oggettuale) riescono in qualche modo a essere la “colla” che lega tra loro, pur essendone subordinati, i documenti digitali nella totalità del sistema informativo. Tra parentesi, è questa la “rivoluzione” di Internet: un sistema informativo che si sostituisce alla “vera” realtà...

Da una parte, dunque, è attraverso una serie di servizi; dall’altra, è attraverso la stessa natura aggregativo-diffusiva dei documenti Web che viene consentita una certa quota di certezza delle risorse e delle fonti.

Complichiamo il quadro: se un essere senziente può facilmente, seppur alla fine di un processo a volte non facile, percepire e quindi dominare i confini e i legami di tali frammenti, non è così facile farlo quando l’essere in campo è un agente automatico, che deve distinguere perinde ac cadaver catene cognitive di un determinato dominio da altri aggregati non specificamente interessanti o appartenenti a diversa ontologia. È il problema posto da Pavel Dmitriev nella sua dissertazione PhD alla Cornell University nel gennaio 2008, As we may perceive: finding the boundaries of compound documents on the Web. Quasi in risposta a questa sfida, OAI (Open Archives Initiative) ha appena creato ORE (Object Reuse and Exchange), progetto di elaborazione normativa per definire e scoprire le aggregazioni di risorse Web mediante l’introduzione di un’apposita resource map, ReM, unità che descrive, appunto, confini e legami dei frammenti - per esempio, e tra le più famose: arXiv.org, ReM interna a un repository, mantenuta da un nutrito gruppo molto finanziato della Cornell.

Andiamo avanti: ma se la ReM fosse esterna all’archivio? In questo caso sarebbe sottoposta alle medesime transitorietà e fluttuazioni del Web: pagine scomparse, URL spostate, contenuti mutati nel tempo, a fronte di una gestione “democratica” e distribuita, tipica di questi tempi da 2.0. Soccorre qui Herbert van de Sompel, già di Ghent e ora dei Laboratori nazionali di Los Alamos e inventore dell’open URL link resolver, che con altri ha creato “ReMember”, ReM esterna che enumera le risorse aggregate (AR) che reintegrano un’aggregazione dispersa e includono metadati descrittivi per ogni AR:
«ReMember attempts to harness the collective abilities of the Web community for preservation purposes instead of solely placing the burden of curatorial responsibilities on a small number of experts».
Dando conto della sua invenzione nel recente OAI 6 di Ginevra (17-19 giugno 2009) con Everyone is a curator: human-assisted preservation for ORE aggregations, dove curator ed everyone sono le parole-chiave, de Sompel sostiene che l’applicazione a un insieme di citazioni bibliografiche online mescolate con semplici rinvii a siti web, ha consentito di separare correttamente le une dalle altre: un ausilio semi-automatico e di poca spesa ai servizi per la stabilità di cui sopra.

Il bello auspicato delle ReM è che potrebbero, si entusiasma de Sompel, essere efficacemente create da chiunque, con un minimo di organizzazione umana e quindi di costi, “alla Wikipedia”. Ancora una volta, l’identità (e l’individuazione e l’identificazione) dell’autore può passare in secondo piano a vantaggio non solo del lavoro collaborativo ma anche a vantaggio di prodotti “cresciuti” praticamente da soli, autocreati (autore, auctus, da augeo, aumentare - il diritto penale parlerebbe forse di “autore mediato”; ma: esistono davvero autori “unici”? e come la metteremmo, in questo caso, con la tutela del copyright, se perfino Dublin Core [1] dà definizioni abbastanza tautologiche e tutto sommato interscambiabili delle figure author, creator, contributor, curator, publisher)? Infatti, all’OAI 6 de Sompel non ha mai parlato, pur trattandone, di “articoli scientifici”, ma solo e sempre di dataset come parti integranti di un non meglio identificato “record scientifico”, per la qual cosa chiunque potrebbe essere il curatore di una pubblicazione scientifica.

Chiunque lavori su una ReM, ovviamente. Ciò impone un ripensamento delle funzioni tradizionali della stessa comunicazione scientifica, delle sue regole e della sua mappatura, che sta mettendo in discussione canoni di valutazione tradizionali come la metrica delle citazioni, per esempio e quindi delle funzioni del peer reviewing. Nemmeno sfuggono le riviste scientifiche tradizionali, in corso di trasformazione in enhanced journal: le “pubblicazioni liquide” proposte dal gruppo Casati-Giunchiglia-Marchese (vedi alla voce Liquefazione in «il Bibliotecario» 3/2008, p. 137-138).

Tra le prime applicazioni di OAI-ORE - a parte il felice esito del controllo delle citazioni in JSTOR, l’archivio storico in linea delle maggiori riviste accademiche a partire dal XVII secolo - è da tener d’occhio www.myexperiment.org, un ambiente collaborativo nel quale scienziati e ricercatori possono pubblicare in sicurezza i loro flussi di lavoro, i propri oggetti (o raccolte di oggetti) digitali e sperimentare progetti di ricerca, condividendoli con il proprio gruppo o trovando gruppi affini: un Facebook o un MySpace sì controllato e protetto e riservato ma per il quale la sostanzia della (nuova) relazione autoriale non cambia

Archivisti d'assalto

La semplificazione dell’Archivistica nel generico Records management (che per noi vale solo per gli archivi correnti) ha fatto sì che, oltre al tradizionale sistema d’archivio vero e proprio, rientrassero nelle competenze della disciplina e dei suoi professionisti anche documenti e attività tipicamente gestionali, come il governo dei contenuti e del ritrovamento, nonché il complesso dell’apparato burocratico e tecnologico insieme con le risorse, le strutture, le attrezzature e, soprattutto, le responsabilità gerarchiche, che un intero sistema documentario mantengono e sviluppano.

Trasdurre in digitale interi archivi storici richiede, in più, cautele tradizionalmente ignorate dagli ingegneri del calcolatore, che volentieri confondono i dati con le informazioni - non diversamente da quanto accadde ai primi cataloghi elettronici delle biblioteche. Qual è la natura del documento? E quale quella del documento elettronico? E di quello archivistico? E come la mettiamo con la conservatività e con la leggibilità di questi documenti per le prossime centinaia di anni ai fini non solo della Storia ma anche della certezza giuridica? E le condizioni del riuso e dell’interoperabilità? Domande non poste o, al più, mal risposte.

ll problema si aggrava quando i documenti e gli archivi sono multi-mediali o interattivi, o ”semplici” pagine web composte da oggetti digitali diversi e di formato eterogeneo. Questi documenti e questi archivi non sono più un complesso unitario ed esclusivo, auto-referenziale, come il documento cartaceo, ma devono essere collegati ad altri documenti e ad altri archivi per restituire una rappresentazione adeguata della conoscenza: i documenti e, insieme, i processi che li hanno costituiti.

Si esce, poi, dalla problematicità della pura applicazione tecnologica per approdare a quella della gestione organizzativa quando l’archivio è creato, sì, in formato elettronico ab origine ma già con la giusta preoccupazione della sua destinazione archivistica, tenendo conto della destinazione strumentale, non finale, dell’archivio; anzi, del sistema degli archivi. Risultati ottenibili quando il responsabile del procedimento possiede una formazione archivistica e quando l’archivista possiede una formazione gestionale.
Era già così nelle procedure garanti il documento analogico; ora la cautela va moltiplicata e i mutati strumenti vanno ri-appresi

Come la filosofia, anche il linguaggio segue la tecnologia. Abbiamo così cómpiti che prospettano, per il nuovo archivista, nuove denominazioni professionali come knowledge worker (nel caso, protocollista) o knowledge manager (nel caso, responsabile del flusso di lavoro documentale) che aggiungono al profilo professionale competenze connesse, quanto meno, con l’IR e la diplomatica digitale. In più, le rinnovate complessità e sfaccettatura semantica, oltre a quella operativa, di questo profilo, generano innovazioni lessicali che non sempre fanno facilmente comprendere che abbiamo di fronte un “archivista digitale”: da digital asset manager o digital preservation officer a preservation consultant o anche information management consultant, fino al progetto europeo di master, già attivo almeno a Luleå e a Glasgow (senza dimenticare il Digital Curation Centre, finanziato dal solito JISC), per il nuovo profilo professionale di digital curator : addirittura, il riferimento all’archivio e all’archivistica non compare nel nome ma di archivi e di archivisti comunque si tratta.

Le competenze dell’ingegnere del calcolatore si arricchiscono così, e questa volta per davvero, di competenze tipiche dell’esperto dell’informazione: è la realizzazione del sogno dell’ing. Philippe Dreyfus, ma non sul lato del cosiddetto e ambiguo “informatico”, termine di sua invenzione, bensì su quello del cosiddetto - e altrettanto ambiguo - “documentalista” (archivista, bibliotecario, ecc.).

Secondo l’articolo Digital archivists, now on demand di Conrad De Aenlle del 7 febbraio 2009 su diversi quotidiani americani, la richiesta di questi professionisti da parte del mercato del lavoro sia pubblico sia privato è, almeno negli Stati Uniti e specialmente dopo il caso Enron, in forte crescita ed è previsto che nei prossimi dieci anni essa venga triplicata, a partire dalle attuali 20 mila unità: si suppone che questi professionisti dovranno soprattutto scrivere le routine per la produzione di documenti archive compliant a certezza del diritto e della conservazione a lungo termine - anche lo stipendio medio per un lavoro che diventa sempre più “chiave” è in crescita: si va da 70 mila dollari/anno nel pubblico a 100 mila nel privato.