Nato nel 1950, inizialmente il data journalism faceva riferimento esclusivamente all’uso del computer nella fase di analisi dei dati da parte dei giornalisti. Con il successivo avvento di Internet, ha finito poi con l’indicare quel fenomeno che ha fatto della raccolta dell’infinità di dati presenti nella Rete, il fulcro del lavoro giornalistico. Collezionare informazioni in quei sistemi di archiviazione ed organizzazione noti come database, analizzare e verificare i rapporti di pubblico dominio (spesso di matrice governativa o divulgati dalle grandi lobby di potere), richiedono due requisiti indispensabili: precisione e capacità di decodifica. Priorità rese ora accessibili con l’ausilio della tecnologia, attraverso software specifici di lettura e catalogazione dei dati, che vanno dagli elementari fogli di calcolo elettronici ai più elaborati programmi statistici fino alle attuali risorse provenienti dal web. Il lavoro giornalistico può oggi avvalersi di numerosi strumenti, come l’immediato download di tools specifici quali ManyEyes (dell’IBM Research) per la visualizzazione ordinata delle informazioni, Yahoo! Pipes, ScraperWiki e Needlebase per il mash up, ovvero la raccolta in una funzionalità dinamica ed automatica di informazioni o contenuti provenienti da più fonti. Ne è un esempio il caso del defunto sito ChicagoCrime.org che combinava i dati sul crimine forniti dal Dipartimento di Polizia di Chicago con la funzione di Google Maps, ricostruendo una vera e propria mappatura aggiornata delle zone a più alto rischio della città. Si tratta di tools, decodificati con scripting Perl, Python, MySQL e Django che sono solo alcuni dei più diffusi linguaggi di programmazione per la manipolazione dei testi e dei file. Ma la tecnologia si spinge oltre. Una volta che questi strumenti hanno raccolto, catalogato, letto e decodificato fino all’ultimo bit di informazione proveniente da Internet, occorre anche procedere ad una loro “pulizia”. Bisognerà filtrare ed identificare tutti gli errori di formattazione o di inserimento di dati non pertinenti o di informazioni incomplete. Uno strumento come Freebase Gridworks consentirà di espletare automaticamente tali funzioni, caricando i dati e dotandoli di una coerenza interna.
Analizzare le informazioni, collegarle e renderle comprensibili alle persone comuni ha sempre costituito l’obiettivo primario del giornalismo. Ma una volta entrati nell’era della digitalizzazione e dei network di distribuzione globale dei dati divenuti di più facile accesso, l’avvento di due movimenti come l’open data ed il “linked data”( un movimento che si batte per rendere disponibili le informazioni in modo da poter essere linkate tra di loro, innescando una catena di collegamenti) aggiungono una dimensione politica all’intero fenomeno. E quando i dati sono infiniti? È allora che subentra la tecnologia, uno strumento con cui i reporter, specie nell’attuale era digitale, sono costretti a fare i conti. “Il data journalism è il futuro” sostiene l’inventore del World Wide Web Tim Berners- Lee. Ed a tratti è già una realtà.
Manuela Avino