ll giornalismo è “sotto assedio”. In passato la tipografia serviva da cancello di sbarramento: se qualcuno voleva raggiungere le persone di una città o di una regione si doveva prima rivolgere ai giornali affinché riportassero la notizia e la mandassero in stampa entro il mattino dopo. Inutile dire che tutto questo é stato spazzato via grazie a qualche click.
Oggi le notizie vengono riportate in diretta da piú fonti, che siano giornalisti oppure testimoni oculari che le postano sui social e sui blog, tutto ciò che accade viene dunque registrato e filtrato attraverso una vasta rete di connessioni sociali. Questo è il motivo per cui il data journalism (giornalismo dei dati) è così importante. La lingua di questa nuova rete sono i dati: piccoli punti di informazione che spesso non sono rilevanti in una singola istanza, ma di grande importanza se visti dalla giusta angolazione. Numerosi giornalisti hanno già ampiamente dimostrato come i dati rappresentino una grande opportunità perché possono essere utilizzati per creare approfondimenti su ciò che sta accadendo intorno a noi e su come potrebbe influenzarci. L’uso dei dati trasforma infatti qualcosa di astratto in qualcosa che tutti possono capire e con cui tutti possono interfacciarsi.
Il data journalism può a diritto essere definito parte integrante dell’establishment perché ormai é diventato lo standard del settore, specialmente considerando che le barriere all’ingresso sono basse e che esistono numerosi strumenti gratuiti o a basso costo come Datawrapper, OpenRefine e Carto, per creare grafici, mappe e ripulire i dati. Nel 2009,invece, quando il Guardian lanciò Datablog, progetto per il quale ha ricevuto una menzione d’onore nel premio Knight Batten per l’innovazione giornalistica, tutto questo non era altro che una realtà embrionale: all’epoca le persone si domandavano ancora se ottenere storie dai dati fosse vero giornalismo. Dopo Wikileaks e la resa pubblica da parte di molti governi di dati a loro disposizione, tra cui ad esempio le spese dei parlamentari, nessuno si pone piú questi interrogativi anzi, al contrario, sembrano tutti molto determinati a scavare ancora piú in profondità tra tabelle e tabelle di dati.
Il data journalism è in circolazione sin da quando ci sono stati i dati, quindi certamente almeno dalla famosa grafica di Florence Nightingale[1] che riporta le condizioni affrontate dai soldati britannici del 1858. Un altro dei primi esempi di data journalism risale al 1967: all’epoca Philip Meyer lavorava per la Detroit Free Press, giornale a cui la sua inchiesta valse un Premio Pulitzer, e decise di usare un mainframe per migliorare lo studio dei dati sulle rivolte che si diffondevano in tutta la città. Un ulteriore importante precedente é quello di Bill Dedman, giornalista investigativo dell’Atlanta Journal-Constitution e vincitore del Premio Pulitzer nel 1989, con The Colour of Money, una serie di storie del 1988 in cui venivano utilizzate tecniche CAR per analizzare la discriminazione razziale da parte di banche e altri istituti di credito ipotecario nei quartieri neri a reddito medio.
É tuttavia molto importante sottolineare come il data journalism non rappresenti un sostitutivo del giornalismo tradizionale bensí un valore aggiunto per esso. In un momento in cui le fonti sono diventate digitali, i giornalisti possono e, soprattutto, devono essere più vicini a tali fonti. Tra i principali scopi del data journalism vi sono anche quello di svolgere il ruolo di “cane da guardia” e di rimedio per l’asimmetria informativa, intesa non come la mancanza di informazioni bensí come l’incapacità da parte dell’individuo medio di recepire tutte le informazioni e rielaborarle. A tal proposito é particolarmente calzante l’inchiesta di Steve Doig[2], giornalista del Miami Herald che analizzò i pattern dei danni dell’uragano Andrew del 2010 vincendo il Pulitzer nel 1993, che uní due dataset inerenti rispettivamente alla mappatura del livello di distruzione e alla velocità del vento, riuscendo cosí in questo modo ad individuare le aree in cui i codici edilizi indeboliti e le pratiche di costruzione inadeguate avevano contribuito all’impatto del disastro. Come afferma Lelio Simi[3] in Datacrazia[4] “L’accurata e approfondita analisi dei dati, insomma, dà la possibilità di raccontare una storia altrimenti impossibile da esporre”.
Altri significativi esempi di come il data journalism abbia assolto i suoi compiti di cane da guardia e di rimedio contro l’asimmetria informativa sono rappresentati dal periodico peruviano Convoca che, con la sua inchiesta investigativa “Excess Unpunished”, ha reso pubblici i dati per aiutare i suoi utenti a capire meglio l’industria mineraria del paese; da India Spend che ha dato inizio al progetto #breathe usando sensori per misurare l’inquinamento atmosferico e, ancora, da KRIK, in Serbia, che ha creato un database online con informazioni e dati sui politici serbi al fine di aiutare i cittadini a conoscere e monitorare meglio e le persone che gestiscono il loro paese.
Un altro beneficio portato dal data journalism é che questo può aiutare un giornalista a raccontare una storia complessa attraverso infografiche coinvolgenti: i discorsi spettacolari di Hans Rosling[5] sulla visualizzazione della povertà nel mondo con Gapminder, ad esempio, hanno attirato milioni di visualizzazioni in tutto il mondo.
Se l’analisi dei dati ci può fornire “una nuova macchina fotografica con un obbiettivo piú potente”, il ruolo dei giornalisti deve essere dunque quello di saper interpretare tali dati e renderli “umani”, dando forma alla storia che sottendono e monitorandone i suoi futuri sviluppi.
[1] Infermiera britannica anche nota come “la signora con la lanterna”. È considerata la fondatrice dell’assistenza infermieristica moderna, in quanto fu la prima ad applicare il metodo scientifico attraverso l’utilizzo della statistica.
[2]Giornalista americano, professore di giornalismo presso l’Arizona State University, consulente per la divulgazione di notizie inerenti al lavoro investigativo di analisi dei dati.
[3] Giornalista e cofondatore di DataMediaHub.
[4] Un’antologia curata da Daniele Gambetta per D Editore, 2018, che indaga i rischi e le potenzialità delle nuove tecnologie.
[5] Medico svedese, accademico, statistico e oratore pubblico. È stato professore di International Health presso Karolinska Institute ed è stato co-fondatore e presidente della Gapminder Foundation, che ha sviluppato il sistema software Trendalyzer. Ha tenuto presentazioni in tutto il mondo, tra cui diversi TED Talks.
379 Comments