På dagens frokostmøte med MediArena var temaet “Vinn eller forsvinn: Digital kompetanse”.
Jeg var invitert som innleder (blant flere) og holdt en kort presentasjon om hva en datajournalist bør kunne. Avslutningsvis holdt vi en paneldebatt med spørsmål fra salen, helt til sist kom et spørsmål fra en journaliststudent:
vi vil lære og vi er nysgjerrige, men hva må vi kunne nå som vi ikke måtte før?
Det spørsmålet fikk ikke den oppmerksomheten det fortjener, for det er et godt spørsmål (og jeg fikk ikke svare på det), så her forsøker jeg å gi et svar.
Råmateriale til fakta er data. For å komme fra data til informasjon må data tolkes. Fakta er dokumentert informasjon, informasjon med sannhetsgehalt. Så langt er ingenting nytt under solen. Ingenting her trenger å være digitalt.
Men så viser det seg at data i dagens samfunn ofte er digitale. Årsaken til dette er mange, men ofte fordi noen egenskaper ved digitale medier er svært fordelaktige for å effektivisere, måle og avhjelpe (saksbehandlings-)prosesser. En del prosesser i digitale medier kan automatiseres ved hjelp av dataprogrammer, og å ha “rett informasjon til rett tid” kan bli lettere. At vi går fra et analogt til et digitalt informasjonssamfunn kalles digitalisering, og betyr at databaselogikk og automatiserbare prosesser favoriseres. Alt materiale kan søkes i og publiseres på nett, det er fint. Resultatet er at dataene som skapes i samfunnet er digitale, med noen iboende digitale egenskaper*. Å kunne utnytte dette er digital kompetanse.
Noe er nytt, mye er det samme. Dataene er nesten utelukkende digitale.
I informasjonsvitenskapen snakker vi om “sense-making”, prosessen å gi mening til erfaringer. Lettere sagt; det å gjøre noe forståelig. Det er også en av hovedfunksjonene til journalistikken – å gi oss relevant informasjon om omverden i et format vi kan forstå. Fra mitt perspektiv er pressen (++) den sentrale aktøren i informasjonsbransjen, og en av journalistikkens hovedfunksjoner er å bekjempe informasjonsasymmetri. Dette sikrer harde nyheter, ’nyheter som noen ikke vil at du skal publisere’ (Arthur McEwen) eller ’som vil ha materiell innflytelse på folks liv’ (Franklin et al). Ikke all journalistikk oppnår dette, men at en passe andel journalistikk gjør det sikrer medieinstitusjonenes plass og dominans i informasjonsbransjen. Vi vet hvem vi kan gå til for å få den typen informasjon. Sense-making og informasjonsasymmetri fantes før datamaskinene, og tilhører i teorien verken det digitale eller analoge.
I praksis sitter vi med digitale data om verden, og vi skal tolke dette til informasjon og formidle det videre til et forestilt publikum av “vanlige folk”. Den prosessen, gitt digitale data, kan utnytte egenskapene ved digitale medier. Sammenlikninger, rangeringer, grupperinger, målinger av ulike slag kan gjøres i større skala, raskere, med datamaskiner. Analyser (nettverksanalyse, regresjonsanalyse, innholdsanalyse, frekvensanalyse, osv) kan gå raskere med hjelp av digitale verktøy (bare å tegne en graf over noen få hundre noder er nesten uoverkommelig på papir, men en smal sak med riktige digitale verktøy**). Ved å forstå teoriene bak slike analyseverktøy er det lettere å finne riktig verktøy til riktig data og story.
Disse analysene jeg betegner her likner på forskning. Det betyr ikke at jeg mener at journalistikk og forskning er det samme. Forskningen har de samme store mulighetene med datastøttede metoder, men det stilles helt andre krav til disse to gruppene. For forskningens del handler det om å utforske ny grunn, benytte større datasett og å kvalitetssikre metoder ved å kunne repetere og justere dem oftere. For journalistikken handler det om å gjøre seg mindre avhengige av “eksperter”. Eksperter er både en velsignelse og en forbannelse for journalistikken, men ved å ha gjort noen små analyser på kontoret før et intervju kan journalisten stille bedre spørsmål og kreve bedre forklaringer av eksperter eller andre maktpersoner. Det er fint å leve i et samfunn der vi kan ta hverandre på ordet, men det er også fint at noen faktasjekker. Slike små analyser er faktasjekking eller rett og slett produksjon av fakta, som kan kommenteres eller bestrides av eksperter og ansvarlige.
Eksempel: Hva med å slå sammen noen kommuner, dere?
Vi har 429 kommuner i Norge etter at Inderøy og Mosvik i Nord-Trøndelag slo seg sammen. Hvorvidt det er en god idé å ha færre kommuner er et politisk tema som splitter partiene, tidvis også innad i partiene. Dette er med andre ord et godt tema for pressen å diskutere. Tidligere i år gjorde analysefirmaet NyAnalyse sammen med Geodata en analyse av kjøreavstand mellom kommunesentre (rådhus), for å se hvor tett administrasjonene for alle disse kommunene ligger. Metoden finner du her på Helge Astads blogg.
- Kunne en journalist ha gjort dette? Er dette en for tidkrevende og teknisk oppgave til å være journalistikk?
Første gang, kanskje. Ikke?
Men nå vet vi hvordan det ble gjort for rådhus, hva med avstanden mellom fengsler og barnehager, eller avfallsstasjoner og ball-løkker, høyspentmaster og turistattraksjoner? Når vi vet hvordan en slik analyse gjøres, og svakhetene med en slik analyse (Astad fra Geodata kommenterer forbilledlig dette) – så kan dette gjøres raskere og raskere for hver gang. Verktøyene og prosessene blir raskere og bedre og journalisten får spørsmål som kan lede til gode saker.
Analysen over gir et argument for hvilke kommuner som kanskje kan diskutere sammenslåing (uansett om man mener det er en god idé eller ikke). Analysen hadde vært mulig å gjøre før datamaskinen, men det hadde involvert mye bilkjøring, tidtaking, beregninger, administrasjon og tålmodighet. At dataene er digitale tillater datastøttede analyser, som går mye fortere enn en pre-digital analyse. At VG kjørte saken på forsiden av papirutgaven bør være et tegn på at dette er bra stoff.
Ting en må kunne
Kommunesammenslåing er en case der en datastøttet analyse ble brukt. Jeg mener dette er underutnyttet i norsk presse, og det journalister bør kunne i dag som de ikke trengte før, er hvordan datastøtte kan gjøre denne typen mindre analyser så små og raske at de fortsatt kan levere på deadline. Digital kompetanse i denne sammenhengen handler altså om å la digitale verktøy senke terskelen for å ta i bruk metoder som kan hjelpe oss å konvertere data til samfunnsnyttig informasjon. Metodene er ofte “vanskelige”. De må læres. Hvis overnevnte Astad ikke visste hva han drev med, så kunne dette gått veldig galt. Men når metoden er forstått kan dataverktøy senke tidskravet til slike analyser og da snakker vi om å utnytte noen av egenskapene ved digitale data. Vi kaller det “Computational thinking” – å forstå hva som kan beregnes i en datamaskin og utnytte dette i problemløsning.
PS: Til journaliststudenten som stilte spørsmålet. Godt spørsmål. Jeg stilte det samme spørsmålet du kom med, dog indirekte, i en intervjustudie som ikke er publisert ennå. De mest teknisk avanserte journalistene (de som lager bl.a. nyhetsapplikasjoner) svarer blant annet:
- Lær excel,
- databaseteori (å kunne hente ut data fra en database i SQL er gull verdt for disse),
- Scripting (å kunne loope gjennom millioner av ulykker fra Vegvesenet, dokumenter fra Wikileaks eller skattebetalere i skattelistene for å lage statistikk åpner for spennende journalistikk). Eksempler på språk er python, php, ruby eller c++. (Jeg anbefaler python hvis du er ny, det er lett å lære og finnes på nesten alle datamaskiner).
Jeg vil legge til to egenskaper etter eget verdensbilde, og et verktøy:
- Samarbeid på tvers av spesialområde. Å forstå hvordan designere, programmerere, økonomi-journalister, programledere, statistikere, osv. jobber er et fortrinn. Å forstå hva som er viktig for de ulike nisjene kan du utnytte til å bli en bra samarbeidspartner, og alle liker gode samarbeidspartnere. Finn venner også utenfor egen avdeling.
- Bli en primus motor. Hvis du kan levere et arbeide uten at noen (les: sjefen) trenger å bekymre seg for hvordan det går, men vet at du ikke stanger hodet i veggen aleine i et kott, så er du en — slik jeg blir fortalt — redaktørene ønsker seg.
Dette er ikke digital kompetanse, men menneske-kompetanse. Den bør aldri undervurderes. Så et verktøy: lær Google refine. Det er Excel på steroider, og på tross av at jeg argumenterer for at verktøy kommer og går mens metodene består, så er dette mitt beste forslag til et verktøy som både er tilgjengelig, nyttig og har potensial til å gi stories i hopetall. Å lære framtidens variant av slike verktøy blir lettere hvis du kan noe liknende i dag.
* Se for eksempel Lev Manovichs fem prinsipper for digitale medier i The language of new media.
** Vi har fått et nytt fag på instituttet som ser på de teoretiske aspektene av bl.a. slike grafer: info207. Kan vi bruke slik teori til å finne inhabile parter, maktsentre eller korrupsjon? Helt klart.
[…] deg excel, databaseteori og scripting, anbefaler stipendiat i datastøttet journalistikk ved UiB, Eirik Stavelin. Share this:TwitterFacebookLik dette:LikeBe the first to like […]