Når databaserte nyheter blir partiske

Algoritmer er blitt allestedsnærværende i nyhetsmediene - derfor er det viktig å vite hvordan partiskhet og skjevheter kan sive inn i beslutningene de tar.

Tenk på Google News. Da tjen­esten ble lansert i 2002 var den et av de første forsøkene på å sam­le inn og per­son­alis­ere nyheter med algo­rit­mer — det vil si med prosedyr­er som skritt for skritt og sys­tem­a­tisk behan­dler infor­masjon. Google skrøt til og med av det på hjemmes­i­den: “Denne siden ble laget utelukkende med data­mask­i­nal­go­rit­mer, uten men­neske­lige redak­tør­er. Men­nesker ble verken skadet eller brukt i arbei­det med denne siden.”

Google News-algo­rit­mens kri­terier for å ran­gere og grup­pere nyhet­sar­tik­ler er pub­lis­er­ing­shyp­pighet, kilde, aktu­alitet, sted, rel­e­vans og mang­fold. Mil­lion­er av ganger om dagen bruk­er Google News-algo­rit­men disse kri­te­riene til å ta redak­sjonelle avgjørelser.

Likev­el, i den sys­tem­a­tiske bruken av beslut­ningskri­terier kan algo­rit­men skape skjevheter som ikke synes opplagte, gitt pro­gram­merin­gen av den. Det kan være lett å gi etter for feil­slut­nin­gen om at for­di data­mask­i­nal­go­rit­mer er sys­tem­a­tiske, så må de på et vis være mer “objek­tive”. Men det er fak­tisk slike sys­tem­a­tiske skjevheter som er de mest lumske, siden de ofte går ube­mer­ket hen.

Selv robot­er kan være partiske.

Enhver beslut­ning­spros­ess, enten men­neske­lig eller algo­rit­misk, om hva som skal tas med, eksklud­eres eller vek­t­legges — pros­ess­er Google News har mange av — har poten­sial til å skape skjevheter. Det inter­es­sante med algo­rit­mer er at beslut­ningskri­te­riene som er tilgjen­gelige for algo­rit­men kan synes harm­løse, men sam­tidig føre til resul­tater som oppleves som par­tiske eller med slagside.

Enhver skjevhet i dataene som algo­rit­men fores med blir med på lasset

Et eksem­pel: Hvis den ikke pro­gram­meres spe­sielt for det, vil ikke Google News-algo­rit­men ta par­ti når den plukker rep­re­sen­ta­tive artik­ler om en lokal val­gkamp — tjen­esten er grunn­leggende upar­tisk. Men et av kri­te­riene for å velge ut artik­ler er “pub­lis­er­ings­frekvens”. Det kan virke nøy­tralt — men hvis en av kan­di­datene i val­gkam­p­en gjen­nomgående får litt mer mediedekn­ing (alt­så høyere “pub­lis­er­ings­frekvens”), kan det kri­teri­et få Google News’ utvalg til å virke partisk.

Algo­rit­mer kan man­gle seman­tisk grunnlag til å kunne forstå mer avanserte begreper som stereo­typ­i­er eller rasisme. Hvis de enkle og mål­bare kri­te­riene algo­ritmene bruk­er til å eksklud­ere infor­masjon fra syn­lighet på en eller annen måte kor­rel­erer med for eksem­pel kløfter mel­lom folkegrup­per, kan de se ut som at de har en slag­side mot en folkegruppe.

Enkle beslut­ningskri­terier som led­er til kom­plekse avgjørelser om å inklud­ere og eksklud­ere er en måte som par­tiskhet og skjevhet, ofte ufor­varende, kan vise seg i algo­rit­mer. Andre mekanis­mer som kan skape skjevheter i nyhets­deknin­gen kan illus­tr­eres med en særlig vik­tig infor­masjon­spros­ess — oppsummeringen.

Oppsummering av virkeligheten

På en måte dreier nyhet­srap­por­ter­ing seg egentlig om å opp­sum­mere virke­ligheten. Du kan innvende: “Det dreier seg også om å fortelle en his­to­rie!” — og det vil du ha rett i, siden lite er kjedeligere enn en tørr opp­sum­mer­ing. Men før his­to­rien kan fortelles må reporteren ta beslut­ninger om hvilke hen­delser som skal tas med, hva slags bak­grunnsin­for­masjon som trygt kan ute­lates, og hva som bør vek­t­legges som virke­lig vik­tig. Alt dette har poten­sial til å farge his­to­rien. Reportere observer­er ver­den og avdekker mye infor­masjon, for så å gjøre et håndter­bart utvalg som er tilpas­set tiden og opp­merk­somheten pub­likum har til rådighet. Dette er å oppsummere.

Opp­sum­mer­ing er vik­tig for­di tid og opp­merk­somhet er to av råvarene som definer­er vår epoke. Mange av oss ønsker eller trenger ikke kjenne til intrikate detal­jer i hver nyhetssak; ofte nøy­er vi oss gjerne med et kjapt overb­likk over en hen­delse. Dette behovet for å opti­mere opp­merk­somhet og red­de oss fra infor­masjons­flom­men dri­ver fram nyskap­ing innen behan­dling og opp­sum­mer­ing av infor­masjon, i redak­sjonelle vur­deringer så vel som i nye datamaskinalgoritmer.

Grün­derbedriften Cir­ca i San Fran­cis­co arbei­der med en app for redak­sjonelle vur­deringer som opp­sum­mer­er hen­delser som serier av “punk­ter” eller fak­tabiter. Redak­tør­er sam­ler inn “fak­ta fra et mang­fold av kilder” og gjør dem om til “kon­sise, let­tleste “punk­ter” i Cir­ca”, slik appens hjelpesider beskriv­er kon­septet. Nå leg­ger Cir­ca selv min­dre vekt på opp­sum­mer­ing og mer på his­to­riefortelling. De knyt­ter de kon­sise “punk­tene” sam­men i en sekvens som byg­ger en his­to­rie. Tilnær­min­gen deres er drevet av redak­tør­er og er selvføl­gelig utsatt for alle de ulike måtene som skjevhet og par­tiskhet kan opp­stå i en redi­ger­ing­spros­ess, inklud­ert både indi­vidu­elle og organ­isatoriske preferanser.

Din daglige nyhets­me­ny har antake­lig blitt påvir­ket av mange ulike algoritmer

Men hva om Cir­ca beg­y­nte å bruke algo­rit­mer som ist­e­den­for å basere seg på redak­tør­er, tok automa­tiske avgjørelser om hvilke punk­ter de skulle ta med eller ute­late? Da kunne de beg­ynne å likne mer på Lon­don-baserte Summ­ly, som har en ny lese-app med “algo­ritme-gener­erte sam­men­fat­ninger fra hun­drevis av kilder”. Summ­ly vel­ger de “vik­tig­ste” set­nin­gene fra en artikkel og pre­sen­ter­er disse som opp­sum­mer­ing. Men hvor­dan kan denne algo­rit­men beg­ynne å lage skjevheter i his­to­riene den pro­duser­er, for eksem­pel gjen­nom defin­isjo­nen av “vik­tig”? Er det for eksem­pel tenke­lig at algo­rit­men i en sak om den israel­sk-palestinske kon­flik­ten kunne velge ut set­ninger på en dis­pro­porsjon­al måte slik at den ene sidens syn vek­t­legges tyn­gre enn den andres?

Kan­skje vil vi aldri få vite hvor­dan Summlys algo­rit­mer kan skape skjevheter i opp­sum­merin­gene den lager; den er en pro­pri­etær og lukket teknolo­gi. Det under­strek­er behovet for åpen­het om algo­rit­mer. Ved å stud­ere mer åpne forsøk som forskn­ings­baserte pros­jek­ter kan vi lære mye om hvor­dan algo­rit­mer for opp­sum­mer­ing virk­er og kan skape skjevheter.

Jeg snakket med Jeff Nichols ved IBM Research, som har bygget et sys­tem (pdf) for å opp­sum­mere sport­sarrange­menter basert kun på Twit­ter-meldinger (tweets) folk skriv­er om dem. Sportsin­ter­esserte Nichols beg­y­nte å plotte inn meng­den av tweets om kam­p­ene under VM i fot­ball i 2010. Han så at meng­den økte på visse tid­spunk­ter, og bruk­te sin ad hoc-metode til å finne de mest spen­nende øye­b­likkene i en kamp slik at han kunne spole fram til dem på sin videoopp­tak­er. Meng­den tweets øker naturlig ved spen­nende hen­delser, særlig scoringer.

Deretter beg­y­nte Nichols og hans team å spørre vanske­ligere spørsmål om hva slags opp­sum­meringer de fak­tisk kunne lage på bak­grunn av Twit­ter-mate­ri­alet. De endte opp med å lage et sys­tem som kunne behan­dle alle tweets om en kamp, finne top­pene i tweet-aktivitet, velge ut rep­re­sen­ta­tive nøkkel-meldinger fra disse hen­delsene, og spleise dem sam­men til korte opp­sum­meringer. Når les­barhet og gram­matikalsk nivå ble sam­men­lignet, viste det seg at tek­stene laget med algo­rit­men var av tilsvarende kvalitet som manuelt pro­duserte opp­sum­meringer basert på det samme Twitter-materialet.

Manuell eller mask­inell opp­sum­mer­ing — hvilken er best?

IBM-sys­temet viste likev­el at en spe­siell type skjevhet kan snike seg inn i algoritmer:

Enhver skjevhet i dataene som algo­rit­men fores med blir med på las­set helt fram til det fer­di­ge resul­tatet. Algo­rit­men er par­tisk til fordel for “de som skrik­er høyest”, ifølge Nichols, siden den rel­a­tivt enkle algo­rit­men finner rel­e­vante tweets ved å lete etter frekvensen av nøkkelord på engel­sk. Imp­likasjonene er ganske klare: Hvis Slove­nia scor­er et kon­tro­ver­sielt mål mot USA, kan algo­rit­men rap­portere at “USA ble ranet”, hvis det er den dominerende reak­sjo­nen i engel­skspråk­lige tweets. Men antake­lig vil ikke slovenere som tvit­r­er om hen­delsen være enig. De vil sannsyn­ligvis melde noe sånt som “Fint mål — der fikk dere den, USA!” (på sloven­sk, selvføl­gelig). Nichols er inter­essert i å tilpasse algo­rit­men for å ta hen­syn til ulike per­spek­tiv­er og generere bevisst par­tiske opp­sum­meringer fra ulike synsvin­kler (kan bli en vin­ner i amerikanske kabel-tv-nyheter!).

Når de skal ta avgjørelser om hva som skal inklud­eres i eller eksklud­eres fra en opp­sum­mer­ing, må algo­rit­mer van­ligvis gå gjen­nom et skritt der infor­masjon pri­or­iteres. Ting med lavere pri­or­itet blir eksklud­ert. IBM-sys­temet er for eksem­pel ret­tet inn mot høy­depunk­ter i idretts­be­given­heter. Dette fun­ger­er hvis målet er å finne de mest spen­nende delene av en kamp, som får mye opp­merk­somhet. Men det er andre inter­es­sante his­to­ri­er som bobler like under terske­len for “høy­depunk­ter”. Hva med midt­stop­peren som spilte sol­id i forsvar, men aldri gjorde en enkelt­prestasjon som ga mange nok tweets til å bli oppdaget av algo­rit­men? Denne delen av kam­p­en, eller his­to­rien, ville bli utelatt.

IBM-algo­rit­men ikke bare pri­or­iter­er infor­masjon, men må også gjøre utvalg basert på ulike kri­terier. Noen av disse val­gene kan også kodes inn slik at pro­gram­mer­erne hjelper algo­rit­men med å gjøre valg (heuris­tikk). For eksem­pel har IBM-sys­temets pro­gram­merere forhånds­bestemt at algo­rit­men skal fore­trekke lengre fram­for kor­tere tweets til opp­sum­merin­gene, siden de kor­tere meldin­gene pleier å være min­dre les­bare set­nings­frag­menter. Det er helt klart en avgjørelse som kan forsvares, men Nichols innser at det også kan skape en skjevhet: “Å ute­late kom­mentar­er fra folk som har en ten­dens til ikke å skrive full­s­tendi­ge set­ninger kan kan­skje eksklud­ere en lavere utdan­net del av befolknin­gen”. Kri­terier val­gt av pro­gram­merere for utvalg og pri­or­i­ter­ing kan kor­relere med andre vari­abler (som utdan­ningsnivå) som kan være vik­tige når par­tiskhet og skjevheter i mediedekn­ing skal vurderes.

Optimering, rangering, aggregering

Opp­sum­merin­gen er bare én type infor­masjons­be­han­dling som kan sys­tem­a­tis­eres i en algo­ritme. Din daglige nyhets­me­ny har antake­lig blitt påvir­ket av mange ulike algo­rit­mer allerede før du har beg­y­nt å kon­sumere nyhetene. Algo­rit­mer for per­son­alis­er­ing som dem som brukes av Zite, en pop­ulær app­likasjon for å lese nyheter, tilpass­er sys­tem­a­tisk innhold til dine inter­ess­er, på bekost­ning av å eksponere deg for et større mang­fold av sak­er. Social Flow, en grün­derbedrift i New York, bruk­er algo­rit­mer for opti­mer­ing for å finne ut det nøyak­tige tid­spunk­tet for når det er best å dele nyheter i sosiale nettverk slik at de får mak­si­malt gjen­nom­slag hos målgruppen.

Opti­mer­ingsal­go­rit­mer kan også bli brukt (pdf) til å bestemme lay­outen av en nyhets­side. Men å opti­mere lay­out basert på ett kri­teri­um, som antall side­vis­ninger, kan ha util­sik­t­ede kon­sekvenser, som at skan­daler og kjendis­ny­heter alltid havn­er øverst på siden. Også her kan val­get av hvilke aspek­ter man vil opti­mere og hva de er kor­rel­ert med, ha betydning.

Algo­rit­mer for ranger­ing er annen type som er mye brukt i nyhetssam­men­heng. Tenk på lis­tene over “topp­sak­er” på de fleste net­tavis­er, eller hvor­dan kom­mentar­er blir rangert, eller til og med på hvor­dan Twit­ter ran­ger­er tren­der. Særlig Twit­ter-tren­der har kom­met i søkel­y­set etter at hen­delser som folk trodde ville dukke opp på lis­ten over tren­der, som #occu­py­wall­street eller #wik­ileaks, ikke viste seg. I likhet med Summ­ly er ikke Twit­ter åpne om algo­rit­men de bruk­er til å iden­ti­fis­ere tren­der. Det gjør det vanske­lig å vur­dere hvilke sys­tem­a­tiske skjevheter som er innebygd i algo­rit­men og om heuris­tikk eller men­neske­lige valg innlem­met i den også kan spille en rolle.

Forskere job­ber med hvor­dan du kan bli ekspon­ert for nyheter på en nyt­tig måte

Google bruk­er også ranger­ingsal­go­rit­mer til å sortere søk­ere­sul­tatene dine. I dette til­felle er ranger­ingsal­go­ritmene utsatt for den samme typen skjevhet til fordel for “de som skrik­er høyest” som vi hørte om fra Nichols. Inter­nett er fullt av fir­maer spe­sialis­ert på søke­mo­torop­ti­malis­er­ing som prøver å lure Googles algo­ritme slik at visse typer innhold vil vis­es høyt oppe i søk­ere­sul­tatene selv om det kan­skje ikke fort­jen­er å være der. Dette gjør de delvis ved å knytte visse nøkkelord til nettst­edet de ønsker å dytte oppover på lis­ten over søk­ere­sul­tater, og ved å lage hyper­lenker fra mange andre nettst­ed­er til dette nettst­edet. Andre prøver å manip­ulere søk­erangeringer. Pro­fes­sor Takis Metaxis ved Welles­ley Col­lege og hans kol­le­ga Eni Musta­faraj har skrevet om “google­bomb­ing”. Her skaper man koblinger mel­lom poli­tiske aktør­er, som George W. Bush, og neg­a­tive søke­ord, som “håpløs fiasko”, slik at per­so­n­en dukker opp når noen søk­er på denne frasen. Dette er et per­fekt eksem­pel på hvor­dan skjevheter i data som en algo­ritme fores med kan føre til skjevheter i resul­tatet. Og når dataene algo­rit­men fores med er offentlige, lig­ger algo­rit­men åpen for manipulasjon.

Ikke alle typer skjevheter og par­tiskhet i algo­rit­mer må være skadelig. Hvis algo­rit­mer kunne skape en motvekt til indi­vidu­ell og tankemes­sig par­tiskhet vi alle bær­er i oss, kunne det ha en pos­i­tiv effekt på infor­masjo­nen vi blir ekspon­ert for. Ved Korea Advanced Insti­tute of Sci­ence and Tech­nol­o­gy (KAIST) har Souneil Park og hans samar­bei­dspart­nere eksper­i­mentert med algo­rit­mer for innsam­ling av nyheter som fores inn i en nyhet­sp­re­sen­tasjon kalt News­Cube (pdf). Denne led­er bruk­eren til å forholde seg til et større mang­fold av per­spek­tiv­er. Glem å over­late ting til til­feldighetene — forskere job­ber med hvor­dan du kan bli ekspon­ert for nyheter på en nyt­tig måte. Richard Thaler og Cass Sun­stein kaller i sin bok Nudge denne for­men for inn­fly­telse for “lib­er­tar­i­an­sk pater­nal­isme” — å påvirke erfaringer for å kor­rigere for kog­ni­tive man­gler i men­neskers reson­ner­ing­sevne. Ikke bare kan algo­rit­mer skape skjevheter i innhold­et vi kon­sumer­er — en dag kan de kan­skje gjøre det på en måte som gjør oss smartere og min­dre utsatt for våre egne tankemes­sige bris­ter. En algo­ritme kunne kan­skje til og med sak­te dytte ekstrem­is­ter mot midten ved å eksponere dem for stadig mer mod­er­ate ver­sjon­er av deres egne ideer.

Algo­rit­mer finnes over alt i nyhetene som omgir oss, enten det er i opp­sum­meringer, per­son­alis­er­ing, opti­mer­ing, ranger­ing, koblinger, klas­si­fis­er­ing, aggregering eller en annen algo­rit­misk infor­masjon­spros­ess. De er allest­ed­snærværende, og det gjør det verdt å reflek­tere over hvor­dan disse pros­essene kan bidra til sys­tem­a­tisk manip­u­lasjon av infor­masjo­nen vi kon­sumer­er, enten det er gjen­nom heuris­tikk, dataene de fores med, eller kri­te­riene som brukes til å hjelpe dem med å ta beslut­ninger om å inklud­ere, eksklud­ere og vektlegge.

Algo­rit­mer vil alltid måtte ta ikke-til­feldige avgjørelser om inklud­er­ing, eksklud­er­ing og vek­t­leg­ging i medi­ene våre for å hjelpe oss å løse vårt prob­lem med knapp tid og opp­merk­somhet. Vi kan ikke på magisk vis gjøre algo­rit­mer “objek­tive” ved å forstå hvor­dan de forår­sak­er skjevheter i medi­ene. Men vi kan lære oss å bli mer kri­tiske når vi bruk­er data­baserte medi­er. Særlig data­jour­nal­is­ter burde gjøre det til en vane å tenke grundig over hva bivirknin­gene av algo­ritmene de lager kan være og hva som kan kor­relere med kri­te­riene de bruk­er for å ta avgjørelser. I neste omgang bør vi være åpne om disse bivirknin­gene på en måte som hjelper pub­likum til å bedømme kvaliteten på det vi gjør.

Artikke­len ble først pub­lis­ert av Nie­man Jour­nal­ism Lab. Over­satt av Olav Anders Øvrebø.

TEMA

J

ournali
stikk

136 ARTIKLER FRA VOX PUBLICA

FLERE KILDER - FAKTA - KONTEKST

INGEN KOMMENTARER

Kommentarfeltet til denne artikkelen er nå stengt. Ta kontakt med redaksjonen dersom du har synspunkter på artikkelen.

til toppen