Journalistikk i maskinenes tid: deepfakes, desinformasjon og hva journalister kan gjøre med det

En dyster fremtid truer når teknikkene for å forfalske bilder, video og lyd blir stadig mer avanserte. Men utviklingen skaper også en gyllen mulighet for etablerte medier.

Tid­li­ge­re i år pub­li­ser­te Buzz­Fe­ed en video der den tid­li­ge­re ame­ri­kans­ke pre­si­den­ten Barack Oba­ma liret av seg noen vit­tig­he­ter langt uten­for hans sed­van­li­ge karak­ter­trekk.

Det mest bemer­kel­ses­ver­di­ge med video­klip­pet er imid­ler­tid ikke det at Oba­ma kom med sli­ke utta­lel­ser, men det at han fak­tisk ikke gjor­de det. I ste­det had­de stem­men til skue­spil­ler Jor­dan Peele der han gir seg ut for å være Oba­ma, gjen­nom­gått en medie­syn­tese­al­go­rit­me som gene­rer­te video­en. Resul­ta­tet er for­bløf­fen­de auten­tisk.

På nett er ingen­ting helt som det gir seg ut for å være, og nå enda mind­re enn før. Tak­ket være en ny type nev­ra­le nett­verk av maskin­læ­rings­al­go­rit­mer, kan over­be­vi­sen­de, men fik­ti­ve video­er, bil­der, stem­mer og tekst, syn­te­ti­se­res fra bun­nen av.

Data­ma­ski­ner kan lage vir­ke­lig­hets­tro bil­der av fik­ti­ve ansik­ter — med følel­ser, hud, alder og kjønn plot­tet inn via tas­ta­tu­ret. Stil­over­fø­ring kan end­re et bil­des omgi­vel­ser, og få vin­ter til å bli som­mer, sol­fylt til regn­fylt. Video­klipp av poli­ti­ke­re kan lages på sam­me måte som en dukke­film. Og ansik­ter kan byt­tes ut fra en kropp til en annen, kjent som «deep­fa­kes», noe som åpner opp for en rek­ke farer for ryk­te, sik­ker­het og per­son­vern. Gans­ke rys­ten­de grei­er.

Men på en måte kan det­te tek­no­lo­gis­ke spran­get fak­tisk være gode nyhe­ter for jour­na­lis­ter — og kan også være en anled­ning for tek­no­logi­platt­for­mer til å vise vel­vil­je over­for et mis­tenk­somt pub­li­kum.

Teknologisk undergraving av sannhet

Joda, bil­der har blitt mani­pu­lert mer eller mind­re siden bilde­tek­no­lo­gi­en ble opp­fun­net. Og medie­ne selv er kun et bil­de av en vir­ke­lig­het, hvor alle utvalg, redi­ge­rin­ger, frem­he­vin­ger og for­mu­le­rin­ger for­mer pub­li­kums tolk­ning av hen­del­ser og begi­ven­he­ter.

TEKNOLOGIBLOGGEN
Det­te inn­leg­get pub­li­se­res som del av den nye Tek­no­logi­blog­gen på Vox Pub­li­ca. Les mer om hva vi plan­leg­ger på blog­gen fram­over.

Det nye her er at medie­syn­tese­al­go­rit­mer bry­ter enda mer ned vår for­vent­ning om auten­ti­si­te­ten til inn­spilt media som foto, video og lyd, og sam­ti­dig mulig­gjør en ny og mer omfat­ten­de inn­gri­pen, per­son­lig­gjø­ring og enk­le­re bruk for alle — fra skue­spil­le­re til spio­ner. Kon­stru­er­te video­er kan rok­ke ved og end­re men­nes­kers dan­nel­se av fak­tis­ke min­ner av hen­del­ser. Og visu­el­le bevis kan i stor grad mis­te sin rol­le når stra­te­gis­ke des­in­for­ma­tø­rer bru­ker hele det tek­no­lo­gis­ke spek­te­ret til å under­gra­ve enhver sann­het.

Så hva skjer når folk ikke len­ger kan sto­le på nett­me­di­er? Hvor­dan kan et sam­funn ha en opp­lyst for­stå­el­se av det som skjer i ver­den når medie­ne såpass enkelt kan bli infil­trert av medie­syn­tese­al­go­rit­mer?

Dys­tert som det kan se ut, kan det­te være en gyl­len mulig­het for de etab­ler­te medie­nes come­back. Når pub­li­kum lærer at man ikke len­ger kan sto­le på det de ser­ve­res på nett, er det få and­re enn pro­fe­sjo­nelt opp­lær­te jour­na­lis­ter med til­gang til avan­ser­te under­sø­kel­ses­verk­tøy som kan inn­ta rol­len som kva­li­tets­sik­re­re og fakta­sjek­ke­re. Skal de gri­pe sjan­sen, bør jour­na­lis­ter og nyhets­or­ga­ni­sa­sjo­ner sat­se på stra­te­gi­er som opp­læ­ring i under­sø­ken­de jour­na­lis­tikk, utvik­ling av tek­nis­ke verk­tøy, samt stan­dar­di­ser­te og trans­pa­ren­te pro­ses­ser.

Avan­sert fakta­sjekk: Face­For­en­sics bru­ker maskin­læ­ring for å avgjø­re om en video av et ansikt er ekte. (Foto: Skjerm­bil­de FaceForensics/Youtube).

Nyhets­or­ga­ni­sa­sjo­ner og utdan­nings­in­sti­tu­sjo­ner må kom­me i gang med opp­læ­ring i tek­nik­ker innen medie­un­der­sø­kel­se (media for­en­sics). Det er avslø­ren­de tegn ved end­ret og syn­te­ti­sert media som et trent øye kan leg­ge mer­ke til — noe Hany Farids bok om bilde­un­der­sø­kel­ser gir et par eksemp­ler på. Sta­tis­tisk ana­ly­se av farge­piks­ler, inten­si­tet og deres regel­mes­sig­het kan vise tegn på bilde­re­di­ge­ring eller bil­des­pli­cing; reflek­sjo­ner og flyt­punk­ter kan vise geomet­ris­ke avvik; og både sen­sor­støv og kom­pre­sjons­arte­fak­ter kan også være avslø­ren­de. I video­klipp kan mun­nen til syn­te­ti­ser­te ansik­ter noen gan­ger flim­re eller se una­tur­lig ut; øyne­ne kan ha et drag over seg som hos zom­bier. Algo­rit­me­ne er ikke per­fek­te, men jour­na­lis­ter, i lik­het med and­re etter­fors­ke­re, må ha tren­te øyne for å opp­da­ge fei­le­ne.

Utvik­lin­gen og inte­gra­sjo­nen av data­støt­te­te under­sø­kel­ses­verk­tøy vil være like vik­tig som opp­læ­ring i medie­un­der­sø­kel­se. Selv om syn­te­ti­sert inn­hold av og til kan lure det men­nes­ke­li­ge øyet, kan det sta­tis­tis­ke øyet til en under­sø­ken­de algo­rit­me vite at det er for­fals­ket.

Verktøy for medieverifisering

Et nylig forsk­nings­pro­sjekt kalt Face­For­en­sics bru­ker maskin­læ­ring til å se om en video av et ansikt er ekte, med 98,1 pro­sent nøy­ak­tig­het. En annen meto­de ser etter blod­strøm­men i video­klipp av en per­sons ansikt for å se om piks­le­ne blir regel­mes­sig røde­re når hjer­tet pum­per blod.

Det ame­ri­kans­ke for­valt­nings­or­ga­net Natio­nal Insti­tute of Stan­dards and Tech­no­lo­gy (NIST) opp­ford­rer til mer forsk­ning på områ­det med deres Media For­en­sics Chal­len­ge, og det pub­li­se­res fak­tisk årlig hundre­vis av forsk­nings­ar­tik­ler om digi­ta­le under­sø­kel­ser.

Det er imid­ler­tid et styk­ke igjen før den­ne tek­no­lo­gi­en er bil­lig nok til all­menn bruk og der­med prak­tisk i jour­na­lis­tik­ken. Selv om det fin­nes noen få inte­grer­te verk­tøy, som InVid som bidrar til medie­ve­ri­fi­se­ring, er de fles­te data­støt­te­te under­sø­kel­ses­me­to­der frem­de­les proto­ty­per i forsk­ning og langt fra til­gjen­ge­lig i den dag­li­ge jour­na­lis­tis­ke arbeids­hver­da­gen. Her trengs det mer utprø­ving i prak­sis.

Det er dess­uten vik­tig at and­re enn bare nyhets­or­ga­ni­sa­sjo­ner hol­der et øye med falskt video­ma­te­ria­le. Noen av de and­re berør­te har egne forsk­nings­mid­ler, for ikke å glem­me dype lom­mer: Infor­ma­sjons­platt­for­mer som ofte ender opp med å være vert for syn­te­ti­sert media kan bidra til den­ne nød­ven­di­ge utprø­vin­gen. Hvis Face­bo­ok og YouT­ube for eksem­pel inte­grer­te Face­For­en­sics-algo­rit­men, vil­le de kun­ne flag­ge og tyde­lig mer­ke video­er mis­tenkt for å være fals­ke. Det vil­le være nok et sig­nal til bru­ker­ne og medie­ne om å være opp­merk­som på video­ens auten­ti­si­tet, og det vil­le kun­ne være en måte for tek­no­logi­platt­for­mer å vise vil­je til å hand­le til sam­fun­nets bes­te, i ste­det for kun å gå etter kort­sik­tig øko­no­misk vin­ning.

For å byg­ge opp den­ne sårt treng­te til­li­ten, vil­le platt­for­me­ne også måt­te være åpne om hva den­ne slags «auten­ti­se­ring» inne­bar. Hvis den­ne pro­ses­sen var inte­grert i for eksem­pel YouT­u­bes fil­ter for begren­set inn­hold, vil­le slutt­bru­ker­ne kun­ne kon­trol­le­re hvor­vidt flag­ge­te video­er skal auto­ma­tisk skju­les eller ei. Og hvis tek­no­lo­gis­ke sel­ska­per gjor­de algo­rit­mer for medie­ve­ri­fi­se­ring gra­tis til­gjen­ge­lig via API-er, kun­ne data­jour­na­lis­ter inte­gre­re veri­fi­se­rings­sig­na­ler i arbeids­fly­ten slik de selv øns­ket, mye av det sam­me som gjø­res i dag for tri­vi­el­le opp­ga­ver som geoko­ding av gate­adres­ser i bredde­gra­der og lengde­gra­der.

Kontekstens betydning for autentisitet

Men tek­nik­ker innen medie­un­der­sø­kel­se kan like­vel kun hjel­pe oss et styk­ke på vei. De kan være vans­ke­li­ge å bru­ke, kre­ve mye opp­læ­ring for å kun­ne tol­ke, er ofte hel­ler ikke abso­lut­te, og — som enhver form for infor­ma­sjons­sik­ker­het — vil tren­ge kon­stant og ved­va­ren­de tek­nisk støt­te og opp­syn.

En annen gren innen under­sø­kel­ses­me­to­der ser på medie­kon­tekst for å avgjø­re auten­ti­si­tet: Hvis et bil­de lett kan syn­te­ti­se­res, vil meta­data om tids­punkt, sted, sosi­al set­ting eller annen kon­tekst bli desto vik­ti­ge­re for en reell veri­fi­se­ring. Hvis et mis­ten­ke­lig inter­es­sant bil­de er las­tet opp av en kon­to opp­ret­tet dagen før og har det som ser ut til å være en hor­de av bot-føl­ge­re, er det­te nok en fak­tor å ta med i bereg­nin­gen. Å tol­ke kon­tekst for å støt­te veri­fi­se­ring er en ny form for kom­pe­tan­se innen medie­for­stå­el­se der jour­na­lis­ter, nok en gang, vil tren­ge opp­læ­ring, eks­per­ti­se og verk­tøy som bidrar til å få noe ut av den sto­re sky­en av kon­tekst.

På sam­me måte som veri­fi­se­rings­pro­se­dy­rer for sosia­le medi­er er sys­te­ma­ti­sert og tatt i bruk av orga­ni­sa­sjo­ner som Story­ful og Bel­ling­cat — som føl­ger rigi­de pro­se­dy­rer for å tri­an­gu­le­re, bekref­te og under­byg­ge inn­hold og dets opp­havs­sted -, må jour­na­lis­ter utvi­de og kode arbeids­fly­ten for å vur­de­re hvor­vidt et bil­de, en video eller tekst er resul­ta­tet fra en eller annen medie­syn­tese­al­go­rit­me. Nyhets­or­ga­ni­sa­sjo­ner bur­de gå har­de­re inn for trans­pa­ren­te meto­der. Robus­te og stan­dar­di­ser­te pro­ses­ser for veri­fi­se­ring og utrens­king av syn­te­ti­sert media må utvik­les og pub­li­se­res åpent. Der­et­ter må nyhets­or­ga­ni­sa­sjo­ner offent­lig for­plik­te seg til å føl­ge dis­se stan­dar­de­ne. Det hand­ler om til­lit. Folk vil kan­skje strøm­me til de medie­ne de vet føl­ger nøy­ak­ti­ge og omfat­ten­de pro­se­dy­rer.

Artik­ke­len er over­satt fra engelsk av Camil­la Skog­seth Clau­sen.

Hvis vi ikke kan sto­le på det vi ser på nett, kan vi kan­skje ha til­lit til at et medie­hus føl­ger en rigid pro­sess for å sik­re at det de pub­li­se­rer er auten­tisk. Syn­te­ti­sert media kan da være akku­rat det som fører pub­li­kum til­ba­ke i arme­ne til de etab­ler­te nyhets­or­ga­ni­sa­sjo­ne­ne.

TEMA

A

lgoritm
e

12 ARTIKLER FRA VOX PUBLICA

FLERE KILDER - FAKTA - KONTEKST

INGEN KOMMENTARER

KOMMENTÉR

Skriv en kommentar

Bidra til god debatt - skriv under fullt navn. Se våre kommentarregler.

Abonner på kommentarer
til toppen