Journalistikk i maskinenes tid: deepfakes, desinformasjon og hva journalister kan gjøre med det

En dyster fremtid truer når teknikkene for å forfalske bilder, video og lyd blir stadig mer avanserte. Men utviklingen skaper også en gyllen mulighet for etablerte medier.

Tidligere i år pub­lis­erte Buz­zFeed en video der den tidligere amerikanske pres­i­den­ten Barack Oba­ma liret av seg noen vit­tigheter langt uten­for hans sed­van­lige karaktertrekk. 

Det mest bemerkelsesverdi­ge med videok­lip­pet er imi­dler­tid ikke det at Oba­ma kom med slike uttalelser, men det at han fak­tisk ikke gjorde det. I stedet hadde stem­men til skue­spiller Jor­dan Peele der han gir seg ut for å være Oba­ma, gjen­nomgått en mediesyn­te­seal­go­ritme som gener­erte videoen. Resul­tatet er for­bløf­fende aut­en­tisk.

På nett er ingent­ing helt som det gir seg ut for å være, og nå enda min­dre enn før. Takket være en ny type nevrale nettverk av maskin­læringsal­go­rit­mer, kan over­be­visende, men fik­tive video­er, bilder, stem­mer og tekst, syn­te­tis­eres fra bun­nen av. 

Data­mask­in­er kan lage virke­lighet­stro bilder av fik­tive ansik­ter — med følelser, hud, alder og kjønn plot­tet inn via tas­taturet. Stilover­føring kan endre et bildes omgivelser, og få vin­ter til å bli som­mer, sol­fylt til reg­n­fylt. Videok­lipp av poli­tikere kan lages på samme måte som en dukke­film. Og ansik­ter kan byttes ut fra en kropp til en annen, kjent som “deep­fakes”, noe som åpn­er opp for en rekke far­er for ryk­te, sikker­het og per­son­vern. Ganske rys­tende greier.

Men på en måte kan dette tek­nol­o­giske spranget fak­tisk være gode nyheter for jour­nal­is­ter — og kan også være en anled­ning for teknologi­plat­tformer til å vise velvil­je over­for et mis­tenk­somt publikum.

Teknologisk undergraving av sannhet

Joda, bilder har blitt manip­ulert mer eller min­dre siden bilde­te­knolo­gien ble opp­fun­net. Og medi­ene selv er kun et bilde av en virke­lighet, hvor alle utvalg, redi­geringer, fremhevinger og for­mu­leringer for­mer pub­likums tolkn­ing av hen­delser og begivenheter. 

TEKNOLOGIBLOGGEN
Dette inn­legget pub­lis­eres som del av den nye Teknologi­bloggen på Vox Pub­li­ca. Les mer om hva vi plan­leg­ger på bloggen framover.

Det nye her er at mediesyn­te­seal­go­rit­mer bry­ter enda mer ned vår for­vent­ning om aut­en­tisiteten til inn­spilt media som foto, video og lyd, og sam­tidig mulig­gjør en ny og mer omfat­tende inngripen, per­son­lig­gjøring og enklere bruk for alle — fra skue­spillere til spi­oner. Kon­struerte video­er kan rokke ved og endre men­neskers dan­nelse av fak­tiske min­ner av hen­delser. Og visuelle bevis kan i stor grad miste sin rolle når strate­giske desin­for­matør­er bruk­er hele det tek­nol­o­giske spek­teret til å under­grave enhver sannhet.

Så hva skjer når folk ikke lenger kan stole på nettmedi­er? Hvor­dan kan et sam­funn ha en opplyst forståelse av det som skjer i ver­den når medi­ene såpass enkelt kan bli infil­tr­ert av mediesyntesealgoritmer?

Dys­tert som det kan se ut, kan dette være en gyllen mulighet for de etablerte medi­enes come­back. Når pub­likum lær­er at man ikke lenger kan stole på det de serveres på nett, er det få andre enn pro­fesjonelt opplærte jour­nal­is­ter med til­gang til avanserte under­søkelsesverk­tøy som kan inn­ta rollen som kvalitetssikrere og fak­tas­jekkere. Skal de gripe sjansen, bør jour­nal­is­ter og nyhet­sor­gan­isas­jon­er satse på strate­gi­er som opplæring i under­søk­ende jour­nal­is­tikk, utvikling av tekniske verk­tøy, samt stan­dard­is­erte og trans­par­ente prosesser.

Avansert fak­tas­jekk: Face­Foren­sics bruk­er maskin­læring for å avgjøre om en video av et ansikt er ekte. (Foto: Skjerm­bilde FaceForensics/Youtube).

Nyhet­sor­gan­isas­jon­er og utdan­ningsin­sti­tusjon­er må komme i gang med opplæring i teknikker innen medie­un­der­søkelse (media foren­sics). Det er avs­lørende tegn ved endret og syn­te­tis­ert media som et trent øye kan legge merke til — noe Hany Farids bok om bilde­un­der­søkelser gir et par eksem­pler på. Sta­tis­tisk analyse av fargepik­sler, inten­sitet og deres regelmes­sighet kan vise tegn på bilderedi­ger­ing eller bilde­splic­ing; reflek­sjon­er og fly­t­punk­ter kan vise geometriske avvik; og både sen­sorstøv og kom­presjon­sarte­fak­ter kan også være avs­lørende. I videok­lipp kan munnen til syn­te­tis­erte ansik­ter noen ganger flim­re eller se unaturlig ut; øynene kan ha et drag over seg som hos zom­bier. Algo­ritmene er ikke per­fek­te, men jour­nal­is­ter, i likhet med andre etter­forskere, må ha trente øyne for å oppdage feilene.

Utviklin­gen og inte­grasjo­nen av datastøt­tete under­søkelsesverk­tøy vil være like vik­tig som opplæring i medie­un­der­søkelse. Selv om syn­te­tis­ert innhold av og til kan lure det men­neske­lige øyet, kan det sta­tis­tiske øyet til en under­søk­ende algo­ritme vite at det er forfalsket. 

Verktøy for medieverifisering

Et nylig forskn­ing­spros­jekt kalt Face­Foren­sics bruk­er maskin­læring til å se om en video av et ansikt er ekte, med 98,1 pros­ent nøyak­tighet. En annen metode ser etter blod­strøm­men i videok­lipp av en per­sons ansikt for å se om pik­s­lene blir regelmes­sig rødere når hjertet pumper blod. 

Det amerikanske for­valt­ning­sor­ganet Nation­al Insti­tute of Stan­dards and Tech­nol­o­gy (NIST) opp­for­dr­er til mer forskn­ing på området med deres Media Foren­sics Chal­lenge, og det pub­lis­eres fak­tisk årlig hun­drevis av forskn­ingsar­tik­ler om dig­i­tale undersøkelser.

Det er imi­dler­tid et stykke igjen før denne teknolo­gien er bil­lig nok til all­menn bruk og dermed prak­tisk i jour­nal­is­tikken. Selv om det finnes noen få inte­gr­erte verk­tøy, som InVid som bidrar til mediev­er­i­fis­er­ing, er de fleste datastøt­tete under­søkelses­me­toder fremde­les pro­to­typer i forskn­ing og langt fra tilgjen­gelig i den daglige jour­nal­is­tiske arbei­d­shverda­gen. Her trengs det mer utprøv­ing i praksis.

Det er dessuten vik­tig at andre enn bare nyhet­sor­gan­isas­jon­er hold­er et øye med fal­skt video­ma­te­ri­ale. Noen av de andre berørte har egne forskn­ingsmi­dler, for ikke å glemme dype lom­mer: Infor­masjon­splat­tformer som ofte ender opp med å være vert for syn­te­tis­ert media kan bidra til denne nød­vendi­ge utprøvin­gen. Hvis Face­book og YouTube for eksem­pel inte­gr­erte Face­Foren­sics-algo­rit­men, ville de kunne flagge og tydelig merke video­er mis­tenkt for å være falske. Det ville være nok et sig­nal til bruk­erne og medi­ene om å være opp­merk­som på videoens aut­en­tisitet, og det ville kunne være en måte for teknologi­plat­tformer å vise vil­je til å han­dle til sam­fun­nets beste, i stedet for kun å gå etter kort­sik­tig økonomisk vinning.

For å bygge opp denne sårt trengte tilliten, ville plat­tformene også måtte være åpne om hva denne slags “aut­en­tis­er­ing” innebar. Hvis denne pros­essen var inte­gr­ert i for eksem­pel YouTubes fil­ter for begrenset innhold, ville slut­tbruk­erne kunne kon­trollere hvorvidt flaggete video­er skal automa­tisk skjules eller ei. Og hvis tek­nol­o­giske sel­skaper gjorde algo­rit­mer for mediev­er­i­fis­er­ing gratis tilgjen­gelig via API-er, kunne data­jour­nal­is­ter inte­grere ver­i­fis­er­ingssig­naler i arbei­ds­fly­ten slik de selv øns­ket, mye av det samme som gjøres i dag for triv­ielle opp­gaver som geokod­ing av gatead­ress­er i bred­de­grad­er og lengdegrader.

Kontekstens betydning for autentisitet

Men teknikker innen medie­un­der­søkelse kan likev­el kun hjelpe oss et stykke på vei. De kan være vanske­lige å bruke, kreve mye opplæring for å kunne tolke, er ofte heller ikke abso­lutte, og — som enhver form for infor­masjon­ssikker­het — vil trenge kon­stant og ved­varende teknisk støtte og oppsyn. 

En annen gren innen under­søkelses­me­toder ser på mediekon­tekst for å avgjøre aut­en­tisitet: Hvis et bilde lett kan syn­te­tis­eres, vil meta­da­ta om tid­spunkt, sted, sosial set­ting eller annen kon­tekst bli desto vik­tigere for en reell ver­i­fis­er­ing. Hvis et mis­tenke­lig inter­es­sant bilde er lastet opp av en kon­to oppret­tet dagen før og har det som ser ut til å være en horde av bot-føl­gere, er dette nok en fak­tor å ta med i bereg­nin­gen. Å tolke kon­tekst for å støtte ver­i­fis­er­ing er en ny form for kom­petanse innen medieforståelse der jour­nal­is­ter, nok en gang, vil trenge opplæring, eksper­tise og verk­tøy som bidrar til å få noe ut av den store skyen av kontekst.

På samme måte som ver­i­fis­er­ing­sprosedyr­er for sosiale medi­er er sys­tem­a­tis­ert og tatt i bruk av organ­isas­jon­er som Sto­ry­ful og Belling­cat — som føl­ger rigide prosedyr­er for å tri­an­gulere, bekrefte og under­bygge innhold og dets opphavsst­ed -, må jour­nal­is­ter utvide og kode arbei­ds­fly­ten for å vur­dere hvorvidt et bilde, en video eller tekst er resul­tatet fra en eller annen mediesyn­te­seal­go­ritme. Nyhet­sor­gan­isas­jon­er burde gå hard­ere inn for trans­par­ente metoder. Robuste og stan­dard­is­erte pros­ess­er for ver­i­fis­er­ing og utren­sk­ing av syn­te­tis­ert media må utvikles og pub­lis­eres åpent. Deretter må nyhet­sor­gan­isas­jon­er offentlig for­p­lik­te seg til å følge disse stan­dar­d­ene. Det han­dler om tillit. Folk vil kan­skje strømme til de medi­ene de vet føl­ger nøyak­tige og omfat­tende prosedyrer.

Artikke­len er over­satt fra engel­sk av Camil­la Skogseth Clausen.

Hvis vi ikke kan stole på det vi ser på nett, kan vi kan­skje ha tillit til at et mediehus føl­ger en rigid pros­ess for å sikre at det de pub­lis­er­er er aut­en­tisk. Syn­te­tis­ert media kan da være akku­rat det som før­er pub­likum tilbake i armene til de etablerte nyhetsorganisasjonene.

TEMA

A

lgoritm
e

13 ARTIKLER FRA VOX PUBLICA

FLERE KILDER - FAKTA - KONTEKST

INGEN KOMMENTARER

Kommentarfeltet til denne artikkelen er nå stengt. Ta kontakt med redaksjonen dersom du har synspunkter på artikkelen.

til toppen