Kunstig intelligens – venn (og fiende) i kampen mot falske nyheiter

Medietilsynet kunne for ein månad sidan fortelje at 45% i Noreg har sett falske nyheiter om korona-viruset i ulike media, 27% har ikkje sett slike, og 28% veit ikkje. Mange har altså kompetanse i å vere kritisk til innhald spreidd gjennom sosiale media og nyheitsmedia. Men vi lever i ei verd der falske nyheiter i aukande grad vert masseprodusert og brukt som eit politisk verkemiddel av illiberale krefter. Truleg vil teknologiar som avdekkar falske nyheiter verte naudsynt for journalistar og mediebrukarar; snart treng vi avanserte analyseverktøy som er i stand til å sjekke om ei nyheitssak, eit bilde eller ein video er eit falsum.

Media er ful­le av nyhei­ter om koro­na-viru­set og Covid 19, om opp­ha­vet til sjuk­do­men, sprei­ing av viru­set og kam­pen mot sjuk­dom­men. Det­te er natur­leg sidan vi alle er sterkt påver­ka av det­te i kvar­da­gen. Vi er nys­gjer­ri­ge og ønskjer å for­stå saman­hen­ga­ne i det som skjer. Den­ne situa­sjo­nen er frukt­bar mark for sprei­ing av ide­ar som at Micro­soft-grün­de­ren Bill Gates står bak koro­na-viru­set, eller at pan­de­mi­en er eit resul­tat av strå­ling frå 5G-mobil­net­tet. For dei fles­te opp­lys­te men­nes­ke er des­se saman­hen­ga­ne heilt utan tru­ver­de, men like­vel ser dei ut til å spreie seg som virus. Nasjo­nal sik­ker­heits­myn­dig­heit og jus­tis­mi­nis­ter Moni­ka Meland poeng­ter­te ber­re for ei veke sidan kor far­leg sprei­ing av fals­ke nyhei­ter kan vere for demo­kra­ti­et.

I man­ge av Bal­kan-lan­da er det ein indu­stri der folk arbei­der med å kon­stru­ere nye saker som gjer folk nys­gjer­ri­ge. Tids­ak­tu­el­le kon­spi­ra­sjons­teori­ar er effek­ti­ve klikk­fan­ga­rar, og bidrar der­med til inn­te­ning. I Russ­land er det troll-fab­rik­kar som har som agen­da å svek­ke demo­kra­ti. Men­nes­ke, frå dei aller mek­ti­gas­te til den van­le­ge Face­bo­ok-bru­ka­ren, ser ikkje ut til å vere inter­es­sert i san­nin­ga og sprei­er sli­ke saker. Man­ge har meir gle­de av å få stad­fes­ta eig­ne mei­nin­gar eller få posi­tiv merk­semd frå omgangs­kret­sen.

Nett­sta­d­ar som faktisk.no prø­ver å mot­ver­ke det­te ved å for­kla­re kvi­for sli­ke nyhei­ter ikkje er san­ne. Like­vel ser vi at óg seriø­se media inn­imel­lom bit på og sprei­er fals­ke nyhei­ter. For seriø­se medie­ak­tø­r­ar vil det vere stor hjelp i å avdek­ke tvil­sa­me saker før dei når nett­sida. Dagens tek­no­lo­gi rundt språ­k­ana­ly­se og ana­ly­sar av opp­hav til bil­de og video­ar vil kun­ne hjel­pe. Men det­te er, som i den kon­ti­nu­er­le­ge kam­pen mot mik­ro­bar, eit kapp­løp der ber­re jam­leg fors­king vil gje­re det mulig å hol­de tritt med fals­ke nyhei­ter-bran­sjen. Media­Fu­tu­res er eit ini­tia­tiv for fors­kings­ba­sert inno­va­sjon der Uni­ver­si­te­tet i Ber­gen og sto­re aktø­r­ar i den nors­ke medie­bran­sjen har ambi­sjo­nar om blant anna å utvik­le tek­no­lo­gi­ar for å hand­te­re fals­ke nyhei­ter. Den kom­pe­tan­sen UiB har i kuns­tig intel­li­gens-baser­te ana­ly­sar av bil­de, video og språk er akku­rat det kunn­skaps­grunn­la­get som trengs for å hjel­pe medie­bran­sjen med des­se utford­rin­ga­ne.

Det mes­te av fals­ke nyhei­ter som i dag vert spreidd er utfor­ma av men­nes­ke. Dei kan for eksem­pel lage bil­de der dei pho­tos­hop­par vekk ele­ment eller legg til ele­ment. Slikt juks vil ein i dag kun­ne opp­da­ge auto­ma­tisk med algo­rit­mar som ser etter farge­for­skjel­lar, piks­lar som ikkje pas­sar inn, eller inkon­sis­tent skugge­leg­ging. Når fals­ke nyhei­ter-for­fat­tar skriv teks­tar vil dei gjer­ne ha spe­si­el­le måtar å for­mu­le­re seg på, slik at ein kan bru­ke (ofte sub­ti­le) sta­tis­tis­ke eigen­ska­par ved teks­ten til å sann­syn­leg­gje­re at den er ei falsk nyheit. Maskin­læ­rings­al­go­rit­mar har blitt opp­lært til å avslø­re sli­ke teks­tar med gans­ke god pre­si­sjon.

Men utvik­lin­ga går mot at uli­ke for­mer for inn­hald vert gene­rert auto­ma­tisk. Vi har såkal­la deep­fa­kes, som er bil­de og video­ar som ser ut til å vere reel­le, men som eigent­leg er auto­ma­tisk kon­stru­ert ved hjelp av såkal­la djup­læ­rings-algo­rit­mar. Ein vari­ant av des­se er såkal­la gene­ra­ti­ve adver­si­el­le nett­verk. Ide­en her er at to djup­læ­rings-sys­tem kon­kur­re­rer mot kvar­and­re. Det eine gene­re­rer bil­de eller video­ar, det and­re dis­kri­mi­ne­ran­de sys­te­met avslø­rer fals­ke bil­de eller video­ar. Det dis­kri­mi­ne­ran­de sys­te­met må etter kvart som det gene­ra­ti­ve sys­te­met lagar betre og betre bil­de bli flin­ka­re til å skil­je mel­lom ekte og fals­ke bil­de. Det gene­ra­ti­ve sys­te­met må lære seg å lage sta­dig meir natur­tru bil­de. Etter ei stund vil bil­da vere så natur­tru at det kan­skje ikkje er råd for men­nes­ke å sjå for­skjell. Då må vi sto­le på det dis­kri­mi­ne­ran­de sys­te­met for å avdek­ke juks, og det vil hel­ler ikkje vere 100%.

Teks­tar kan gene­re­rast auto­ma­tisk ved hjelp av språk­mo­del­lar, som er sta­tis­tis­ke model­lar av språk fun­ne ved djup­læ­ring. Dei kan gene­re­re teks­tar som er gans­ke til­for­la­te­le­ge, men som eigent­leg kun er sekven­sar av ord som stet­tar eigen­ska­pa­ne til for eksem­pel ein jour­na­lis­tisk tekst. Vi må for­ven­te at i fram­ti­da vil ein kun­ne få sli­ke djup­læ­rings­sys­tem til å gene­re­re jour­na­lis­tis­ke teks­tar basert på utval­de, san­ne eller usan­ne, påstan­dar. NTB pro­du­se­rer fot­ball­re­fe­rat og val­rap­por­tar auto­ma­tisk, så ide­en om auto­ma­tisk pro­duk­sjon av jour­na­lis­tikk er ikkje ukjent i media. Og fake news-indu­stri­en vil sjølv­sagt ikkje hal­de fing­ra­ne av fatet når det gjeld å gene­re­re usan­ne his­to­ri­er.

Kon­se­kven­sen er at vi i til­legg til maskin­læ­rings­tek­nik­kar må utsty­re oss med auto­ma­tis­ke fakta­sjek­ka­rar som trek­ker ut påstan­dar frå kjel­der ved hjelp av språ­k­ana­lyse­tek­nik­kar, saman­held dei med tru­ver­di­ge kjel­der og bru­kar sann­syns­ba­ser­te tek­nik­kar til å vur­de­re om påstan­dar eller nyheits­ar­tik­lar er tru­ver­di­ge. Slik seman­tisk ana­ly­se av teks­tar iden­ti­fi­se­rer enti­te­tar (per­son­ar, orga­ni­sa­sjo­nar) som vert omtalt i ein tekst og rela­sjo­nar mel­lom dei. Påstan­da­ne i teks­ten vert gjer­ne orga­ni­sert i såkal­la kunn­skaps­gra­far. Des­se gra­fa­ne har eit for­mat som etter kvart er blitt gans­ke uni­ver­selt og er brukt i inter­na­sjo­na­le kunn­skaps­ba­sar, t.d. DBPe­dia, ein data­base med struk­tu­rert inn­hald frå Wiki­pe­dia. Vi vil tren­ge algo­rit­mar kan saman­hal­de kunn­skaps­gra­fen frå ein tekst med veri­fi­ser­te kunn­skaps­gra­far, for­kla­re kva som er gale og slik bidra til å avslø­re juks.

En kort­ver­sjon av kro­nik­ken ble først pub­li­sert i Medier24.

TEMA

F

alske n
yheter

20 ARTIKLER FRA VOX PUBLICA

FLERE KILDER - FAKTA - KONTEKST

INGEN KOMMENTARER

KOMMENTÉR

Skriv en kommentar

Bidra til god debatt - skriv under fullt navn. Se våre kommentarregler.

Abonner på kommentarer
til toppen