Kunstig intelligens – venn (og fiende) i kampen mot falske nyheiter

Medietilsynet kunne for ein månad sidan fortelje at 45% i Noreg har sett falske nyheiter om korona-viruset i ulike media, 27% har ikkje sett slike, og 28% veit ikkje. Mange har altså kompetanse i å vere kritisk til innhald spreidd gjennom sosiale media og nyheitsmedia. Men vi lever i ei verd der falske nyheiter i aukande grad vert masseprodusert og brukt som eit politisk verkemiddel av illiberale krefter. Truleg vil teknologiar som avdekkar falske nyheiter verte naudsynt for journalistar og mediebrukarar; snart treng vi avanserte analyseverktøy som er i stand til å sjekke om ei nyheitssak, eit bilde eller ein video er eit falsum.

Media er fulle av nyheit­er om korona-viruset og Covid 19, om opphavet til sjuk­domen, sprei­ing av viruset og kam­p­en mot sjuk­dom­men. Dette er natur­leg sidan vi alle er sterkt påver­ka av dette i kvarda­gen. Vi er nys­g­jer­rige og ønskjer å forstå saman­hen­gane i det som skjer. Denne situ­asjo­nen er fruk­t­bar mark for sprei­ing av idear som at Microsoft-grün­deren Bill Gates står bak korona-viruset, eller at pan­demien er eit resul­tat av stråling frå 5G-mobil­net­tet. For dei fleste opplyste men­neske er desse saman­hen­gane heilt utan tru­verde, men likev­el ser dei ut til å spreie seg som virus. Nasjon­al sikker­heitsmyn­digheit og justismin­is­ter Moni­ka Meland poengterte berre for ei veke sidan kor far­leg sprei­ing av falske nyheit­er kan vere for demokratiet.

I mange av Balkan-lan­da er det ein indus­tri der folk arbei­der med å kon­struere nye sak­er som gjer folk nys­g­jer­rige. Tid­sak­tuelle kon­spir­asjon­steo­ri­ar er effek­tive klikkfan­garar, og bidrar dermed til innten­ing. I Rus­s­land er det troll-fab­rikkar som har som agen­da å svekke demokrati. Men­neske, frå dei aller mek­ti­gaste til den van­lege Face­book-brukaren, ser ikkje ut til å vere inter­essert i san­ninga og spreier slike sak­er. Mange har meir glede av å få stad­fes­ta eigne meiningar eller få pos­i­tiv merk­semd frå omgangskretsen.

Nettstadar som faktisk.no prøver å motverke dette ved å fork­lare kvi­for slike nyheit­er ikkje er sanne. Likev­el ser vi at óg ser­iøse media innimel­lom bit på og spreier falske nyheit­er. For ser­iøse medieak­tørar vil det vere stor hjelp i å avdekke tvil­same sak­er før dei når nettsi­da. Dagens teknolo­gi rundt språk­analyse og analysar av opphav til bilde og videoar vil kunne hjelpe. Men dette er, som i den kon­tin­uer­lege kam­p­en mot mikro­bar, eit kap­pløp der berre jam­leg forsk­ing vil gjere det mulig å holde tritt med falske nyheit­er-bran­sjen. Medi­a­Fu­tures er eit ini­tia­tiv for forsk­ings­basert inno­vasjon der Uni­ver­sitetet i Bergen og store aktørar i den norske mediebran­sjen har ambisjonar om blant anna å utvikle teknolo­giar for å handtere falske nyheit­er. Den kom­petansen UiB har i kun­stig intel­li­gens-baserte analysar av bilde, video og språk er akku­rat det kunnskaps­grunnlaget som trengs for å hjelpe mediebran­sjen med desse utfordringane.

Det meste av falske nyheit­er som i dag vert sprei­dd er utfor­ma av men­neske. Dei kan for eksem­pel lage bilde der dei pho­to­shop­par vekk ele­ment eller legg til ele­ment. Slikt juks vil ein i dag kunne oppdage automa­tisk med algo­rit­mar som ser etter farge­forskjel­lar, pik­slar som ikkje pas­sar inn, eller inkon­sis­tent skugge­leg­ging. Når falske nyheit­er-for­fat­tar skriv tek­star vil dei gjerne ha spe­sielle måtar å for­mulere seg på, slik at ein kan bruke (ofte sub­tile) sta­tis­tiske eigen­ska­par ved tek­sten til å sannsyn­leg­gjere at den er ei fal­sk nyheit. Maskin­læringsal­go­rit­mar har blitt opplært til å avs­løre slike tek­star med ganske god presisjon.

Men utviklin­ga går mot at ulike for­mer for innhald vert gener­ert automa­tisk. Vi har såkalla deep­fakes, som er bilde og videoar som ser ut til å vere reelle, men som eigent­leg er automa­tisk kon­struert ved hjelp av såkalla dju­plærings-algo­rit­mar. Ein vari­ant av desse er såkalla gen­er­a­tive adver­sielle nettverk. Ideen her er at to dju­plærings-sys­tem konkur­rerer mot kvaran­dre. Det eine gener­erer bilde eller videoar, det andre diskrim­inerande sys­temet avs­lør­er falske bilde eller videoar. Det diskrim­inerande sys­temet må etter kvart som det gen­er­a­tive sys­temet lagar betre og betre bilde bli flinkare til å skil­je mel­lom ekte og falske bilde. Det gen­er­a­tive sys­temet må lære seg å lage stadig meir naturtru bilde. Etter ei stund vil bil­da vere så naturtru at det kan­skje ikkje er råd for men­neske å sjå forskjell. Då må vi stole på det diskrim­inerande sys­temet for å avdekke juks, og det vil heller ikkje vere 100%.

Tek­star kan gener­erast automa­tisk ved hjelp av språk­model­lar, som er sta­tis­tiske model­lar av språk funne ved dju­plæring. Dei kan generere tek­star som er ganske til­for­latelege, men som eigent­leg kun er sekven­sar av ord som stet­tar eigen­ska­pane til for eksem­pel ein jour­nal­is­tisk tekst. Vi må for­vente at i framti­da vil ein kunne få slike dju­plæringssys­tem til å generere jour­nal­is­tiske tek­star basert på utvalde, sanne eller usanne, pås­tan­dar. NTB pro­duser­er fot­ball­refer­at og val­rap­por­tar automa­tisk, så ideen om automa­tisk pro­duk­sjon av jour­nal­is­tikk er ikkje ukjent i media. Og fake news-indus­trien vil sjølvsagt ikkje halde fin­grane av fatet når det gjeld å generere usanne historier.

Kon­sekvensen er at vi i til­legg til maskin­læring­steknikkar må utstyre oss med automa­tiske fak­tas­jekkarar som trekker ut pås­tan­dar frå kjelder ved hjelp av språk­analy­seteknikkar, saman­held dei med tru­verdi­ge kjelder og brukar sannsyns­baserte teknikkar til å vur­dere om pås­tan­dar eller nyheit­sar­tik­lar er tru­verdi­ge. Slik seman­tisk analyse av tek­star iden­ti­fis­er­er entite­tar (per­son­ar, organ­isas­jonar) som vert omtalt i ein tekst og relasjonar mel­lom dei. Pås­tan­dane i tek­sten vert gjerne organ­is­ert i såkalla kunnskaps­gra­far. Desse grafane har eit for­mat som etter kvart er blitt ganske uni­verselt og er brukt i inter­nasjonale kunnskaps­basar, t.d. DBPe­dia, ein data­base med struk­tur­ert innhald frå Wikipedia. Vi vil trenge algo­rit­mar kan saman­halde kunnskaps­grafen frå ein tekst med ver­i­fis­erte kunnskaps­gra­far, fork­lare kva som er gale og slik bidra til å avs­løre juks.

En kortver­sjon av kro­nikken ble først pub­lis­ert i Medier24.

TEMA

F

alske n
yheter

20 ARTIKLER FRA VOX PUBLICA

FLERE KILDER - FAKTA - KONTEKST

INGEN KOMMENTARER

Kommentarfeltet til denne artikkelen er nå stengt. Ta kontakt med redaksjonen dersom du har synspunkter på artikkelen.

til toppen