Teknologien kan være et våben i kampen mod fake news
Algoritmer kan hjælpe os med at identificere falske historier, men det er ikke uproblematisk at gøre teknologien til dommer over, hvad der er sandt og falsk, siger Leon Derczynski, som forsker i automatisk sporing af fake news og misinformation på IT-Universitetet.
Institut for DatalogiForskningalgoritmerkunstig intelligensmedierLeon Derczynski
Skrevet 13. marts 2019 12:19 af Vibeke Arildsen
”Falske historier har eksisteret lige så længe, vi mennesker har haft et sprog, og der er alle mulige sociale grunde til, at de opstår. Det kan være, at folk vil opnå opmærksomhed eller vil udtrykke sympati med nogen, som har oplevet noget chokerende. Men der kan selvfølgelig også være mere ondsindede motiver, for eksempel et ønske om at manipulere med andre,” fortæller Leon Derczynski, som har forsket i automatisk sporing af fake news i knap fem år.
Til forskel fra tidligere kan alle og enhver i dag starte deres eget medie og sprede falske historier via internettet.
I dag er det ikke altid ligetil at skelne en falsk og en officiel nyhedskilde, og det er en meget anderledes situation end for bare tyve år siden
Leon Derczynski, adjunkt på ITU
”Det er blevet let at sprede falske eller ubekræftede påstande i et format, der virker overbevisende. I dag er det ikke altid ligetil at skelne en falsk og en officiel nyhedskilde, og det er en meget anderledes situation end for bare tyve år siden, hvor de færreste kunne lave en hjemmeside,” siger han.
Fra nicheforskning til hotspot
Leon Derczynski begyndte sin forskning i automatisk sporing af fake news i 2014 i forbindelse med sit postdoc-projekt på University of Sheffield. Hans afhandling var en del af et EU-støttet projekt, som blandt gik ud på at skabe værktøjer til opsporing af rygter og fake news på nettet.
”Som med så mange andre forskningsprojekter virkede det forholdsvis spekulativt og nicheagtigt, da vi gik i gang. Men da diskussionen om fake news for alvor tog fart i forbindelse med det amerikanske præsidentvalg og Brexit-afstemningen i 2016, befandt vi os pludselig i et hotspot, hvor vi allerede havde udviklet relevant ny teknologi,” siger han.
I projektet kiggede forskerne blandt andet på kontroverser og rygter.
”Her taler vi om historier, hvor man ikke kender sandheden – for eksempel om, at aluminium forårsager Alzheimers. Ingen vidste med sikkerhed, om det var sandt. Vi identificerede den type debatter og anvendte Natural Language Processing (sprogteknologi) og maskinlæring til at opfange signaler om, hvorvidt en historier er sand eller udokumenteret,” fortæller Leon Derczynski.
Debat giver signal om sandhedsværdi
Forskerne i Sheffield fokuserede ikke så meget på selve påstandene, men derimod på de reaktioner, de affødte på de sociale medier.
”Ideen er, at man har en grundlæggende påstand, for eksempel ’Hillary Clinton er besat af en dæmon’. Den påstand vil blive mødt af reaktioner, fx et tweet, der siger ’Hillary Clintons dæmon overtager hendes ansigt – se selv på billedet her’. Tweetet er en kilde, der understøtter påstanden, og som skaber diskussion. Måske bakker folk op om historien, måske stiller de spørgsmålstegn ved den eller afviser den. Balancen i denne diskussion ændrer sig over tid og giver et godt signal om, hvor sand den oprindelige påstand er,” forklarer han.
BBC har kaldt metoden en ’løgnedetektor til internettet’, men det er ifølge Leon Derczynski misvisende, for en løgn er noget helt andet.
[S]om regel tror folk, der spreder falske nyheder ikke selv, at de lyver. Hvis man påstår, at vacciner giver børn store næser, og man selv tror på det, er der ingen løgnedetektor, der kan hjælpe os.
”Folk bruger andre stilistiske greb, når de lyver. Og som regel tror folk, der spreder falske nyheder ikke selv, at de lyver. Hvis man påstår, at vacciner giver børn store næser, og man selv tror på det, er der ingen løgnedetektor, der kan hjælpe os,” siger han.
Faktatjekkende algoritmer
Der findes også en række andre metoder for automatisk sporing af falske nyheder. For eksempel kan algoritmer sammenholde informationerne i en tekst med verificerede kilder.
”Hvis en tekst påstår, at der bor 9 millioner mennesker i Aarhus, kan en algoritme nemt slå denne påstand op, for eksempel på Wikipedia, og fastslå, at det ikke er sandt,” siger Leon Derczynski.
Denne metode hjælper dog ikke, når en påstand ikke kan faktatjekkes, understreger han. Det gælder for eksempel påstanden om, at Hillary Clinton er besat af en dæmon. For godt nok er den absurd, men den er svær at modbevise.
Teknologi kan begrænse spredningen
Leon Derczynski mener, at teknologien kan blive et nyttigt våben mod fake news og misinformation. For eksempel kan den hjælpe journalister, som vil faktatjekke deres kilder, og dermed være med til at begrænse spredningen af falsk information.
Også i krisesituationer har teknologien potentiale.
Ifølge Leon Derczynski har teknologien særligt potentiale for journalister og i forbindelse med krisesituationer.
”I forbindelse med kriser eller nødsituationer som skyderier eller gadeoptøjer kommer der altid mange falske meldinger på de sociale medier. Det betyder, at beredskabet, som skal hjælpe, bliver forstyrret af en masse støj. Her teknologien filtrere rygter og falske informationer fra, så man bedre kan prioritere indsatsen,” siger han.
Sejlivede fake news
Men trods af de store fremskridt i forhold til automatisk sporing af misinformation på nettet, er arbejdet ifølge Leon Derczynski langt fra gjort.
Blandt andet skal metoderne gøres mere nøjagtige, og der mangler data til at kunne opfange fake news på andre sprog end engelsk.
Og selv hvis forskerne løser disse udfordringer, står vi stadig tilbage med et grundlæggende dilemma:
Vi ved, at selv hvis vi fortæller folk, at en historie er falsk, vil de fortsætte med at tro på den, hvis de kan lide den. Typisk fordi historien stemmer overens med deres forudfattede holdninger.
”Vi ved, at selv hvis vi fortæller folk, at en historie er falsk, vil de fortsætte med at tro på den, hvis de kan lide den. Typisk fordi historien stemmer overens med deres forudfattede holdninger. Så hvad skal vi stille op? Burde en platform som Facebook bare begynde at censurere al information, der ser falsk ud?,” spørger han retorisk.
”Det er måske heller ikke ønskeligt, at private virksomheder bliver dommere over, hvad der er sandt og falsk. Det den underliggende problemstilling, og den er meget svær at løse,” siger han.
Leon Derczynski, adjunkt, email leod@itu.dk
Vibeke Arildsen, presserådgiver, telefon 2555 0447, email viar@itu.dk