Forskere fra Googles hovedkontor har opfundet en ny søgealgoritme, der sender usandt sladder ned i bunden af dit søgeresultat. Et potentielt nyt sandhedsparadigme for internettet, mener ekspert
I Googles evige kamp for at levere stadig mere præcise, relevante og tilfredsstillende søgeresultater til deres mere end en milliard aktive brugere, kan søgemaskinen nu være på vej til at føje endnu et redskab til værktøjsbæltet. I hvert fald hvis man skal tro en ny forskningsartikel fra nogle af de forskere, der får hjulene til at køre rundt hos den populære søgemaskine. Det skriver The New Scientist
Artiklen er skrevet af et hold forskere, der har opfundet et koncept, som de kalder for Knowledge-Based Trust (KBT). Et koncept, der på mundret dansk betyder, at Google nu er bedre i stand til til at skelne løgn fra latin på internettet og prioritere de troværdige websteder højere i søgeresultaterne.
Forskerne har allerede udviklet algoritmerne og succesfuldt testet dem, og det eneste der står uafklaret tilbage, er, om Google så faktisk implementerer konceptet. Og i givet fald hvornår?
Kontroversielt paradigmeskift
Hvis Knowledge-Based Trust bliver til virkelighed kan det blive et slags tredje trin i Googles snart 20-årige historie som nettets foretrukne søgemaskine. Det mener Thore Husfeldt, der er professor i computer science ved Lund Universitet med speciale i algoritmer.
Seneste ændring af algoritmen var i midten af 00’erne, da vores alle sammens søgninger på Google blev personaliserede ud fra parametre som søgehistorik og lokalitet.
Og selvom Knowledge-Based Trust endnu kun eksisterer på papiret, kan det altså pege på, hvordan Google næste gang vil justere på algoritmerne. Og det vil næppe blive mindre kontroversielt, end da Googles personaliserede søgeresultater fik mange til at anklage søgemaskinen for at skabe ‘filterbobler’, hvor brugerne kun blev præsenteret for informationer, der stemte overens med deres eget verdensbillede.
Kender Google sandheden?
For er Googles søgemaskine i stand til at skelne fup fra fakta, lyder spørgsmålet. Og kan vi lægge den slags bedømmelser i hænderne på algoritmerne?
Konceptet er et samspil mellem to primære mekanismer, fortæller Thore Husfeldt, der mener at Google er bedre rustet til at løfte opgaven end nogen anden: “Den ene del er at ekstrahere information fra siden, som en algoritme prøver at genkende. For eksempel små sætningskonstruktioner som “noget er noget for noget” – “Helle Thorning Schmidt er statsminister for Danmark”, eller “Mærsk McKinney-Møller er ejer af Mærsk,”” fortæller han.
Det næste skridt er at sammenholde disse faktuelle informationer med store databaser af informationer, som Google anser for troværdige. Ifølge forskningsartiklen gælder det især Googles egen såkaldte Knowledge Vault, en enorm database med flere milliarder faktuelle informationer gemt. Websiden bliver derefter tildelt en KBT-score, der potentielt kan fungere som et tredje parameter sammen med PageRank og personaliseret søgning i vurderingen af siden og altså placeringen på Google.
Er Jupiter en planet?
Thore Husfeldt har læst Google-forskernes artikel, og KBT-systemet “fungerer tilsyneladende meget godt”, som han siger. Især når man tager i betragtning, hvor mange potentielle fejlkilder, der er.
“Det meste af artiklen drejer sig om, hvordan vi kan minimere fejl, som opstår dels ved udtrækningen af information og dels ved, at databasen kan være forkert. Algoritmen kan både misforstå det, siden prøver at sige, og den kan også lade sig snyde af en forkert databaseinformation,” fortæller han.
Desuden er der det helt grundlæggende problem, at ikke alle informationer er entydigt faktuelle, siger han: “Er Jupiter en planet og er Palæstina en nation for eksempel? Den stakkels algoritme skal jo tage stilling til det her, fordi den skal gennemføre en vurdering.”
Kun Google kan gøre det
De fleste problemer kommer forskerne dog uden om ved at lade søgeresultaterne passere en række forskellige tests, som blandt andet er muligt, fordi Google og deres forskere har adgang til exceptionelle mængder af data, siger Husfeldt: “Bidraget identificerer en række ting, som virker udemærket på papiret, og så har de faktisk sat sig ned og kodet dem, for Google har jo adgang til imponerende datamængder til rent faktisk at teste det her”.
De enorme datamængder gør Google til nogle af de eneste, der rent faktisk er i stand til at teste denne slags algoritmer.
Sladdersider støjer på nettet
Men hvorfor skal Google overhovedet tage stilling til eller beskæftige sig med, om indholdet på internettets websider er sandt eller falsk?
Forskerne bruger 15 af internettets mest besøgte sladdersider som E! Online, TMZ og Yahoo! OMG! til at demonstrere, hvordan den nye algoritme ville virke i praksis. På nuværende tidspunkt og med den “gamle” PageRank-algoritme befinder 14 af dem sig i de øverste 15 procent af søgeresultaterne, skriver forskerne i rapporten. “De har sindssygt høj siderang, fordi der er mange, der peger på dem, og de peger på hinanden. Så rent algoritmisk, ser de her sider utroligt troværdige ud”, fortæller Husfeldt.
Men når forskerne tager den nye KBT-score i brug, ændrer billedet sig, og alle 15 sladdersider falder pludselig til de nederste 50 procent.
Vil du overhovedet høre sandheden?
Det er her, forslaget kan gå hen og blive kontroversielt. For selv hvis Google rent faktisk er i stand til at sjusse sig frem til den faktuelle værdi af søgeresultaterne, er det måske ikke altid det, brugerne helst vil have.
For eksempel skal en stor del af sladdersidernes popularitet måske netop findes i deres noget lemfældige omgang med sandheden, mener Thore Husfeldt. “Mange brugere er ligeglade, om der står faktuelt korrekte ting, fordi det først og fremmest er vigtigt at indgå i en samtale,” siger han og peger desuden på, at de sociale mediers udbredelse kan have været medbestemmende til, at den slags sladder i dag er blevet så omfattende.
I sidste instans handler det om, hvorvidt man sympatiserer med Googles måder at prioritere søgeresultaterne, siger Husfeldt, der personligt er positivt indstillet overfor ideen. “Jeg har stor sympati for, at det her er noget, Google gerne vil gøre noget ved. At de ikke bare giver brugerne det, de vil have,” fortæller han.