Robotter bliver en stadigt større del af vores arbejds- og privatliv. Men hvem har egentlig ansvaret, når de kraftfulde maskiner skader mennesker?
En chauffør, der kommer til at køre en fodgænger ihjel, kan blive sigtet for uagtsomt manddrab. Men hvis bilen, der rammer dig, ikke har en fører, er det straks mere kompliceret at skulle finde ud af, hvem der bærer ansvaret.
Nok kan man kaste skylden på fabrikanten, hvis det er en teknisk fejl. På ejeren, hvis de ikke har installeret de seneste opdateringer i softwaren eller på fodgængeren, hvis vedkommende ikke har set sig for. Normalt er der risiko for en fængselsstraf, hvis et menneske slår et andet menneske ihjel. Men det er lidt mere besværligt at sætte en robot bag tremmer. Robotten får i hvert fald næppe noget ud af en tænkepause.
Opvaskemaskiner kan ikke tage ansvar
Spørger man Anders Bundsgaard, CEO i robotvirksomheden Odico, er det dog vigtigt, at man skelner mellem robotter og kunstig intelligens.
“I teorien er en opvaskemaskine jo en robot. Så hvis jeg putter en kat i en opvaskemaskine, og den dør, så vil de færreste mene, at det er opvaskemaskinens skyld,” siger han.
Læs også: Forskere: Glem romantiske robotter
Men er det en kunstigt intelligent maskine, er sagen dog en anden, forklarer han. Kunstig intelligens bliver ved hjælp af deep learning oplært til at træffe beslutninger.
“Hvis du spørger mig, om jeg er bange for robotter, og om der er etiske problemer med robotter, vil jeg klart svare nej. Men er jeg bange for kunstig intelligens og deep learning? Ja. Deep learning og kunstig intelligens er potentielt mere farligt end masseødelæggelsesvåben, hvis man ikke håndterer det rigtigt,” siger Anders Bundsgaard.
Et af de eksempler, der altid bliver fremhævet som en kunstigt intelligent robot, der snart vil overtage manuelle opgaver og træffe beslutningerne for os, er de selvkørende biler. De selvkørende biler vil være i stand til at træffe logiske beslutninger i trafikken.
“Hvis en selvkørende bil kan vælge mellem at redde føreren af en bil eller en skoleklasse, der kommer gående, vil den vælge at sætte ejerens liv på spil. Det er det logiske valg. Det er ikke nødvendigvis det valg, vi selv ville tage,” siger han.
Robotters bevidsthed
Ifølge den israelske professor, jurist og forfatter til bogen ‘When Robots Kill’ Gabriel Hallevy er det en enormt kompliceret problemstilling. For det er så godt som umuligt at forestille sig, at robotter ikke kan forårsage uheld. At de kan være så perfekte. Omend måske færre, end hvis der sker menneskelige fejl.
Læs også: Dansk professor vil flette robotter
Ifølge ham er noget af det, der gør, at man kan sætte en person for en domstol, at vi har en bevidsthed. Et dyr har eksempelvis ikke begreb om, hvad der er tilladt, og hvad der ikke er. De kan ikke tage et bevidst valg om at bryde loven.
“Kan en hund være kriminel? Kan en hund dømmes for overfald? Nej vel? Men det er anderledes med robotter. Loven kræver en række ting, for at man kan stilles til ansvar. I strafferet findes der to basale krav. Førlighed er det første – hvis man kan bevæge sin arm eller bevæge sig fra sted til sted. Det andet krav er mere kompliceret. Det er det mentale krav. Og kan en maskine være bevidst?” Sådan spurgte Gabriel Hallevy til fremtidsfestivalen Brain Bar Budapest sidste år.
“Det kommer an på, hvordan man definerer bevidsthed. Der er stor forskel på, hvordan man definerer bevidsthed i psykologiens verden og i juraens verden. Den juridiske definition lyder således: Hvis man kan bearbejde fakta ind til et billede og afgøre, hvordan man skal reagere som det næste,” siger han.
“For eksempel absorberer mine øjne lys og fortolker det i min hjerne. Hjernen bearbejder det, til der kommer et billede. Kunstigt intelligente robotter kan gøre det endnu hurtigere og korrekt end os. Derfor har de i juridisk forstand en bevidsthed,” siger Gabriel Hallevy.
For mennesker kan man som advokat argumentere for, at gerningsmanden var sindssyg i gerningsøjeblikket, eller at man har handlet i selvforsvar. Men hvad betyder dét så for en robot?
“I 1987 skete der et dødsfald på en Kawasaki-fabrik. Det er det første robotforårsagede dødsfald, jeg har hørt om. Robotten så mennesket, der ville slukke den, som en trussel og hamrede med den hydrauliske arm medarbejderen ind i væggen, så han døde. Men agerede robotten i selvforsvar?”
Anderledes juridisk kultur
Anders Bundsgaard mener dog ikke, at man kan gøre det op på den måde. For ifølge ham er der mange andre faktorer, der gør, at vi som mennesker tager beslutninger.
Læs også: Robotten Mimi skriver 1500 nyheder om dagen
“Kunstig intelligens tager logiske beslutninger. De beslutninger, vi tager som mennesker, er ikke nødvendigvis logiske. Vi tager beslutninger på baggrund af følelser. Det er den helt store forskel,” siger han.
Om det så nødvendigvis er bedre at tage følelsesmæssige beslutninger kan man diskutere. For eksempel er voldelige handlinger følelsesbeslutninger.
“Det der med at trække linjerne så hårdt op og sige, at kunstigt intelligente robotter er bevidste. Det er måske nødvendigt i USA, hvor retssystemet fungerer anderledes. Men der er det også producentens skyld, hvis en kat dør i en mikroovn. Det er altså ikke kulturen herhjemme,” siger Anders Bundsgaard.
De tre robotlove
Noget af det tætteste, verden kommer på at have etiske regler for, hvordan man udvikler robotter, stammer fra fiktionens verden. Den russisk-amerikanske science fiction forfatter Isaac Asimov. I forbindelse med en lang række science fiction-tekster i 1940’erne skrev han de tre robotlove. Disse bliver brugt mange steder i robotforskningen.
- En robot må ikke gøre et menneske fortræd eller, ved ikke at gøre noget, lade et menneske komme til skade.
- En robot skal adlyde ordrer givet af mennesker, så længe disse ikke er i konflikt med første lov.
- En robot skal beskytte sin egen eksistens, så længe dette ikke er i konflikt med første eller anden lov.
Så. Robotter må slet ikke skade mennesker. I hvert fald ikke, hvis man lever efter reglerne fra fiktionens verden. Det betyder, at mange robotforskere og flere robot-etikere argumenterer for, at
Asimovs love er et godt sted at starte
, når man skal udarbejde en robotetik.
Så hvis en robot ikke må gøre et menneske fortræd og først i tredje led skal beskytte sig selv. Så gik der altså noget helt galt på Kawasakifabrikken i 1987. Ligesom en ung mand for et par år siden blev dræbt på en Volkswagen-fabrik i Tyskland, da han skulle installere en maskine.
Men både i forbindelse med Kawasaki og Volkswagen-robotdrabene blev det vurderet, at der var tale om menneskelige fejl.
“Der er mange tilfælde, hvor en robot har været involveret i menneskers død. Men det betyder ikke, at det har været robottens skyld. Ikke endnu. Men det er vigtigt at tage en diskussion om, hvad der skal ske, når robotterne bliver intelligente,” siger Anders Bundsgaard.