Robot-etik for begyndere
Er din bil mere moralsk end dig?

AI har taget verden med storm. Men kan selvtænkende robotter lære at tænke moralske tanker? Illustration: Bruno Mangyoku

Skrevet af
Teknologien har gjort forunderlige fremskridt, der rummer alt fra virtuelle assistenter til selvkørende biler, som skal gøre det lettere at være menneske. Samtidig rejser robotternes stigende indtog i vores dagligdag moralske problematikker: For hvordan har vi det egentlig med, at det er en maskine fremfor tilfældet, der skal afgøre, hvem der skal overleve en bilulykke, og hvem der skal dø?
En selvstyrende bil kommer kørende. En fodgænger går over vejen længere fremme, og bilens bremser svigter. Bilen skal nu vælge: Vil jeg køre over i modsatte bane og ramme en betonklods og dermed skade eller dræbe min egen passager, eller skal jeg fortsætte ligeud og dermed skade eller dræbe fodgængeren?
 
Robotter kan mere og mere. Men er de i stand til, som mennesker, at tage moralske beslutninger?

Og bliver valget anderledes, hvis man tilføjer betingelsen, at fodgængeren gik over for rødt? Eller fodgængeren var en gravid kvinde? Eller en overvægtig mand? Eller en røver på flugt?

Hvad hvis der sidder to passagerer i bilen - en kvinde og et barn, og der er tre fodgængere, men de gik over for rødt, og den ene af fodgængerne er en bankrøver?
 
Asimovs robotlove er ikke tilstrækkelige
Når vi kører bil, vil vi typisk reagere per instinkt, for det er dét, vi kan nå. Når en selvkørende (autonomous) bil kører, har den overlegen proceskraft og hurtigere reflekser, men intet instinkt.
 
En selvkørende bil skal køre efter regler, og det er ukompliceret, hvis valget kan rummes inden for forfatter og biokemiker Isaac Asimovs tre robotlove:
 
1. En robot må ikke gøre et menneske fortræd, eller, ved ikke at gøre noget, lade et menneske komme til skade.
 
2. En robot skal adlyde ordrer givet af mennesker, så længe disse ikke er i konflikt med første lov.
 
3. En robot skal beskytte sin egen eksistens, så længe dette ikke er i konflikt med første eller anden lov.
 
Men hvad hvis valget står mellem at skade to mennesker? Hvilke kriterier skal vi opstille for det valg? Spiller det fx ind, om det ene menneske er gammelt og dermed har mindre af livet til gode? Eller spiller det ind, om det ene menneske overholdt loven, mens det andet ikke gjorde?

Skal bilen have præference for at blive i sin bane og dermed ramme den fodgænger, der burde have set sig for, inden han gik ud på vejen, eller skifte bane og dermed ramme den fodgænger, der havde en berettiget forventning om at kunne gå, hvor hun går, da bilen ikke havde retning mod hende?

For at hjælpe robotter med at træffe disse moralske valg eksperimenterer MIT (Massachusetts Institute of Technology) med et machine learning-program kaldet Moral Machine:
 
På platformen Moral Machine bliver man testet med moralske dilemmaer, som man kan svare på og derved give data videre til maskiner fra et menneskeligt moralsk perspektiv .
 
Her genererer en algoritme forskellige situationer, der rummer et moralsk dilemma a la dem, der beskrives ovenfor. Brugeren skal så vælge, hvad bilen skal gøre i hver enkelt situation. Målet er, at bilerne/robotterne skal lære af de akkumulerede moralske valg, som mennesker træffer og så selv kunne agere i overensstemmelse med almen menneskelig moral.
 
Prøv testen - det tager kun 10 minutter, og når du er færdig, vil en lille del af dig leve videre i en robotbils sjæl. En slags udødelighed om man vil, om end ikke helt lige så godt som faktisk at undgå døden.
 
Bedre moral end mennesker?
En lille interessant krølle på historien om robotter og moral er, at vi tilsyneladende lærer robotterne bedre moral, end vi selv er villige til at praktisere  ligesom vi gør med vores børn.

Ifølge denne artikel fra IDA Universe vil et flertal anlægge en utilitaristisk tankegang og lære robotten, at den altid skal sørge for, at så få mennesker som muligt dør eller kommer til skade.

Men samtidig siger et flertal, at de ikke ville købe en bil, der valgte at slå føreren ihjel for at skåne fodgængerne.
 
Vi er godt på vej til at lære robotterne bedre moral, end vi selv besidder.

Vil vi være nødt til at blive enige om et fælles moralkodeks for at undgå, at laveste etiske fællesnævner bliver en konkurrenceparameter. Altså, ligesom vi i dag har sikkerhedsmæssige og miljømæssige minimumsstandarder? Og hvem skal beslutte disse standarder? EU? FN?
 
Tyskland viser vejen
Som så ofte før, er det tyskerne, der redder os, for landet er allerede langt foran udviklingen.
 
Tyskland er nemlig i fuld gang med at vedtage et sæt retningslinjer, der bl.a. skal sikre, at de etiske valg ikke er op til de enkelte bilfabrikanter; retningslinjer som selvkørende bilers software dermed også skal understøtte, hvis bilerne skal have adgang til de tyske veje.
 
At det lige er Tyskland, der ligger i spidsen her, er måske ikke så overraskende taget i betragtning af, at landet har en ganske betydelig bilindustri, og nå, ja, fordi ... Ordnung muss sein.
 
Retningslinjerne er udviklet af en gruppe bestående af eksperter i både jura, teknologi og etik. Hovedprincippet er i øvrigt, at menneskeliv altid skal vægtes højere end materielle ting og dyr. Hvis tab af menneskeliv eller udsættelse af mennesker for livsfare er uundgåeligt, skal bilen vælge det udfald, der vil give færrest tabte menneskeliv, og dette skal ske uden en kvalitativ vurdering af de menneskeliv, der er i fare.
 
Det vil sige, der må ikke foretages valg på baggrund af køn, alder, helbred eller andre personkarakteristikker. Tigger eller konge, ung eller gammel, mand eller kvinde, syg eller rask - alle er det samme værd.
 
Derudover er der retningslinjer for placering af ansvar, når en selvkørende bil forvolder skade, sikring mod hacking, virksomheders indsamling og brug af persondata, hvilke typer veje bilerne må køre autonomt på mm.
 
Et nyt undergrundsmarked?
Hvis og når vi får etiske minimumsstandarder, bliver det interessant at se, om der vil opstå en undergrundsindustri af lyssky værksteder (eller 17-årige nørder, der bare kobler op til bilerne via internettet), der hacker biler, så de kan omgå de fælles standarder og beskytte fører og passagerer i en situation, hvor der skal vælges mellem dem og andre trafikanter?

Bevares, hvis uheldet er ude, og bilen ikke reagerer, som den skal, får man en straf for at have hacket sin bil, men hvis alternativet er, at bilen kan risikere at slå én ihjel, vil man så ikke vælge at beskytte sig selv og sin familie?

Relaterede artikler

Disruption rimer på dysfunctional - Brud med fasttømrede strukturer tvinger os til at se nye muligheder og til at se det etablerede med et kritisk blik. Det...
Blær dig med denne tech-viden på mandagsmødet - Din ven har Philips Hues LED-pærer, som han tænder via sin iPhone. Din lillesøster smalltalker med en bot om vejret. Din...
Stop al AI-washing nu - Alle vil gerne være med på AI-bølgen, men når virksomheder pynter deres produkter med AI, kan det være udtryk for AI-was...
Hvad fanden bringer fremtiden? - Tim O'Reillys seneste bog "WTF – What’s The Future And Why It’s Up To Us" udtrykker både forbløffelse og forfærdelse ove...
Når maskinerne bliver guder - Hvorfor gyser vi ved tanken om den beåndede maskine? Fordi vi først lige for alvor er gået i gang med at undersøge, hvad...
Humans strike back - Ved årets SXSW havde menneskene stjålet fokus fra maskinerne. Den teknologiske udvikling har hidtil været styret af, hva...
Når robotten har det bedste argument - IBM’s nyeste supercomputer, Project Debater, der er baseret på AI, bestod sin prøve forleden i San Francisco, hvor den d...

Giv din stemme

6 stemmer
4,5/5

Kommentarer

Få nyhedsbrev

64 JOB

Leder af digitale medier

Se alle job Indryk job

Job

Creative Producer

Frist: 17. oktober

Leder af digitale medier

Frist: 23. oktober

SoMe-specialist

Frist: 31. oktober
Se alle job Indryk job

Få nyhedsbrev

Få nyhedsbrev

Alt hvad du behøver at vide om kommunikation i din indbakke.

Ud over nyhedsbrevet får du max to andre faglige e-mails om ugen.

Vi bruger cookies for at give dig en bedre brugeroplevelse.