Mød Norman: Han vil slå dig ihjel

Hvad sker der den dag, kunstige intelligenser bliver klogere end mennesket? Bliver de moralske samfundsborgere, der kun vil mennesket det bedste, eller bliver de psykopatiske kolde maskiner helt uden menneskelig moral? MIT Media Lab har skabt Norman - verdens første AI psykopat.
Norman AI er opkaldt efter Alfred Hitchcocks hovedperson i Psycho (1960), Norman Bates - ikke uden grund.
Norman AI er opkaldt efter Alfred Hitchcocks hovedperson i Psycho (1960), Norman Bates - ikke uden grund.
Bliver maskiner psykopater?
Det er et spørgsmål, der seriøst diskuteres af forskere og filosoffer inden for feltet for kunstig intelligens, men denne måned er vi måske kommet tættere på et svar – takket være et kuriøst forskningsprojekt fra MIT Media Lab.
 
Scalable Cooperation, som er en enhed under MIT Media Lab, der beskæftiger sig med moralske aspekter af kunstig intelligens, har nemlig udviklet verdens første psykopatiske kunstige intelligens, opkaldt efter verdenshistoriens måske mest kendte menneskelige af slagsen, Norman Bates. Og ligesom Hitchcocks freudianske ødipuskarakter er Norman AI også et produkt af sine omstændigheder.
 
De mørkeste afkroge af Reddit
Hvor filmens Norman Bates var et barn skadet af en dominerende og sandsynligvis incestuøs mor, er Norman AI et produkt af internettets mørkeste afkroge. Holdet fra MIT har nemlig taget et ganske almindeligt neuralt netværk og trænet det med billeder fra en gruppe (subreddit) på Reddit, hvilken er så frastødende, at MIT-forskerne ikke engang vil oplyse navnet på gruppen.
 
Norman AI er verdens første psykopat-AI og er skabt af forskerne Pinar Yanardag, Manuel Cebrian og Iyad Rahwan hos MIT Media Lab. Skal vi være nervøse?
 
Gruppen indeholder efter sigende udelukkende billeder af døde mennesker, blodige ulykker, krigsscener og alskens andre mareridtsskabende typer af billeder. Det meste af billedmaterialet indeholder tekstbeskrivelser af de groteske billeder, hvilket betyder, at gruppen på Reddit er det perfekte datagrundlag til at lade et neuralt netværk lære ved hjælp af supervised learning, som er en maskinlæringsteknik, hvor computeren lærer sig sammenhængen mellem et input (mareridtsbillederne) og et output (tekstbeskrivelser af billederne).
 
Hvis bare det neurale netværk eksponeres for tilstrækkeligt mange billeder med tilstrækkeligt mange tekster, vil det til slut – med en vis statistisk sikkerhed – kunne forbinde billeder med rigtige ord. Det neurale netværk forstår ikke, hvad billederne forestiller, men det er i stand til at gætte på, hvordan mennesker typisk ville beskrive et sådant billede.
 
Forskerne på MIT har naturligvis også trænet et tilsvarende neuralt netværk med ganske almindelige billeder fra en database, som bruges til normal træning af neurale netværk. Herefter har de så bedt de to neurale netværk – det ene med en dybt traumatiseret opvækst i Reddits dunkleste kældre, og det andet med en relativt normal barndom – om at tage en klassisk Rorschach-test, som anvendes af psykologer til at vurdere, hvordan patienter associerer ud fra tilfældige blækklatter.
 
The horror, the horror
Resultatet taler for sig selv. Hvor det normale neurale netværk ser blomster, mennesker og fugle, ser det Reddit-trænede netværk død, mord, brutalitet, rædsel og selvmord. Pointen kunne næsten ikke være mere freudiansk: Ikke alene mennesker, men også vores lærende maskinelle frembringelser er produkter af deres opvækst. Hvis lærende maskiner aldrig har set andet end død og ødelæggelse og kun er opfostret på et sprog, der beskriver død og ødelæggelse, ja, så vil de også se død og ødelæggelse overalt.
 
Screendump fra Norman AI's resultat i Rorschach-testen. Overfor ses resulatetet fra Standard AI.  
 
Neurale netværk er ligesom mennesker mønstergenkendelsesmaskiner, som konstant leder efter mening og sammenhæng i verden. Hvis man viser et menneske en tilfældig blækklat, vil hjernen uvægerligt søge efter erfaringer, der kan matche billedet og komme med et bud på, hvad den forestiller, også selvom den overhovedet ikke forestiller noget. Neurale netværk fungerer på samme måde – forskellen er blot, at neurale netværk ikke trækker på et helt liv af mentale og kropslige oplevelser, men udelukkende på det datamateriale, som bliver stillet til rådighed af dem, der træner netværket.
 
Sandhedsmaskiner vs. korrelationsmaskiner
Og her er vi fremme ved pointen i projektet. Forskerne fra Scalable Cooperation har nemlig udviklet Norman AI for på en hårdtslående måde at illustrere farerne ved biased kunstige intelligenser. Mange mennesker har nemlig en tendens til fejlagtigt at opfatte computere som logiske og rationelle, men moderne neurale netværk er præcis det modsatte: De er intuitive og opererer ved hjælp af statistiske sammenhænge, som de lærer sig af de datasæt, som de nu engang fodres med.
 
Neurale netværk er ikke logiske sandhedsmaskiner, de er korrelationsmaskiner, som konstant forstår verden som korrelationer mellem det ene og det andet. Hvis man lærer dem, at der er en korrelation mellem farven rød og blod, så bliver de biased psykopater. Hvis man på den anden side lærer dem, at rød associeres med roser, så bliver de romantiske sværmere.
Projektet er med til at skabe opmærksomhed på nogle af Scalable Cooperations andre projekter, som måske er mindre spektakulære, men langt vigtigere for den fremtidige udvikling af kunstig intelligens.
 
Resultaterne bliver mere og mere gruopvækkende i Normans Rorschach-test.
 
Ét af disse projekter er TuringBox, som handler om at gøre neurale netværk åbne for, at forskere kan studere deres algoritmer. Med andre ord: En slags computervidenskabelig psykolog, der kan åbne den sorte kasse af maskinlærte korrelationer og analysere, hvilke biases der har sneget sig ind i det neurale netværk. Pointen er nemlig, at i en fremtid med allestedsnærværende neurale netværk kommer vi ikke uden om bias. Vores maskiner vil være produkter af deres omgivelser, de vil være fordomsfulde og vil se verden med deres skaberes øjne. Hvis vi vil undgå, at vores verden udvikler sig til Bates Motel, er vi nødt til at åbne hjernekassen på de neurale netværk for at forstå, om de er vokset op på Reddit, Facebook, Twitter eller Hestenettet.
 
Peter Svarre er forfatter til bogen Den perfekte storm og skriver lige nu på en bog om kunstig intelligens, som udkommer på Gyldendal i begyndelsen af 2019.

Del artikel

Tilmeld dig vores nyhedsbrev

Vær på forkant med udviklingen. Få den nyeste viden fra branchen med vores nyhedsbrev.

Forsiden lige nu

Læs også

Job