|
Kunstig intelligens bliver psykopatisk
Mød Norman: Han vil slå dig ihjel

Norman AI er opkaldt efter Alfred Hitchcocks hovedperson i Psycho (1960), Norman Bates - ikke uden grund.

Hvad sker der den dag, kunstige intelligenser bliver klogere end mennesket? Bliver de moralske samfundsborgere, der kun vil mennesket det bedste, eller bliver de psykopatiske kolde maskiner helt uden menneskelig moral? MIT Media Lab har skabt Norman - verdens første AI psykopat.
Bliver maskiner psykopater?
Det er et spørgsmål, der seriøst diskuteres af forskere og filosoffer inden for feltet for kunstig intelligens, men denne måned er vi måske kommet tættere på et svar – takket være et kuriøst forskningsprojekt fra MIT Media Lab.
 
Scalable Cooperation, som er en enhed under MIT Media Lab, der beskæftiger sig med moralske aspekter af kunstig intelligens, har nemlig udviklet verdens første psykopatiske kunstige intelligens, opkaldt efter verdenshistoriens måske mest kendte menneskelige af slagsen, Norman Bates. Og ligesom Hitchcocks freudianske ødipuskarakter er Norman AI også et produkt af sine omstændigheder.
 
De mørkeste afkroge af Reddit
Hvor filmens Norman Bates var et barn skadet af en dominerende og sandsynligvis incestuøs mor, er Norman AI et produkt af internettets mørkeste afkroge. Holdet fra MIT har nemlig taget et ganske almindeligt neuralt netværk og trænet det med billeder fra en gruppe (subreddit) på Reddit, hvilken er så frastødende, at MIT-forskerne ikke engang vil oplyse navnet på gruppen.
 
Norman AI er verdens første psykopat-AI og er skabt af forskerne Pinar Yanardag, Manuel Cebrian og Iyad Rahwan hos MIT Media Lab. Skal vi være nervøse?
 
Gruppen indeholder efter sigende udelukkende billeder af døde mennesker, blodige ulykker, krigsscener og alskens andre mareridtsskabende typer af billeder. Det meste af billedmaterialet indeholder tekstbeskrivelser af de groteske billeder, hvilket betyder, at gruppen på Reddit er det perfekte datagrundlag til at lade et neuralt netværk lære ved hjælp af supervised learning, som er en maskinlæringsteknik, hvor computeren lærer sig sammenhængen mellem et input (mareridtsbillederne) og et output (tekstbeskrivelser af billederne).
 
Hvis bare det neurale netværk eksponeres for tilstrækkeligt mange billeder med tilstrækkeligt mange tekster, vil det til slut – med en vis statistisk sikkerhed – kunne forbinde billeder med rigtige ord. Det neurale netværk forstår ikke, hvad billederne forestiller, men det er i stand til at gætte på, hvordan mennesker typisk ville beskrive et sådant billede.
 
Forskerne på MIT har naturligvis også trænet et tilsvarende neuralt netværk med ganske almindelige billeder fra en database, som bruges til normal træning af neurale netværk. Herefter har de så bedt de to neurale netværk – det ene med en dybt traumatiseret opvækst i Reddits dunkleste kældre, og det andet med en relativt normal barndom – om at tage en klassisk Rorschach-test, som anvendes af psykologer til at vurdere, hvordan patienter associerer ud fra tilfældige blækklatter.
 
The horror, the horror
Resultatet taler for sig selv. Hvor det normale neurale netværk ser blomster, mennesker og fugle, ser det Reddit-trænede netværk død, mord, brutalitet, rædsel og selvmord. Pointen kunne næsten ikke være mere freudiansk: Ikke alene mennesker, men også vores lærende maskinelle frembringelser er produkter af deres opvækst. Hvis lærende maskiner aldrig har set andet end død og ødelæggelse og kun er opfostret på et sprog, der beskriver død og ødelæggelse, ja, så vil de også se død og ødelæggelse overalt.
 
Screendump fra Norman AI's resultat i Rorschach-testen. Overfor ses resulatetet fra Standard AI.  
 
Neurale netværk er ligesom mennesker mønstergenkendelsesmaskiner, som konstant leder efter mening og sammenhæng i verden. Hvis man viser et menneske en tilfældig blækklat, vil hjernen uvægerligt søge efter erfaringer, der kan matche billedet og komme med et bud på, hvad den forestiller, også selvom den overhovedet ikke forestiller noget. Neurale netværk fungerer på samme måde – forskellen er blot, at neurale netværk ikke trækker på et helt liv af mentale og kropslige oplevelser, men udelukkende på det datamateriale, som bliver stillet til rådighed af dem, der træner netværket.
 
Sandhedsmaskiner vs. korrelationsmaskiner
Og her er vi fremme ved pointen i projektet. Forskerne fra Scalable Cooperation har nemlig udviklet Norman AI for på en hårdtslående måde at illustrere farerne ved biased kunstige intelligenser. Mange mennesker har nemlig en tendens til fejlagtigt at opfatte computere som logiske og rationelle, men moderne neurale netværk er præcis det modsatte: De er intuitive og opererer ved hjælp af statistiske sammenhænge, som de lærer sig af de datasæt, som de nu engang fodres med.
 
Neurale netværk er ikke logiske sandhedsmaskiner, de er korrelationsmaskiner, som konstant forstår verden som korrelationer mellem det ene og det andet. Hvis man lærer dem, at der er en korrelation mellem farven rød og blod, så bliver de biased psykopater. Hvis man på den anden side lærer dem, at rød associeres med roser, så bliver de romantiske sværmere.
Projektet er med til at skabe opmærksomhed på nogle af Scalable Cooperations andre projekter, som måske er mindre spektakulære, men langt vigtigere for den fremtidige udvikling af kunstig intelligens.
 
Resultaterne bliver mere og mere gruopvækkende i Normans Rorschach-test.
 
Ét af disse projekter er TuringBox, som handler om at gøre neurale netværk åbne for, at forskere kan studere deres algoritmer. Med andre ord: En slags computervidenskabelig psykolog, der kan åbne den sorte kasse af maskinlærte korrelationer og analysere, hvilke biases der har sneget sig ind i det neurale netværk. Pointen er nemlig, at i en fremtid med allestedsnærværende neurale netværk kommer vi ikke uden om bias. Vores maskiner vil være produkter af deres omgivelser, de vil være fordomsfulde og vil se verden med deres skaberes øjne. Hvis vi vil undgå, at vores verden udvikler sig til Bates Motel, er vi nødt til at åbne hjernekassen på de neurale netværk for at forstå, om de er vokset op på Reddit, Facebook, Twitter eller Hestenettet.
 
Peter Svarre er forfatter til bogen Den perfekte storm og skriver lige nu på en bog om kunstig intelligens, som udkommer på Gyldendal i begyndelsen af 2019.

Relaterede artikler

Er din bot hot eller not? - Chatbots og conversational interfaces er ord, der runger ned ad gangene på bureauerne. Det er slut med at pege, klikke o...
Stop al AI-washing nu - Alle vil gerne være med på AI-bølgen, men når virksomheder pynter deres produkter med AI, kan det være udtryk for AI-was...
Når maskinerne bliver guder - Hvorfor gyser vi ved tanken om den beåndede maskine? Fordi vi først lige for alvor er gået i gang med at undersøge, hvad...
Sit, dæk, tech - Sød musik er opstået mellem hundeejeres dovenskab og tech-branchens opfindsomhed. Hvis du er af den opfattelse, at din h...
Hvilken gud skal din iPhone tro på? - Digitale assistenter svarer effektivt på faktuelle spørgsmål om alt fra vejrudsigter til regnestykker. Men når Siri udvi...
Design gør dig rig. Design gør dig sund. - I sidste uge skrev Peter Svarre en artikel, hvor han efterspurgte, at designernes ”hyperæstetiserede formgivning og farv...
Falske videoer og folkeforførelse - AI baner vejen for, at aktører med beskidte politiske motiver kan manipulere virkeligheden i en sådan grad, at vi ender ...
Når big data giver store etiske problemer - Medier og brugere er i oprør over firmaet Cambridge Analyticas tilsyneladende massive misbrug af data fra Facebook, og s...
Autonome dræbermaskiner og onde datafyrster - Robotterne kan bogstavelig talt være dødsensfarlige, og data kan bruges stærkt manipulerende og ondt. To kritiske histor...
Har du talt med en bog i dag? - Takket være Googles AI-projekt kan du snart tale med alle bøger i verden på én gang. Fremtidsforskeren Ray Kurzweil har ...
Ny app kan oversætte babygråd - En stor del af smartphone-app-markedet er domineret af spil, underholdning, social media og generelt gøgleri. Men hvis m...
Lille algoritme - stor virkning - Kan du bruge kunstig intelligens og big data til at optimere dine tekster? Find ud af, hvordan AI kan hjælpe dig med at ...
Malgoritmernes makværk - Algoritmemaskineriet kender hverken til respekt, høflighed eller tabubelagte emner, og online-annoncering kan derfor end...

Giv din stemme

9 stemmer
4,7/5

Kommentarer

Få nyhedsbrev

67 JOB

kampagne- og marketingchef

Se alle job Indryk job

Job

Praktikant

Frist: 18. december

Senior Communication Manager

Frist: 23. november

Public Affairs rådgiver

Frist: 21. november
Se alle job Indryk job

Få nyhedsbrev

Få nyhedsbrev

Alt hvad du behøver at vide om kommunikation i din indbakke.

Ud over nyhedsbrevet får du max to andre faglige e-mails om ugen.

Vi bruger cookies for at give dig en bedre brugeroplevelse.