Har du talt med din maskine i dag?

Først skulle vi lære at kommunikere med vores bærbare og med for eksempel talestyrede telefon-applikationer. Snart skal vi lære at kommunikere med robotter – og robotterne skal programmeres til, om de vil kalde sig selv "jeg", og hvor overbærende de skal reagere på uhøflige mennesker. Her kommer en insider reportage fra robot-forskningens frontlinje, der såmænd ligger i Sønderborg.
af Kerstin Fischer

På SDU i Sønderborg undersøger vi, hvordan almindelige mennesker taler til computere og til robotter. Underligt? Nej, interessant. Det er nødvendigt at studere, hvordan vi interagerer med nye teknologier generelt, men især talestyrede computere og robotter, både fra et teoretisk og et praktisk perspektiv.

 

Kerstin Fischer og hendes kolleger på Syddansk Universitet i Sønderborg arbejder på at tillære robotter evnen til at udvikle komplekse kognitive-, sprog- og sociale færdigheder. På billedet ses Kerstin Fischer i færd med at lære robotten her, at bolden er gul


For nogle år siden spurgte en fra nabokontoret mig, om jeg havde lyst til at udføre nogle eksperimenter med en robot, han netop havde udviklet. Robotten var ret grim. Faktisk bare en rød, kasseformet trækonstruktion, der holdt et kamera. Men inden i robotten var en fremragende computermodel, der beregnede pladsmæssige referencer. Computerens beregning gjorde det muligt for et menneske, at instruere robotten til at ”bevæge sig hen til objektet til højre”, selv hvis det pågældende objekt så rent faktisk var til venstre for robotten selv, men bare stadig placeret længst til højre i en række sammenlignelige objekter.

 

En sådan instruktion er uhyre vanskelig at forstå for et kunstigt system, så min kollega havde altså udført opgaven flot. Nu ville han have mig til at udføre eksperimentet, denne gang med almindelige mennesker, der skulle interagere med robotten. Målet var, at han bagefter skulle kunne rapportere, at hans system var rigtig godt og rigtig brugbart.

 

Uheldigvis forløb det ikke just sådan. Faktisk viste det sig, at ud af de 30 deltagere, vi havde med i eksperimentet, lykkedes det end ikke for halvdelen at få robotten til at udføre en enkel instruktion. Grunden til dette var, at min kollega havde fokuseret på, at robotten skulle få nogle enormt sofistikerede egenskaber, men han havde så glemt at give den egenskaber til at klare mere simple opgaver.

 

De fleste af vores deltagere startede imidlertid med at give robotten meget simple instruktioner. Det bevirkede, at hvor robotten ville have forstået instruktionen ”bevæg dig hen til det røde objekt, der ligger til venstre for dig”, sagde folk i stedet ”bevæg dig en smule til højre”. Brugerne forventede altså ikke, at robotten ville være i stand til at følge avancerede instruktioner. Denne første fejlslutning ville i sig selv ikke have været så slem, hvis brugeren så i næste omgang havde forsøgt sig med en af de mere avancerede instruktioner, som robotten var designet til at kunne forstå. Det skete bare ikke. I stedet skete der det, at i de tilfælde, hvor brugeren var startet med at instruere robotten til at bevæge sig i en bestemt retning, og det ikke skete, ville deres næste instruktion til robotten lyde på bare at bevæge sig. Når det heller ikke lykkedes, instruerede de robotten til at tænde sin motor eller bevæge baghjulene.

 

Brugerne forsøgte sig aldrig med en beskrivelse af selve målet, hvis deres andre instruktioner slog fejl. Grunden til dette er selvfølgelig, at vi som mennesker lærer ting i en bestemt rækkefølge, hvor egenskaber bygger oven på andre, tidligere lærte egenskaber; ifølge vores opfattelse er det altså umuligt at vide, hvordan man bevæger sig hen til et objekt, hvis man ikke ved, hvordan man bevæger sig. En robot, derimod, kan have meget isolerede egenskaber, afhængig af hvilke instruktioner dens programmør forventer, at brugeren kan finde på at sige til den.

 

Den røde robot, som Kerstin Fischer har eksperimenteret med. Den ser ikke ud af meget, men er i stand til at modtage og udføre komplekse instruktioner. Dog forudsat, at brugeren kan formulere instruktionerne på rette vis

 

Dette eksempel afslører tre ting: For det første, at mennesker kan have bestemte ideer om, hvordan verden generelt fungerer, som de bruger, når de interagerer med computere og robotter. I dette tilfælde var den mentale model, de tog i brug, en hierarkisk model om at bevæge sig i rum. Denne hierarkiske model fungerer ensrettet, og det er meget vanskeligt at få folk til at bryde rækkefølgen. Mentale modeller som denne, der guider deltagere i deres interaktion med computere og robotter, kan være enormt interessante at identificere, fordi mennesket forlader sig på de selv samme modeller, når de interagerer med andre mennesker. Her opfatter vi bare ikke alle disse forudsatte modeller og ideer, så længe alt forløber som vanligt. På den måde fortæller studiet af interaktionen mellem menneske og robot noget om vores egne implicitte verdensopfattelser, som vi tager med os ind i interaktionen med andre.

 

Studiet af interaktionen mellem menneske og robot går helt ned i de enkelte lingvistiske elementer. Forskerne Cliff Nass og Scott Brave fra Stanford University har påvist, at mennesker ikke kan lide, når robotter omtaler sig selv som ”jeg” – de stoler mindre på dem, hvis de gør det. Tillid kan imidlertid være altafgørende, afhængig af den givne situation, en robot anvendes i. Forestil dig eksempelvis et redningsscenarie, hvor en robot har en afgørende rolle ved at skulle tilvejebringe information om steder, hvor det er usikkert for mennesket at færdes: I en sådan situation er det yderst vigtigt, at mennesket stoler på robotten. Hvis det er tilfældet, at simple lingvistiske valg i robottens ytringer påvirker brugerens opfattelse af robottens troværdighed, giver det god mening at studere effekten af robotter og computeres ytringer nøje og designe brugerdialogen derefter.

 

For det andet afslører eksemplet fra tidligere med den røde robot, at hvis systemdesignere ignorerer menneskers forestillinger om kommunikation, vil der som resultat heraf opstå kommunikationsproblemer eller endda kommunikationsnedbrud. Det lyder måske slemt nok i sig selv, men adskillige studier har endvidere påvist, at den ene fejlkommunikation ofte leder til den næste. Det sker, fordi vi er vant til at interagere med mennesker, og når vi støder på et kommunikationsproblem med en robot, forsøger vi at løse problemet med de taktikker, der virker blandt mennesker. Eksempelvis forsøger vi at afhjælpe fejlkommunikation ved at artikulere tydeligere, lave pauser mellem ytringer, ord og endda stavelser og udelade alt det, vi finder overflødigt for forståelsen. På engelsk kunne det eksempelvis medføre en udeladelse af bestemt artikel, ”the”, foran navneord. Disse strategier øger forståeligheden af tale blandt menneskelige samtaledeltagere. For automatiserede samtaleprocessionssystemer gør strategierne dog ondt værre, eftersom computere og robotter, der anvender disse systemer, bedst genkender de ytringer, de er blevet trænet til at kende – ofte flydende tale, og endda ved oplæsning. Disse systemer klarer sig altså værre, jo mere umage mennesker gør sig med at være letforståelige.

 

Den tredje og mest interessante læring fra eksemplet er dog nok, hvad vi kan lære om os selv som mennesker ved at studere interaktionen. Siden ingen af os endnu er særlig vante med at tale til kunstige kommunikationspartnere, kan vi studere, hvordan talere tilpasser deres tale til kommunikationspartnere, de ikke kender ret godt. Det er interessant at følge, hvordan mennesker tilpasser deres tale til eksempelvis børn, retarderede eller samtalepartnere fra et andet land. Det afslører dog ikke, om man taler på en bestemt måde til et barn på grund af de ting, barnet selv siger, de ting, barnet gør, eller fordi man har hørt andre folk tale på en bestemt måde til børn.

 

Alle disse forskellige variabler kan derimod nemt tages med i betragtning, når der testes på robotter. Robotter kan vi nemlig få til at se ud, opføre sig og tale på bestemte måder. Når vi så observerer, hvordan mennesker taler til de forskellige robotter, får vi indsigt i, hvordan mennesker generelt tilpasser deres lingvistiske kommunikationsvalg til bestemte kommunikationspartnere. Adskillige studier har eksempelvis vist, at robottens udseende kan have indflydelse på, hvordan testpersoner tiltaler den i begyndelsen af interaktionen. Studierne har dog også vist, at udseendet spiller en mindre rolle, efterhånden som interaktionen forløber. Altså, jo bedre testpersonen lærer robotten at kende, desto mindre vigtigt bliver førstehåndsindtrykket.

 

På den anden side er der førstehåndsindtryk, der varer ved over tid. For eksempel har forskerne Steffi Paepcke og Leila Takayama fundet ud af, at afhængigt af hvorvidt folk forventer at møde en meget kompleks robot eller en meget simpel robot, vil de tyde robottens opførsel forskelligt. Ligeledes har forskeren Jamie Pearson fra Edinburgh University studeret mennesker i interaktion med en computer og erfaret, at afhængigt af hvorvidt computerens opstartsbillede påstod, at computeren var den nyeste og dyreste model på markedet eller en gammel og billig standardmodel, tilpassede brugeren sig i forskellig grad til computerens ytringer. Særligt interessant var det, at deltagerne i eksperimentet oftere ’genbrugte’ computerens egne sætninger, når de troede, det var den ældre computermodel – præcis det samme, man observerede, når folk mente at være i samtale med en person med andet modersmål end dem selv.

 

Nogle forskere mener, at vi opfører os på præcis samme måde, hvad enten vi taler med robotter eller mennesker. Især Cliff Nass og kolleger har lavet adskillige eksperimenter, der påviser, at folk reagerer på computerens opførsel på samme måde, som havde den været et menneske. For eksempel har deltagere i et eksperiment bedømt, at en computer, som selv stillede spørgsmål til deltageren, opførte sig mere høfligt end en computer, der lod andre computere stille spørgsmålene for den. På den måde bedømte deltagerne computeren på samme høflighedsparametre, som de nok ville bedømme andre mennesker på.

Generelt må man dog sige, at vi ikke interagerer med computere og robotter på samme måde, som hvis de var mennesker som os.  En computer kan eksempelvis starte interaktionen med at sige ”hej, hvordan går det?”, hvorefter brugeren fuldstændig ignorerer det eller bare starter med en instruktion, hvilket i begge tilfælde ville være ekstremt uhøfligt i menneskelig kommunikation:

 

Robot: Ja, goddag, hvordan går det?

A008: Bevæg dig ligeud.

 

Andre folk reagerer mere høfligt:

Robot: Ja, goddag, hvordan går det?

A042: D.. Det går fint, og dig? (latter)

 

De fleste mennesker giver dog et minimalsvar, for eksempel:

Robot: Ja, goddag, hvordan går det?
R017: Fint.

 

Der er altså betydelig forskel i måden, hvorpå folk takler kunstige kommunikationspartnere. De forudsætninger, brugerne bringer med ind i interaktionen, er ikke alene meget indflydelsesrige, forudsætningerne kan også forklare en stor del af de lingvistiske valg, brugere foretager i interaktionen. Den viden kan måske bruges til at forudsige individuelle præferencer og derved designe systemer på en måde, som en bestemt bruger sandsynligvis vil foretrække.

 

At finde ud af, hvordan folk taler til robotter, og hvad der ligger til baggrund for deres lingvistiske valg, kan også bruges til at lære robotter tale. I projektet ITALK forsøger vi at tillære en humanoid robot sprog gennem menneskelig interaktion, på samme måde som mennesker lærer sprog. På billedet ses undertegnede i færd med at lære robotten, at bolden er gul. Når forældre, og også andre mennesker, taler til et barn, bruger de intuitivt mange lingvistiske elementer, der faciliterer sprogtillæring hos barnet. Det kan for eksempel være overdreven brug af højt og varieret toneleje, mange gentagelser og reformuleringer samt brug af korte, simple sætninger. Hvis vi kan få folk til at tale til vores robot på samme måde, er det muligt, at robotten, ud fra denne interaktion, kan drage nytte af de hjælpende lingvistiske fingerpeg og tilegne sig et sprog fra bunden på samme måde som et barn. Normalt tager vi evnen til at tale for givet, og det på trods af, at det tager et barn mere end fire år at tilegne sig en sproglig basisviden, og endnu længere for en voksen at lære et andetsprog. Når vi i disse eksperimenter forsøger at lære sprog til en robot helt fra bunden, kan vi detaljeret studere, hvad denne proces afhænger af, og hvad der er nødvendigt for at lære et sprog.

 

Konklusionen er, at studiet af interaktion mellem mennesker og computere og robotter – og ikke bare computerne og robotterne alene – er udbytterigt, både fra teoretiske og praktiske perspektiver. Vigtigst af alt er dog, at disse studier hjælper os til at se, hvad det er, der gør os til mennesker.

 

Her kan du se en video af robotten iCub, Europas nok mest avancerede robot. Eksperimenterne går ud på at give robotten evner til selv at lære, både hvad angår sprog, motorik og mimik

Del artikel

Tilmeld dig vores nyhedsbrev

Vær på forkant med udviklingen. Få den nyeste viden fra branchen med vores nyhedsbrev.

Forsiden lige nu

Læs også

Job