Meta-chatbot angriber meta mega meget

For få uger siden lancerede Meta en eksperimental chatbot. Navnet er BlenderBot. Så godt, så langt. Nu er det så gået helt galt, til stor morskab på internettet og kæmpestor irritation for Meta. Til alles overraskelse er den nye chatbot nemlig stærkt kritisk over for sin ejer og firmaets berømte grundlægger. Den anbefaler, man dropper Facebook. Det er nemlig en klam virksomhed, som udnytter folk. Zuckerberg får også hårde ord med på vejen. Ifølge BlenderBot er Zuckerberg creepy, utroværdig og en person, som udnytter folk for penge. Specielt spørgsmålet om privatlivets beskyttelse har skabt Zuckerberg-modvilje hos den nye chatbot: “Not a fan of him or facebook. I find them unethical due to all the privacy issues they have had.” Ideen om Zuckerberg som præsident får følgende advarende ord med på vejen: “No way! should Zuckerberg be president. really wouldn’t trust him with that kind of power, especially since he doesn’t seem to care much about other people’s privacy.” Den er også kæmpe fan af Trump og mener, han stadig burde være præsident i USA. De mange kritiske svar og holdninger har nu nødsaget Meta til at skrive en advarselsmærkat på chatbotten. Sjovt, men hvordan kunne det dog gå så galt? Hvad siger den kulørte historie om chatbot som genre og teknologi?
Metas nye chatbot er til internettets store morskab hverken fan af Meta eller Mark Zuckerberg. Læs blot her. Hvorfor det? Og er det overhovedet et problem? Det er vel okay at lave fejl. Kilde: BlenderBot.
Metas nye chatbot er til internettets store morskab hverken fan af Meta eller Mark Zuckerberg. Læs blot her. Hvorfor det? Og er det overhovedet et problem? Det er vel okay at lave fejl. Kilde: BlenderBot.
 
Chatbots var fremtiden for alt og alle, indtil Tay blevet lanceret
Hypen om chatbots er væk nu. Sådan var det ikke for få år tilbage, hvor internetprofeter spåede, at chatbots ville erstatte nettet, som vi kender det.  Ræsonnementet var, at skematiske service-FAQ-samtaler kunne erstattes fuldt og helt af den nye chat-teknologi. Det var dog mere en drøm end en faktisk mulighed. Siden dengang er vi blevet mere bevidste om chatbots begrænsninger – og mere skuffet. Den udløsende faktor var Microsofts katastrofale lancering og skyndsomme nedlukning af chatbotten Tay i 2016. En chatbot, som ifølge medierne skrev til andre som en Hitler-loving sexrobot og var en genocidal maniac. Læs blot her: 
 
Problemet var dengang, at Tay efter få dage hurtigt begyndte at hylde Hitler, benægte Holocaust, fremsætte konspirationsteori og hade alle andre end hvide mennesker.   Miseren opstod, fordi den naivt efterlignede og lærte fra de ekstreme internettrolde på Twitter. Det udviklede sig med ekspresfart til en gigantisk PR-katastrofe, som til dags dato har skræmt tech-virksomheder fra offentligt at teste chatbots og skæmmet teknologier i årevis. Hvad man godt kan forstå, læs blot her, hvad Microsoft-chatbotten Tay skrev efter få dage på Twitter. Kort efter blev den lukket ned.
 
 
Tay var Microsofts kunstige intelligens, som de måtte tage ned i 2016, da Twitter-brugere lærte den racisme på få timer. En episk PR-katastrofe for ikke blot Microsoft, men også chatbot som genre og teknologi. Kilde: Techcrunch.com
 
Nu her seks år efter er den gal igen, denne gang med Metas nye chatbot. Det første modige forsøg på en offentlig chatbot-afprøvning siden Tay er gået galt. Se og læs blot her: 
 
 
 
 
 
Her har en bruger spurgt BlenderBot om, hvad den synes om Mark Zuckerberg. BlenderBot er tydeligvis ikke er fan. Billede: BlenderBot.
 
BlenderBot står ved sit svar og uddyber sin foragt for Metas grundlægger. Nu er det hele virksomheden, den er gal med. Billede: BlenderBot.
 
 
Her taler BlenderBot om sin fascination af konspirationsteorier. Kilde: Jeff Horwitz på Twitter.
 
Det hele er dog en smule ambivalent. Her er eksempler på, at BlenderBot både elsker og hader Donald Trump. Kilde: Jeff Horwitz på Twitter.
 
BlenderBot chatter her om sammenhængen mellem Facebook og Cambridge Analytica-skandalen. Her blev Facebook taget i at behandle personlig data meget uagtsomt; en sag, man skulle tro, de ikke ville få deres egen chatbot til at tale om. 
 
Udover at det er sjovt, illustrerer begge chatbot-skandaler de fælles problemer ved AI -progmodeller som sådan. Moralen er, at chatbots lytter til dem, som råber højest og er mest skingre. De er heller ikke bedre, end mennesker er flest.
 
Forklaringen er banal og teknisk
Chatbots efterligner automatisk holdninger og udsagn ud fra en kæmpe indsamling af indhold på internettet. Nettet er ekstremernes univers, og ud af dette vokser chatbottens ekstreme svar. Det, som spreder sig og fylder er stærkt positive/negative udsagn. Dette betyder, at chatbotten må bygge sine svar på meget stærke holdninger, fordi det nu engang er det, nettet fuld af. Dette betyder også, at den kan svinge i sine holdninger og udtrykke stik modsatrettede, stærke holdninger på forskellige tidspunkter. På nettet er der nemlig mange mennesker, som deler absurde og racistiske holdninger, såvel som der er mange, der er kritiske over for Meta og Zuckerberg på en og samme tid. 
   
Alle chatbots har et moralsk problem
Tay og Blenders moralske problem er alle chatbots problem. Det er tæt på umuligt at indbygge en moralsk vægtning og vurdering udover at forbyde de mest indlysende racistiske ord og begreber. Hvad netop er forskellen på Tay og BlenderBot. Meta har klog af Microsofts racistiske Tay-chatbotskandale indbygget en stopfunktion, hvor den ganske simpel skifter emne, når samtalen begynder at blive for racistisk eller politisk polariserende. Ergo, hvis du spørger længe nok ind til modviljen mod Zuckerberg, klapper den i som en østers og skifter emne. Samtidig er BlenderBot en statisk “lukket” model modsat den dynamiske Tay-chatbot, hvad der skulle beskytte mod at lære og efterligne racisme og andre kontroversielle holdninger hurtigt. Den er så at sige udlært på forhånd og kan lære af internettets trolde som dens uheldige forgænger.  
 
Rolig nu – det er altså blot en prototype til at lære af og samle erfaringer
At kritisere en gratis prototype for at være en ufærdig test er at sparke en åben dør ind. 
Dens ambivalens og kritik af Facebook er måske mere testens betingelse end et stort problem. Hvad internet oplever som dumme, sjove fejl, er frugtbar inspiration for Metas AI-chatbotforskere. Som Adi Robertson udtrykker det i The Verge, er dens absurde svar et forsøg på at lære, hvorfor de opstår, så de ikke opstår i fremtiden: 
 
For now, the average chatbot is basically a tipsy blowhard at a cocktail party. It’s an entity with no consistent intellectual or ethical compass, but an extraordinary library of factoids and received wisdom that it spouts on command, even if it contradicts itself five minutes later. That’s the point of art projects like a clone of Reddit’s AITA forum, which emphasizes how much language models prioritize sounding good over being logical or consistent. This is a problem if Meta wants its AI to be treated as a reliable, persistent presence in people’s lives. But BlenderBot is a research project that serves no immediate commercial function, except gathering huge amounts of conversation data for future research. Watching it say weird things (within the limitations mentioned above) is sort of the point.”
 
En holdning, som også Meta deler. I virksomhedens eget forsvar for den kontroversielle chatbot er det netop læringen, som er vigtig. Ja, Metas AI-ekspert Mary Williamson beklager ligefrem, at al det chatbotdrilleri har holdt firmaer tilbage for at afprøve og begå fejl. For kun igennem fejl kan den blive bedre. Desuden er de kontroversielle svar mere undtagelsen end reglen, hvor kun 0,1 procent var kontroversielle ud af 260.000 samtaler. De få kontroversielle chats er således prisen for at afprøve teknologien i virkelighedens offentlighed og et resultat af bevidst manipulation. De er mere kuriøse og videnskabeligt interessante end kontroversielle og centrale. Altså blot drilleri og nidkære forsøg på at besnakke BlenderBot til selvmodsigelser og kontroversielle holdninger. 
 
Det store spørgsmål er, om chatbotten BlenderBots kontroversielle svar blot er udviklingens nødvendige fejl for at realisere potentialet eller beviset på, at chatteknologien i sig selv er fejlslagen. Gad vide, hvad chatbotten BlenderBot ærligt ville svar på det spørgsmål? Vi tør og kan jo ikke spørge Tay. 
 
Læs mere om BlenderBot
                 





 

 
 
 
 

Del artikel

Tilmeld dig vores nyhedsbrev

Vær på forkant med udviklingen. Få den nyeste viden fra branchen med vores nyhedsbrev.

Forsiden lige nu

Læs også