Tay var Microsofts kunstige intelligens, som de måtte tage ned i 2016, da Twitter-brugere lærte den racisme på få timer. En episk PR-katastrofe for ikke blot Microsoft, men også chatbot som genre og teknologi. Kilde: Techcrunch.com
BlenderBot chatter her om sammenhængen mellem Facebook og Cambridge Analytica-skandalen. Her blev Facebook taget i at behandle personlig data meget uagtsomt; en sag, man skulle tro, de ikke ville få deres egen chatbot til at tale om.
Forklaringen er banal og teknisk
Chatbots efterligner automatisk holdninger og udsagn ud fra en kæmpe indsamling af indhold på internettet. Nettet er ekstremernes univers, og ud af dette vokser chatbottens ekstreme svar. Det, som spreder sig og fylder er stærkt positive/negative udsagn. Dette betyder, at chatbotten må bygge sine svar på meget stærke holdninger, fordi det nu engang er det, nettet fuld af. Dette betyder også, at den kan svinge i sine holdninger og udtrykke stik modsatrettede, stærke holdninger på forskellige tidspunkter. På nettet er der nemlig mange mennesker, som deler absurde og racistiske holdninger, såvel som der er mange, der er kritiske over for Meta og Zuckerberg på en og samme tid.
Alle chatbots har et moralsk problem
Tay og Blenders moralske problem er alle chatbots problem. Det er tæt på umuligt at indbygge en moralsk vægtning og vurdering udover at forbyde de mest indlysende racistiske ord og begreber. Hvad netop er forskellen på Tay og BlenderBot. Meta har klog af Microsofts racistiske Tay-chatbotskandale indbygget en stopfunktion, hvor den ganske simpel skifter emne, når samtalen begynder at blive for racistisk eller politisk polariserende. Ergo, hvis du spørger længe nok ind til modviljen mod Zuckerberg, klapper den i som en østers og skifter emne. Samtidig er BlenderBot en statisk “lukket” model modsat den dynamiske Tay-chatbot, hvad der skulle beskytte mod at lære og efterligne racisme og andre kontroversielle holdninger hurtigt. Den er så at sige udlært på forhånd og kan lære af internettets trolde som dens uheldige forgænger.
Rolig nu – det er altså blot en prototype til at lære af og samle erfaringer
At kritisere en gratis prototype for at være en ufærdig test er at sparke en åben dør ind.
“For now, the average chatbot is basically a tipsy blowhard at a cocktail party. It’s an entity with no consistent intellectual or ethical compass, but an extraordinary library of factoids and received wisdom that it spouts on command, even if it contradicts itself five minutes later. That’s the point of art projects like
a clone of Reddit’s AITA forum, which emphasizes how much language models prioritize sounding good over being logical or consistent. This is a problem if Meta wants its AI to be treated as a reliable, persistent presence in people’s lives. But BlenderBot is a research project that serves no immediate commercial function, except gathering huge amounts of conversation data for future research. Watching it say weird things (within the limitations mentioned above) is sort of the point.”
Det store spørgsmål er, om chatbotten BlenderBots kontroversielle svar blot er udviklingens nødvendige fejl for at realisere potentialet eller beviset på, at chatteknologien i sig selv er fejlslagen. Gad vide, hvad chatbotten BlenderBot ærligt ville svar på det spørgsmål? Vi tør og kan jo ikke spørge Tay.
Læs mere om BlenderBot