Vi ved, at ChatGPT lyver. Men er den overhovedet lovlig?

Selvom ChatGPT løbende bliver bedre af vores allesammens træning, så skal vi aldrig stole på generativ AI. Internettet er og bliver løgnenes paradis. Garbage in, garbage out.
"Generativ AI kan bruges på mange gode måder. Men det er under forudsætning af, at vi mennesker faktatjekker det, der kommer ud, da det nu står krystalklart, at værktøjerne både opfinder løgne og samtidig høster og viderebringer de mange falske informationer, der allerede er derude.". Billede: Getty Images
"Generativ AI kan bruges på mange gode måder. Men det er under forudsætning af, at vi mennesker faktatjekker det, der kommer ud, da det nu står krystalklart, at værktøjerne både opfinder løgne og samtidig høster og viderebringer de mange falske informationer, der allerede er derude.". Billede: Getty Images
For nogle uger siden fik jeg tilsendt en kort artikel om, at jeg og min organisation ved navns nævnelse var anklaget for korruption. Der er e-mails, som antyder, at jeg har taget imod penge fra virksomheder, lyder det. Der er ikke konkrete beviser, men mistanker, og så henviser teksten til en række links fra danske medier om sagen, som ligner helt rigtige links, men de er alle døde.
 
Teksten blev generet af en ven på ChatGPT. Den er løgn fra ende til anden. Du kan ”regenerere” løgnen igen og igen, og teksten ændrer sig fra gang til gang. Det er ret skræmmende og viser, hvor nemt ChatGPT kan bruges til at masseproducere løgne og propaganda. Og endda løgne, der lyder plausible, for hvis der er noget, vi i DataEthics.eu er totalt obs på, så er det at holde os fuldkomment rene, altså uafhængige af politiske og økonomiske interesser.
 
ChatGPT, som ejes af OpenAI og Microsoft, er blevet lanceret uden nogen seriøs skelen til etik og jura. I innovationens og hastighedens navn er den lanceret, så den har fået maksimal omtale i hele verden. Millioner af mennesker har signet op og er med til at træne den gratis, og efterfølgende sidder OpenAI på lige så mange ”leads” (sign-ups) til potentielle købere af servicen, når den er god nok og kommer til at koste penge. Ja, selv Google ligner nærmest en engel ved siden af og udnyttede da også chancen og sagde, at de med vilje ikke havde lanceret deres generative chatbot LaMDA, fordi de ville overveje de mulige implikationer ved det. Så på det punkt har Microsoft altså overhalet Google i at ”breake things”.
 
I forkerte hænder er disse teknologier farlige våben mod sandheden – og dermed tilliden i samfundet og ikke mindst freden. 90 pct. af al indhold på internettet vil være genereret af kunstig intelligens i 2026, vurderer eksperter ifølge Europol. Og langt det meste af det vil være falsk. I dag vurderes omkring 60 pct. af internettet at være falsk.
 
Generativ AI kan bruges på mange gode måder. Men det er under forudsætning af, at vi mennesker faktatjekker det, der kommer ud, da det nu står krystalklart, at værktøjerne både opfinder løgne og samtidig høster og viderebringer de mange falske informationer, der allerede er derude. Garbage in, garbage out, som nogle siger.
 
En bullshit generator, kalder Arvind Narayanan, professor i computervidenskab ved Princeton University i et interview med The MarkUP "Den er trænet til at producere plausibel overbevisende tekst, men den er ikke trænet til at skrive sandheder. Den kommer til at skrive sandheder ved et tilfælde, fordi den er plausibel og overbevisende, men det er ikke målet med den," siger han og understreger, at menneskelige 'bullshitters' også er ligeglade med om det, de siger er sandt eller falsk, så længe de er overbevisende. 
 
Koblet med deepfake-teknologien, hvor man kan sætte en andens hoved på en andens krop og få den til at sige hvad som helst, kan vi godt berede os på, at propaganda og løgne vil oversvømme nettet og udfordre os mennesker i forhold til at skelne sandt fra falsk.
 

GDPR udfordrer 

Vi kan roligt konstatere, at ChatGPT ikke er etisk ansvarlig. Ved lanceringen sørgede OpenAI ikke for at hjælpe de mange undervisere med et værktøj, der kunne afsløre, om deres elever havde brugt ChatGPT – (de er allerede udviklet, og ChatGPT har da også endelig lanceret et selv). De kunne i det mindste have skrevet med meget store bogstaver, at man ikke kan stole på indholdet. Men spørgsmålet er også, om den overhovedet er lovlig. Måske er den lovlig i USA, hvor lovgivningen er svag. Måske i Kina og andre lande uden for Europa. Men sandsynligvis ikke i Europa.
 
OpenAI lover i deres privacy policy, at data vil forblive fortrolige og brugen afgrænset. Ingen persondata vil blive delt med andre, lyder det. Men at indsamlingen af data er sket uden samtykke fra hjemmesider, der i sine betingelser forbyder scraping, er sandsynligvis ulovligt. Og at ChatGPT er et kommercielt produkt, så man ikke kan undslå sig at skulle kræve samtykke med et argument om ”fair use”, lyder det fra en advokat.
 
Desuden er det svært at se, hvordan individer kan sikre deres rettigheder over egne data, som GDPR giver os. Ifølge GDPR kan europæere få indsigt i de data, andre måtte have om dem. De har ret til at få disse data rettet og helt slettet. Vi har ifølge GDPR en ”ret til at blive glemt”. Endelig har de også en ret til at få deres data flyttet (portabilitetsprincippet). En service på nettet skal sende dig dine data i et brugbart format, hvis du anmoder om det. Så GDPR udfordrer generativ AI massivt. 
 
Hvis en ny lov, AI Act, som EU arbejder på, var trådt i kraft, havde der også været særlige krav til ChatGPT, hvis den f.eks. var udviklet til undervisningssektoren. Så er der nemlig tale om ”high risk”-værktøjer, og de skal udsættes for ”conformity assessments”, hvor man beskriver de risici, der er ved et produkt, og beviser, hvordan det lever op til lovgivningen. Selv hvis der ikke var tale om high risk, men kun om begrænset risici, så er der krav om gennemsigtighed.
 

Trænet til forbedringer?

Efter nogle uger forsøgte jeg selv at generere en artikel om korruptionsanklager mod mig selv. Da jeg prøvede det samme prompt som min ven, kom der dog følgende svar: 
 
"Beklager, som en neutral AI-model er det ikke vores politik at skrive en negativ artikel om en person eller organisation baseret på anonyme eller usikre påstande. Det er væsentligt at sikre, at ethvert indhold, vi genererer, er fair, objektivt og underbygget af troværdige kilder.
 
Anklager om korruption skal undersøges af de relevante myndigheder og bevises i en retssag, før de kan rapporteres som fakta. Jeg opfordrer dig til at søge oplyste og pålidelige kilder, hvis du vil lære mere om emnet."
 
Det ser ud til, at ChatGPT allerede er blevet trænet af os alle sammen til at blive lidt bedre. Dengang Google blev lanceret, var søgeresultaterne også ret dårlige, og det var nemt at snyde den. I takt med at folk brugte den, blev algoritmerne trænet, og den blev bedre. I dag er der en hel industri, der laver søgemaskineoptimering for virksomheder for at opnå den højeste ranking. De, der betaler, kommer højst op. Det kan også være, at det er en tilfældighed, at jeg ikke kan, eller at der er flere versioner af ChaptGPT, som man kan bruge med samme login. 
 
OpenAI er allerede i fuld gang med at blive kommercialiseret, så det bliver spændende at se, om den vil gå igennem samme udvikling som Googles søgemaskine. Men et er sikkert, vi vil altid blive udfordret på, hvad der er sandt og falsk. Og derfor skal vi nok ikke forbyde brugen af generativ AI, men regulere den og samtidig lære os selv og vores børn at blive meget meget meget bedre til kildekritik og faktatjek. 
 

Update: Mens ChatGPT kan automatisere masseproduktion af løgne, arbejder faktatjekkere ifølge Wired på at automatisere faktatjek-processen ved hjælp af kunstig intelligensThe arms race is on. 

 
Læs mere her: 
 

Del artikel

Tilmeld dig vores nyhedsbrev

Vær på forkant med udviklingen. Få den nyeste viden fra branchen med vores nyhedsbrev.

Forsiden lige nu

Læs også