Rav i det offentlige algoritmeland
Influencerstaten kommer. Nudger den demokratiet væk?

Skrevet af

Jon Lund
Strategikonsulent

30 artikler

298 indlæg

Den er helt gal med det offentliges algoritmer, og hvis vi ikke gør noget ved det, risikerer vi, at algoritmerne nudger demokratiet væk. Sådan lyder essensen af “Fra velfærdsstat til overvågningsstat” lidt hårdt trukket op. Bogen er en spritny dansk antologi, der sætter fokus på en række af de problemer, vi løber ind i, når kunstig intelligens, maskinlæring og prædiktive algoritmer slippes løs i den offentlige forvaltning.
Fra velfærdsstat til overvågningsstat, en ny antologi redigeret af Michael Jarlner og Kim Escherich, er en dejlig kort bog. 195 små sider med masser af luft i typografien, otte letlæste kapitler (der altså egentlig ikke er kapitler, men små selvstændige artikler) af otte forskellige forfattere. Som med alle bøger af den slags lapper de enkelte indlæg delvist over hinanden – og nogle af artiklerne er skarpere og mere overbevisende end andre. Men netop størrelsen fik mig til at læse bogen som en slikpose, en samling af algoritmeproblematikbolsjer, som jeg åbnede og spændt smagte på hver især. Da jeg var færdig, sad jeg tilbage med seks forskellige indtryk. De kommer her.

 

1. Algoritmeafgørelser, som borgerne ikke forstår, virker undergravende på det offentliges legitimitet

 
Bogen giver et fint indblik i, hvor meget bøvl der er med algoritmer, både generelt, men også i Danmark. Algoritmer forudsiger fremtiden med fortidens briller, og det gør dem fordomsfulde og biased. Algoritmerne er upræcise, fordi de data, de bygger på, i sagens natur kun dækker dele af virkeligheden. Og algoritmer er ofte uforklarlige, fordi deres forudsigelser bygger på mønstre i data, som kun maskiner kan se.

Dette mix giver, som antropologen Helene Friis Ratner beskriver det i et tankevækkende indlæg, et problem med datakontrakten mellem borger og stat. Den kontrakt, der siger, at vi borgere gerne giver data fra os, hvis vi stoler på, at det, vi får igen, holder vand. Upræcise og fordomsfulde afgørelser, der hverken kan forstås eller forklares, virker ikke tillidsbefordrende. Det er et problem, for det gør borgernes lyst til at indgå i datadelingen mindre.
 
Marya Akhtar fra Institut for Menneskerettigheder tager argumentet et skridt videre: Det er ikke kun borgernes villighed til at dele data, som uforklarlige og urimelige algortimebeslutninger påvirker negativt. Det er hele systemets legitimitet – altså selve det offentliges magtudøvelse – der drages i tvivl. Et argument, hun driver fint i land, synes jeg.
 

2. Derfor skal vi have transparens, så borgerne forstår afgørelserne. Og overblik og retningslinjer, så det offentlige bliver i stand til at kontrollere sig selv

 
Løsningen på problemet er (selvfølgelig, ak) lidt vanskeligere at pinpointe. Marya Akhtar siger: Giv os bedre transparens! Forklar meningen bag de beslutninger, algoritmen træffer. Eller – hvis det ikke kan lade sig gøre, fordi algoritmens veje er for uransagelige – så fortæl i det mindste, hvad algoritmen har gjort for at komme med sit svar. Og det er nok det sværeste: Gør det på en måde, så brugeren ikke drukner i information. For så er vi lige vidt.
 
Men transparensen gør det ikke alene. Det er ikke kun borgerne, der skal sættes i stand til at se myndighedsudøvelsen i kortene. Vi mangler også kontrolmekanismer. Og her, siger Marya Akhtar, kunne vi jo starte med overhovedet at få overblik over, hvem der har gang i hvilke maskinlæringstiltag i den offentlige sektor herhjemme, for det er der ingen, der ved. Giv os et centralt register, siger hun. Godt forslag.
 
Birgitte Arent Eirikssons kapitel supplerer kapitlet før. Det er i dag meget småt med fælles regler for, hvad man skal tænke på, før man sætter den kunstige intelligens på arbejde i velfærdsstatens frontlinje. Det dur ikke, siger Justitia-vicedirektøren og foreslår som første skridt, at alle offentlige myndigheder forpligtes til at bruge Dataetisk Råds retningslinjer, før de sætter nye projekter i værk samt, at alle lovforslag dataetikvurderes på en struktureret måde. For mig lyder også dette som et fornuftigt sted at sætte ind.
 

3. Det stopper ikke der: Algoritmerne forandrer forholdet mellem stat og borger

 
Øget overblik og retningslinjer gør det ikke alene. De er fine, men ikke nok. For problemet er ikke kun, hvad forvaltningen ved om dig, og om de er fair, når de regner dig ud. Vi skal dybere ned.
 
Ratner skitserer problemstillingen godt i sit kapitel. Det er selve forholdet mellem forvaltning og borger, der er i spil, skriver hun. I gamle dage var det borgerens rettigheder, der var i fokus, og forvaltningens arbejde var at sikre disse. Så kom New Public Management, hvor borgeren var en, man skulle indgå kontrakter med. Nu ændres det igen. I den prædiktive algoritmedrevne forvaltning er borgeren et objekt for algoritmen – en sandsynlig fremtid – og formålet med forvaltningens ageren er at gøre den i stand til at forebygge bedst muligt. Forebygge at børn mistrives, voksne ryger ud i langtidsledighed, og at alle bliver syge. Med mere.
 

4. ...og nudger problemerne væk


Ratner sætter ikke ord på det nye forvaltningsparadigme, som hun her beskriver. Det gør CBS-professorer Mikkel Flyverbom og Frederik Schade, der er i gang med et ph.d.-projekt sammesteds, til gengæld i deres kapitel. Influencer-staten kalder de det. Og de mener det ikke pænt.
 
Flyverbom og Schade tager tanken om den algoritmeberegnede, risikoscorede borger et skridt videre, end Ratner gør. For hos dem er det ikke kun borgere, der står over for en konkret forvaltningsmæssig indgriben, der rammes af den nye maskinlærte sagsbehandling. Det er potentielt alle. Ikke med love og paragraffer, men med nudging og manipulation.
 
 
Flyverbom og Schade fortæller om organtransplantationskampagnen på Twitter, hvor de engelske sundhedsmyndigheder havde oprettet falske profiler for en række kendisser, og hvor brugerne, når de højreswipede, fik budskabet: “Gid det var lige så let at finde et match til dem, der har brug for et livsvigtigt organ”. Om kampagnen for bedre brandsikkerhed, hvor data om, hvem der havde købt stearinlys, blev brugt til smart-højttalermålretning af det gode budskab. Og om knock-and-talk-besøg fra politiet hos unge, hvis adfærd tydede på, at de var på vej mod cyberkriminalitet. Alle eksempler på adfærdsregulerende myndighedsudøvelse.
 
I sig selv er problemstillingen god nok, synes jeg: Hvad er statens opgave over for os borgere? Hvor meget skal den blande sig i vores liv? Men igen stikker det dybere. Der er noget mekanisk, instrumentalt over hele nudging-tilgangen, forstår man på de to. Særligt den algoritmiske af slagsen. Den omdanner komplekse sociale problemstillinger til abstrakte modeller baseret på de datapunkter, der lige byder sig til, og kaster alle sine kræfter ind på, hvordan denne model kan få størst mulig effekt i den virkelige verden, og flytter derfor fokus væk fra spørgsmålet om, hvordan problemerne egentlig bedst forstås. “Vil vi erstatte den menneskelige konversation med digitaliseret konvertering," spørger de. Også et godt spørgsmål, synes jeg.
 

5. Måske truer algoritmerne demokratiet


Jeg er lidt i tvivl om, hvor langt denne “konversation vs. konverteringspointe” kan strækkes. Det er TeknoEtiks Klavs Birkholm ikke i sit – efter min smag for postulerende – afsluttende kapitel i bogen. Vi sætter algortimisk forebyggelse i stedet for den politiske samtale om, hvordan problemerne løses, hvilket igen tvinger os til at mangedoble og udvide kontrollen og overvågningen af den enkelte. Dette sætter yderligere fart i udhulingen af det gamle privatlivsbegreb. Uden privatliv, ingen fri meningsdannelse, og derfor er alt dette “ikke alene demokratiets abdikation. Det er også tæppefald for det, vi hidtil har betegnet som politik.” Så er den ged barberet.
 
Birkholm er den mest algoritmekritiske af bogens forfattere. Men også Kim Escherich er godt med i hans kapitel. Og selvom jeg godt kan lide hans påpegning af, at hverdagen er analog, og man skal spise brød til al digitaliseringsbegejstringen, er også han lige lovligt højstemt i retorikken for mig.

 

6. Og under alle omstændigheder har algoritmerne et forvaltningsretligt problem


Hanne Marie Motzfeldt er til gengæld dejlig konkret i sin kritik af den endda meget svage kontrol, den digitale forvaltning herhjemme fungerer under. 
 
Motzfeldt siger to ting, som særligt gjorde mig klogere. For det første bliver det noget hø for dig at føre bevis, hvis en præventiv algoritme skulle behandle dig uretfærdigt, og du skulle slæbe den i retten. Domstole er gode til at bedømme, om et bevis holder, når vi taler om noget, der rent faktisk har fundet sted. Men den prædiktive algoritmes afgørelse er ikke truffet på baggrund af noget, der er sket. Den er truffet på baggrund af algoritmens vurdering af, hvor sandsynligt det er, at du i en ud af mange mulige fremtider opfører dig på en måde, den ikke kan lide. Den slags hypoteser er domstole normalt tilbageholdende med at tage alt for håndfast stilling til. Derfor bliver det sværere for dig at få ret, når det er en sagsbehandlingsalgoritme, der sidder på anklagebænken. Og det svækker systematisk din, borgerens, retsstilling.
 
Den anden store takeaway fra Motzfeldt er, at det er langt lettere at hænge embedsmænd af kød og blod op på deres embedsførelse end robotter. Ganske enkelt, fordi det er ulovligt og strafbehæftet for en embedsmand systematisk at dumme sig eller træffe afgørelser, der krænker borgerens rettigheder. Men hvem står til ansvar, hvis en algoritme systematisk dummer sig: Ham eller hende der har skrevet kravspec’en? Udvikleren? Næppe. Resultatet er også her, at borgeren stilles svagere i mødet med forvaltningen.
 

Stof til eftertanke

 
Fra velfærdsstat til overvågningsstat er sådan en bog, som kaster dig midt ind i en aktuel diskussion (flere cases er fra efteråret 2021) og giver dig masser af stof til eftertanke. I flere retninger. Overblikket kommer ikke af sig selv; det må du arbejde dig til (og måske hjælper denne anmeldelse dig lidt på vejen). Der er heller ikke nogen af kapitlerne, der når helt til bunds i deres problemstillinger, så du skal selv både lægge til og trække fra. Til gengæld giver bogen dig en god fornemmelse af, hvor det brænder på lige nu, både i den principielle og den mere jordnære danske afdeling for kunstig offentlig intelligens. Og så er den kort og hurtigt læst.
 

Relaterede artikler

Er din boss en vred algoritme? - Platformene træner deres algoritmer med kunstig kunstig intelligens, hvor mennesker løser enkeltstående klik-opgaver for...
Den kollektive krisehukommelse er kort - Coronapandemien dominerede dagsordenen i 2021 og tog toppen af årets kommunikationskriser. Alligevel ser flere ledere og...

Giv din stemme

7 stemmer
4,6/5

Kommentarer

Få nyhedsbrev

58 JOB

Content creator

Se alle job Indryk job

Job

Digital kommunikationsrådgiver

Frist: 8. december

Studentermedhjælper

Frist: Hurtigst muligt

Studentermedarbejder

Frist: 3. januar
Se alle job Indryk job

Få nyhedsbrev

Få nyhedsbrev

Alt hvad du behøver at vide om kommunikation i din indbakke.

Ud over nyhedsbrevet får du max to andre faglige e-mails om ugen.