Når big data giver store etiske problemer

Medier og brugere er i oprør over firmaet Cambridge Analyticas tilsyneladende massive misbrug af data fra Facebook, og sidstnævnte har taget en ordentlig kajeryster på børsen. Sagen aktualiserer emnet ”dataetik”, noget tiden nok kunne kalde på.
De massive mængder af digitale data og den globale informationsinfrastruktur i form af internet, sociale medier osv. er et klassisk eksempel på, at ny teknologi giver os nye etiske udfordringer. Foto: Getty Images
De massive mængder af digitale data og den globale informationsinfrastruktur i form af internet, sociale medier osv. er et klassisk eksempel på, at ny teknologi giver os nye etiske udfordringer. Foto: Getty Images
I en nylig udsendelse af Radio24syvs ”Den Korte Weekendavis” gennemgår vores alle sammens Kirsten Birgit nogle træk fra sagen om Cambridge Analytica; firmaet, der angiveligt skulle have påvirket blandt andet præsidentvalget i USA gennem systematisk indhøstning af data fra Facebook. 
 
Kirsten Birgit fortæller den altid naive Rasmus, at man med adgang til blot 70 af hans likes på Facebook med 95 % sikkerhed kan fastslå hans hudfarve, og med 85 % hans seksualitet. Rasmus lader sig ikke sådan overbevise ”Nej, det tror jeg ikke! Det kan være alt muligt, jeg liker … de kan ikke bestemme min hudfarve!” Kirsten Birgits respons er tør: ”Så du tror ikke, de kan afgøre, at du er en hvid mand, ud fra at du har liket Shubberne?”
 
Rasmus’ skeptiske respons afspejler, tror jeg, en generel ide eller et håb, langt de fleste af os brugere af sociale medier har: ”Det kan godt være, at de andres adfærd kan aflures. Men selv er jeg jo unik, og hvem interesserer sig da egentlig også for mig på det plan?”
 
Problemet er bare, at når vores individuelle adfærd på nettet kan først afdækkes, og derefter, øjensynligt, få nok mennesker til at flytte sig til at afgøre præsidentvalg eller Brexit-afstemninger, så kan det da godt være at vi som enkeltindivider kun berøres marginalt i første omgang - men så falder hammeren altså! Det drejer sig om (i hvert fald potentiel) digital manipulation af demokratiske processer, og en ny virkelighed i det demokratiske samtalerum. Og det er en etisk problemstilling.#REKLAMEPLADS#
 
CA er ikke alene om at datahøste  de blev bare afsløret først
Man skal passe på med at gøre Cambridge Analytica til soloskurken i spørgsmålet om brug og misbrug af big data. Uanset, hvad dybderne og omfanget af skandalen om Cambridge Analytica er, taler vi her om problemer af en langt mere generel karakter.
 
Som andre har påpeget, fx Kommunikationsforums egen Timme Bisgaard Munk (Information (betalingsmur), 24. marts 2018), er der ikke noget særlig teknologisk avanceret over Analyticas arbejde. Det er også en misforståelse at gøre det til et spørgsmål om datasikkerhed. Der har ikke siddet en overvægtig teenager eller en gusten russer med en fortid i Partiet i et fugtigt kælderlokale og hacket brugerkonti. Det er brugere, der med mere eller mindre åbne øjne selv har leveret varen.
 
I princippet kan enhver med lidt computerkraft og startkapital og en sans for at lave tillokkende Facebook-apps høste lignende data og kompilere og sælge dem til højestbydende. Det er den digitale infrastruktur og dets porøse karakter, der muliggør dette, ikke enkeltstående kriminelle genier.
 
De massive mængder af digitale data og den globale informationsinfrastruktur i form af internet, sociale medier osv. er et klassisk eksempel på, at ny teknologi giver os nye etiske udfordringer. Om – eller snarere hvilke af – disse udfordringer genuint er nye eller blot velkendte etiske problemer i ny skala, er et mere åbent spørgsmål. Typisk vil specialiserede etikere inden for et snævert teknologiområde hævde, at der er noget helt unikt over netop deres område, hvilket gør, at netop dette skal udpeges som et særligt felt.
 
Omvendt vil etiske teoretikere eller ”etiske generalister” pege på, at problemstillingerne nok kan få en særlig drejning med nye teknologier, men kernerne af problemerne kan føres tilbage til velkendte etiske udfordringer og dilemmaer.
 
Non-profit-firmaet ODI - Open Data Institute - har udviklet en tankevækkende tjekliste med spørgsmål, man som den person, organisation eller virksomhed, der høster data, kan bruge for bedre at kunne afklare, om man har etikken i orden (eller i hvert fald tænkt over den), når man går i gang med det. Tjeklisten er også tankevækkende for os, hvis data bliver høstet! (Klik for at se billedet forstørret).
 
En klassisk udfordring, som i hvert fald er på spil, når vi taler om ”dataetik”, er velkendt fra en række nye teknologier. Lad mig illustrere med et eksempel, der ikke involverer sociale medier.
 
Såkaldte biobanker kan blandt andet ligge inde med (enorme) mængder af fuldt ud digitaliserede data om vores genetik. Koblet til andre relevante biodata, fx oplysninger om ”livsstil” eller helbredstilstand, har sådanne biobanker potentialet til skabe gigantiske fremskridt i den medicinske forskning. Fremskridt, der kan komme hele menneskeheden til gavn.
 
Omvendt er mange etisk bekymrede. Typiske omdrejningspunkter her er spørgsmål om anonymitet, privatliv og datasikkerhed (”Snager de i mine gener? Ved de noget, jeg ikke ved?”); diskrimination (”Kan data misbruges til at udelukke bestemte personer eller befolkningsgrupper fra arbejdslivet eller fra at blive forsikret?”) eller udnyttelse (”Misbruger de mine gener til at udvikle medicin, som de bliver styrtende rige af, uden jeg får noget ud af det?”).
 
Jeg skal ikke her vurdere betimeligheden af disse bekymringer, men blot konstatere, at de er der. Folk har og har haft bekymringer om stort set alle teknologiske nybrud, store som små. Fx var der de, der mente, at vi ville blive tingsliggjorte af dankortsystemet, fordi de konkrete mønter og sedler forsvandt.
 
På den ene side har vi altså et (evt. stort) samfundsmæssigt eller fælles potentiale, i tilfældet biobanker mere specifikt et potentiale for at lindre og måske helt udrydde en lang række sygdomme. På den anden side en række bekymringer for, at teknologien kompromitterer vores frihed eller værdighed eller på andre måder har negative konsekvenser. Men de to sider er ikke uafhængige: Er der tilstrækkelig meget social modstand mod en teknologi, falder den, eller dens udbredelse bliver kraftigt begrænset. Tænk bare på GMO. Venter et lignede backlash om hjørnet i forhold til Facebook?
 
Denne, i meget grove termer, modstilling mellem et potentiale for store velfærdsgevinster på den ene side og individuelle etiske bekymringer på den anden, findes også, når det bredt betragtet drejer sig om vores IT-teknologier. Det er da også udgangspunktet for specialiserede ”dataetikere” som fx Luciano Floridi, der er en stor ost i det felt (se Floridi L, Taddeo M. 2016 “What is data ethics?” Phil. Trans. R. Soc. A 374 for en håndterbar oversigt).
 
Etisk rådgiver for Google og professor i filosofi Luciano Floridi er helt med på, at informationsteknologier rejser etiske spørgsmål af velkendt karakter, herunder copyright og IPR (intellectual property rights), ytrings- og meningsfrihed, privatlivets fred, sikkerhed (både datasikkerhed og mere generelt) og ikke mindst ansvar og ansvarlighed. Foto: YouTube.
 
For at vende tilbage til sagen om Cambridge Analytica: Hvem har ansvaret, og hvem kan stilles til ansvar? Er det Facebook, der gør det alt for svært for brugerne at gennemskue, hvad der er på spil, og som har lavet – og lever af – en datamæssig porøs platform? Er det kun Analytica? Eller er det lovgivere, der ikke har været inde at stille krav? Er det brugernes egen naivitet, der til syvende og sidst er skurken?
 
Floridi et al. taler om, at dataetikken har tre dimensioner eller akser:
  • Det, der angår data som sådan, fx hvordan de høstes, opbevares, og bruges
  • Algoritmer, herunder kunstig intelligens, robotter og maskinlæring
  • Etisk forsvarlige praksisser, fx professionsetikker eller “good governance”, når man arbejder med (big) data.
 
De mest science fiction-agtige scenarier åbenbarer sig, når man begynder at overveje algoritmedelen: Skriver en håndfuld eksperter et program, der kan begynde at udvikle og omskrive sig selv, og det et eller andet sted i forløbet leder til den ene eller anden kedelige konsekvens, hvem har så ansvaret? Hvis vi holder de oprindelige programmører ansvarlige, dømmer vi så så at sige moderen for datterens forbrydelser? Hvad hvis et program en dag udvikler selvbevidsthed (om vi ville kunne opdage det, eller om det nogensinde sker, er naturligvis dybe og mystiske filosofiske spørgsmål), kan vi så holde programmet ansvarligt? Den type spørgsmål er velegnede til at udvikle en mindre psykose, og lad os derfor sætte dem til side. Spørgsmål om data per se er komplicerede nok.
 
Behov for politisk stillingtagen
Vi har levet med en genuint global og vildtvoksende højteknologisk IT-realitet i godt 30 år. Det er måske rimeligt, at vi kan begynde at fælde nogle domme over, hvordan vi har – og særligt ikke har – håndteret dette. Når det kommer til vores individuelle data og deres frie flow på nettet og ned i dataminørenes kartoteker, må vi nok se os selv i øjnene og sige: ”Vi har været for naive. Vi har ladet stå til. Det er løbet af sporet!”
 
Dernæst, når vi er kommet så langt, må vi rette vores høflige, men bestemte krav til politikerne. Der må forlanges et andet niveau af transparens og ansvarlighed. Det er helt fin at være produktet, som man siger, når man gratis bruger sociale medier, men det skal virkelig foregå med langt større åbenhed og ærlighed, end det gør i dag.
 
Vi kan ikke vende ryggen til internettet, og for mange af os opleves prisen for at forlade fx Facebook simpelthen for høj (Hvordan skal man nogensinde arrangere et sammenskudsgilde igen? Hvordan opdager man, at der er et gratis arrangement om fermenteret kål med Niko Grünfeld som DJ i Sydhavnen?).
 
Vi må med andre ord leve med skidtet og også acceptere, at skidt og dårlige ting vil forekomme. Vi skal i hvert fald ikke bede politikerne om at detailregulere efter kinesisk forbillede. Information wants to be free! Men visse grundlæggende spilleregler må politikerne, i hvert fald på længere sigt, kunne medvirke til at få i stand.
 
For at vende tilbage til Kirsten Birgit og Rasmus: Hun opfordrer Rasmus til at droppe Facebook og gentager sit gamle opråb ”Så kom dog for fanden på Twitter, Rasmus. De deler godt nok også dine data, men der er ingen apps, der fortæller dig, hvad for en sauce du er!”
 
Mens vi venter på politikerne, er det selvfølgelig en mulighed. Man kunne også løfte sit individuelle ansvar ved at tage lidt færre sauce-tests og huske de gamle ord: Caveat Emptor - ”Køber skal passe på” og særligt, når købet er gratis – på overfladen.

Del artikel

Tilmeld dig vores nyhedsbrev

Vær på forkant med udviklingen. Få den nyeste viden fra branchen med vores nyhedsbrev.

Forsiden lige nu

Læs også