Analyse

Skal dræberrobotterne have lov til at dræbe?

Udviklingen inden for kunstig intelligens er kommet så langt, at vi inden for en meget begrænset tidsperiode kan forvente at se selvstyrede robotsoldater på slagmarken. I starten af ugen underskrev 116 af verdens fremtrædende pionerer inden for kunstig intelligens et brev, der opfordrer De Forenede Nationer (FN) til at forbyde brugen af såkaldte dræberrobotter. Er underskriverne blevet paranoide efter at have set for mange science fiction-film, eller har de en pointe, når de siger, at dræberrobotterne vil have uoverskuelige konsekvenser? Føljeton giver dig overblikket.

Foto: Scanpix

Der har været advarsler nok. Vi burde have set dem komme; dræberrobotterne. Vi mødte dem i filmen The Terminator fra 1984, hvor Arnold Schwarzenegger gør sig som cyborglejemorder, og computersystemet Skynet bliver selvbevidst og beslutter sig for at udslette menneskeheden. Vi mødte dem i RoboCop, hvor Enforcement Droid Series 209-robotten hjælper skurkene med at nå deres mål. Og vi mødte dem i The Matrix, hvor computerne har vundet en bitter krig mod deres menneskelige skabere og nu i stedet bruger deres krigsfanger som batterier.

Vi var advaret. Men hvor vi før kun blev konfronteret med den krigeriske kunstige intelligens gennem science fiction-film, er dræberrobotterne nu ikke bare blevet virkelighed. De er blevet storpolitik.

I begyndelse af denne uge sendte 116 af de fremmeste pionerer inden for kunstig intelligens et åbent brev til FN i forsøget på at få dem til at forbyde brugen af dræberrobotter i krig. Blandt underskriverne finder man fx Elon Musk, hvis virksomhed Tesla er meget tæt på at have udviklet en bil, der er så intelligent, at den kan køre selv, uden at føreren behøver at røre en finger.

Det lyder jo meget lækkert at kunne få en robot til at køre en rundt i stedet for selv at skulle sidde og bande og svovle bag rattet på en overbefolket motorvej. Men problemet er, at der ikke er frygtelig langt fra den selvkørende bil til Enforcement Droid Series 209 fra RoboCop. Hvis en robot er klog nok til at køre bil, så er den også snart klog nok til at slå ihjel.

Elon Musk og hans medunderskrivere frygter, at dræberrobotterne vil starte en ny tidsalder inden for krigsførelse. Som de skriver i deres brev, så må ”vi gøre noget hurtigt. Lige så snart denne Pandoras æske er blevet åbnet, så er den svær at lukke igen”. Dræberrobotter kan blive begyndelsen på krige i en størrelsesskala, vi endnu ikke har set.

Men er Musk og de andre egentlig ikke bare bange, fordi ordet ‘dræberrobot’ lyder uhyggeligt? Vi har jo slået hinanden ihjel, så længe nogen kan huske, så er krig ikke bare endnu en mundan opgave, vi kan få den nye teknologi til at klare for os? Her er argumenterne for og imod at forbyde dræberrobotter.

Effektive dræbere

Da John F. Kennedy førte valgkamp i en koldkrigstid, sagde han noget, som er rammende for, hvordan den militære tankegang har været i USA siden anden verdenskrig: ”It is an unfortunate fact that we can secure peace only by preparing for war.”

Rationalet er simpelt nok: Hvis de andre er bange for os, så angriber de ikke. Eller i en lidt mere pessimistisk udgave: Vi kommer aldrig af med krig, så vi kan lige så godt være bedst til det. Og for at være bedst til krig i fremtiden, har vi brug for robotter. De er pokkers effektive, og de giver ”os” en militær fordel.

Først og fremmest vil der med brugen af autonome militærrobotter være behov for langt færre tropper, da robotterne er mere effektive end deres menneskelige modstykker. Robotterne vil kunne nå dele af slagmarken, der før har været utilgængelig, og – måske vigtigst – så kan robotterne overtage de farligste missioner for de menneskelige soldater og dermed nedbringe antallet af tab.

I det amerikanske udenrigsministerium har man også fået øjnene op for fordelene ved dræberrobotter. I rapporten ‘Unmanned Systems Roadmap 2007-2032‘ ser man det især som en fordel, at man kan få maskinerne til at overtage ‘dull, dirty and dangerous’-missioner. Slut med at soldater skal sendes ind i områder med giftgasser eller kede sig ihjel på lange bevogtningsmissioner – vi får Terminator til at gøre det for os i stedet.

Netop muligheden for at eliminere menneskelige følelser som kedsomhed og frygt, gør muligvis, at maskinerne med tiden kan vise sig som mere medmenneskelige på slagmarken end menneskene selv. Robotter bliver fx ikke bange og har intet liv, de skal beskytte, så modsat soldaten har de ingen grund til at ‘skyde først og spørge bagefter’. De kan sikre sig, at de rent faktisk står over for en potentiel trussel, inden de dræber.

Men måske er det en helt anden amerikansk præsidentkandidats valgkamp, vi skal kigge på, hvis vi virkelig vil forstå, hvorfor forsvarsministerier verden over slikker sig om munden, når de hører om den nye form for krigsførelse. I Bill Clintons kampagnehovedkvarter hang der et papir med ordene ”It’s the economy, stupid”. Det papir hænger nok også i forsvarsministerierne. Krig er dyrt, og soldater tager penge væk fra andre vigtige poster på statsbudgettet. Med robotter ville det være muligt at nedbringe prisen på krigsførelse med et ikke ubetydeligt beløb.

Amoralske robotter

Da The Terminator i Terminator 2: Dommedag får fortalt, at han altså ikke bare kan gå rundt og slå folk ihjel, svarer han undrende med et ”hvorfor?”. Mens fortalerne for brugen af autonome kamprobotter fremhæver deres manglende menneskelighed som en mulighed for at gøre krig mere human, så kan man også hævde det stikmodsatte: At robotternes basale mangel på empati og følelser gør, at de mangler den menneskelige dømmekraft, der er altafgørende i en kampsituation. Sagt med andre ord: Man kan ikke installere et moralsk kompas i en dræberrobot.

En robots valg vil i en kampsituation være styret af en algoritme, som er menneskeskabt. Problemet er bare, at selvom mennesker selv besidder moral og etik, så er vi ikke særligt gode til at sætte det på formel. Ultimativt betyder det, at moralske spørgsmål som filosoffer har diskuteret i tusindevis af år og aldrig har fundet et svar på, nu skal kodes ind i en robot. Og hvordan koder man noget, man ikke ved, hvad er?

Problemet kan illustreres med en fiktiv kampsituation: En amerikansk dræberrobot overvåger en plads i Afghanistan, hvor tre civile mænd står og snakker. I hjørnet af pladsen står en 5-årig dreng med en granat, som han tilsyneladende er blevet instrueret i at kaste mod gruppen af mænd. Drengen er uvidende om, hvad granaten kan gøre ved mændene. Hvad skal robotten gøre? Hvis den skyder drengen, er det amerikanske militær skyld i en civil 5-årig drengs død. Hvis den ikke skyder drengen, dør de tre mænd på pladsen. Den slags dilemmaer skal robotten være i stand til at løse, og hvis vi som mennesker ikke engang selv ved, hvad det rigtige ville være at gøre, hvordan skal vi så forklare det til en robot?

Hvordan ved robotten i øvrigt, at det faktisk er en håndgranat, som den lille dreng står med i hånden? Flere forskere har sat spørgsmålstegn ved robotters evne til effektivt at kunne skelne fjende fra civil, og brugen af robotter vil dermed med al sandsynlighed føre til flere civile tab og indirekte skader. Tidligere har noget så enkelt som et par klistermærker snydt selvkørende biler til ikke at kunne genkende stopskilte. Hvis fjenden på lignende vis kan manipulere en dræberrobot, kan det blive fatalt.

En ting er, at man kan hacke biler med klistermærker, men dræberrobotter vil også kunne hackes ”på gammeldags maner”. Man snakker allerede om cyberkrig, hvor soldater er skiftet ud med computergenier, der kan rode med fjendens computersystemer. Men nu kan cyberkrig få en betydning, der rent faktisk også indbefatter brugen af krudt og kugler. Så det kan godt være, at vi lige nu er bekymrede over, at russerne hacker vores valg. Men hvad gør vi den dag, at hele NATO-styrken er sat ud af spillet på grund af et hackerangreb?

Krig er forfærdeligt og af og til sker der fejl. En robot vil tage fejl, ligesom mennesker tager fejl. Et af de grundlæggende principper inden for krigens regler er, at der skal kunne placeres et ansvar ved drab på civile. Ethvert våben der slører skyldsspørgsmålet overholder således ikke krigens regler. Hvem skal have skylden, når en robot selv tager valget om, hvem der skal leve, og hvem der skal dø?

Nytter det noget

Spørgsmålet er, om det overhovedet nytter noget at diskutere. FN er ikke kendt som verdens stærkeste organ, når det kommer til at holde verdens militære kapaciteter i skak. Der skal kun et af de store lande til at nedlægge veto, og så bliver et eventuelt forbud ikke til noget. Selv hvis forbuddet faktisk skulle blive vedtaget, så skal der sandsynligvis kun en nation til, at man bliver nødt til at ophæve det igen. Hvis russerne fx beslutter sig for at være ligeglade med den fælles beslutning og pludselig har en hær af robotter stående på grænsen til Europa, hvad gør de europæiske lande og deres allierede så? Et godt bud er, at de enten kræver i FN, at forbuddet bliver trukket tilbage, eller at de selv vælger at bryde det, så de kan matche russerne.

Når det kommer til realpolitik, så har verdens nationer det desværre med kun at have én ting for øje: Styrkeforhold. Hvis autonome robotter kan være med til at tippe det styrkeforhold til en nations fordel, så er det svært at forestille sig, at de ikke begynder produktionen med det samme. Så uanset hvad skal vi nok begynde at vende os til tanken om The Terminator i trøjen.

Kend din kunstige killer

Så vidt vides benyttes der endnu ikke autonome robotter i krig, men udviklingen af dem er i fuld gang. Og dræberrobotterne bliver både at finde til lands, til vands og i luften.

Model af den britiske autonome drone Taranis (Foto: Wikimedia Commons)

Droner er allerede en vigtig del af krigsførelse i det 21. århundrede. Indtil nu er de blevet fjernstyret af militært personale, men det er snart slut. Den britiske drone Taranis, som er opkaldt efter den keltiske tordengud, er planlagt til autonomt at kunne tage på interkontinentale luft-til-luft- og luft-til-land-missioner.

Den russiske Uran-9 (Foto: Wikimedia Commons)

Den russiske Uran-9 er et eksempel på den næste generation af landkøretøjer. Tanken er designet til både at kunne fungere fjernstyret og autonomt.

Den amerikanske ubådsjægerbåd ”Sea Hunter” (Foto: Scanpix)

I 2016 havde det amerikanske militær færdigudviklet prototypen af deres nye autonome bådtype Sea Hunter. Skibet undergår stadig tests, men forventes snart at kunne sættes i brug til anti-ubåds og anti-mine operationer.

Silicon Valley00:00Mexico City00:00New York00:00Sao Paulo00:00Nuuk00:00Bangui00:00Linköping00:00Kyjiv00:00Kabul00:00Mumbai00:00Hong Kong00:00Shanghai00:00Sydney00:00Fransk Polynesien00:00Silicon Valley00:00Mexico City00:00New York00:00Sao Paulo00:00Nuuk00:00Bangui00:00Linköping00:00Kyjiv00:00Kabul00:00Mumbai00:00Hong Kong00:00Shanghai00:00Sydney00:00Fransk Polynesien00:00Silicon Valley00:00Mexico City00:00New York00:00Sao Paulo00:00Nuuk00:00Bangui00:00Linköping00:00Kyjiv00:00Kabul00:00Mumbai00:00Hong Kong00:00Shanghai00:00Sydney00:00Fransk Polynesien00:00Silicon Valley00:00Mexico City00:00New York00:00Sao Paulo00:00Nuuk00:00Bangui00:00Linköping00:00Kyjiv00:00Kabul00:00Mumbai00:00Hong Kong00:00Shanghai00:00Sydney00:00Fransk Polynesien00:00

1

2

3

4

5

6

7

8

9

10

11

12