Nyhedsanalysen

Hvad gør vi, når maskiner har en højere moral end mennesker?

Vores robotføljeton er bygget op sådan, at vi er startet i den meget konkrete og fysiske robot, og herfra har vi arbejdet os længere og længere op ad en abstraktionsstige. Fra at tale om robotarme i sværindustrien, arbejdsløshed og støvsugere over ældrepleje, Terminator, vores følelser og popmusik er vi nu kommet til et sted, hvor det handler om besjæling, filosofi, moral, og hvad der adskiller det levende fra det døde. I dag ser vi på, hvilke dilemmaer man bliver stillet overfor, når maskinen når et kompleksitetsniveau, der kan simulere et rigtigt menneske og måske kommer op på et højere moralsk niveau, end noget menneske kan opnå.

Det var ikke ligefrem rationel, velovervejet etos, der fik præsident Trump valgt ind i Det Hvide Hus sidste efterår. Det er de fleste – bortset måske fra præsidenten selv – enige om. Det var ikke humanismens finest hour. I hvert fald ikke, hvis du spørger Zoltan Istvan, der faktisk også stillede op til valget, men som en af de mere ukendte og uafhængige kandidater. Han bor i Californien og stillede op for et parti, han kalder det transhumanistiske parti. Eller det vil sige, det er egentlig slet ikke ham, der stiller op, men han er stedfortræder for en computer, som han – gravalvorligt – mener kunne blive præsident for USA i 2028. Indtil videre arbejder han hårdt for at få tilført forskningsmidler til livsforlængelse, kunstig intelligens og bioteknologi, så teknologien kan blive klar.

”Historisk set er problemet med mennesker, at vi dybest set er egoistiske pattedyr,” sagde Zoltan Istvan til Newsweek. ”En kunstig intelligent præsident derimod kunne være ren i sin altruisme. Den ville ikke være til falds for lobbyister, folkestemninger, drevet af personlig vinding eller andres interesser, men ville kunne fokusere rent på målet. En robot ville kunne have en renere moral.”

Zoltan Istvan, der selv er forfatter, psykolog og en såkaldt futurist, er ikke sikker på, at teknikken er klar allerede i 2020, men til gengæld er han overbevist om, at den politiske debat om at gøre kunstig intelligens til politiker vil opstå i en grad, vi ikke har set tidligere.

”Derfor tror jeg også, det er realistisk, at robotter kan blive indsat i 2028 – også i præsidentembedet,” siger han.

Farligere end atombomben

Dermed prikker Zoltan Istvan til den frygt, flere fremtrædende videnskabsmænd og tech-pionerer har fremsat den seneste tid, hvor blandt andre fysikprofessor Stephen Hawking har udtalt, at den kunstige intelligens vil blive menneskets endeligt, og Tesla-stifteren Elon Musk har kaldt den ”farligere end atombomben”.

Den slags dystopier er den danske filosof og robotforsker, Martin Mose Bentzen fra DTU, ikke forfalden til. Han forsker i, hvordan man kan lave deciderede robot-love eller regler, og han medgiver, at vi står ved en korsvej, og der er et stort behov for at tale om emnet på allerhøjeste niveau og tage grundlæggende stilling, mener han.

”Vi er meget, meget tæt på et sted, hvor alle de dilemmaer og problematikker, vi har talt om som science fiction, bliver hverdag. Og på en lang række punkter, er vi der nærmest allerede,” siger Martin Mose Bentzen

”Det er påtrængende problematikker, der er virkelig vigtige at få debatteret til bunds. Det er vigtigt, vi har de her diskussioner. Jeg deler ikke Musk og Hawkings angst, men lige nu udvikler tingene sig så ufatteligt hurtigt, at vi umuligt kan overskue de konsekvenser, det har. Så langt følger jeg dem.”

Der er to grundlæggende forhold, som vi må se på, mener Martin Mose Bentzen. Dels er vi nødt til at forholde os konkret til de følelser, vi selv får til robotterne, dels er vi nødt til at se på, hvordan robotterne udvikler sig i en retning, så vi ikke mister grebet om dem, forklarer han.

”Hvor meget tid ønsker vi, at robotter skal bruge med vores børn, når vi lige om lidt står i en situation, hvor den kan varetage en børnepasserfunktion. Vi ved, hvor meget børn besjæler døde ting og kan have nære forhold til bamser, dyr og dukker for eksempel. Det er en situation, vi allerede kender fra ældreplejen, hvor man mange steder har brugt en robot som et kæledyr, men også særligt Holland har lavet grundige forsøg med sociale robotter, der kan tale med de ældre og spørge ind til deres humør og deres liv.”

Twendy-One, a robot designed to help the elderly and disabled people around the house, demonstrates its ability to hold delicate objects by manipulating a drinking straw in its fingers at Waseda University in Tokyo November 27, 2007. Twendy-one was designed by robotics researchers at Waseda University to have human-sized four-fingered hands cabable of picking up and holding delicate objects without crushing them. REUTERS/Michael Caronna (JAPAN)
Twendy-One, en hjælperobot designet til at være i fremtidens hjem. Foto: Scanpix

Mennesket i os selv

Det er ikke kun børn og ældre, der er hurtige til at besjæle robotterne – det er os alle sammen, der har det reaktionsmønster, når vi interagerer med dyr og ting, mener Martin Mose Bentzen, og dybest set handler det om vores egen humanitet, forklarer han. Det peger ind mod os selv. I filosofien er det en diskussion, der går tilbage til 1700-tallet og Immanuel Kant.

”Efter renæssancen havde man en opfattelse af, at dyr var en slags maskiner, men Kant mente alligevel ikke, man skulle pine dyrene, fordi det ødelagde det menneskelige i en selv. På samme måde er det humaniteten i os selv, vi har på spil, hvis vi indgår i relationer med robotter, og derfor er vi nødt til at overveje, hvad det er, vi indgår i en relation med. Hvad kan robotten, hvad skal den bruges til, hvad vil den opnå? Derfor har vi brug for regler.”

Her findes der to hensyn at tage, hvis man skal opstille love og regler for robotteknologi. Dels er der robotternes forhold eller ”rettigheder”, hvis man kan tale om det, og dels er der vores rettigheder over for robotten.

”En række af de mest anerkendte forskere på det her felt argumenterer for, at man burde sidestille robotter med de love, der gælder for kæledyr. Det er love, der adskiller sig fra dem, vi har til dyr, der indgår i produktion, og på samme måde burde sociale robotter have nogle særlige regler på grund af det forhold, vi har til dem – ikke af hensyn til dem selv, men af hensyn til vores følelser for robotter,” siger Martin Mose Bentzen og taler videre om den anden del af robotlovene, der angår vores egen sikkerhed.

”Krigsrobotter er allerede en realitet, og her er en del, der mener, at de bør opfattes på linje med biologiske våben og andet forbudt krigsmateriel, men her kommer en anden diskussion på banen om, hvad krig overhovedet er. Siden tidernes morgen har vi, når vi bekrigede hinanden, forsøgt at komme længere og længere væk fra fjenden. Først med spyddet, siden med fly og bomber og nu også med droner og robotter.”

Vil du dø for en højere moral?

– Hvad ville være dit eget bud på regelsæt og love?

”Min forskning har været at lave logiske systemer, der kan aflæses af maskiner, og det er faktisk ikke så lige til. Lige nu kigger jeg meget på de handlinger, der ikke kan aflæses konsekventialistisk – det vil sige på en måde, hvor man udelukkende vurderer konsekvensen af dine handlinger.”

Martin Mose Bentzen eksemplificerer med såkaldte redningsrobotter, som ville kunne blive indsat ved ulykker på havet, ildebrande eller ved eksplosionsfare og den slags.

”Hvis vi taler om redningsrobotter, så er de bare programmeret til at redde så mange som overhovedet muligt. Men det er ikke sikkert, vi altid ønsker det. Hvad hvis man eksempelvis bryder en mands rettigheder for at redde to andres – slår en mand ihjel for at to andre kan leve. Hvordan vil vi kunne opstille regler for det, der er simple nok til, at robotter kan programmeres efter det?” forklarer han og påpeger, at vi allerede har sådan en situation med de selvkørende biler.

”Hvem har ansvaret, hvis nogen bliver kørt ihjel, og hvad vil der ske, hvis der løb et barn ud foran bilen, og den kun kunne undvige ved at køre sig selv og føreren ihjel – hvordan skal man programmere det? Eller hvis to børn løber ud foran den, og den kun kan nå at undvige ét af dem, hvem skal den vælge?”

– Et mindre menneskeligt hjerte vil måske argumentere for, at det er godt, vi kan programmere den slags beslutninger, inden de bliver aktuelle – at vi kan stå med et klart hoved og ud fra nogle logiske præmisser få robotten til at efterleve det bedste i mennesket.

”Ja, men det er heller ikke nødvendigvis et dårligt argument. I nogle situationer må man foretage prioriteringer, der går ud over nogle, for at andre kan komme frem. Men jeg mener, man er langt ude på et skråplan, hvis andres rettigheder krænkes ved robottens handling. Og hvem ville sætte sig ind i en bil, der altid vil redde andre før dig – det er ædelt, men vil du?

– Øh …

”Og så skal man jo huske på, at enhver form for prioritering er baserer på en antagelse, som ikke endegyldigt kan bevises, og som oftest vil bygge på kultur og ideologi. Og hvem skal bestemme de regler – er det brugeren selv, er det politikerne, verdenssamfundet?”

Blade Runner
PR-foto fra Blade Runner

Neuron-robotter

– Hvad med robotternes rettigheder – er der behov for at holde dem i hævd?

”Det vil kun komme i spil i det øjeblik, at man kan argumentere for, at robotterne selv føler og oplever noget, og sådan oplever jeg ikke robotter, som de ser ud i dag. De er ret beset blot siliciumbaserede computere. Derfor er der god grund til at mene, at de ikke føler noget, som vi mennesker gør det, selvom jeg da har mødt flere robotforskere, der har været så ekstreme at mene, at deres robotter følte noget, selvom der jo kun er tale om elektriske signaler. Det hold er jeg ikke på.”

Han holder en pause og korrigerer sig selv.

”På den anden side er der forskere, der er gået i gang med at bygge robotter ud af rotte-neuroner, og så begynder vi at bevæge os ud i en gråzone mellem levende og død.”

– Kan du definere en grænse for, hvornår argumentation og samtale ikke længere bare er matematik? Altså hvor det ikke bare er en logisk opstilling af spørgsmål, kommentarer og svar?

”Man har allerede robotter, der kan opføre sig, som om de har følelser, og som reagerer på og kan aflæse menneskelige følelser. Og man har computere og robotter, der er ret avancerede i deres læringsmodeller. Her er vi igen ude i lidt mudrede vande. Her kan det meget hurtigt komme ud af kontrol, for hvem kan styre, hvad en computer med en meget stærk hukommelse og læringsmodel kommer ud i. Hvem ved, hvad og hvordan den lærer. Her er der brug for nogle regler, og de regler må nødvendigvis baseres på virkelig kompliceret logik og filosofi.«

Død eller levende

 – Hvornår betragter du selv noget som levende?

”En robot har ikke følelser eller bevidsthed. Og selvom man taler om at kunne give robotter en selvbevidsthed, så vil den stadig være simuleret. Det er en idé om, hvad selvbevidsthed er – at man kan genkende sig selv og skille sig selv ud fra andre – vi kan ikke give dem en følelse af ‘selv’. Det er der ingen robotter, der kan have på nuværende tidspunkt, og det vil kræve et paradigmeskifte, hvis det skulle ske, som jeg ser det. Nogle mener, at det blot er et spørgsmål om kompleksitet – at bare du gør en hukommelse kompleks nok, så kommer det, men så enkelt mener jeg ikke, det er.”

– Men kan man overhovedet definere, hvad bevidsthed er?

”Nej, ikke sådan præcist fysisk. Hjerneforskningen udvikler sig naturligvis afsindigt hurtigt i de her år, men man har endnu ikke kunne give svar på, hvad bevidsthed er bortset fra, at man kan se nogle neuroner, så hvis man ser på det strengt naturvidenskabeligt, så er det rigtigt – så er det jo bare fysiske ting.”

– Og så er det vel også ok, at en robot overtager nogle menneskelige roller og får nogle rettigheder?

”Ja, men derfor er det også helt utroligt vigtigt, at vi tager den her debat lige nu. Det er lige nu, vi er i stand til at definere grænser, inden de bliver overtrådt. Vi må tage den på politisk niveau, i Etisk Råd, i medierne, og hvor man ellers kan forestille sig at have disse debatter.”

Og så igen – hvad adskiller os fra robotter?

”Vi er komplekse biologiske organismer – kemisk, hormonelt. Robotter er stadig bare en maskine, der flytter ettere og nuller… Men måske kommer jeg til kort, hvis du sætter mig over for den rigtige, for den neurale kode inden i vores hjerne er jo også bare information, der bliver flyttet rundt.”

Martin Mose Bentzen bliver pludselig stille og holder en pause.

”Og så skal man jo også se på, at jeg med min kulturelle baggrund, min opdragelse og min opvækst har en følelse af, at det skulle være finere eller bedre at være biologisk end mekanisk. På et tidspunkt – når informationerne bliver komplekse nok, og når man kan have samtaler med en robot på lige fod med et menneske, så er spørgsmålet, om man ikke kan føle sig forpligtet til at tilskrive det en personlighed.”

Forsidefoto: PR-Foto fra filmen Ex Machina

Silicon Valley00:00Mexico City00:00New York00:00Sao Paulo00:00Nuuk00:00Bangui00:00Linköping00:00Kyjiv00:00Kabul00:00Mumbai00:00Hong Kong00:00Shanghai00:00Sydney00:00Fransk Polynesien00:00Silicon Valley00:00Mexico City00:00New York00:00Sao Paulo00:00Nuuk00:00Bangui00:00Linköping00:00Kyjiv00:00Kabul00:00Mumbai00:00Hong Kong00:00Shanghai00:00Sydney00:00Fransk Polynesien00:00Silicon Valley00:00Mexico City00:00New York00:00Sao Paulo00:00Nuuk00:00Bangui00:00Linköping00:00Kyjiv00:00Kabul00:00Mumbai00:00Hong Kong00:00Shanghai00:00Sydney00:00Fransk Polynesien00:00Silicon Valley00:00Mexico City00:00New York00:00Sao Paulo00:00Nuuk00:00Bangui00:00Linköping00:00Kyjiv00:00Kabul00:00Mumbai00:00Hong Kong00:00Shanghai00:00Sydney00:00Fransk Polynesien00:00

1

2

3

4

5

6

7

8

9

10

11

12