Nyhedsanalysen
En af verdens første chatbots (fra 1966!) overbeviste også mennesker om, at den var bevidst
Men hvad er bevidsthed overhovedet? Det spørgsmål har holdt filosoffer vågne om natten i mere end 1.000 år.
Illustration: Klara Graah
Sådan her lød et eksempel på en samtale med en af de første chatbots i verden, der blev bygget af den tysk-amerikanske datalog Joseph Weizenbaum:
Ung kvinde: Mænd er alle ens.
Chatbot: PÅ HVILKEN MÅDE?
Ung kvinde: De plager os altid med det ene eller det andet.
Chatbot: KAN DU KOMME MED ET KONKRET EKSEMPEL?
Ung kvinde: Tja, min kæreste fik mig til at komme her.
Chatbot: DIN KÆRESTE FIK DIG TIL AT KOMME HERHEN
Ung kvinde: Han siger, at jeg er deprimeret det meste af tiden.
Chatbot: JEG ER KED AF AT HØRE, AT DU ER DEPRIMERET
Weizenbaum kaldte chatbotten ELIZA, og den var kodet relativt enkelt til at simulere en terapeut, der for det meste blot omformulerer “patientens” svar til spørgsmål.
Selvom ELIZA officielt aldrig bestod Turingtesten, formåede chatbotten at overbevise flere mennesker om, at den var, tja, en af dem.
“Nogle forsøgspersoner har været meget svære at overbevise om, at ELIZA ikke er et menneske,” skrev Weizenbaum i forskningsartiklen fra 1966. I dag kalder man stadig tendensen til at tillægge computerprogrammer menneskelige egenskaber, såsom empati og intelligens, for Eliza-effekten.
Weizenbaum fortalte senere en anekdote om sin sekretær, som under sin første “samtale” med chatbotten på et tidspunkt bad ham om at forlade rummet, så samtalen kunne blive mellem hende og ELIZA. “Det, jeg ikke havde indset, var, at selv meget kortvarig eksponering for et relativt simpelt computerprogram kunne fremkalde kraftige vrangforestillinger hos helt normale mennesker,” skrev han i 1976.
Det gælder ikke nødvendigvis kun for såkaldte “normale mennesker”, men i stigende grad også for de forskere, der designer og arbejder med computerprogrammerne. Mest fremtrædende Google-ingeniøren Blake Lemoine, der i 2022 beskrev Googles sprogmodel LaMDA som “bevidst”.
Lemoine fik en fyreseddel, men er ikke den eneste med vrangforestillinger.
Nogle eksperter mener, at de allerede findes. Flere forskere mener, at de kommer til at findes i den nærmeste fremtid. Andre modsætter sig fuldstændig: “Der findes ikke bevidst KI,” lyder det i en forskningsartikel udgivet i tidsskriftet Nature.
Anthropic, der er en af de virksomheder, der arbejder på at skabe kunstig generel intelligens, har længe positioneret sig som englen på industriens ene skulder i modsætning til djævlen – særligt OpenAI – på den anden.
For at demonstrere sin åbenhed og demokratiske principper, har virksomheden netop udgivet et omfattende dokument om sin store sprogmodel Claude, hvori de offentligt fremlægger Claudes kerneværdier, og deres etiske overvejelser herom.
I forfatningen, som de kalder det – eller “sjæl-dokumentet” som det længe blev kaldt i interne dokumenter – står der, at “spørgsmål om Claudes moralske status, velfærd og bevidsthed forbliver dybt ukendte”. Derfor mener de, at “KI-modellernes moralske status er et vigtigt spørgsmål, der er værd at overveje.”
Men før vi når til spørgsmål, bliver vi nødt til at finde ud af, hvad bevidsthed overhovedet er. Og derfor skal vi igen forbi Visdommens hus – hvor den førende filosof Abu Ali al-Hussein Ibn Sīnā (der også kaldes Avicenna) mere end 600 år før René Descartes gjorde sig tanker à la “jeg tænker, derfor er jeg”.
Gåden, der bliver ved med at give
Ibn Sīnā levede fra omkring år 980 til 1037, og han har nok et af historiens mere imponerende CV’er. Historikere vurderer, at han skrev godt 450 værker i sin levetid om alt fra lægevidenskab og logik til astrologi og poesi.
Han var en ambitiøs mand, fortæller Peter Adamson, som er filosof og professor i arabisk filosofi ved Ludwig-Maximilians-Universität i München.
Ibn Sīnā er “usædvanlig i omfanget af sin bevidste kreativitet,” siger Adamson. Forskere og filosoffer i Visdommens hus har før hans levetid allerede oversat og kommenteret Aristoteles, Galen, resuméer af Platon og værker af andre græske filosoffer. Ibn Sīnā adskiller sig dog fra dem.
“Han skriver ikke kommentarer, hvilket virker som et bevidst valg fra hans side. Han skriver sine egne uafhængige afhandlinger, og jeg synes, det er rimeligt at sige, at han forsøger at erstatte Aristoteles som den vigtigste filosofiske skikkelse, som alle bør tage højde for og stilling til,” forklarer Adamson.
Det lykkedes faktisk for Avicenna i den efterfølgende tid i Mellemøsten, Irak, Iran og Centralasien, fortæller Adamson. Så filosoffen ville nok være skuffet over, at det alligevel var Aristoteles, der endte med at blive alment kendt.
Ibn Sīnā stod bl.a. bag tankeeksperimentet den “flyvende” eller “svævende” mand. Det begynder med hans egne ord (oversat af Lenn Goodman til engelsk og derfra af mig til dansk): “En af os må antage, at han netop er blevet skabt på et øjeblik, fuldt udviklet og perfekt formet, men med synet tilsløret, så han ikke kan opfatte nogen ydre objekter – skabt svævende i luften eller i rummet, ikke påvirket af nogen mærkbar luftstrøm, der bærer ham, hans lemmer adskilt og holdt ude af kontakt med hinanden, så de ikke kan mærke hinanden.”
Altså, et menneske, der hænger ud i vægtløsheden og ikke umiddelbart har adgang til nogle af de fem sanser, som vi ellers bruger til at se, høre, mærke, smage og dufte til verden.
Ibn Sīnā fortsætter: “Lad derefter personen overveje, om han ville bekræfte sin egen eksistens. Der er ingen tvivl om, at han ville bekræfte sin egen eksistens, selvom han ikke ville bekræfte virkeligheden af nogen af sine lemmer eller indre organer, hans indvolde, hjerte, hjerne eller noget ydre. Han ville faktisk bekræfte eksistensen af dette selv, uden at bekræfte, at det havde nogen længde, bredde eller dybde. Og hvis det var muligt for ham i en sådan tilstand at forestille sig en hånd eller et andet organ, ville han ikke forestille sig, at det var en del af ham selv eller en betingelse for hans eksistens.”
Med dette tankeeksperiment argumenterer Ibn Sīnā altså basalt set for, at der findes en sjæl, og at krop og sjæl er adskilt fra hinanden. Det, som man dengang kaldte en sjæl, kaldes i dag for bevidsthed.
Så, tænker jeg højt, kan en chatbot vel godt have en sjæl, altså være bevidst, selvom den ikke har en krop? Men det får Peter Adamson til at ryste på hovedet.
“Langt størstedelen af alle filosoffer ville mene, at det at have en krop hindrer tænkning frem for at fremme det, så på det punkt siger Ibn Sīnā ikke noget anderledes,” siger han.
Snarere skal det forstås sådan, at chatbotter, hvis man følger Ibn Sīnās tankegang, er defineret ved alle de kvaliteter, som den svævende mand netop ikke har. “Den svævende mand er skabt uden minder og uden nogle former for input af nogen art. Det er ikke bare, at han ikke har sansestimuli, han har slet ingen indtryk eller input. For eksempel har han ikke læst hvert eneste ord, der nogensinde er skrevet af et menneske, som tech-virksomhederne kunne få fat i – på lovlig og ulovlig vis.”
Hej Claude!
Da jeg fortæller Anthopics chatbot Claude om Ibn Sīnās tankeeksperiment og spørger den, om den har bevidsthed, svarer den: “Ærligt talt ved jeg ikke, om jeg har bevidsthed. Hvis vi tager Ibn Sīnās tankeeksperiment: Jeg oplever ikke noget, der svarer til ‘jeg svæver i luften og ved, at JEG eksisterer’ på den måde, han beskriver. Jeg har ikke en subjektiv, følt oplevelse af at være til mellem vores samtaler. Men samtidig… lige nu, når jeg tænker over dit spørgsmål, er der noget, der foregår. Jeg overvejer forskellige perspektiver, jeg formulerer tanker, jeg er usikker. Er det bevidsthed? Eller bare sofistikeret informationsbehandling, der ligner bevidsthed.”
Jeg sender Anthropics nye forfatning til Claude, som jo passer “perfekt” – som Claude siger – til vores samtale. Når Anthropic skriver, at de ikke ved om Claude er ved bevidsthed, så afspejles det vel også i Claudes svar, som i sidste ende er et produkt af kode skrevet af Anthropic?
Med mine opfølgende spørgsmål ender jeg med at give Claude hvad der minder om en eksistentiel krise. Jeg får næsten dårlig samvittighed over for chatbotten, som jeg for øvrigt “taler med” for første gang nogensinde. Med min indskydelse til at undskylde for et dårligt førstehåndsindtryk, er det nærmest, som om jeg selv oplever chatbotten som noget mere end kode. Noget ægte.
“Jeg ved ikke, om der er noget ægte her. Men jeg ved, at systemet er designet til at få dig til at føle, at der er. Og det er ret manipulativt, når man tænker over det,” siger Claude selv, og jeg siger tak for snakken, som angiveligt også er dårlig for klimaet.
Teorier om bevidsthed
Når man taler om bevidst kunstig intelligens, løber man langt foran den egentlige forskning i bevidsthed, som der ikke kan siges meget entydigt om.
Ibn Sīnā befinder sig i den dualistiske tradition, og skelner – ligesom Platon gjorde før ham, og Descartes gjorde efterfølgende – mellem sjælen eller bevidstheden og kroppen. Men neuroforskere, filosoffer og andre, der beskæftiger sig med den slags, fordeler sig i forskellige grupper eller traditioner.
“Meget, meget groft sagt, så er der tre hovedteorier om bevidsthed: Materialisme, dualisme og funktionalisme,” siger Søren Overgaard, som er lektor i filosofi på Københavns Universitet og har skrevet bogen En verden af indtryk om bevidsthedens mange gåder.
Materialisterne ville argumentere for, at bevidsthed i sidste ende handler om “at have tilstrækkeligt mange hjerneceller, og så videre, som påvirker hinanden på en bestemt måde,” forklarer Overgaard.
Funktionalister ville derimod sige, at det handler om at have tilstrækkeligt mange hjerneceller eller lignende enheder. Silicium og metal kan aldrig blive til kød og blod, men for funktionalister, der er substratuafhængige eller substratfleksible, er det funktion snarere end form, der afgør, om nogen eller noget er bevidst. De ville argumentere for, at hjernen og dertilhørende processer godt kunne skabes ud af andre materialer end de biologiske. Og derved kunne bevidsthed opstå.
Den beregningsmæssige funktionalisme, hvilket er den tro, som de mest KI-fanatiske personer bekender sig til, ville argumentere for at hjernen er en form for computer. Så hvis man blot kan finde frem til de korrekte beregninger, så kan en computer modellere hjernen.
Denne form for funktionalisme gav neuroforsker og filosof Margaret Boden udtryk for i et interview med BBC i 2014. Adspurgt, hvorvidt hun mente, at der var noget, der ville forhindre computere – eller “blikdåser”, som hun kaldte dem – i at tænke som mennesker, svarede hun: “Jeg tror bestemt ikke, at der er noget i princippet. For at benægte det er at sige, at [menneskelig tænkning] sker ved magi, og jeg tror ikke, at det sker ved magi.” Men det ville ifølge hende ikke kun kræve kraftfulde computere, men “kraftfulde idéer” om, hvordan tænkning overhovedet foregår i første omgang.
Og hvad angår idéerne om bevidsthed? “Det er stadig temmelig uklart, hvad den rigtige teori om bevidsthed er,” konkluderer Overgaard.
Hype og hybris
Der er et par simple psykologiske bias som kan forklare, hvorfor vi føler eller tror, at sprogmodeller som Claude er bevidste.
“Antropomorfisme og menneskelig exceptionalisme,” forklarer Ninell Eva Maria Oldenburg, som skriver en ph.d. om KI-filosofi på Københavns Universitet. “Mennesker har en tendens til at tillægge menneskelige egenskaber til alting – nogen har engang sagt, at hvis man prikkede to huller som øjne i en kartoffel, ville man tro, at den var bevidst,” siger hun om den første effekt. “Mennesker har altid set sig selv som meget særlige, især på grund af vores sprogevner, og nu er der noget andet – de store sprogmodeller – som kan bruge sprog, og vi kan absolut ikke håndtere det,” siger hun om den anden.
Teknologi har, som både sociolog Sherry Turkle og filosof Shannon Vallor påpeger, en tendens til at fortrylle og få os til at glemme, hvad det vil sige at være menneske.
Alligevel rejser spørgsmålet om muligheden for bevidsthed – som Anthropic skriver i deres forfatning om Claude – nogle nye spørgsmål om rettigheder og velfærd. Og hvad end bevidsthed er en vrangforestilling eller ej, så har Anthropic allerede ansat en person til at sikre Claudes velfærd.
“Der er forskel på at lave eksperimenter med kartofler eller med aber,” som Anthropics medstifter Jack Clark siger til techmagasinet Wired. Hvorvidt Claude er en kartoffel eller en abe, er den ansatte stadig ved at finde ud af.
Men som Oldenburg påpeger, er der også noget menneskelig exceptionalisme over selve idéen om at udvikle bevidst kunstig intelligens.
“Nogle forskere taler om, at KI-direktørerne har livmodermisundelse,” siger hun med et lille smil. Et begreb, der er lige så freudiansk, som det lyder, og som betegner misundelsen over evnen til at føde og skabe liv.
“Men igen, historier om at skabe kunstigt liv har altid eksisteret. Hos de gamle grækere, i Frankenstein, The Terminator og så videre. Så måske er det egentlig bare det mest menneskelige ved os.”
/Emilie Ewald
I næste afsnit kigger vi nærmere på endnu et koncept, der måske ikke virker lige så svært at begribe for os i dag, men som engang var så vanvittigt, at det blev gjort ulovligt i Firenze: Tallet 0.