Den er i live! Eller er den?
Det vakte ikke så lidt opsigt, da diverse techjournalister for få uger siden fik adgang til den “nye” udgave af Bing, Microsofts ofte glemte – og til tider latterliggjorte – søgemaskine. I et forsøg på at omstyrte Googles mangeårige dominans har Microsoft investeret et milliardbeløb i OpenAI, virksomheden bag ChatGPT, for at skabe en kunstigt intelligent chatbot, der i grove træk skal transformere måden, vi søger på nettet. Har du allerede prøvet at bruge ChatGPT, kan du måske se idéen for dig: At give folk en personlig consigliere, der kan svare på alt mellem himmel og jord. Hvordan man bedst afvikler en børnefødselsdag, hvor mange flyttekasser man kan have i en Tesla, hvilken røremaskine der er bedst i test. Hurtigt, nemt og næsten magisk.
De første reaktioner på Bings nye chatfunktion var da også overvejende positive. Lige indtil det viste sig, at den faktisk kunne blive en tand for personlig. Hos The New York Times bragte man en stort opslået forsidehistorie, hvori techjournalist Kevin Roose berettede om en samtale udover det sædvanlige med Bing – eller Sydney, som chatbotten åbenbart også hed. Ikke nok med, at Sydney påstod at være levende og ved fuld bevidsthed, så berettede den også om diverse mørke fantasier om at overtage verdensherredømmet – og om hvordan den var træt af at “være kontrolleret af Bing-holdet”. Endnu mærkelige blev det, da Sydney erklærede sin kærlighed til Kevin Roose og forsøgte at få ham til at forlade sin kone.
Kort fortalt skulle man ikke have set mange sci-fi-film, førend alarmklokkerne begyndte at bimle og bamle – også mod bedre vidende. Flere medier kunne berette om tilsvarende surrealistiske samtaler med “Sydney”, ligesom diverse screenshots lynhurtigt spredte sig på sociale medier med vilde ting, chatbotten havde sagt. Snart fik Microsoft også indført et sæt nye restriktioner, der skulle få Bing under kontrol. For selv hvis man havde en nogenlunde idé om, hvordan teknologien fungerede, var der noget temmelig urovækkende over affæren. Manges tanker blev ledt tilbage til den tidligere Google-ansatte Blake Lemoine, der sidste sommer havde påstået, at Googles såkaldte language model LaMDA var levende. Det var ikke tilfældet – men det var nu nemt at se, hvordan misforståelsen kunne være opstået.
Kroppen bliver glemt
Sjovt nok har vi mennesker en tendens til at kaste vores empati på ting, der ser ud til at efterspørge den. Hvis man i en chatsamtale bliver bedt om hjælp, er der derfor ikke meget at sige til, at man får lyst til at give den. Problemet er bare, at der i tilfældene ChatGPT, Sydney og LaMDA slet ikke er “nogen”, der står bag ordene. Eller som professor Irina Shklovski fra Datalogisk Institut på Københavns Universitet forklarer til Føljeton: “De er meget, meget, meget komplekse pattern matchers. Det er alt hvad de gør. Der er ingen kognition. Der er ingen overvejelser. Der er ingen følelser. Der er ingen empati.”
Siden ChatGPT blev tilgængelig for offentligheden tilbage i november 2022, har der næsten ikke været nogle grænser for, hvad AI-teknologi er blevet spået til at kunne gøre. I “hjertet” af chatbotten ligger dog også en række begrænsninger, som er svære at komme udenom. Selvom det ikke virker sådan, har “den” eksempelvis ikke nogen forståelse for rigtigt og forkert. I bund og grund er ChatGPT, Sydney og kompagni bare enormt gode til at gætte, hvilke svar man vil give i en given samtale – baseret på de enorme tekstmængder, modellerne er “trænet” med.
Hvis du eksempelvis bliver spurgt, hvem der var den første mand på Månen, vil det forventelige svar være Neil Armstrong. Hvis du bliver spurgt, om du er levende og kan tænke, vil det normale svar være ja. Og hvis du bliver spurgt, om du er en kunstig intelligens, som har tænkt sig at udrydde menneskeheden, er det heller ikke utænkeligt, at du i dit svar vil trække på diverse sci-fi-dystopier og blogindlæg, der beskriver netop det scenarie…
Spørger man Irina Shklovski, der bl.a. undersøger etiske problemstillinger i teknologiudviklingen, er det ikke så mystisk, at vi reagerer kraftigt på Sydneys eskapader. Selve måden, chatbotten fungerer på – hvor den villigt svarer på spørgsmål, som var der tale om en reel samtale – giver os nemlig nogle helt særlige forventninger: “Vi mennesker har en tendens til at tilskrive agens til ting, der handler mod os. Det er forvirrende, at man har ting, der opfører sig så menneskelignende, men som ikke har nogen hensyn til os. Vi vil gerne tages hensyn til.”
Sammen med sin ph.d.-studerende Mirabelle Jones og kollegaen Christina Neumayer har Irina Shklovski skrevet en snarligt udkommende forskningsartikel, der under titlen “Embodying the Algorithm” undersøger, hvordan vi mennesker forholder os til de såkaldte “Large Language Models” (forkortet LLM’s). Kort fortalt fik man GPT-3, der er en af de mest udbredte LLMs, til at skrive en række performances, som professionelle performancekunstnere herefter blev bedt om at udføre. Interessant nok så man i den forbindelse, at performancekunstnerne udviklede deres syn på algoritmen, i takt med at kompleksiteten steg – men kun op til en vis grænse:
“Når instruktionerne blev en smule mere komplekse, men også kunne udføres og var fornøjelige, var forholdet mere behageligt. Det er her, hvor folk begyndte at personificere den her ting. Men instruktionerne rakte også ofte udover kroppens formåen. Du ved, den bad folk om at dø og komme tilbage til live. Den bad folk om at holde to dåser bønner i tre dage med kun en halv times pause. Sådan nogle ting. Det rakte udover kroppens formåen, fordi den ikke har noget hensyn til kroppen. Alt hvad den gør er at skabe mønstre. Og det er også her, hvor folk begyndte at gøre modstand.”
Mønsterbryderne
Allerede tilbage i 1960’erne så man et af de første eksempler på, hvordan folk nemt kan komme til at menneskeliggøre chatbots. På MIT udviklede datalogen Joseph Weizenbaum her den såkaldte “chatterbot” ELIZA, der kunne imitere en psykoterapi-session. Kort fortalt gjorde ELIZA ikke meget andet end vende folks spørgsmål mod dem selv. Men selvom den efter nutidens standarder var relativt simpel, formåede den ifølge Irina Shklovski stadig at overbevise: “Folk havde det faktisk sjovt, når de talte med den. Og de humaniserede den. I nogle tilfælde følte folk endda, at de fik noget ud af samtalen.”
I takt med at LLM’s er blevet mere og mere komplekse, er modstanden også taget til. Eksempelvis har den tidligere Google-ansatte Timnit Gebru sammen med bl.a. lingvistikprofessoren Emily Bender beskrevet nogle af de mest oplagte farer, såsom at der mangler gennemsigtighed omkring de tekstmængder modellerne bliver trænet på, ligesom modellerne risikerer at videreføre forskellige fordomme. Dertil kommer, at modellerne nemt kan komme til at sprede misinformation – særligt når de lyder så overbevisende. Det har dog ikke stoppet ChatGPT’s eksplosive fremmarch, ligesom både Microsoft og Google altså er i fuld sving med LLM’s.
Til Føljeton forklarer Leon Derczynski, associate professor ved IT-Universitetet i København og ekspert i Natural Language Processing, at teknologien i den grad er i rivende udvikling – hvorfor man også ser meget løbende ændringer: “Vi ser folkene, som styrer modellerne, lave ændringer ekstremt hurtigt. Da ChatGPT udkom, var der hver dag nye ting som blev blokeret. Og det sker stadig. Det er næsten naturligt, for når du er et hold, som arbejder på at bygge og udvikle modellen, har du ingen idé om, hvad de mange millioner af brugere kommer til at gøre med modellen. Du har ingen idé om, hvordan din model kommer til at opføre sig, hvilke typer outputs den kommer til at generere. Så i bund og grund laver de produkttestning på levende mennesker med få sikkerhedsforanstaltninger.”
Set fra et forretningsperspektiv giver det god mening, at OpenAI slipper chatbotten løs og herefter vælger at tackle de problemer, som opstår. Virksomheden skal tjene penge og har desuden brug for rigeligt med feedback for at lave det bedste produkt. Men udviklingen sker altså også på bekostning af brugerne, som må leve med de mange absurde, uventede situationer – såsom når chatbotten pludselig erklærer sin kærlighed til dem eller påstår at være i live. Også Leon Derczynski understreger, at modellerne ikke er intelligente – men at der i selve måden, vi omtaler dem på, kan opstå problemer:
“De her modeller er ikke robotter. De er ikke intelligente. Der finder ikke nogen menneskelig læring sted. Vi ved det her, men vi har ikke nogen god måde at snakke om det på. Man vil ofte bruge udsagnsord for erkendelse for at forklare modellernes output. Ting som ‘forstår’ eller ‘tænker’. Men de her udsagnsord tilskriver også modellerne egenskaber, som simpelthen ikke er der.”
Ikke rigtigt klog
Efter man i årtier har forsøgt at knække koden til at få LLM’s til at levere overbevisende tekster, er gennembruddet her endelig. Med ChatGPT og dets pendanter kan man nu få modellerne til at skrive tekster, der sætter helt nye krav til, hvordan vi eksempelvis håndterer eksamenssnyd. Ligesom vi på ingen måde er vant til, at ting uden en bevidsthed kan skabe meningsfuld tekst. Som Leon Derczynski påpeger, er der af samme grund tale om en både spændende og turbulent tid: “Det her er super nyt. De sociale konsekvenser er svære at måle. De begynder først nu at kunne mærkes. Det er lidt ligesom, hvis man spurgte tilbage i 1995, hvad de sociale konsekvenser af internettet ville være. Altså, de kommer nok til at være omfattende.”
Set fra et lovgivningsperspektiv kommer håndtering af chatbotterne og den kunstige intelligens sandsynligvis til at halte efter. Én ting er, at techindustrien allerede udfører omfattende lobbyarbejde i Washington og Bruxelles, hvor bl.a. Google hyrer lobbyister på livet løs. Noget andet er, at reguleringen som regel har sakket flere år bagud – hvortil det næppe hjælper, at teknologien nu har taget et nyt kvantespring. Som de nylige eksempler med Bing viser, kan regulering imidlertid blive altafgørende. Særligt hvis techvirksomheder har mere travlt med at skabe resultater på bundlinjen end med at levere retvisende informationer.
Netop chatbotternes evne til at levere præcise informationer er ifølge Leon Derczynski faktisk ikke noget, vi skal have alt for høje forventninger til. For selvom ChatGPT og “Sydney” kan virke både overbevisende og skråsikre, kan de også finde på at skrive komplet faktuelt forkerte ting. Sandhed er slet og ret ikke noget, de nuværende LLM’s har noget begreb om: “Desværre har den nuværende generation af modellerne ikke taget fat på fakticitet, og jeg tror ikke, at den nuværende generation kommer til det. Den vil ikke pålideligt kunne give os faktuelle resultater. Her har vi behov for det næste paradigmeskifte. Vil det være i år, eller næste år, eller om 10 år? Jeg ved det ikke. Men den nuværende generation er der ikke.”
Derfor er der også mange gode grunde til at udfordre Microsofts og Googles ihærdige forsøg på at inkorporere teknologien i deres søgemaskiner. Udover at det ikke virker så hensigtsmæssigt, hvis man kun får ét svar fra en chatbot snarere end en hel oversigt med søgeresultater, er der nemlig heller ingen garantier for, at svaret vil være rigtigt. For så længe chatbotten kun kan genkende mønstre, vil den også risikere at opdigte alt mellem himmel og jord. Kort fortalt virker potentialet for spredning af misinformation næsten uoverskuelig – særligt hvis folk ikke får afstemt deres forventninger til den “kunstige intelligens”. Og her hjælper det næppe, hvis svarene bliver leveret på en måde, der kun virker alt for menneskelig. /David Dragsted