Alarmismen over kunstig intelligens kan antage mange former. En af de mere interessante kom den amerikanske filosof Daniel Dennett med, kort før han døde tidligere i år. Det vil sige: Dennetts grundfrygt for, at KI-teknologi vil skabe hidtil uhørte mængder misinformation, er måske ikke så opsigtsvækkende. Det er til gengæld den relativt elegante måde, bevidsthedsfilosoffen pakkede panikken ind på.
Som Dennett sidste år forklarede i et essay i The Atlantic – og sidenhen udfoldede i sin sidste bog, I’ve Been Thinking – er det særligt bekymrende ved KI’en, at den gør det muligt at skabe “forfalskede mennesker”, altså det, der også kaldes deepfakes. Disse er for Dennett at se “de farligste artefakter i menneskets historie, i stand til at ødelægge ikke bare økonomier, men selve den menneskelige frihed”. Årsagen er relativt simpel: Vi mennesker er fundamentalt og evolutionært set nogle godtroende idioter (vores ord, ikke filosoffens), der meget nemt kan snydes, hvis noget taler til os, som var det et menneske. Og det er et problem, da vi med de forfalskede menneskers fremmarch ikke længere vil kunne stole på selve vores virkelighed. Eller som Dennett udtrykte det i et interview med BBC:
“Vi vil ikke vide, hvad vi ved, og vi vil ikke vide, hvem vi kan stole på, og vi vil ikke vide, om vi er informeret eller misinformeret. Vi kan blive enten paranoide og hyperskeptiske eller bare apatiske og uberørte. Begge dele er meget farlige veje. Og vi står ved dem nu”.
De forfalskede mennesker vil kort sagt udfordre mange af de grundpiller, vores samfund hviler på. For hvis vi ikke kan vide os sikre på, om det er en digital repræsentation eller et vaskeægte menneske, vi ser foran os; hvis vi pludselig føler, at alt kan være falsk, ja, så skal vi gentænke hele den måde, vi forholder os til folks udsagn og erfaringer på – for slet ikke at tale om diverse stykker “social infrastruktur” såsom kontrakter og vores forståelse af ansvar og konsekvens. Dertil kommer, at situationen hele tiden vil blive forværret, da de KI-teknologier, der naturligt vil vinde frem, også vil være dem, der bedst kan manipulere os. De kedeligste og mindst opmærksomhedsgribende vil slet og ret blive sorteret fra i en slags “naturlig selektion af software”.
Tager man Daniel Dennett på ordet, virker hele situationen temmelig bekymrende. Men den gode nyhed er vel, at meget af den KI, vi lige nu har til rådighed, stadig ikke virker helt færdigbagt. Eksempelvis bakser Google stadig med at få sin KI-søgetjeneste til at lade være med at sige til folk, at de skal putte lim på deres pizza. Og i den forstand er spørgsmålet vel egentlig også, om ikke det i lige så høj grad er vores egne pizzahungrende impulser, vi skal være nervøse for – og hvordan vi handler, når først vi er blevet bombarderet med mere eller mindre bizar information på vores skærme.
Tidligere på ugen opdaterede Sundhedsstyrelsen sine anbefalinger, så personer over 18 år nu rådes til maksimalt at have tre timers skærmtid om dagen uden for arbejdstiden. For som Niels Sandø Petersen, chef for Forebyggelse og ulighed i Sundhedsstyrelsen, forklarer:
“Hvis vi bliver opslugt af skærmen og bruger 3, 4, 5 eller 6 timer om dagen på den, så siger det sig selv, at det går ud over alt det andet, som er vigtigt.”
Hvad alt det andet, som er vigtigt, så består i, er vist op til mere fri fortolkning. Måske kunne man eksempelvis bruge tiden på at læse noget Daniel Dennett. Ja, eller på at finde sig selv. For når vi ifølge sundhedsmyndighederne end ikke må gennemføre timelange bingesessioner på Netflix eller doomscrolle til den lyse nat, er der vel ikke mange uforfalskede glæder tilbage derude. Man kan jo ligefrem blive tvunget til at tænke over, hvilken virkelighed man helst vil være med til at skabe. /David Dragsted, chefredaktør