Nyhedsanalyse
Skyldsformodning
Kan kunstig intelligens forudsige og forebygge mord? Og skal den det?

Britisk politi ved en demonstration i sommer. Hollie Adams/Reuters/Ritzau Scanpix
Man er uskyldig, indtil det modsatte er bevist; det er et retsprincip og en grundlæggende rettighed i EU’s charter. Så kan man være skyldig, før man overhovedet har begået forbrydelsen?
I filmen Minority Report, instrueret af Steven Spielberg, er en yngre Tom Cruise ansvarlig for at fange mordere, før de slår ihjel. Sci-fi-filmen fra 2002 var derfor den mest oplagte reference, da den britiske organisation Statewatch tidligere på måneden afslørede, at Storbritanniens regering er i gang med at udvikle et værktøj, der kan identificere de mennesker, der med størst sandsynlighed vil myrde et andet menneske.
Projektet, som er et samarbejde mellem Justitsministeriet, Indenrigsministeriet og politiet i henholdsvis Manchester og London, blev ifølge Statewatch igangsat, mens Rishi Sunak var premierminister. Gennem adskillige aktindsigter har organisationen fundet frem til, at der er blevet delt data om mellem 100.000 og 500.000 mennesker, inklusive information om mistænkte, ofre, vidner og savnede personer. Det inkluderer blandt andet såkaldte “sundhedsmarkører”, der “forventes at have en betydelig forudsigelseskraft”, herunder data om personers mentale sundhed, afhængighed, selvskade, selvmord, sårbarhed og handicap.
“At bygge et automatiseret værktøj til at profilere folk som voldelige forbrydere er dybt forkert, og at bruge så følsomme data om mental sundhed, afhængighed og handicap er meget indgribende og alarmerende,” udtaler forsker ved Statewatch Sofia Lyall, der kalder projektet for “dystopisk”.
“Disse systemer er hverken afslørende eller objektive. De udsætter blot allerede marginaliserede grupper for yderligere diskrimination. De er slet ikke forudsigende, de er forudsigelige – og farlige,” skriver Ilyas Nagdee, der er talsperson for Amnesty i en kommentar til The Guardian.
Såkaldt predictive policing er en del af politi- og efterforskningsarbejdet i flere lande. Amnesty International udgav tidligere på året en rapport, der konkluderede, at Storbritanniens politis nuværende brug af algoritmer og data til at forudsige kriminalitet er diskriminerende over for fattige personer og etniske minoriteter. Dystopien er dermed mere påtrængende for marginaliserede grupper, herunder flygtninge og migranter ved de europæiske grænser.
Fejlbarlige algoritmer
Efter et tragisk drab diskuteres politiets brug af algoritmer også i Spanien.
I januar anmeldte en 48-årig spansk kvinde sin ekspartner. Politiet brugte systemet VioGén, der gennem en guidet afhøring og 35 faste spørgsmål vurderer risikoen ved situationen. Et system, der bruges, når kvinder i Spanien anmelder partnervold. Kvinden blev vurderet til at befinde sig i “medium fare”, hvilket betød, at politiet ville følge op på hendes sag en måned derefter. Domstolen afviste hendes anmodning om polititilhold. Tre uger senere døde hun. Hendes ekspartner og faren til hendes tre børn havde angiveligt låst sig ind i hendes lejlighed og påsat en brand.
“Det her er en sag, der viser alt det bedste – og alt det værste – ved kunstig intelligens,” siger professor i dataetik ved Aalborg Universitet Thomas Ploug til DR som reaktion på sagen. “Det fantastiske er, at algoritmen kan hjælpe en overbebyrdet efterforsker. Det problematiske er, at systemerne ikke er perfekte – og det bliver de aldrig.”
I Nederlandene kostede et, pænt sagt, uperfekt system den siddende regering magten i 2021. Flere år forinden udviklede den nederlandske regering det såkaldte Syri-system, som landets kommuner kunne bruge til at finde tegn på socialt bedrageri. Skandalen, den såkaldte toeslagenaffaire, bestod i, at systemets hemmelige algoritmer medførte, at myndighederne straffede familier på grund af mistanke om svindel. Det gik ud over titusindvis af uskyldige familier, ofte med lavere indkomster eller tilhørende etniske minoriteter.
Som FN-observatøren Philip Alston skrev i et brev den 26. september 2019 til den domstol i Haag, der behandlede sagen: “Hele nabolag er sat under mistanke og gjort til genstand for særlig granskning, hvilket er den digitale parallel til, at svindelefterforskere i visse områder banker på samtlige døre og gennemsøger alles oplysninger i et forsøg på at opspore bedrageri, mens folk i bedre stillede områder er fritaget for den slags.
EU’s forordning om kunstig intelligens, der trådte i kraft i februar, forbyder sådan set predictive policing, men ifølge Politico er der store smuthuller for både politi og migrationsmyndigheder. “Man kan endda sætte spørgsmålstegn ved, om man virkelig kan tale om et forbud, hvis der er så mange undtagelser,” siger Nathalie Smuha, som forsker i KI-etik ved Katholieke Universiteit Leuven i Belgien, til det europæiske medie.
Bogen The Dream Hotel af Laila Lalami, der udkom i marts måned, foregår årtier ude i fremtiden. Her vurderer en algoritme, at Sara Hussein, der netop er landet i lufthavnen LAX, snart vil begå en forbrydelse.
Samfundet har accepteret dette sikkerhedssystem, fordi det tilsyneladende har mindsket terrorisme. Det er blandt andet data i form af hendes udisciplinerede drømme, der fører hende ind i det foucauldianske, kafkaske mareridt af en facilitet, hvor hun – og de andre indsatte – skal forsøge at bevise deres uskyld i forbrydelser, som de endnu ikke har begået.
Som Lalami skriver: Data lyver ikke, men de fortæller heller ikke sandheden. /Emilie Ewald