Ansvarsfraskrivelse og kunstig intelligens — i Gaza og herhjemme
“AI”, eller rettere sagt chatbots bygget på store sprogmodeller, kan ikke erstatte dit job — eller nogens, for den sags skyld. Trods hypen kan den nye teknologi ikke revolutionere vores samfund — i hvert fald ikke på nogen god måde.
Det, der foregår i Gaza i disse dage, er et rendyrket folkemord. Mange medier tør ikke skrive det, men The Guardian er for ikke så længe siden begyndt at tillade ordet i deres spalter.
Den israelske menneskeretsorganisation B'TSelem siger det dog temmelig klart, i en 88 sider lang rapport, hvor det bl.a. hedder:
An examination of Israel's policy in the Gaza Strip and its horrific outcomes, together with statements by senior Israeli politicians and military commanders about the goals of the attack, leads to the unequivocal conclusion that Israel is taking coordinated action to intentionally destroy Palestinian society in the Gaza Strip. In other words: Israel is committing genocide against Palestinians in the Gaza Strip.
Og B'TSelem er ikke de eneste — den ligeledes israelske Physicians for Human Rights når en lignende konklusion i deres egen rapport:
PHRI concludes that these acts are not incidental to war, but rather part of a deliberate policy targeting Palestinians as a group. They fulfill at least three core acts defined in Article II of the Genocide Convention: (a) killing members of the group; (b) causing serious bodily or mental harm to members of the group; and © deliberately inflicting on the group conditions of life calculated to bring about its destruction in whole or in part.
Et vigtigt element i de tidlige faser af dette folkemord var to specialudviklede, AI-baserede systemer ved navn Lavender og Where's Daddy.
Det er den israelsk-palæstinensiske publikation 972 Magazine, der har afsløret disse systemers eksistens. Som de forklarer det, er Lavender et system, der bruger AI til at generere lister af folk, der måske er aktive i Hamas. Listerne genereres ud fra efterretnings- og folkeregisteroplysninger, og systemets output er en dødsliste:
The Lavender machine joins another AI system, “The Gospel,” about which information was revealed in a previous investigation by +972 and Local Call in November 2023, as well as in the Israeli military’s own publications. A fundamental difference between the two systems is in the definition of the target: whereas The Gospel marks buildings and structures that the army claims militants operate from, Lavender marks people — and puts them on a kill list.
Where's Daddy er tilsvarende et system, der bl.a. gennem overvågning af WhatsApp-aktivitet fortæller, om personerne på denne dødsliste er hjemme hos deres familie eller ej. Hvis personen er hjemme hos familien anses der for at være “fri bane”, og et fly kan sendes afsted for at smide en bombe i den etage-ejendom, det mistænkte Hamas-medlem bor i.
Ifølge 972 Magazines kilder er der kun helt minimal menneskelig kontrol med disse lister, og mange kommer — helt bortset fra de etiske problemer ved at dræbe sagesløse familiemedlemmer og naboer til en mistænkt terrorist — på listen ved en ren og skær fejltagelse.
Og det er her, min pointe om hvad AI kan bruges til kommer ind. En person, der bliver myrdet efter at være kommet på listen ved en fejltagelse, bliver jo ikke myrdet af nogen. Det var systemet, der udpegede et forkert “mål”. Den kunstige intelligens har talt, og problemet ligger hverken hos den bombepilot, der trykker på knappen eller hos den overordnede, der i hast godkender målet, det er alene systemets skyld, at den forkerte mand blev udpeget. (At det er en krigsforbrydelse og strider mod Geneve-konventionen helt bevidst at slå dusinvis af civile ihjel for måske at komme til at ramme en fjendtlig soldat er en anden ting.)
Og det er det samme, AI kan bruges til herhjemme. For eksempel er en række danske kommuner berygtede for at underkende sundhedsvæsnets egen medicinske ekspertise, når de skal behandle ansøgninger om førtidspension. Disse kommuner har i stedet hyret privatpraktiserende lægekonsulenter, som så afviser sagerne én for én Jeg vil ikke her pege på enkelte af disse sager, men hvis man er interesseret, kan man prøve at søge efter “Doktor Nej” på nettet.
Et AI-system kan afvise sådanne sager meget hurtigere (omend måske ikke billigere) og samtidig levere de involverede embedsmænd og politikere det perfekte alibi: Det var ikke dem, der traf afgørelsen, det var systemet. Den kunstige intelligens har talt, og er der sket en fejl, ligger ansvaret hos de programmører, der byggede systemet, og ikke hos kommunen. Men pengene til førtidspension er stadig sparet. Og der er mange muligheder — den samme chatbot kan også let skrive afslag til ansøgninger om kontanthjælp og boligsikring.
AI-systemer kan erstatte skolelærere, og hvis eleverne ikke får ordentlig undervisning, er det ikke skolemyndighedernes fejl fordi de ikke gider betale for en lærer, det er bare sådan det er.
Vi kan sågar generere skolernes lærebøger med AI, og når de viser sig at være fulde af fejl, så eleverne lærer helt forkerte ting ... er det ikke, fordi vi ikke gider betale nogen for at skrive ordentlige bøger, der er igen bare sådan det er.
Så ... er AI århundredets chance for menneskeheden? Kan AI give os et bedre samfund? Kan teknologien generere gode film, god musik, gode billeder, skrive gode bøger, gøre alt det kedelige arbejde for os? Nej, nej og atter nej.
Men den kan noget andet — den kan bruges som påskud til at ødelægge det samfund, vi har. Nej, AI kan ikke erstatte 30.000 danske embedsmænd — men det kan bruges som påskud for at fyre disse mennesker, og når det viser sig ikke at virke, er ansvarsfraskrivningen på plads — det var systemerne, der ikke virkede.
Og det er desværre nok derfor og kun derfor, at forjættelsen om “AI” er så populær i politiske — og, som vi har set, militære — kredse. Et par danske forskere har i hvert fald vist, at “AI” indtil videre ikke har erstattet nogen jobs i Danmark — overhovedet. Men det er måske og som sagt heller ikke det, der er meningen.
Copyright 2025 Carsten Agger — CC-BY-SA
Follow me on Mastodon!.