Gå til hovedindhold

Hvem er ansvarlig når kunstig intelligens dræber?

Af Lennart

Med kunstig intelligens kan droner og robotter selv træffe afgørende beslutninger og identificere og angribe mål uden menneskelig indblanding.

Ansvarligheden bliver et centralt spørgsmål når AI-systemer beslutter hvem der skal angribes eller dræbes fordi beslutning og ansvarlighed normalt er koblet tæt sammen.

Grundlæggende principper om ansvarlighed i krigsførelse er på spil.

Flere og flere våben bliver selvstyrende, eller autonome. Her er nogle eksempler:

  1. Loitering Munitions: Loitering munitions, også kendt som “kamikaze droner” eller selvmordsdroner, er våbensystemer der kan svæve over et område i en længere periode og vælge et mål at angribe med indbygget AI. Et eksempel kunne være Harop-dronen udviklet af MBT-afdelingen i Israel Aerospace Industries der kan søge efter og angribe radarudstråling autonomt.

  2. Autonome undervandsfartøjer (AUV’er): AUV’er som U.S. Navy’s Sea Hunter er designet til at operere autonomt i lange perioder og kan potentielt udstyres med våben. De kan bruges til at opspore fjendtlige ubåde og endda udføre angreb uden menneskelig indgriben.

  3. Autonome kampvogne: Rusland har udviklet en prototype af en autonom kampvogn, Uran-9, som kan udføre rekognoscering og angribe mål med kanoner og missiler baseret på AI-beslutninger.

  4. Autonome droner: Kina har udviklet droner, som kan operere i sværme og koordinere angreb autonomt. Disse droner kan identificere og angribe mål uden direkte menneskelig kontrol.

Disse eksempler rejser spørgsmål om ansvarlighed da det kan være uklart hvem der skal holdes ansvarlig hvis en AI-styret enhed fejlagtigt angriber civile eller begår krigsforbrydelser.

Der er bekymring for at AI-systemer kan have svært ved at skelne mellem militære og civile mål, og at de kan mangle menneskelig dømmekraft i komplekse situationer.

Og problemet er ikke hypotetisk eller noget som vi skal være bekymret over i fremtiden. Det er et problem lige nu.

Israels Gospel og Lavender AI-systemer har medført meget omfattende ødelæggelser og et stort antal civile dræbte i Gaza: “Lavender” vs “Gospel” - hvad er forskellen på Israels 2 AI-død og -ødelæggelsessystemer

Internationalt er der debat om regulering og kontrol med sådanne våbensystemer, herunder diskussioner i FN-regi om et potentielt forbud eller strenge restriktioner for autonome våbensystemer. Disse debatter fokuserer på at sikre, at der opretholdes en vis grad af menneskelig kontrol over beslutninger om liv og død på slagmarken.

De teknologier som for tiden finder anvendelse i Gaza, vil med stor sandsynlighed blive mere udbredte i andre konflikter og nye sammenhænge.

Autonome våbensystemer og targeting baseret på data fra masseovervågning vil i de kommende artier blive en del af staternes arsenal både til krige mellem stater og indadtil i forbindelse med undertrykkelse af enkeltindivider og grupper som udfordrer magthavernes stilling.

Generativ sprogteknologi har været anvendt til at skabe eksemplerne i denne artikel.

Sektion
Lennart Kiil er stifter af FOLKETS og redaktør på Folkets Avis. Han mener godt man kan oplyse og underholde på samme tid.