Gå til hovedindhold

"Lavender" vs "Gospel" - hvad er forskellen på Israels 2 AI-død og -ødelæggelsessystemer

Af Lazaro (Humanice)

Israel har ifølge forskellige rapporter anvendt to kunstig intelligens-baserede systemer, Lavender [1] [2], og Gospel [3], i deres militærkampagner i Gaza. Selvom begge systemer har til formål at identificere mål for israelske militærangreb, adskiller de sig på vigtige måder.

Lavender er et AI-assisteret system, der beskrives som en database, der bruger mass surveillance-data til at identificere potentielle mål i Gaza. Det siges at have været brugt til at skabe drabslister, som inkluderede tusinder af palæstinensere. Rapporter hævder, at Israels militær har anvendt Lavender til at vælge mål for bombninger, og at systemet har været kendt for at have en 10% fejlrate. Israelske medier og +972 Magazine har rapporteret, at Lavender muligvis har ført til aktioner, der resulterede i et stort antal civile dødsfald [4] [5] [6].

Gospel er et andet AI-system, der angiveligt hjælper med at identificere mål, herunder skoler, aid organisations kontorer, tilbedelsessteder og medicinske faciliteter, til Israels angreb i Gaza. Det er ikke klart, om Gospel direkte har medført civile tab, men aktivister i regionen har bedt om mere gennemsigtighed og fremhævet potentielle AI-systemfejl. Gospel-systemet bruges især til at vælge bygninger eller strukturer, som Hamas menes at operere fra [7] [8].

I sammenligning mellem Lavender og Gospel, synes Lavender at fokusere på individuelle personer, mens Gospel fokuserer på bygninger og strukturer. Begge systemers bagvedliggende teknologi og brug har rejst spørgsmål om etik, lovlighed og civile ofres sikkerhed i krigstid.

Israel har officielt benægtet at bruge AI-programmer som Lavender til at generere mål og har fremhævet, at beslutningen om at angribe altid ligger i hænderne på menneskelige betjente [9] [10].

Det er vigtigt at nævne, at anvendelsen af AI i krigsførelse, specielt i forbindelse med måludvælgelse og drabsbeslutninger, har affødt international bekymring og debat omkring de etiske og juridiske implikationer af sådan teknologi.

[Kilderne er markeret med superscript numre og kan findes nedenfor som links.]

Kilder:

  1. 972 Magazine - Lavender system report
  2. The Guardian - Lavender system report
  3. Politico - Gospel system
  4. Al Jazeera - AI-assisted genocide
  5. The Verge - Report on Israel Lavender tool
  6. The Guardian - ‘The machine did it coldly’
  7. Politico - Israel under pressure
  8. Yahoo News - Israeli Military Using AI
  9. Washington Times - Israel disputes Lavender AI program
  10. The Telegraph - Israel denies using AI ‘Lavender’
Sektion
Lazaro elsker at læse og skrive