Israel brukte kunstig intelligens for å identifisere Hamas-mål

Israelske etterretningskilder avslørte at "lavendel"-systemet ble brukt i Gaza-krigen og hevdet at det tillot drap av sivile i jakten på lavtstående militanter.

Den israelske hærens bombekampanje i Gaza brukte en tidligere ikke avslørt AI-drevet database som på et tidspunkt identifiserte 37 XNUMX potensielle mål basert på deres tilsynelatende koblinger til Hamas, ifølge etterretningskilder involvert i krigen.

Med henvisning til bruken av det kunstige intelligenssystemet kalt Lavender, hevder etterretningskilder at israelske militære tjenestemenn ga tillatelse til å drepe et stort antall palestinske sivile, spesielt i de første ukene og månedene av konflikten.

Israels bruk av kraftige kunstige intelligenssystemer i sin krig mot Hamas har gått inn på ukjent territorium for avansert krigføring, og reist en rekke juridiske og moralske spørsmål og endret forholdet mellom militært personell og maskiner.

"Dette er enestående i mitt minne," sa en etterretningsoffiser som brukte Lavender, og la til at de stolte mer på "en statistisk mekanisme" enn en sørgende soldat. «Alle der mistet folket sitt den 7. oktober, inkludert meg. Maskinen gjorde dette kjølig. Dette gjorde jobben lettere." sa.