Yapay zekâ teknolojileri, her geçen gün yeni alanlarda kullanılmaya devam ederken; İşgalci İsrail’in Gazze’deki saldırılarda bu teknolojileri silah olarak kullanması büyük endişe uyandırıyor. İşgalci İsrail Savunma Kuvvetleri'nin (IDF), karar destek sistemi olarak tanımladığı yapay zekâ uygulamaları, savaş alanında saldırı hedeflerinin belirlenmesinde etkin rol oynuyor.
Sistemin bilinen ilk kullanımı 2021 yılındaki “Guardian of the Walls” operasyonunda görülürken, günümüzde bu teknolojiler daha da gelişmiş durumda. "Alchemist" ve "Edge360" gibi sistemler operasyonel analiz ve çevresel tehdit tespiti sağlarken; "Lavender", "Gospel" ve "Where’s Daddy?" gibi sistemler ise hedef belirleme ve saldırı emirlerinin temelini oluşturuyor.
Özellikle Lavender adlı sistemin, hedef kişileri yüksek hata oranlarıyla belirlediği; saldırı kararlarının ise bu tespitlerin yalnızca şekli onaylarla gerçekleştirildiği iddia ediliyor. Bu durum, yapay zekânın dolaylı değil doğrudan öldürücü karar mekanizması hâline geldiğini gösteriyor. Sivil-asker ayrımı gözetilmeksizin yapılan bu saldırılar, uluslararası insancıl hukuk normları açısından ciddi ihlaller oluşturuyor.
Uluslararası hukuk, ölümcül otonom sistemlerin insan kontrolü dışında kullanılmasını yasaklamamakla birlikte, anlamlı insan kontrolü ve orantılılık ilkesi gibi temel normlara vurgu yapıyor. Buna rağmen IDF’nin sistem şeffaflığını sağlamaması, doğrulama süreçlerini göz ardı etmesi ve hata oranlarını açıklamaması ciddi etik ve hukuki sorunları gündeme getiriyor.
Gazze’deki uygulamalar nedeniyle İsrail hakkında Uluslararası Adalet Divanı’nda açılan dava halen sürüyor. Davada doğrudan yapay zekâya atıf yapılmasa da, uluslararası kamuoyu bu teknolojilerin savaş hukukundaki yerini tartışmaya devam ediyor.