Welcome to Our Website

İsrail’in ölümcül zekaları: İsrail ordusunun kullandığı yapay zeka, katliam yapıyor

İsrail, 7 Ekim saldırılarından beri Gazze’de Hamas’la, Lübnan’da Hizbullah’la ve Yemen’de Ansar Allah’la çatışmaya devam ediyor. Bu dönem boyunca İsrail’in ölümcül saldırıları, dünyanın tepkisini topladı. Özellikle Gazze’de hastane, okul, Birleşmiş Milletler ofisleri gibi kamu binalarını vuran İsrail ordusu saldırılarını “askeri hedefleri imha ettikleri” gerekçesiyle meşrulaştırıyor.

Peki, İsrail ordusu bu “askeri hedefleri” nasıl seçiyor? Nasıl oluyor da bu hedefler her vurulduğunda, sivil zaiyat çoğunlukla daha yüksek oluyor?

+972 Dergi ve Local Call çevrimiçi haber siteleri, bu konuyla ilgili bulgularını yayımladılar. Yayımlanan yazıya göre İsrail ordusu, Hamas gibi örgütlere bağlı hedefleri hızlı ve etkili bir şekilde seçmek için, yapay zeka sistemleri kullanıyor. Hedefleri hızla ve çokça bulmak üzere uzmanlaşan bu sistemler, olası sivil ölümlerini hiçe sayarak Hamas ve Hizbullah hedeflerini işaretliyor ve İsrail İHA’larının merceklerine aktarıyor. İsrail ordusu personeli, seçilen hedeflerin infazını sadece 20 saniye içerisinde onaylıyor.

SAVAŞIN 3 ÖLÜMCÜL ZEKASI

+972 Dergi’ye bağlı İsrailli ve Filistinli gazeteciler, kimliklerinin gizli tutulacağı şartıyla konuşan altı İsrail ordusu yetkilisiyle konuştu. İsimsiz ordu yetkilileri, İsrail’in hedeflerini seçmek için kullandığı yapay zeka programları hakkında bilgi verdi. 

İsrail ordusu üst düzey yetkilisi B., “(Hamas) militanlarını sadece askeri bir binadayken ya da askeri bir faaliyette bulunurken öldürmek yeterli değildi. Aksine, ilk tercih olarak hiç tereddüt etmeden onları evlerinde bombalıyorduk. Bir ailenin evini bombalamak çok daha kolay. Sistem bu gibi durumlarda onları aramak üzere kurulmuştur.” açıklamasını yaptı.

B.’nin bahsettiği sistem, üçe ayrılıyor. Birinci sistem, İsrail’in ilk yapay zeka sistemi olan “Gospel” (Müjde) sistemi. Gospel’in amacı, Hamas gibi örgütler tarafından kullanılan binaları; telefon sinyalleri, uydu görüntüleri, yakındaki araç plakaları gibi verileri kullanarak tespit etmek. Bu sistem, neredeyse 6 yıldır İsrail ordusu tarafından askeri işlev gören binaları bulmak için kullanılıyor.

Fakat B.’nin bahsettiği vahşetin sorumlusu Gospel değil, Gospel’in geliştirilmesi sonucu üretilen Lavender (Lavanta) isimli yapay zeka sistemi. İsrail ordusu 7 Ekim saldırısından kısa süre sonra, ‘bir gün içerisinde olabilecek en fazla Hamas hedefini etkisiz hale getirebilmek için’ Lavender yapay zeka sistemini kullanmaya başladı.

TERÖRİST DEĞERİ

Lavender, daha önce örgüt üyesi olduğu bilinen kişilerin verilerini, Hamas ve Hizbullah gibi örgütlere bağlı sivil toplum kuruluşlarının verileriyle harmanlayarak kişilerin nüfus bilgilerini tarıyor. Bu tarama sonucu, listedeki herkesi 1’den 100’e kadar olan bir ‘terörist değeri’ ile etiketliyor. Bu değerlerle etiketlenmiş kişilerin bulunduğu listelerde, İsrail ordusu subayı B. gibi yetkililerin eline bir infaz listesi olarak geçiyor.

İsrail subayı B., durumu “Biz (insanlar), bu kadar çok bilgiyi işleyemeyiz. Savaş sırasında hedef üretmek için kaç kişiyi görevlendirdiğinizin bir önemi yok – yine de gün içinde yeterli hedef üretemezsiniz.” sözleriyle açıklıyor.

İsrail, 7 Ekim saldırılarından sonra bir gün içerisinde olabildiğinde Hamas militanını öldürmeyi hedefliyordu. Lavanta sisteminin seçtiği hedefler, eskiden daha dikkatli bir şekilde kontrol edilirken, 7 Ekim’den sonra daha düşük ‘terörist değeriyle’ etiketlenen kişiler de listelere girdi. Bu listelerin kontrolü, öldürülen Hamas militanlarının sayısını daha da arttırmak için sadece 20 saniye kontrol edildi. Çoğu subay, hedeflerin sadece erkek olup olmadığını kontrol ettikten sonra infaz onayı verdi. Bu onay, yapay zekanın yüzde 10 seviyesinde bir hata payı olduğu bilinmesine rağmen verildi.

Lavender’ın hata payı üzerinde duyan bir kaynak, “Bir kişinin yapay zeka makinesi tarafından örgütle bağlantılı olarak görülmesi için Hamas’a ne kadar yakın olması gerekir?” sorusunu sordu.

Kaynak, kendi sorusuna “Bu muğlak bir sınır. Hamas’tan maaş almayan ama onlara belirli konularda yardımcı olan bir kişi Hamas militanı mıdır? Geçmişte Hamas’ta bulunmuş ama bugün artık Hamas’ta bulunmayan biri Hamas ajanı mıdır? Bu özelliklerin her biri – bir makinenin şüpheli olarak işaretleyeceği özelliklerdir – yanlıştır” cevabını verdi.

İsrail subayı B., ise bu soruya: “Otomatiğe geçince, hedef üretimi çılgın oluyor” cevabını verdi. 

BABA NEREDE?

İsrail, 7 Ekim’den sonraki ilk 3 ay hava saldırıları sonucu Gazze’de 37 bin kişiyi öldürdü. Ölen Gazzeli insanların önemli bir kısmı sivildi. Bunun sebebi ise, yeni anlaşılıyor. 

Lavender’ın amacı hedef seçmek, ve Gospel’in amacı da askeri binaları işaretlemek. İsrail’in ordusunun, Lavendar’ın işaretlediği hedefleri seçmesi bir başka bir yapay zeka sistemine daha ihtiyacı vardı. İşte tam burada, “Where’s Daddy?” (Baba Nerede?) yapay zeka sistemi devreye giriyor. 

Where’s Daddy? sisteminin amacı, hedef alınan militanların evlerinde olduklarından emin olmak. Sistem, kameraları ve telefon sinyallerini kullanarak hedeflerin evlerinde olduklarını teyit ediyor. Ordu, hedefin evine vardığından yeterince emin olduğunda, vur emrini veriyor.

BİR HEDEF, YÜZ SİVİLE BEDEL

Where’s Daddy? sisteminin evin içinde başka kimlerin olduğunu tespit etmek gibi bir görevi yok. Bu sebeple, İsrail ordusu “kabul edilebilir zaiyat” skalasına göre saldırı emrini veriyor. Bu ölçüye göre, düşük rütbeli bir militan 10 ila 20 sivile bedelken, yüksek rütbeli bir militan için 100 sivil gözden çıkartılabiliyor.

+972 Dergisi’ne konuşan, A. adını kullanan bir başka subay, “Diyelim ki [evde] bir Hamas [militanı] artı 10 [sivil] olduğunu hesapladınız,” dedi. “Genellikle bu 10 kişi kadın ve çocuk olur. Yani saçma bir şekilde, öldürdüğünüz insanların çoğunun kadın ve çocuk olduğu ortaya çıkıyor” dedi.

+972 Dergisi, bu duyarsızlığın kanıtını verilerde gösteriyor: BM rakamlarına göre, savaşın ilk ayında ölen  6.120 kişi, 1.340 aileye mensuptu ve bunların çoğu evlerinin içindeyken tamamen yok edildi. Mevcut savaşta evlerinde bombalanan ailelerin oranı, İsrail’in 2014’te Gazze’ye düzenlediği operasyondan çok daha yüksek. 

A. ismini kullanan subay, Where’s Daddy? yapay zeka sisteminin de hatasız olmadığını belirtiyor. Öyle ki A., hedef evinde değilken içi kadın ve çocuk dolu evlerin bombalandığı itiraf etti. İsimsiz başka bir kaynak, “Birçok kez bir eve saldırdığımız oldu, ancak hedef evde bile değildi,” dedi ve “Sonuç olarak bir aileyi sebepsiz yere öldürmüş oluyorsunuz” diye ekledi

İsrail ordusu bu iddiaları kesin bir dille reddediyor. IDF Sözcüsü, +972 Dergisi ve Local Call’a yaptığı açıklamada, hedefleri seçmek  için yapay zeka kullanıldığını reddederek, yapay zeka sistemlerinin yalnızca “seçme sürecinde görevlilere yardımcı olan yardımcı araçlar” olduğunu söyledi. Ordu sözcüsü, açıklamasına “Her durumda, belirlenen hedeflerin IDF usulüne uygun ve uluslararası hukukla uyumlu olarak saldırı için meşru hedefler olduğunu doğrulayan bir analist mevcuttur” dedi.

Bir yanıt yazın

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir