DOLAR 43,4154 0.01%
EURO 51,8333 -0.81%
ALTIN 7.389,462,30
BITCOIN %
İstanbul
11°

PARÇALI AZ BULUTLU

  • Footer 3
  • Footer 3
  • Footer 3
  • Footer 3
  • Footer 3
  • Footer 3
  • Footer 3
İsrail’in Gazze’deki Hava Saldırıları ve Yapay Zeka Kullanımı

İsrail’in Gazze’deki Hava Saldırıları ve Yapay Zeka Kullanımı

ABONE OL
6 Ekim 2024 00:37
İsrail’in Gazze’deki Hava Saldırıları ve Yapay Zeka Kullanımı
0

BEĞENDİM

ABONE OL

İsrail’in Gazze’deki Saldırıları ve Yapay Zeka Kullanımı

İsrail'in Gazze'deki Saldırıları ve Yapay Zeka Kullanımı

İsrail, 7 Ekim’de başlayan saldırılardan bu yana Gazze’deki Hamas ile, Lübnan’daki Hizbullah ile ve Yemen’deki Ansar Allah ile çatışmalarını sürdürmektedir. Bu süreçte, İsrail’in gerçekleştirdiği ölümcül hava saldırıları, dünya genelinde büyük tepkilere yol açtı. Özellikle hastaneler, okullar ve Birleşmiş Milletler ofisleri gibi kamuya açık alanları hedef alan İsrail ordusu, saldırılarını “askeri hedefleri imha etmek” şeklinde savunmakta. Ancak bu “askeri hedefler” nasıl belirleniyor? Neden her saldırıda sivil kayıplar genellikle daha fazla oluyor? +972 Dergisi ve Local Call, bu konuda çarpıcı bulgulara ulaştılar.

İsrail'in Gazze'deki Hava Saldırıları ve Yapay Zeka Kullanımı

Yayımlanan verilere göre, İsrail ordusu, Hamas gibi gruplara ait hedefleri hızlı ve etkin bir biçimde belirlemek için yapay zeka sistemlerinden yararlanıyor. Bu sistemler, sivil kayıpları dikkate almadan, Hamas ve Hizbullah’a ait hedefleri belirleyerek, İsrail İHA’larının sistemine entegre ediyor. Seçilen hedeflerin infazı, ordunun personeli tarafından sadece 20 saniye gibi kısa bir sürede onaylanıyor.

Savaşın 3 Ölümcül Zekası

+972 Dergisi’ne bağlı, kimlikleri gizli tutulan İsrailli ve Filistinli gazeteciler, altı farklı İsrail ordusu yetkilisiyle görüşme gerçekleştirdi. İsimleri gizli tutulan bu yetkililer, İsrail’in hedef belirleme konusunda kullandığı yapay zeka programları ile ilgili önemli bilgiler paylaştı. İsrail ordusu üst düzey yetkilisi B., “(Hamas) militanlarını sadece askeri bir binada veya askeri bir etkinlikteyken öldürmek yeterli değildi. Aksine, ilk tercih olarak tereddüt etmeden evlerinde bombalamayı tercih ediyorduk. Bir ailenin evini bombalamak çok daha kolay. Sistem bu tür durumlarda onları aramak için tasarlanmıştır.” şeklinde bir açıklama yaptı.

B.’nin bahsettiği sistem üç ana bileşenden oluşuyor. Birincisi, İsrail ordusunun ilk yapay zeka sistemi olan “Gospel” (Müjde) sistemi. Gospel, Hamas gibi örgütler tarafından kullanılan binaları; telefon sinyalleri, uydu görüntüleri ve yakınlardaki araç plakaları gibi verileri analiz ederek tespit ediyor. Bu sistem, neredeyse 6 yıldır askeri işlev gören binaları bulmak amacıyla kullanılmakta. Ancak B.’nin söz konusu vahşetin sorumlusu olarak tanımladığı sistem, Gospel’in geliştirilmesi sonucu ortaya çıkan “Lavender” (Lavanta) isimli yapay zeka. İsrail ordusu, 7 Ekim saldırılarından hemen sonra, ‘bir gün içerisinde mümkün olan en fazla Hamas hedefini etkisiz hale getirmek’ amacıyla Lavender sistemini devreye aldı.

Terörist Değeri

Lavender, daha önce örgüt üyesi olduğu bilinen kişilerin verilerini, Hamas ve Hizbullah’a bağlı sivil toplum kuruluşlarının bilgileriyle harmanlayarak, kişilerin nüfus bilgilerini tarıyor. Bu tarama sonucunda, listedeki her birey 1 ile 100 arasında bir ‘terörist değeri’ ile etiketleniyor. Bu etiketlemeyle oluşturulan listeler, İsrail ordusunun yetkilileri tarafından infaz listesi olarak değerlendiriliyor. İsrail subayı B., durumu “Biz, bu kadar çok bilgiyi işleyemeyiz. Savaş sırasında hedef üretmek için görevlendirdiğiniz insan sayısının bir önemi yok – yine de gün içinde yeterince hedef üretemezsiniz.” sözleriyle özetliyor.

İsrail'in Gazze'deki Hava Saldırıları ve Yapay Zeka Kullanımı

İsrail, 7 Ekim saldırılarından sonra bir gün içinde olabildiğince çok Hamas militanını hedef almayı amaçlıyordu. Lavender sisteminin belirlediği hedefler, geçmişte daha dikkatli bir inceleme gerektirirken, 7 Ekim’den sonra daha düşük ‘terörist değeri’ ile işaretlenen kişiler de hedef listelerine dahil edildi. Bu listelerin kontrolü, öldürülen Hamas militanlarının sayısını artırmak amacıyla yalnızca 20 saniye içinde gerçekleştirildi. Çoğu subay, hedeflerin yalnızca erkek olup olmadığını kontrol ettikten sonra infaz onayı verdi. Bu onay, yapay zekanın hata payının %10 seviyesinde olduğu bilinse de verilmekteydi.

Lavender’ın hata payı hakkında bilgi sahibi bir kaynak, “Bir kişinin yapay zeka tarafından örgütle bağlantılı olarak görülmesi için Hamas’a ne kadar yakın olması gerekiyor?” sorusunu yöneltti. Kaynak, kendi sorusuna “Bu oldukça belirsiz bir sınır. Hamas’tan maaş almayan ama onlara belirli konularda yardımcı olan bir kişi, Hamas militanı sayılır mı? Geçmişte Hamas’ta bulunmuş ama artık orada olmayan biri, Hamas ajanı mıdır? Bu özelliklerin her biri – bir makinenin şüpheli olarak işaretleyeceği özelliklerdir – yanlıştır.” yanıtını verdi. İsrail subayı B. ise bu durumu, “Otomatiğe geçince, hedef üretimi çılgınca artıyor.” şeklinde ifade etti.

İsrail'in Gazze'deki Hava Saldırıları ve Yapay Zeka Kullanımı

Baba Nerede?

İsrail, 7 Ekim’den sonraki ilk üç ay içerisinde hava saldırıları sonucu Gazze’de 37 bin kişiyi öldürdü. Ölen Gazze halkının önemli bir kısmının sivil olduğu belirtiliyor. Bunun temel nedenleri ise yeni bir anlayışla gün yüzüne çıkıyor. Lavender’ın amacı hedef belirlemek iken, Gospel’in amacı askeri binaları işaretlemektir. Ancak, İsrail ordusunun Lavender’ın işaretlediği hedefleri seçebilmesi için başka bir yapay zeka sistemine daha ihtiyaç vardı. İşte bu noktada devreye “Where’s Daddy?” (Baba Nerede?) yapay zeka sistemi giriyor.

Where’s Daddy? sisteminin amacı, hedef alınan militanların evlerinde olduğundan emin olmaktır. Sistem, kameralar ve telefon sinyalleri aracılığıyla hedeflerin evlerinde bulunduklarını teyit ediyor. Ordu, hedefin evinde olduğundan yeterince emin olduktan sonra vur emrini veriyor.

Bir Hedef, Yüz Sivile Bedel

Where’s Daddy? sisteminin evin içinde başka kimlerin bulunup bulunmadığını tespit etme gibi bir yetkisi yok. Bu nedenle, İsrail ordusu “kabul edilebilir kayıp” ölçütlerine göre saldırı emri veriyor. Bu ölçüte göre, düşük rütbeli bir militanın bedeli 10 ila 20 sivilken, yüksek rütbeli bir militan için 100 sivil gözden çıkarılabiliyor. +972 Dergisi’ne konuşan, A. takma ismini kullanan bir subay, “Diyelim ki [evde] bir Hamas [militanı] ve 10 [sivil] olduğunu hesapladınız,” dedi. “Genellikle bu 10 kişi kadın ve çocuklardan oluşuyor. Yani, bir şekilde, öldürdüğünüz kişilerin çoğunun kadın ve çocuk olduğu ortaya çıkıyor.” dedi.

+972 Dergisi, bu duyarsızlığın kanıtlarını verilerle gösteriyor: BM rakamlarına göre, savaşın ilk ayında ölen 6.120 kişinin 1.340 aileye mensup olduğu ve bunların çoğunun evlerinin içindeyken tamamen yok edildiği belirtiliyor. Mevcut savaşta, evlerinde bombalanan ailelerin oranı, İsrail’in 2014’te Gazze’ye düzenlediği operasyondan çok daha yüksek.

İsrail'in Gazze'deki Hava Saldırıları ve Yapay Zeka Kullanımı

A. isimli subay, Where’s Daddy? yapay zeka sisteminin de hatasız olmadığını belirtiyor. A., hedefin evinde bulunmadığı durumlarda içi kadın ve çocuk dolu evlerin bombalandığı itirafında bulundu. İsimsiz başka bir kaynak, “Birçok kez bir eve saldırdığımız oldu, ancak hedef evde bile değildi,” diyerek, “Sonuç olarak, bir aileyi sebepsiz yere öldürmüş oluyorsunuz.” şeklinde ekleme yaptı. İsrail ordusu, bu iddiaları kesin bir dille reddediyor. IDF Sözcüsü, +972 Dergisi ve Local Call’a yaptığı açıklamada, hedeflerin belirlenmesinde yapay zeka kullanıldığını inkar ederek, yapay zeka sistemlerinin yalnızca “seçim sürecinde görevlilere yardımcı olan destek araçları” olduğunu belirtti. Ordu sözcüsü, “Her durumda, belirlenen hedeflerin IDF usulüne uygun ve uluslararası hukukla uyumlu olarak saldırı için meşru hedefler olduğunu doğrulayan bir analist mevcuttur.” dedi.

En az 10 karakter gerekli