İnsanlık yeni bir savaş çağının eşiğinde duruyor.
Yapay zekadaki hızlı gelişmelerin yönlendirdiği, insanları tanımlayabilen, hedef alabilen ve kendi başlarına öldürmeye karar verebilen silah platformları – bir saldırıyı yöneten bir subay veya tetiği çeken bir asker olmadan – çatışmanın geleceğini hızla dönüştürüyor.
Resmi olarak ölümcül otonom silah sistemleri (LAWS) olarak adlandırılıyorlar, ancak eleştirmenler onlara katil robotlar diyor. Amerika Birleşik Devletleri, Çin, Birleşik Krallık, Hindistan, İran, İsrail, Güney Kore, Rusya ve Türkiye de dahil olmak üzere birçok ülke son yıllarda bu tür silahların geliştirilmesine büyük yatırımlar yaptı.
Bir Birleşmiş Milletler raporu, tam otomatik modda Türk yapımı Kargu-2 insansız hava araçlarının, 2020’de Libya’da bu ülkede devam eden çatışmanın ortasında savaşçılara saldırdığında bu yeni çağın şafağına işaret ettiğini öne sürüyor.
Otonom dronlar, hem Moskova hem de Kiev’in bu mürettebatsız silahları düşman askerlerini ve altyapısını hedef almak için konuşlandırdığı Ukrayna’daki savaşta da çok önemli bir rol oynadı.
Bu tür makinelerin ortaya çıkışı ve konuşlandırılması, dünya çapında uzmanlar, aktivistler ve diplomatlar arasında, robot kullanmanın olası faydaları ve potansiyel riskleri ile boğuşan ve onları durdurup durduramayacaklarını ve nasıl durduracaklarını düşünürken yoğun tartışmalara yol açıyor.
Yine de giderek bölünmüş bir jeopolitik manzarada, uluslararası toplum bu makineler üzerinde herhangi bir fikir birliğine varabilir mi? Bu tür silahların oluşturduğu etik, yasal ve teknolojik tehditler, savaş alanını ele geçirmeden önce onları durdurmayı zorunlu kılıyor mu? Kapsamlı bir yasak uygulanabilir mi, yoksa bir dizi düzenleme daha gerçekçi bir seçenek mi? Al Jazeera bu soruları alanın önde gelen uzmanlarına yöneltti.
Kısa cevap: Otonom silah sistemlerine yönelik kesin bir yasaklama yakın zamanda olası görünmüyor. Bununla birlikte, özellikle Küresel Güney’den gelen, giderek artan bir ses korosu, bunların düzenlenmesi için çağrıda bulunuyor ve uzmanlar, kimyasal silahların kullanımına karşı yürürlükte olan türden bir küresel tabunun mümkün olduğuna inanıyor. Büyük askeri güçler, bu tür sistemlerin kendilerine sağlayabileceği potansiyel savaş alanı avantajlarından etkilenebilir, ancak hükümetler ve generaller dışında onlar için çok az iştah var gibi görünüyor.
‘Üçüncü Dünya Savaşı’nı çözemiyorum’
Mart ayı sonlarında, Londra merkezli Chatham House’da araştırma görevlisi olan Yasmin Afina, Birleşik Krallık parlamentosunun ikinci meclisi olan Lordlar Kamarası’na ABD Ulusal Güvenlik Teşkilatı’nın (NSA) bir zamanlar yanlışlıkla bir El Cezire gazetecisini nasıl tanımladığını anlattı. bir El Kaide kuryesi. Gazetecinin ABD izleme listesine alınmasıyla da sonuçlanan bu etiketleme, yalnızca NSA’nın eski bir yüklenicisi olan Edward Snowden tarafından 2013 yılında sızdırılan belgelerle gün ışığına çıktı.
Afina ifadesinde, bu olayın arkasındaki türden bir gözetleme sisteminin kendi başına “bir silah sistemi olmadığını, ancak ölümcül olduğunu” söyledi. “Hedefe, gazeteciye müdahale edecek olsaydınız, bu kesinlikle uluslararası insancıl hukuk mülahazalarına aykırı olurdu.”
YASALARIN tırmandırıcı olayların zincirleme reaksiyonunu tetikleme potansiyeli, Avustralya’nın Sidney kentindeki New South Wales Üniversitesi’nde yapay zeka uzmanı olan Toby Walsh’u endişelendiriyor.
“Karmaşık bilgisayar sistemlerini belirsiz ve rekabetçi bir ortamda karşı karşıya getirdiğimizde ne olduğunu biliyoruz. Buna borsa denir, ”diye yazdı Walsh, Lordlar Kamarası’na sunulan yazılı kanıtlarda.
“Tehlikeli geri besleme döngülerini ve istenmeyen sonuçları durdurmanın tek yolu ‘devre kesiciler’ kullanmaktır. Borsada, böyle bir durum meydana geldiğinde işlemleri kolayca çözebiliriz. Ancak 3. Dünya Savaşı’nın başlamasını geri alamayız” diye ekledi.
Walsh, Al Jazeera’ya verdiği demeçte, bu, araştırmacıların otomatik silah sistemlerinin arkasındaki teknolojiyi geliştirmeyi bırakması gerektiği anlamına gelmiyor. Bu teknolojinin başka alanlarda da fayda sağlayabileceğini söyledi.
Örneğin, yayalarla çarpışmayı önleyen araba güvenlik sistemlerinde kullanılan aynı algoritmalar, “savaşçıları tanımlayan, izleyen otonom drone’nuza giren algoritmalar olacaktır – ve bu, onlardan kaçınmak yerine onları öldürmek için bir işaret değişikliğidir”, dedi. Karayolu ölümlerini azaltma şansının “dünyayı inkar etmenin” ahlaki açıdan yanlış olacağını savundu.
Bunun yerine cevap, “kimyasal silahların nispeten başarılı bir şekilde düzenlenmesini” taklit etmek olabilir, dedi Walsh.
Kimyasal silahlar kullanıldığında, manşetlere konu oluyor ve küresel bir tepkiye yol açıyor. BM’nin Kimyasal Silahlar Sözleşmesi, bunların geliştirilmesini, üretilmesini, stoklanmasını ve kullanılmasını yasaklamaktadır. Bu, kimyasal silahlarla ilgili uluslararası tabularla birleştiğinde, büyük silah şirketlerinin bunları üretmesini de başarıyla durdurdu.
Walsh, “Pandora’yı bir kutuya geri koyamayız, ancak bu önlemler, bugün dünyanın dört bir yanındaki savaş alanlarında kimyasal silahların kötüye kullanılmasını büyük ölçüde sınırlamış görünüyor” dedi.
Kazançlar ve riskler
Elbette, AI güdümlü otonom silah sistemlerinin askeri açıdan faydaları vardır.
Bazı savaş alanı görevlerini asker kullanmadan yerine getirebilirler, böylece zayiat riskini azaltırlar. Destekleyenler, bu sistemlere gömülü gelişmiş teknolojinin karar vermede insan hatasını ortadan kaldırabileceğini veya azaltabileceğini ve önyargıları ortadan kaldırabileceğini savunuyorlar. Hedeflemede daha fazla doğruluk, en azından teoride, kazara insan kayıplarını azaltabilir.
Otonom silah sistemleri, potansiyel bir tehdidi insanlardan daha yüksek verimlilik ve doğrulukla tespit edip ortadan kaldırabilen yıldırım hızında algılama algoritmaları ile savunma yetenekleri için de konuşlandırılabilir.
Yine de birçok uzman ve insan hakları grubu için, bu YASALARIN riskleri, gözetimsiz teknik arıza olasılığından uluslararası hukuk ihlallerine ve ölüm kalım kararları veren duygusuz makinelere ilişkin etik kaygılara kadar değişen potansiyel avantajlardan ağır basmaktadır.
Tüm bu endişelerin merkezinde hesap verebilirlik sorunu var.
2019’da, Birleşmiş Milletler Belirli Konvansiyonel Silahlara İlişkin Sözleşme’ye (CCW) taraf 126 ülke, otonom silahlarla ilgili endişeleri gidermek için BM tarafından atanan bir grup uzman tarafından önerilen 11 yol gösterici ilke üzerinde anlaşmaya vardı.
Bu ilkeler arasında, uluslararası insancıl hukukun bu tür silahların potansiyel gelişimine tam olarak uygulanacağına dair bir karar vardı. Ancak uzmanlar, bu ilkenin savaş sisi içinde nasıl uygulanacağının belirsiz olduğunu söylüyor. Örneğin, bir robot bir savaş suçu işlerse, sorumlu olarak kabul edilecek olan, çatışma alanından sorumlu komutan olur mu? Yoksa para, makineyi ilk etapta konuşlandırmaya karar veren üst kademelerde durur mu? Silah üreticisi sorumlu olur mu?
Stockholm Uluslararası Barış Araştırmaları Enstitüsü (SIPRI) araştırmacıları Vincent Boulanin ve Marta Bo, Mart ayında yazdıkları bir makalede, tüm bunların konuyla ilgili “politika görüşmelerinde büyük bir boşluğu temsil ettiğini” yazdı.
Boulanin, El Cezire’ye otonom silah sistemleri için “resmi veya uluslararası kabul görmüş bir tanım” bile olmadığını, ancak çoğu ülkenin “kritik unsurun, sistemin hedefi insan müdahalesi olmadan tanımlayabilmesi, seçebilmesi ve devreye girebilmesi” konusunda hemfikir olduğunu söyledi. .
SIPRI’de Yapay Zeka Yönetişimi Programının yöneticisi Boulanin’e göre, bugün halihazırda faaliyette olan silah sistemleri bu tanıma uyuyor. Buna bir örnek, şu anda Suudi Arabistan ve İsrail de dahil olmak üzere birçok ülke tarafından kullanılan ABD yapımı MIM-104 Patriot karadan havaya füze sistemidir.
Boulanin, “Çok farklı türde silah sistemlerinde kullanılabilen, her şekil ve biçimde olabilen ve çok farklı görev türlerinde kullanılabilen bir yetenekten, bir işlevden bahsediyoruz” dedi.
“Yani bir şeyi yasaklayacaksanız,” diye açıkladı, “özellikle sorunlu bulduğunuz silah türünü veya senaryoyu tam olarak daraltmanız gerekir.”
Genel bir yasaklama yerine, iki aşamalı bir dizi düzenlemenin daha gerçekçi bir sonuç olacağını söyledi, bazı silah sistemleri yasaklandı ve bazılarına katı gereklilikleri karşılamaları halinde izin verildi.
“Şimdi milyon dolarlık soru, temel olarak, bu iki kovaya sığacak unsurlar nelerdir?” dedi Boulanin.
Bu, farklı devletlerin henüz üzerinde anlaşmaya varmadığı bir soru.
Siyasi veya yasal düzenleme?
Otonom silahlar sorununa nasıl yaklaşılacağı konusunda uluslar arasında daha da temel bir ayrım var: Dünya yasal olarak bağlayıcı bir kurallar dizisi mi yoksa yalnızca siyasi bir niyet beyanı mı aramalıdır?
Bir siyasi deklarasyon pek çok biçimde olabilir, ancak büyük olasılıkla büyük güçlerin konuyla ilgili ortak tutumlarını belirtecekleri ve belgede ortaya konan ilke noktalarına bağlı kalma sözü verecekleri bir kamu bildirisini içerecektir. Bu, Çin, Rusya, Birleşik Krallık, ABD ve Fransa tarafından Ocak 2022’de imzalanan ve diğer şeylerin yanı sıra bir nükleer savaşın “asla olamayacağını” teyit ettikleri, nükleer savaşı önleme ve silahlanma yarışlarından kaçınma konusunda yayınladıkları ortak bildiriye benzeyebilir. kazanılmıştır ve asla savaşılmamalıdır”.
Boulanin, bunun ulusların “kökten farklı görüşlere sahip olduğu” bir soru olduğunu söyledi. Rusya, yasal olarak bağlayıcı belgelere yönelik itirazları konusunda “çok açık” olmuştur; Birleşik Krallık ve ABD de bunu “erken” olarak değerlendirerek ve ilk adım olarak siyasi bir deklarasyon arayışında olduklarını söyledi.
Çin ve Hindistan gibi bazıları daha muğlaktı.
Çin, nükleer silahlar da dahil olmak üzere dünyanın en tehlikeli askeri araçlarından bazılarının savunma caydırıcıları olarak hizmet edebileceği görüşüne uygun olarak, tamamen otonom silahların kullanımına yönelik bir yasağı destekledi, ancak bunların geliştirilmesine değil.
Çin’in yerli silah endüstrisi, sürüler halinde uçabilen ve bağımsız olarak bir hedefe çarpabilen Blowfish A2 insansız hava araçları da dahil olmak üzere, bu tür teknolojilerin geliştirilmesinde usulüne uygun olarak ilerledi. Gizli 912 Projesi ayrıca önümüzdeki birkaç yıl içinde su altı robotları geliştirmeyi hedefliyor.
Bu arada Hindistan, ülkeler arasındaki teknoloji uçurumunu genişleten bu tür makineler için yeni bir yarış ve devlet dışı aktörler de dahil olmak üzere katil robotların çoğalmasıyla ilgili endişelerini dile getirdi, ancak aynı zamanda kendi otonom silah sistemlerini geliştirme konusunda iki katına çıktı.
Orduların YASALARI geliştirmek için tam olarak ne kadar kaynak ayırdığını ölçmek zordur, ancak 2021 tarihli bir Uluslararası Af Örgütü raporu, birkaç büyük askeri gücün “otonom sistemlerin geliştirilmesine büyük yatırım yaptığını” belirtir. İngiltere, programlanmış bir alandaki bir hedefi tanımlayabilen mürettebatsız otonom bir drone geliştirirken, “Rusya makineli tüfek veya el bombası fırlatıcı takılabilen bir robot tank inşa etti” dedi.
ABD yapımı Switchblade 600 loitering füzesi gibi mevcut veya gelişmekte olan teknolojilere otonom işlevler de eklenebilir.
Bu tür silah sistemlerine karşı asıl tepki, yasal olarak bağlayıcı düzenlemeler arayan Küresel Güney’in büyük bölümlerinden – özellikle Latin Amerika, Afrika ve Orta Doğu’dan geliyor.
Son zamanlarda kampanyaya liderlik eden bir ülke, ordusuz barışın sağlanabileceğini göstermiştir.
‘Barışa kültürel bakış’
Şubat ayında Kosta Rika hükümeti, yerel sivil toplum kuruluşu FUNPADEM ile birlikte Latin Amerika ve Karayipler’deki hemen her ülkeden temsilcilerin katıldığı bölgesel bir konferans düzenledi.
Konferansın 30’dan fazla devletin kabul ettiği Belén Tebliği ( PDF ), otonom silah sistemlerinin tehlikelerine dikkat çekti ve uluslararası toplumu bunlara “uluslararası yasal çerçeveyi geliştirerek ve güçlendirerek” yanıt vermeye çağırdı.
FUNPADEM proje teknisyeni Bradon Mata Aguilar, Al Jazeera’ya “Bu, kültürel barış görüşümüze dayanan ulusal duruşumuzdur” dedi.
Kosta Rika’nın ordusu 1948’de kaldırıldı ve bölgedeki en istikrarlı ülkelerden biri olmaya devam ediyor. Aguilar, bu gerçeğin “diğer devletler ve Kosta Rika’nın bu yasal olarak bağlayıcı araçları uygulamaya bakış açısı arasında büyük bir fark” yarattığını açıklıyor.
Kosta Rika’nın, tamamen özerk silahların tamamen yasaklanmasını ve yarı özerk silahların kullanımını ve geliştirilmesini kontrol etmek için uygulanan düzenlemeleri aradığını söyledi.
Stop Killer Robots ( PDF ) kampanyası, HUKUK’u önleyici olarak yasaklamayı amaçlayan sivil toplum örgütleri koalisyonu ve Uluslararası Kızılhaç Komitesi (ICRC) gibi gruplar da Kosta Rika’daki konferansta güçlü bir şekilde yer aldı.
Ardından, 25 Mart’ta Dominik Cumhuriyeti’ndeki İbero-Amerikan Zirvesi’nde, İspanyolca ve Portekizce konuşan ülkelerin 22 devlet başkanı ortak bir açıklama ( PDF ) yayınlayarak, “yasal olarak bağlayıcı bir uluslararası belgenin müzakere edilmesi” çağrısında bulundu. yasaklar ve silah sistemlerinde özerkliğe ilişkin düzenlemeler”.
Bu duygu, iki gün sonra Orta Amerika Entegrasyon Sistemi grubunun Belize, Kosta Rika, El Salvador, Guatemala, Honduras, Nikaragua ve Panama da dahil olmak üzere üye devletlerinin acil müzakere çağrısı yapan benzer bir bildiriyi kabul etmesiyle tekrarlandı.
Aralarında Cezayir, Namibya, Gana, Uganda, Zimbabve, Fas, Mısır, Ürdün, Irak ve Filistin’in de bulunduğu Afrika ve Orta Doğu’daki çok sayıda ülke, son on yılda tamamen otonom silah sistemlerinin tamamen yasaklanması çağrısında bulundu. Güney Afrika gibi diğerleri düzenleme çağrısında bulundu, ancak tam bir yasak aramaktan vazgeçti.
Walsh, tüm bu ivme, yasama iştahının orada olduğunu gösteriyor, dedi. “Birleşmiş Milletler katında üç düzine veya daha fazla ülkenin düzenleme çağrısı yaptığını gördük. Avrupa Parlamentosu’nun bunu oyladığını gördük. Afrika Birliği’nin buna oy verdiğini gördük”.
Ancak bazı uzmanlara göre, herhangi bir görüşmenin başarısı için önemli bir bileşen eksik: güven.
Güven ve saygı
Analistler, artan jeopolitik gerilimlerin ortasında, birçok ülkenin rakiplerinin resmi olarak belirttiği şeylere inanıp inanamayacakları konusunda endişeli olduğunu söylüyor.
Bu güven eksikliği iki düzeyde ortaya çıkıyor. Walsh, CCW gibi uluslararası sözleşmeler fikir birliğine bağlı olduğundan, “ilerleyen müzakereleri durdurmak için yalnızca bir ülkenin yıkıcı olması yeterlidir” dedi.
Ancak yeni bir uluslararası hukuk veya bir dizi düzenleme yürürlüğe girecek olsa bile, bunlar etkili bir şekilde uygulanabilecek mi? Walsh, pek çok ülkenin “artık kurallara dayalı düzene göre oynamadığı” için bu açık bir soru.
Boulanin bu endişelere katılıyor.
Boulanin, “Devletler anlaşabilir – [bu] bir şeydir, ancak uyum başka bir şeydir” dedi.
“Bazı eyaletlerin iddialı bir düzenleyici çerçeve üzerinde anlaşmaya varmaları durumunda potansiyel olarak kendi ayaklarına kurşun sıkacaklarından endişe duyduklarını düşünüyorum” diye ekledi. Rakipleri kurallara göre oynamaz ve YASALAR geliştirirse, bu onları stratejik olarak dezavantajlı duruma düşürür, diye açıkladı.
Ancak Boulanin, bu riskin “sorumlu davranış için yeni normlar üzerinde anlaşmaya devam etmememiz gerektiği” anlamına gelmediğini söyledi.
BM’nin artık teknolojiden bağımsız düzenlemelere odaklanan yaklaşımıyla, herhangi bir uluslararası hukukun teknolojinin hızlı ilerleme hızına ayak uyduramayacağı şeklindeki geleneksel bir endişenin halihazırda ele alındığını söyledi.
Yine de, bu tartışmada söz konusu olan daha da temel meseleler var; buna, karar verme sürecine herhangi bir insan dahil olmadan, insanların hayatlarını alan makinelerin ahlakiliği de dahil.
1899 Lahey Sözleşmesi’nin (II) önsözünde ilk ortaya çıkışından bu yana silahlı çatışma yasalarının bir parçasını oluşturan Martens Maddesi, otonom silah sistemlerinin etiği konusundaki tartışmalarda sıklıkla kullanılır. Bir konuda belirli bir anlaşma yasasının yokluğunda, insanların hâlâ “örf ve adet”, “insanlık ilkeleri” ve “kamu vicdanının emirleri” tarafından korunduğunu beyan eder.
2019’da BM Genel Sekreteri António Guterres, insan müdahalesi olmadan can alma gücüne ve takdirine sahip makinelerin “siyasi olarak kabul edilemez” ve “ahlaki açıdan tiksindirici” olduğunu söyledi.
Ve Walsh’un araştırması için konuştuğu birçok askeri personel de tamamen otonom silahlar konusunda titiz görünüyor.
“Neredeyse evrensel olarak, aşağı indikçe, savaş alanına yaklaştıkça, robotlara karşı savaşıyor olabileceğiniz fikrine karşı daha fazla tepki olduğunu” bulduğunu söyledi.
Walsh, yasaların, düzenlemelerin ve jeopolitiğin ötesinde, insan empatisinden yoksun makinelerin bu tür kritik kararlar vermesi fikriyle ilgili daha temel bir sorun olduğunu söyledi.
“İnsan onuruna saygısızlıktır”
More Stories
İsrail’in Naqab’da Filistinli Bedevi evlerine yönelik yıkım arttı
Çin’in yabancı şirketleri ulusal güvenlik baskınlarından sonra gergin
BM’e göre Taliban yasağından bu yana birçok kadın Afgan çalışanlar gözaltına alındı