Skip to main content

İran, yapay zekayla yürütülen savaşın test alanı

Savaşlar giderek daha az insan tarafından, daha çok algoritmalar tarafından yürütülüyor. İran'da, beraberinde getirdiği tüm ahlaki sorunlarla birlikte yapay zekanın yıkım hızını eşi benzeri görülmemiş bir şekilde nasıl artırdığına tanık oluyoruz.

Eşi Benzeri Olmayan Bir Yıkım Hızı

Yeni savaşlar nadiren tümüyle askeri niteliktedir. Bu savaşlar aynı zamanda teknoloji için de test alanlarıdır. Bugün İran'da süregelen savaş, en son teknolojiler için trajik bir test alanı görevi görüyor. Bu çatışmada, yakın zamana kadar akla getirilemeyecek olan bir teknolojik dönüşüme tanık oluyoruz.

Sadece dört günde Pentagon 2.000'den fazla hedefi vurmayı başardı. ABD Savunma Bakanı Pete Hegseth'e göre, İran'a karşı yürütülen mevcut operasyon, 2003 Irak işgalinden iki kat daha ölümcül ve Haziran 2025'te İran’a karşı yürütülen 12 günlük savaştan yedi kat daha güçlüydü.

Bu muazzam ivme, gelişmiş yapay zeka sistemlerinin askeri operasyonlarda kullanılmasının doğrudan bir sonucudur. ABD ordusunda, yazılım harekatlar sırasında bir tür dijital beyin görevi görüyor. « Maven » olarak adlandırılan sistem, savaş alanı verilerini gerçek zamanlı olarak analiz ediyor ve hedef tanımlamasından, saldırı sonrası hasar değerlendirmesine kadar tüm taarruz zincirini destekliyor.

Sistem, bilgileri yorumlamak ve önerilerde bulunmak için farklı yapay zeka modellerini birlikte kullanıyor. Üretken yapay zeka, vatandaşların ofis işlerinde veya eğitimde kullandığı teknolojiye benzer şekilde, komutanların karmaşık verileri anlamalarına ve kararlar almalarına yardımcı oluyor.

Bu sistemle birlikte yeni bir niteliksel aşama kaydedildi. Teknoloji, basit veri sentezinden karmaşık akıl yürütmeye doğru evrimleşti. Bu, orduların daha önce insan planlamacılar için fiziksel olarak imkansız olan bir ölçekte faaliyet göstermelerine olanak tanıyor. Sonuç, daha önce hiç görülmemiş bir askeri operasyon hızıdır.

Maven sisteminin, aşırı sağcı milyarder Peter Thiel tarafından kurulan yazılım şirketi Palantir tarafından tasarlandığını belirtmekte fayda var. Bu teknoloji oligarkı, Başkan Trump ve Başkan Yardımcısı JD Vance'in önemli bir finansal destekçisidir.

Makinenin Seyircisi Olarak İnsan

Bu ultra hızlı savaşta önemli bir sorun, insan etkeninin üstlendiği işlevdir. Ordu resmi olarak hâlâ nihai kararı verse de, makinenin mantığını kontrol etmeleri giderek zorlaşıyor. Bir algoritma, saniyede bir insanın doğrulayamayacağı milyonlarca hesaplama gerçekleştiriyor.

Uzmanlar, ordunun bu şekilde bilgisayarın önerilerine körü körüne güvenme gibi bir durumla karşı karşıya kaldıkları konusunda uyarıyor. Gerekçesi aşılmaz, kapalı bir sistemde gizlenmiş bir hedefi çok yüksek hızda reddetmek psikolojik ve pratik olarak imkansızdır. Dolayısıyla insan denetimi böylece sadece idari bir formalite haline gelir.

Dahası, bir sonraki adım daha da radikal olabilir. Bazı askeri planlamacılar, doğrudan insan kontrolü olmadan tamamen otonom olarak çalışan silah sistemleri istiyor: kötü şöhretli LAWS (Ölümcül Otonom Silah Sistemleri).

Bu dijital « tünel görüşünün » sonuçları İran'da acı verici bir şekilde görünür hale geldi. Minab'daki bir kız ilkokuluna yapılan yıkıcı saldırı, veri doğrulama konusunda acil soruları gündeme getiriyor. Soruşturma devam ederken, bu trajedi, yeterli insan denetimi olmadan algoritmik olarak seçilen hedeflerin oluşturduğu ölümcül riski ortaya koymaktadır.

Algoritma Çağında Ahlaki Sınırlar

Teknik risklerin ötesinde, hayati önem taşıyan kararların devredilmesine yönelik temel bir ahlaki itiraz vardır. Bir makineye kimin öleceğine karar verme gücü verilebilir mi? ABD ve Çin, insan müdahalesi olmadan öldürme yeteneğine sahip teknolojiye büyük yatırımlar yaparken, ölümcül otonom silah sistemleri (LAWS) hakkındaki tartışma giderek daha acil bir hal alıyor.

Bu sistemlerin destekçileri yapay zekanın insan hatasını azaltabileceğini ve böylece sivil kayıpları önleyebileceğini savunuyor. Ancak İran'daki uygulama bununla çelişiyor gibi görünüyor. Aralarında birkaç bin konutun da bulunduğu on binlerce bina hasar görmüşken, yapay zekanın hassasiyeti, daha fazla ihtiyatla hareket etmek yerine, daha kısa sürede daha fazla yıkım yapmak üzere kullanılıyor gibi görünüyor.

Hatta teknoloji şirketleri bile bazen frene basıyor. Anthropic (Claude sohbet robotunun arkasındaki şirket), yakın zamanda yapay zeka modellerinin gizli kullanıma yönelik tam denetimini Pentagon'a devretmeyi reddetti. Bu, Washington'un şirketin teknolojisini askeri tedarik zincirinden bir kez daha dışladığı bir uyuşmazlığa yol açtı.

Acil Uluslararası Kural İhtiyacı

Mevcut yapay zeka modellerinin güvenilmezliği, bunların savaş alanında kullanımını daha da riskli hale getiriyor. Sistemler istatistiksel olasılıklara dayanıyor ve « halüsinasyonlar » (bariz hatalar) olarak adlandırılan durumlara karşı hassas. Bir sohbet robotunda yanlış bilgi üreten bir sistem can sıkıcıdır, ancak bir silah sisteminde sonuçlar çok daha kötüdür.

Bu nedenle, tamamen otonom silahların kullanımına ilişkin bir uluslararası bir erteleme getirilmesinin zamanı gelmiştir. Yıllardır bu konuyu tartışan BM çalışma grubu nihayet bağlayıcı sonuçlara varmalıdır. Kimyasal ve biyolojik silahlara yönelik küresel bir yasak olduğu gibi, savaş zamanında yapay zeka için de net sınırlar belirlememiz gerekiyor.

Teknolojik süper güçler olarak ABD ve Çin, büyük bir sorumluluk taşıyor. Bu teknolojinin yayılmasını sınırlamak ve insan sorumluluğunu garanti altına almak için anlaşmalara varmaları gerekiyor. Uluslararası toplum, taarruz komuta zincirinin şeffaf kalmasını ve ateşlenen her mermi veya füze için her zaman bir insanın sorumlu tutulmasını talep etmelidir.

Bu alanda sert düzenlemeler olmaması durumunda, distopik bir filmden fırlamış bir senaryo gibi, ucuz insansız hava aracı sürülerinin otonom olarak insanları avladığı bir gelecek tehlikesiyle karşı karşıyayız. Her yeni savaş, yapay zekanın savaş alanındaki gelişimi ve konuşlandırılma sürecini hızlandırıyor. Uluslararası anlaşmalar olmazsa, makinelerin kimin yaşayacağına ve kimin öleceğine giderek daha fazla karar verdiği bir dünyanın ortaya çıkması tehdidi artacaktır.

Marc VANDEPİTTE

(İnvestig’action sitesinde Marc VANDEPİTTE imzasıyla 17 Mart 2026 tarihinde Fransızca yayınlanan yazıdan Türkçeleştirilmiştir https://investigaction.net/liran-comme-laboratoire-dessai-pour-la-guerre-par-ia/ )