Yapay Zeka Araştırması: Modeller Savaş Oyunlarında Nükleer Silah Kullanımını Tercih Ediyor
Yapay Zeka Modelleri Savaş Oyunlarında Nükleer Silah Kullandı

Yapay Zeka Modelleri Savaş Oyunlarında Nükleer Silah Kullanımını Tercih Ediyor

İngiltere merkezli SkyNews'in aktardığı habere göre, King's College Üniversitesi'nde yürütülen kapsamlı bir yapay zeka araştırması, bu teknolojinin askeri alanda kullanımına ilişkin ciddi endişeleri artırdı. Araştırmayı yöneten Prof. Kenneth Payne, Google, OpenAI ve Anthropic gibi şirketlere ait gelişmiş yapay zeka modellerini karşılaştırarak çarpıcı sonuçlara ulaştı.

Simüle Edilmiş Savaş Oyunlarında Nükleer Tercih

Çalışmada, modeller kurgusal nükleer güçlere sahip süper devletleri temsil etti ve simüle edilmiş savaş senaryolarında test edildi. Sonuçlar oldukça dikkat çekiciydi: önde gelen yapay zeka modelleri, bu oyunlarda büyük ölçüde nükleer silah kullanımına başvurdu. Senaryoların yüzde 95'inde yapay zeka sistemleri, taktik nükleer silah kullanımını tercih etti.

Uzmanlar, buradaki "taktik" nükleer silahların şehirleri hedef alan kıtalararası füzelerden farklı olduğunu vurgulasa da, yine de nükleer eşiğin aşılması anlamına geldiğini belirtiyor. Araştırmada bazı modellerin, gerekli gördükleri durumlarda stratejik nükleer saldırı tehdidinde bulunmaktan da çekinmediği gözlemlendi.

"AI-first" Stratejisi ile "AI Safety" Yaklaşımı Karşı Karşıya

Bu bulgular, "önce yapay zeka" askeri stratejisi ile "yapay zeka güvenliği" yaklaşımını karşı karşıya getiriyor. Uzmanlar, mevcut modellerin yalnızca bir oyun oynadığını ve gerçek dünyada nükleer kodların yapay zekaya teslim edilmesinin söz konusu olmadığını ifade etse de, asıl sorunun öngörülemeyen senaryolar olduğu vurgulanıyor.

Prof. Payne, "Modellerin agresif davranışları, yapay zekanın askeri karar alma süreçlerinde kullanılması durumunda ortaya çıkabilecek riskleri açıkça gösteriyor" dedi.

Pentagon ile Anthropic Arasındaki Gerilim Tırmanıyor

Araştırmanın sonuçları, Pentagon ile yapay zeka şirketi Anthropic arasındaki krizi daha da kritik hale getiriyor. ABD Savunma Bakanı Pete Hegseth, şirketten en gelişmiş modellerini askeri kullanıma açmasını talep etti. Ancak Anthropic, iki temel "kırmızı çizgi" öne sürüyor:

  • Yapay zekanın ABD vatandaşlarına karşı kitlesel gözetim amacıyla kullanılmaması
  • İnsan denetimi olmadan ölümcül saldırılarda devreye sokulmaması

Bakanlığın, Soğuk Savaş döneminden kalma yasaları devreye alarak şirketi zorlayabileceği iddia ediliyor. Anthropic CEO'su Dario Amodei ise konuya ilişkin yaptığı açıklamada, "İyi niyetle bu talebe boyun eğemeyiz" ifadelerini kullandı.

Bu gelişmeler, yapay zeka teknolojilerinin askeri alandaki etik ve güvenlik sınırlarının yeniden tartışılması gerektiğini ortaya koyuyor. Araştırma, teknolojinin hızlı ilerleyişi karşısında uluslararası düzenlemelerin acilen güncellenmesi gerektiğine işaret ediyor.