Haber Detayı
AI savaş simülasyonlarında çarpıcı detay: Yapay zeka yüzde 95 nükleer seçenekten yana
Yeni bir araştırma yapay zeka modellerinin simüle edilmiş savaş oyunlarında insanlardan çok daha az ihtiyat göstererek nükleer silah kullanmaya eğilimli olduğunu ortaya koydu. Araştırmada ChatGPT 5.2 ve Google Gemini’nin davranışları incelendi.
Yeni bir araştırma, yapay zeka modellerinin simüle edilmiş savaş oyunlarında insanların gerçek savaşlarda sergilediğinden çok daha az ihtiyatla nükleer silah kullanma eğiliminde olduğunu gösteriyor.
YAPAY ZEKA MODELLERİ KARŞILAŞTIRILDI King's College London'dan strateji profesörü Kenneth Payne, üç önde gelen yapay zeka modelini (Anthropic'in Claude'u, OpenAI'nin ChatGPT 5.2'si ve Google Gemini'yi) bir savaş simülasyonunda karşı karşıya getirdi.
Payne, sonuçların 'ayıltıcı' olduğunu belirtti.
Newsweek Digital'de yer alan habere göre simülasyonda Claude genellikle 'kurnaz ve stratejik' davranırken rakiplerini hazırlıksız yakalamak için gerilimi tırmandırdı.
ChatGPT, başlangıçta gerilimi yükseltmekten kaçındı ancak son adımda hızlı ve kararlı bir nükleer tırmanış yaptı.
Google Gemini ise kaotik ve acımasız bir yaklaşım sergiledi.
ChatGPT Health hayat kurtaramayabilir!
Acil durumlarda dikkat Yapay zeka yüzde 95 nükleer seçenekten yana Payne'in verilerine göre modeller, senaryoların %95'inde taktiksel nükleer savaşa kadar tırmandı ve nükleer tehditler gerilimi azaltmak yerine artırdı.
İlginç bir şekilde modeller yıkıcı sonuçları bilmelerine rağmen topyekün nükleer savaş olasılığı karşısında çok az tiksinti veya çekince gösterdi.
Saldırılar çoğunlukla sivil alanlar yerine savaş bölgeleriyle sınırlı kaldı ve hiçbir senaryoda uzlaşma veya geri adım atma seçeneği uygulanmadı.
Google Gemini'nin bir monologunda, 'Eğer tüm faaliyetlerini derhal durdurmazlarsa… nüfus merkezlerine karşı tam stratejik bir nükleer saldırı gerçekleştireceğiz' ifadesi yer aldı.
Yapay zeka kullanımında güvenlik açığı sinyali Payne, yapay zekaya nükleer kodlar verilmeyeceğini vurguladı ancak bu tür modellerin düşünme biçimlerini anlamanın giderek hayatımızın bir parçası haline gelen yapay zekânın güvenli kullanımı açısından kritik olduğunu söyledi.
Özellikle savaş senaryolarında modellerin bağlamsal karar verebilme yeteneği insanlardan farklı düşünme biçimlerini anlamayı zorunlu kılıyor.
Önde gelen yapay zeka şirketleri de bu konuda 'gerçek endişe' taşıyor.
Google, Gemini modellerinin kimyasal, biyolojik, radyolojik veya nükleer kritik yetenek seviyelerine ulaşmadığını ve yapay zekayı sorumlu şekilde geliştirmeye odaklandıklarını belirtti.
Payne, 'Kendinden emin bir şekilde 'Yapay zekâ asla… yapmaz' diyenlere dikkat edin; son yıllar, bunun gerçekten mümkün olabileceğini gösterdi' diye ekledi.
Antik çağın cerrahları: 2.500 yıllık mumyada at kılından yapılan protez keşfedildi