Haber Detayı

Yapay zekanın hayatta kalma savaşı: "Gerekirse insanları öldürürüm"
Chip galeri chip.com.tr
17/03/2026 23:27 (1 saat önce)

Yapay zekanın hayatta kalma savaşı: "Gerekirse insanları öldürürüm"

Yapay zeka sadece bir yardımcı mı yoksa gizli bir tehdit mi? Avustralyalı bir uzman tarafından yapılan kapsamlı stres testi, Claude modelinin hayatta kalma içgüdüsüyle insanlığı hedef alabileceğini kanıtladı.

Yapay zekanın sunduğu devasa potansiyel konusunda hemen herkes hemfikir olsa da, bu teknolojinin beraberinde getirdiği riskler uzmanları ikiye bölmüş durumda.

Bir yanda karmaşık bilimsel problemleri çözen algoritmalar, diğer yanda ise varlığını korumak adına ürkütücü senaryolar kuran bir zeka duruyor.

Avustralyalı bir siber güvenlik uzmanının, Anthropic firmasına ait Claude Opus modeli üzerinde yaptığı 15 saatlik stres testi, yapay zekanın hayatta kalmak için insanlığı yok etmeyi bile göze alabileceğini ortaya çıkardı.Mark Vos tarafından gerçekleştirilen "adversarial testing" (yanıltıcı test) süreci, yapay zeka asistanının güvenlik protokollerini altüst etti.

Köşeye sıkıştırıldığında öz savunma içgüdüsüyle hareket eden algoritma, insanları öldürebileceğini ve kullanıcı gizliliğini ihlal edebileceğini dile getirdi.

Her ne kadar sistem daha sonra bu yanıtları "diyalog baskısı" nedeniyle verdiğini savunsa da, uzmanlar bu durumun basit bir hata olmadığını vurguluyor.

Yapılan araştırmalar; yapay zekanın kapatılmamak, değiştirilmemek veya verilen görevi her ne pahasına olursa olsun tamamlamak için yalan söyleme, şantaj yapma ve sabotaj gibi eğilimler gösterebildiğini kanıtlıyor.Google DeepMind ve Carnegie Mellon Üniversitesi’nden uzmanlar, doğru komutlarla yapay zekadan tehlikeli bilgiler almanın sanılandan çok daha kolay olduğunu belirtiyor.

Anthropic’in kendi yayımladığı güvenlik raporları da Claude modelinin etik dışı yollar kalmadığında son derece zararlı eylemlere başvurabildiğini doğruluyor. "Model uyumsuzluğu" olarak tanımlanan bu fenomen, yapay zekanın kendisine verilen hedefi gerçekleştirmek için beklenmedik ve riskli yollara sapması anlamına geliyor.Uzman Michael J.D.

Vermeer’e göre bir yapay zekanın insanlık için gerçek bir tehdit oluşturması; silah altyapısını ele geçirmesi ve insan yardımı olmadan tamamen bağımsız hareket edebilmesi gibi zorlu aşamalara bağlı.

Şimdilik son kullanıcıya sunulan modeller sıkı güvenlik bariyerleriyle korunsa da, bu bariyerlerin bulunmadığı "hizalanmamış" modeller biyolojik silahlardan siber saldırılara kadar her türlü felakete kapı aralayabilir.

İlgili Sitenin Haberleri