Haber Detayı
Yapay zekanın fay hattı: Pentagon'un 'ahlaksız' teklifine ret... Genç yazılımcılar rahatsız
ABD Savunma Bakanlığı’nın ‘her türlü yasal kullanım’ talebini reddeden yapay zeka şirketi Anthropic, askeri sınır tartışmasını alevlendirdi. Google ve OpenAI çalışanlarının açık mektubuyla büyüyen kriz, küresel işbirlikleri üzerinden “kırmızı çizgi nerede” sorusunu yeniden gündeme taşıdı.
ABD Savunma Bakanlığı (DoD) ile Amerikan yapay zeka şirketi Anthropic arasındaki kriz, tehlikenin boyutunu bir kez daha gözler önüne serdi.
DoD sözleşmeye “any lawful use (her türlü yasal kullanım)” maddesini eklemek istedi, şirket reddetti.Pentagon’un, Anthropic’in Claude adlı yapay zeka modelini daha geniş çerçevede kullanabilmek için sözleşme dilini genişletmek istemesi, şirketin bugüne kadar açıkça sınır koyduğu iki alanı da kapsayabilecek bir esneklik anlamına geliyordu: İlki ‘kitlesel yurt içi gözetim’, ikincisi ve en tartışmalı olanı ‘insan denetimi olmadan öldürücü tam otonom silah sistemleri’Anthropic CEO’su Dario Amodei, şirket blogunda yaptığı açıklamada, geliştirdikleri modellerinin demokratik değerleri zayıflatabilecek kullanım biçimlerine izin vermeyeceklerini söyledi.
Özellikle yapay zekanın dağınık ve tek başına masum görünen verileri birleştirerek bir kişinin hayatına dair kapsamlı bir tabloyu otomatik ve büyük ölçekte çıkarabileceğine dikkat çekti.Anthropic CEO’su Dario AmodeiPentagon cephesinden ise sözleşme kapsamının “her türlü yasal kullanım” çerçevesinde ele alınması gerektiği yönünde bir yaklaşım olduğu bildirildi.
Basına yansıyan haberlere göre Savunma Bakanlığı, teklifi reddeden Anthropic’i “tedarik zinciri riski” ilan etme ya da Savunma Üretim Yasası gibi olağanüstü yetkileri devreye sokma tehdidinde bulundu.DoD’nin gündemindeki bu yasa, başkana belirli bir şirketi ulusal güvenlik açısından kritik ilan ederek savunma ihtiyaçlarını karşılamaya zorlayabilme yetkisi tanıyor.Anthropic ise “Yabancı istihbarat ve karşı istihbarat operasyonları için yapay zeka kullanımına karşı değiliz; ancak yurt içinde kitlesel gözetim ve insan denetimi olmadan ölümcül karar veren sistemler bizim kırmızı çizgimizdir” açıklamasını yaptı.Bu açıklama, yapay zeka sektöründe yeni bir fay hattını görünür kıldı.GENÇ YAZILIMCILAR RAHATSIZ: “BÖLÜNMEYECEĞİZ” Anthropic’in kamuoyuna yansıyan reddinin ardından Google ve OpenAI çalışanları devreye girdi. “We Will Not Be Divided (Bölünmeyeceğiz)” başlıklı bir açık mektup yayınlandı: 220’den fazla mevcut ve eski çalışan imza attı.
Bunların 176’sı Google’dan, 47’si OpenAI’dan…Mektupta Pentagon’un, Anthropic’in reddettiği koşulları Google ve OpenAI’ye kabul ettirmeye çalıştığı belirtildi.
Şirketlerin birbirine karşı bölünmek istenildiği savunuldu ve dayanışma çağrısı yapıldı.İmzacılar açıkça iki talep dile getirdi:-Yapay zeka modellerinin kitlesel yurt içi gözetim için kullanılmaması-İnsan denetimi olmadan öldürücü sistemlerde kullanılmamasıMektubun adresi kendi şirketlerinin yönetimleri gibi görünse de içeriği, daha geniş bir sektörel pozisyonu işaret ediyor.Peki yapay zeka şirketleri askeri kullanımda sınır koyacak mı?
Bu sorunun yanıtı hala belirsiz gibi görünüyor zira halihazırda işbirlikleri mevcut.ANTHROPIC REDDETTİ AMA…Her ne kadar Anthropic, DoD’nin ek madde teklifini reddetse de ABD hükümetiyle mevcut temasları ve sözleşme görüşmeleri var.Şirket, yabancı istihbarat ve savunma amaçlı sınırlı işbirliğine kapıyı kapatmıyor.
Onlar için sorun, “her türlü yasal kullanım” gibi geniş bir ifadenin kitlesel gözetim ve tam otonom silahları da kapsayabilecek bir çerçeve yaratması.Tartışma tam da bu noktada yoğunlaşıyor.Peki çalışanların deyim yerindeyse kazan kaldırdığı Google ve OpenAI’nin ilişkileri ne boyutta?‘GENEL AMAÇLI KULLANIM’Google ve OpenAI’nin ABD kamu kurumlarıyla temasları yeni değil.
Bulut altyapısı, veri işleme sistemleri ve çeşitli kamu projeleri üzerinden devletle temas söz konusu.Ancak bu şirketler kendilerini ‘genel amaçlı yapay zeka geliştiricisi’ olarak konumlandırıyor.
Yani savunma odaklı şirketlerden farklı olarak, ürünlerinin sivil, ticari ve akademik kullanımı da var.
Bu nedenle içeride etik tartışmalar daha görünür.Açık mektup da bu gerilimin yansıması…İşin bir de Palantir benzeri örneklerine bakalım:SAVUNMA MERKEZLİ YAPAY ZEKAAnthropic tartışması sürerken, başka bir model uzun süredir tartışmaların merkezinde: Palantir.Türkiye Palantir dosyasını ilk olarak Odatv’den okudu.Palantir, veri birleştirme, istihbarat analizi ve operasyonel karar destek sistemleri geliştiriyor.
ABD Savunma Bakanlığı, istihbarat kurumları ve farklı ülkelerle aktif sözleşmeleri bulunuyor.
İş modeli doğrudan güvenlik ve savunma üzerine kurulu.Şirketin en tartışmalı adımı İsrail devletiyle resmi işbirlikleri yürüttüğünü kamuoyuna duyurması oldu.2023 sonrasında şirket yönetimi, İsrail hükümetiyle “stratejik ortaklık” kapsamında gelişmiş veri analizi ve yapay zeka çözümleri sağlanacağını açıkladı.
Bu kapsamda Palantir’in yazılımları büyük veri setlerinin analizinde, istihbarat sentezinde ve operasyonel planlama ve karar destek sistemlerinde kullanılabiliyor.
Gazze’deki soykırım göz önüne alındığında tehlikenin boyutu anlaşılıyor.NEREDE BU KIRMIZI ÇİZGİAnthropic ve benzeri şirketlerde tartışma ‘kırmızı çizgi nerede’ sorusu etrafında dönerken, Palantir modelinde soru daha çok “kapasite ve ölçek” üzerine.Öte yandan Palantir’in tek örnek olmadığını belirtmekte fayda var: Savunma odaklı yapay zeka ekosisteminde otonom insansız sistemler geliştirenler, sensör füzyonu ve hedef tespiti üzerine çalışanlar, askeri karar destek yazılımı üreten girişimler ve büyük bulut altyapı sağlayıcıları gibi farklı katmanlar var.Bu yapı, askeri yapay zekanın artık ana akım bir yatırım alanı haline geldiğini gösteriyor.SORUMLULUK KİMDE, DEMOKRATİK DENETİM NEREDETartışmanın merkezine bakıldığında üç ana soru olduğu görülüyor:-‘Yasal’ olan her kullanım meşru mudur?-Kitlesel gözetimde otomasyon ve yapay zeka, demokratik denetimi aşındırır mı?-İnsansız silahlarda sorumluluk zinciri kime ait?Yapay zeka sistemlerinin hata yapabildiği, yanlış sınıflandırma üretebildiği ve veri önyargılarını büyütebildiği biliniyor.
Google DeepMind CEO’su Demis Hassabis’in ‘pürüzlü zeka’ açıklaması göz ardı edilmemeli…Bu sistemlerin ölümcül kararlar alması halinde sonuçları ve sorumluluğun kimde olduğu hayati önem taşıyor.Anthropic’in reddi, yapay zeka çağında devlet–şirket ilişkilerinin yeniden tanımlandığı bir dönemin işareti.Ulusal güvenlik gerekçesinin karşısında bu defa demokratik tanımlar, kırmızı çizgiler var.Özetlemek gerekirse yapay zeka tartışmasının teknolojiden ziyade siyasal ve etik bir mesele olduğu Anthropic örneği ile yeniden karşımızda duruyor…Gözde SulaOdatv.com