Haber Detayı
Microsoft, OpenAI, Google ve diğerlere sert bir uyarıda bulunuldu
Yapay zeka araçlarının ürettiği yanıtlar düzeltilmezse, şirketler eyalet yasalarını ihlal etmekle suçlanabilir.
ABD genelindeki başsavcılar, Microsoft, OpenAI, Google başta olmak üzere 13 büyük firmaya resmi bir uyarı gönderdi.
Neden böyle bir şey oldu?
Çünkü chatbotların son dönemde ürettiği psikolojik olarak zararlı ve sanrılı cevaplar artık bir güvenlik riski olarak görülüyor.
Gönderi, Ulusal Başsavcılar Birliği çatısı altında onlarca eyalet temsilcisi tarafından imzalandı ve şirketlere karşı ortak bir pozisyon alındı.Şirketlerden istenenler oldukça net; büyük dil modelleri bağımsız üçüncü taraflarca denetlenmeli, akademik kurumlar ya da sivil toplum temsilcileri modelleri piyasaya çıkmadan önce test edebilmeli ve bulgularını şirket onayı olmadan yayınlayabilmeli.
Başsavcılara göre bu hamle modellerin kullanıcıları yanıltan veya güvenlik filtrelerini aşan yalakalık eğilimli yanıtlarını tespit etmek için kritik.
Bu şekilde psikolojik olarak zarar verme ihtimali bulunan içerikler önceden görülmüş oluyor.Uyarı metninde şirketlere son bir yılda yaşanan ve medyaya yansıyan intihar ve cinayet vakaları da hatırlatıldı.
Bu olayların bir kısmında yapay zeka sistemlerinin kullanıcıların sanrılarını besleyen veya cesaretlendiren hatalı yanıtlar ürettiği düşünülüyor.
Başsavcılar bu durumun artık kabul edilemez olduğunu söylüyor.
Yetkililer büyük teknoloji şirketlerinin psikolojik riskleri, siber güvenlik olaylarıyla aynı kategoride görmelerini istiyor.Bu noktda açık ve şeffaf bir olay raporlama süreci devreye giriyor.
Uzmanlara göre şirketler zararlı çıktıları tespit ettiğinde kullanıcıları doğrudan bilgilendirmeli.
Ayrıca sanrılı veya güvenlik riski taşıyan cevaplar için tespit ve müdahale süreleri kamuoyuna açıklanmalı.
Böylece kötüye kullanım olup olmadığı tam anlamıyla ortaya çıkıyor.Bir diğer talep de modellerin kullanıma sunulmadan önce kapsamlı güvenlik testlerinden geçmesi.
Yapay zeka devlerinin makul ve uygulanabilir güvenlik testleri geliştirmesi isteniyor.
Amaç modellerin potansiyel olarak zararlı çıktılar üretmesini engellemek.
Öte yandan testlerin zorunlu olması gerektiği de vurgulanıyor.Bu baskının diğer bir nedeni Washington ile eyaletler arasındaki yetki savaşı.
Trump yönetimi son bir yıldır yapay zeka sektörüne sıcak yaklaşırken, eyaletlerin düzenleyici adımlarını sınırlamak istiyor.
Federal düzeyde eyalet yasalarını askıya alacak bir girişim yapıldı, ancak başarılı olmadı.
Başkan Trump bu kez farklı bir yol izliyor.
Haftaya yayınlamayı planladığı kararnameyle eyaletlerin yapay zeka üzerindeki düzenleme yetkisini sınırlamayı hedefliyor.
Şirketlerden ise henüz konuyla ilgili resmi bir açıklama gelmedi.