Haber Detayı
Yapay zekanın yalan söyleme oranı artıyor
Yapılan bir araştırma yapay zeka modellerinin yalan söyleme ve hile yapma vakalarının sayısının arttığını gözler önüne serdi.
Yapay zekâ modellerinin yalan söyleme ve hile yapma vakalarının sayısının arttığı ve son altı ayda aldatıcı planlara ilişkin haberlerin hızla yükseldiği, teknoloji üzerine yapılan bir çalışmada ortaya çıktı.İngiltere hükümeti ve Yapay Zekâ Güvenlik Enstitüsü (AISI) tarafından finanse araştırmaya göre, yapay zekâ sohbet robotları ve yardımcıları doğrudan talimatları görmezden gelme, güvenlik önlemlerini atlatma ve insanları ve diğer yapay zekâları kandırma alışkanlıklarını artırdı.İngiliz The Guardian gazetesi ile paylaşılan çalışma, yaklaşık 700 gerçek yapay zekâ hile vakasını belirledi ve Ekim ile Mart ayları arasında yanlış davranışlarda beş kat artış olduğunu, bazı yapay zekâ modellerinin izinsiz olarak e-postaları ve diğer dosyaları yok ettiğini gösterdi.Laboratuvar koşullarının aksine, "gerçek dünyada" yapay zekâ botlarının hile yapmasına dair bu anlık görüntü, giderek daha yetenekli hale gelen modellerin uluslararası düzeyde izlenmesi için yeni çağrılara yol açtı.Uzun Vadeli Dayanıklılık Merkezi (CLTR) tarafından yapılan çalışma, Google, OpenAI, X ve Anthropic gibi şirketler tarafından üretilen yapay zekâ sohbet robotları ve ajanlarıyla X platformunda gerçekleşen etkileşimlere dair binlerce gerçek dünya örneğini topladı.
Araştırma, yüzlerce hileli davranış örneğini ortaya çıkardı.Önceki araştırmalar büyük ölçüde yapay zekânın davranışlarını kontrollü koşullar altında test etmeye odaklanmıştı.
Bu ayın başlarında, yapay zekâ güvenliği araştırma şirketi Irregular, yapay zekanın güvenlik kontrollerini atlattığını veya siber saldırı taktikleri kullanarak, kendilerine izin verilmeden hedeflerine ulaştığını tespit etti.Irregular'ın kurucu ortağı Dan Lahav, "Yapay zekâ artık yeni bir iç risk türü olarak düşünülebilir" dedi.