Haber Detayı

AI hakkında şaşırtan açıklama!
Yapay zeka teknolojioku.com
11/10/2025 17:00 (2 ay önce)

AI hakkında şaşırtan açıklama!

Araştırmacılar, ChatGPT ve Gemini gibi AI modellerinin küçük miktarda zehirli veriyle manipüle edilebileceğini açıkladı.

OpenAI’nin ChatGPT’si veGoogle’ın Gemini modeli gibi yapay zeka modelleri, yalnızca küçükbir miktar bozulmuş veri ile “zehirlenebilir” uyarısı geldi.Birleşik Krallık AI Güvenlik Enstitüsü, Alan Turing Enstitüsü ve AIfirması Anthropic’in ortak çalışmasına göre, sadece 250 belge,büyük dil modellerinde (LLM) gizli bir “backdoor” açığa çıkararakrastgele ve anlamsız metin üretmelerine neden olabiliyor.AI hakkında şaşırtanaçıklama!Araştırmacılar, çoğu LLM’nininternet üzerindeki halka açık metinler ile önceden eğitildiğinivurguluyor.

Bu durum, kötü niyetli aktörlerin içerik üretip, buiçeriklerin AI’nin eğitim verisine dahil edilmesini sağlayabileceğianlamına geliyor.

Anthropic’in blog gönderisinde belirtildiği gibi,“zehirleme” işlemiyle modelin istenmeyen veya tehlikeli davranışlaröğrenmesi sağlanabiliyor.Backdoor saldırıları, belirlitetikleyici kelimelerle modeli gizli bir şekilde belirlidavranışlar sergilemeye zorlayabiliyor.

Örneğin, modelin hassasbilgileri ifşa etmesi tetiklenebilir.

Araştırmada, modelinbüyüklüğü veya eğitim verisi miktarı ne olursa olsun, sadece 250belge ile zehirleme saldırısının mümkün olduğu tespit edildi.Dr.

Vasilios Mavroudis ve Dr.Chris Hicks, bu sonuçların “sürpriz ve endişe verici” olduğunubelirterek, veri zehirleme saldırılarının önceki tahminlerden çokdaha uygulanabilir olduğunu ifade etti.

Kötü niyetli bir kişi,örneğin 250 zehirli Wikipedia makalesi oluşturarak AI modellerinimanipüle edebilir.

İlgili Sitenin Haberleri