Haber Detayı

Denetim kalitesini gerçekten artırıyor mu?
Dünya# dunya.com
21/02/2026 00:00 (1 saat önce)

Denetim kalitesini gerçekten artırıyor mu?

Yapay zekâ denetimin kalitesini gerçekten artırıyor mu sorusuna akademik çalışmalar ve sektör verileri büyük oranda evet yanıtını veriyor. Ancak elde edilen kazanımlara rağmen, yapay zekânın denetim süreçlerinde kullanımı bazı zorlukları da beraberinde getiriyor.

Deloitte Türkiye Denetim Hizmetleri Ortağı Ali ÇİÇEKLİ - Deloitte Türkiye Denetim Hizmetleri Direktörü Yasemin YALÇINYazı dizimizin ilk bölümün­de, yapay zekânın denet­çi istihdamını azaltma­dığını; aksine mesleğin niteliği­ni dönüştürdüğünü ele almıştık.

Sıradaki temel soru ise şu: Yapay zekâ denetimin kalitesini gerçek­ten artırıyor mu?

Daha düşük ha­ta oranları, daha yüksek doğruluk düzeyi ve daha güvenilir denetim çıktıları mümkün mü?Akademik çalışmalar ve sektör verileri bu soruya büyük ölçüde “evet” yanıtını veriyor.

Ancak or­taya çıkan bu olumlu tablo, bera­berinde önemli yapısal ve etik tar­tışmaları da gündeme getiriyor.Bağımsız denetim sektörü­ne geçmeden önce, yapay zekâ­nın denetim faaliyetlerini genel çerçevede nasıl etkilediğini gör­mek açısından Sayıştay’ın Ara­lık 2025’te yayımladığı kapsam­lı araştırma, önemli bir referans noktası sunuyor.Kamuda yapay zekâ deneyimi: Sayıştay bulgularıTürkiye Sayıştay Dergisi’n­de yayımlanan Özdemir ve Yel­boğa’nın (2025) çalışması, yapay zekâ uygulamalarının denetim süreçlerinde dönüştürücü bir rol üstlenebileceğini ortaya koyuyor.

Literatür taraması ve ülke uygula­maları; anomali tespiti, belge işle­me, risk odaklı planlama ve mev­zuata uyum kontrollerinde yapay zekânın önemli katkılar sağladı­ğını gösteriyor.Brezilya, Hindistan ve Filipin­ler gibi ülkelerde milyonlarca iş­lemin çok kısa sürede analiz edi­lebilmesi, denetçilerin tüm veri evrenini kapsayacak şekilde ince­leme yapabilmesine ve kritik risk alanlarına daha erken ve daha isa­betli biçimde odaklanmasına ola­nak sağlıyor.

Bu yaklaşım sonu­cunda denetim kapsamı genişli­yor, hata ve usulsüzlüklerin erken aşamada tespiti kolaylaşıyor.Akademik araştırmalar, yapay zekâ kullanımının denetim kalite­sini soyut bir vaat olmaktan çıka­rarak ölçülebilir kazanımlara dö­nüştürdüğünü ortaya koyuyor.

Bu kazanımlar ağırlıklı olarak iki te­mel başlık altında toplanıyor: hata tespiti ve değerlendirme doğrulu­ğu.

Law & Shen’in (2025) araştır­ma sonuçlarının özeti şu şekilde:Finansal hatalarda düşüşCalifornia Berkeley, Drexel ve San Francisco üniversitelerin­den araştırmacıların, Los Angeles merkezli AI for Good Foundation işbirliğiyle yürüttüğü ve Springer bünyesinde yayımlanan çalışma, 400 binden fazla denetçi özgeç­mişini analiz ediyor.

Bulgulara gö­re, yapay zekâ yatırımı yapan fir­malarda finansal tablo düzeltme­lerinde yaklaşık yüzde 5 oranında azalma gözlemleniyor.

Gelir tanı­ma ve tahakkuk hatalarındaki dü­şüş ile SEC soruşturmalarına yol açabilecek büyük yanlışlıkların daha erken aşamada tespit edil­mesi, çalışmanın öne çıkan so­nuçları arasında yer alıyor.Bu sonuçlar, yapay zekânın in­san denetçilerin manuel olarak inceleyemeyeceği büyüklükte ve­ri setlerini analiz ederek riskleri daha görünür ve yönetilebilir kıl­dığını gösteriyor.Kritik yargılarda daha yüksek doğrulukLaw ve Shen’in çalışması, yapay zekânın özellikle profesyonel yar­gı gerektiren alanlarda fark yarat­tığını ortaya koyuyor.

İşletmenin sürekliliğine ilişkin değerlendir­meler daha isabetli yapılırken, iç kontrol zayıflıkları ve büyük fi­nansal düzeltmeler daha erken aşamada tespit edilebiliyor.

Bu da denetim faaliyetlerinin yalnızca geçmiş dönem verilerine odak­lanmakla sınırlı kalmayıp işlet­menin geleceğe yönelik riskleri­ni de daha sağlıklı biçimde analiz edebilmesini sağlıyor.Özetle yapay zekâ, sadece rutin hataların tespitini değil, şirket­lerin sürdürülebilirliğini tehdit eden kritik risk unsurlarının daha erken görünür hale gelmesini de destekliyor.Beraberinde gelen zorluklarElde edilen kazanımlara rağ­men, yapay zekânın denetim sü­reçlerinde kullanımı önemli zor­lukları da beraberinde getiriyor.

Babson College tarafından yürü­tülen kapsamlı mülakat çalışma­ları, bu zorlukları altı ana başlık altında topluyor.Şeffaflık ve açıklanabilirlik: Derin öğrenme modelleri, birçok durumda ürettikleri çıktılara han­gi karar adımlarıyla ulaştıklarını açıklamakta zorlanıyor.

Denetçi­ler sonucu görüyor ancak bu sonu­cun arkasındaki karar mantığını tam olarak anlayamayabiliyor.

Bu durum, profesyonel şüpheciliğin zayıflaması riskini beraberinde getirirken yapay zekâ çıktılarının denetim kanıtı olarak nasıl değer­lendirileceği sorusunu da günde­me taşıyor.

Bu nedenle, kullanılan modelin karar mekanizmasının açıklanabilir ve şeffaf olması gide­rek daha kritik hale geliyor.Algoritmik yanlılık riski: Yapay zekâ eğitiminde kullanılan verilerin hedef popülasyonu ne ölçüde temsil ettiği ve ortaya çı­kan sonuçların algoritmik yan­lılıktan arındırılıp arındırılama­dığı, önemli bir tartışma alanı olarak öne çıkıyor.

Stanford Üni­versitesi’nde yürütülen bir çalış­mada, eğitim verisi büyüdükçe bazı görsellerin “suçlu” olarak sı­nıflandırılma olasılığının arttı­ğı tespit edilmiştir.

Bunun temel nedeni, veri setlerine gömülü ön­yargılar ve kalıplaşmış temsil bi­çimleridir.

Söz konusu örnek, de­netimde de benzer risklerin göz ardı edilmemesi gerektiğini ha­tırlatıyor.Veri gizliliği: Hassas müşte­ri verilerinin istem dışı ifşa edil­me riski, yapay zekâ araçlarının kurumsal süreçlerde kullanımına ilişkin en kritik başlıklardan bi­ridir.

Özellikle bu araçların, kul­lanıcı verilerini yalnızca model performansını geliştirmek ama­cıyla kullanıp kullanmadığı ve söz konusu verilerin yeterli düzeyde anonimleştirilmediği konusu cid­di bir risk alanı oluşturuyor.Doğruluk, etkinlik ve güve­nilirlik: Model stabilitesi ve ye­ni bilgilere uyum, bir diğer kri­tik başlık.

Yapay zekâ araçlarının doğruluk ve etkinlik düzeyinin nasıl ölçüleceği, küresel denetim uygulamalarında kullanılan mo­dellerin nasıl belgeleneceği ve za­man içinde farklı sonuçlar üre­tebilen sistemlere denetçilerin hangi çerçevede güvenebileceği konusu henüz netlik kazanmış de­ğil.

Bu belirsizlik, standartlaştırıl­mış performans ölçüm kriterleri­ne ve model yönetişimi süreçleri­ne duyulan ihtiyacı daha görünür hale getiriyor.İnsan faktörü ve aşırı güven riski: Yapay zekâ sistemlerine aşı­rı güven duyulması, denetçi yan­lılığı riskini artırabiliyor.

Denet­çilerin, belirli bir denetim çalış­masının kendine özgü koşullarını yeterince dikkate almadan yapay zekâ tarafından üretilen çıktıları genellemesi, profesyonel yargının zayıflamasına yol açabiliyor.Yapay zekâ rehberliği ihtiya­cı: Basit otomasyon araçlarından gelişmiş yapay zekâ uygulamaları­na kadar uzanan geniş yelpazede, denetim faaliyetlerini yönlendire­cek bütüncül bir yapay zekâ yöne­tişim çerçevesinin eksikliği dikkat çekiyor.

Denetçi düşünce süreçle­rinin yapay zekâ sistemlerine na­sıl aktarılacağı ve profesyonel ka­rar alma mekanizmalarının hangi ilkeler doğrultusunda modellene­bileceği, sektörde üzerinde çalışıl­ması gereken temel başlıklar ara­sında yer alıyor.Zorluklara karşı geliştirilen çözüm önerileriBabson College tarafından ya­pılan çalışmalar, yapay zekâ kul­lanımına ilişkin karşılaşılan zor­luklara yönelik çeşitli çözüm yaklaşımları sunuyor.

Bunlar ara­sında açıklanabilirlik teknikleri­nin (LIME, Shapley gibi) kullanıl­ması, algoritmik yanlılığı izleyen ve denetleyen araçların geliştiril­mesi ile güçlü veri gizliliği ve si­ber güvenlik mimarilerinin oluş­turulması öne çıkan başlıklar ara­sında yer alıyor.Ayrıca modellerin yalnızca be­lirli zaman aralıklarında yeniden eğitilmesi, denetim süreci boyun­ca dinamik öğrenme mekanizma­larının sınırlandırılması ve de­netçilerin veri akışını uçtan uca anlayabilecek şekilde yetkinlikle­rini geliştirilmesi öneriliyor.

Dü­zenleyici ve denetleyici kurum­ların (örneğin KGK) yapay zekâ kullanımına ilişkin süreçler hak­kında bilgilendirilmesi de bu çer­çevenin önemli bir parçası olarak değerlendiriliyor.Teknoloji güçlü ama merkezde hâlâ insan varMevcut bulgular, yapay zekâ­nın denetim kalitesini anlamlı öl­çüde artırdığını ortaya koyuyor.

Hata oranları düşüyor, riskler da­ha erken aşamada tespit ediliyor ve denetim kapsamı daha büyük veri setlerini içerecek şekilde ge­nişliyor.Ancak bu başarı, teknolojinin sınırlarının farkında olunmasını gerektiriyor.

Algoritmik yanlılık, veri kalitesi, açıklanabilirlik ek­sikliği ve aşırı güven riski yöne­tilmediği sürece, yapay zekâ de­netim süreçlerini güçlendirmek yerine yeni risk alanları yaratma potansiyeline de sahip.

Değişme­yen temel gerçek şu: Denetimin kalitesi nihai olarak insan denet­çinin profesyonel yargısına, eleş­tirel düşünme becerisine ve etik duruşuna dayanıyor.

Yapay zekâ güçlü bir destek aracı ancak son sözü söyleyen hâlâ insan.

İlgili Sitenin Haberleri