Yapay zeka artık sadece hukuk pratiğini hızlandırmıyor. Hukuki gerçekliğin kendisini üretmeye başlıyor.
Geçtiğimiz günlerde Reuters’ın geçtiği bir haber, birçok kişinin sandığından çok daha büyük bir kırılmaya işaret ediyor. Georgia’da bir savcı, yapay zeka tarafından üretilen sahte içtihatları bir cinayet dosyasına dahil ettiği için disiplin cezası aldı. Daha çarpıcı olan ise şu: Bu hatalı referanslar yalnızca dilekçede kalmadı; mahkeme kararının içine kadar girdi.
Bu olay teknik bir “AI hallucination” problemi değil. Bu, hukuk sisteminin epistemik altyapısına dair bir alarm. Çünkü hukuk sistemi yalnızca normlarla değil, güven mimarisiyle çalışır. Mahkeme kararlarının meşruiyeti; kullanılan kaynakların doğruluğuna, otoritesine ve insan muhakemesine dayanır. Ancak üretken yapay zeka ile birlikte ilk kez, hukuki gerçekliği oluşturan bilgi katmanı insan zihninin dışına taşmaya başladı. Ve bence asıl kritik soru şu:
“Yapay zeka hukukta sadece bir araç mı, yoksa hukuki gerçeği yeniden üreten yeni bir otorite katmanı mı oluyor?”
Bu soru önümüzdeki 5 yılın hukuk tartışmalarını belirleyecek. Çünkü bugün hukuk profesyonelleri AI kullanıyor gibi görünüyor. Gerçekte ise hukuk sistemleri yavaş yavaş AI epistemolojisine bağımlı hale geliyor. Bu ikisi aynı şey değil. Bir avukatın yapay zeka kullanması başka bir şeydir. Bir hukuk sisteminin doğruluk üretimini algoritmik sistemlere devretmesi bambaşka bir şeydir.
Bugün birçok hukukçu hala meseleyi “AI hata yapabilir” seviyesinde tartışıyor. Bu son derece yüzeysel bir yaklaşım. Asıl mesele şu:
Üretken yapay zeka, hukuki bilgi üretiminde görünmez bir otorite katmanı oluşturmaya başladı. Ve insan zihni, algoritmik akıcılığı çoğu zaman doğrulukla karıştırıyor. Bu yüzden geleceğin en büyük hukuk riski “yanlış sonuç” değil; “yeterince ikna edici yanlış sonuç” olacak. Özellikle yargı sistemleri açısından bu çok kritik. Çünkü machine-assisted adjudication dediğimiz yapı sessizce gelişiyor. Hakimler, savcılar, hukuk büroları ve regülasyon kurumları artık yalnızca bilgiye erişmiyor; bilgiyi AI tarafından ön-işlenmiş biçimde tüketiyor.
Bu durum hukuk tarihinde yeni bir döneme işaret ediyor. İlk kez hukuki muhakemenin bilişsel altyapısı insan dışı sistemler tarafından şekillendiriliyor. Ve Türkiye’de henüz yeterince konuşulmayan konu tam olarak bu.
Türkiye’de AI regülasyonu tartışmaları büyük ölçüde veri koruma, kişisel veri işleme veya otomatik karar verme ekseninde ilerliyor. Oysa birkaç yıl içinde asıl regülasyon baskısı çok daha farklı bir noktaya kayacak:
“AI-assisted legal reasoning” denetimi.
Yani mesele yalnızca yapay zekanın ne ürettiği değil; hukuk profesyonellerinin yapay zekaya hangi seviyede epistemik yetki devrettiği olacak. Bence önümüzdeki dönemde üç büyük gelişme göreceğiz:
1. “AI usage disclosure” yükümlülükleri genişleyecek.
Mahkemeler ve regülatörler, AI destekli hazırlanan hukuki metinlerin açıklanmasını isteyecek.
2. “Human verification” artık formel bir compliance alanına dönüşecek.
Sadece etik yükümlülük değil; denetlenebilir prosedür haline gelecek.
3. Hukukta yeni bir standart doğacak:
“Cognitive accountability.”
Yani hukuk profesyoneli yalnızca sonucu değil, sonuca nasıl ulaştığını da açıklamak zorunda kalacak. Çünkü geleceğin hukuk sistemi sadece “doğru karar” aramayacak.
“Kararın hangi bilişsel mimari içinde üretildiğini” de sorgulayacak. Ve bana göre asıl paradigma değişimi burada başlıyor.
Önümüzdeki yıllarda hukuk dünyasının en güçlü aktörleri, yapay zekayı en hızlı kullananlar olmayacak. Yapay zeka ile insan muhakemesi arasındaki sınırı en doğru yönetenler olacak. Çünkü mesele teknoloji kullanımı değil. Mesele, hukuki otoritenin kim tarafından üretildiği. Ve bu soru, düşündüğümüzden çok daha hızlı biçimde hukuk sistemlerinin merkezine yerleşiyor. Belki de ilk kez şu gerçekle karşı karşıyayız:
Yapay zeka hukuku otomatikleştirmiyor. Hukukun epistemolojisini yeniden yazıyor.
Düşünmeye değer.
Av. Fatma TOKAT
Kaynak: Reuters – “AI errors in US murder case lead to discipline for Georgia prosecutor” (5 Mayıs 2026)