Yapay zekâ teknolojilerinin hukuk alanında kullanımı, mevcut yasal düzenlemeler ve mesleki etik ilkeler açısından önemli tartışmaları beraberinde getirmektedir. Özellikle avukatlık mesleğinin temelini oluşturan özen yükümlülüğü, sır saklama yükümlülüğü ve hesap verebilirlik prensipleri, yapay zekâ destekli araçların kullanımında merkezi bir rol oynamaktadır.

Türk hukukunda avukatlık mesleği, 1136 sayılı Avukatlık Kanunu ile düzenlenmiştir. Bu Kanun, avukatların görevlerini yerine getirirken uymaları gereken temel ilkeleri belirler.

AVUKATLIK KANUNU - Madde 34

Madde 34 – (Değişik: 2/5/2001 - 4667/21 md.) Avukatlar, yüklendikleri görevleri bu görevin kutsallığına yakışır bir şekilde özen, doğruluk ve onur içinde yerine getirmek ve avukatlık unvanının gerektirdiği saygı ve güvene uygun biçimde davranmak ve Türkiye Barolar Birliğince belirlenen meslek kurallarına uymakla yükümlüdürler.

Bu madde, avukatların görevlerini "özen, doğruluk ve onur içinde" yerine getirme yükümlülüğünü açıkça belirtmektedir. Yapay zekâ araçlarının "halüsinasyon görme" eğilimi göz önüne alındığında, bu araçlardan elde edilen bilgilerin doğruluğunu teyit etmeden kullanmak, avukatın özen yükümlülüğünü ihlal etme potansiyeli taşır.

Avukatlık mesleğinin bir diğer temel ilkesi ise sır saklama yükümlülüğüdür. Avukatlar, müvekkilleriyle ilgili öğrendikleri hususları açığa vuramazlar.

Yapay zekâ modellerine girilen hassas müvekkil bilgilerinin, sistemin veri tabanının bir parçası haline gelmesi veya üçüncü kişilerle paylaşılması riski, bu sır saklama yükümlülüğünün ihlali anlamına gelebilir. Türk Ceza Kanunu'nun 239. maddesi, ticari sır, bankacılık sırrı veya müşteri sırrı niteliğindeki bilgi veya belgelerin açıklanmasını suç olarak düzenlemektedir.

Bu bağlamda, yapay zekâ araçlarının kullanımı sırasında müvekkil sırlarının korunması, hem mesleki etik hem de cezai sorumluluk açısından büyük önem taşımaktadır.

Avukatların mesleki sorumluluğu, Türk Borçlar Kanunu'nun vekâlet sözleşmesine ilişkin hükümleriyle de desteklenmektedir. Vekil, vekâlet borcunu sadakat ve özenle yürütmekle yükümlüdür.

Eğer avukat, yapay zekâdan aldığı hatalı bir bilgi nedeniyle müvekkiline zarar verirse, Türk Borçlar Kanunu'nun 112. maddesi uyarınca bu zararı gidermekle yükümlü olabilir.

Bu durum, yapay zekâ çıktılarının körü körüne güvenilerek kullanılmasının, avukatlar için ciddi mesleki sorumluluk riskleri doğurabileceğini göstermektedir..

OpenAI'nin Kararı: Bir Dönüm Noktası

ChatGPT'nin yaratıcısı OpenAI'nin, platformun kullanım politikalarında köklü bir değişikliğe giderek, yapay zekânın lisans gerektiren profesyonel alanlarda (hukuk, sağlık, finans gibi) danışmanlık almak için kullanılmasını yasaklaması, teknoloji dünyası ve hukuk camiası için önemli bir dönüm noktasıdır. Bu karar, yapay zekânın "Vahşi Batı" döneminin sonunu ve daha olgun, sorumlu bir entegrasyon döneminin başlangıcını işaret etmektedir.

Geri Adımın Arkasındaki Gerçekler ve Hukuki Yansımaları

OpenAI'nin bu kararı almasının ardında yatan temel nedenler, yapay zekâ modellerinin doğasındaki kusurların ve bu kusurların yol açabileceği hukuki risklerin bir kabulüdür:

1. "Halüsinasyon Görme" Eğilimi ve Özen Yükümlülüğü: Büyük Dil Modelleri'nin (LLM) ikna edici bir dille tamamen uydurma bilgiler, sahte içtihatlar ve gerçek dışı argümanlar üretebilme potansiyeli, hukuk alanında ciddi riskler taşımaktadır. ABD'deki birçok davada avukatların, ChatGPT'nin ürettiği var olmayan içtihatlara atıfta bulunan dilekçeleri mahkemeye sunmaları, mesleki yaptırımlarla sonuçlanmıştır. Bu durum, avukatların 1136 sayılı Avukatlık Kanunu'nun 34. maddesinde belirtilen "özen, doğruluk ve onur içinde" görev yapma yükümlülüğünü ihlal etme potansiyelini açıkça ortaya koymaktadır. Bir avukatın, yapay zekâ çıktısını doğrulamadan kullanması, mesleki ihmal olarak değerlendirilebilir ve Türk Borçlar Kanunu'nun 112. maddesi uyarınca müvekkiline verdiği zarardan sorumlu tutulabilir.

2. Avukat-Müvekkil Mahremiyeti ve Sır Saklama Yükümlülüğü: Halka açık yapay zekâ modellerine girilen her türlü bilgi, potansiyel olarak şirketin veri tabanının bir parçası haline gelebilir. Bu durum, 1136 sayılı Avukatlık Kanunu'nun 36. maddesinde düzenlenen avukatın sır saklama yükümlülüğünün feci şekilde ihlal edilmesi anlamına gelir. Geçtiğimiz ağustos ayında ChatGPT sorgularının Google tarafından indekslenmesi skandalı, bu riskin somut bir örneğidir. Müvekkil sırlarının ifşası, aynı zamanda Türk Ceza Kanunu'nun 239. maddesi uyarınca cezai sorumluluk da doğurabilir. Bu nedenle, hassas müvekkil bilgilerinin yapay zekâ sistemlerine girilmesi, kabul edilemez bir mesleki ihlaldir.

3. Hesap Verebilirlik ve Tazminat Riski: Yanlış bir hukuki tavsiye nedeniyle ortaya çıkabilecek devasa tazminat davaları, OpenAI gibi kâr amacı güden bir yapı için yönetilemez bir risk oluşturmaktadır. Şirket, bu kararla sorumluluğu, yapay zekâyı kullanan profesyonel kullanıcının ellerine geri bırakmıştır. Bu, Türk Borçlar Kanunu'nun 112. maddesi uyarınca borçlunun kusursuzluğunu ispat edemediği takdirde zararı giderme yükümlülüğü ile de örtüşmektedir. Yapay zekâ çıktılarının doğrulanmaması sonucu ortaya çıkan zararlardan, yapay zekâyı kullanan avukat sorumlu olacaktır.

Küresel Hukuk Camiasının Haklı Çıkışı

OpenAI'nin bu politika değişikliği, Amerikan Barolar Birliği (ABA), Avrupa Barolar ve Hukuk Birlikleri Konseyi (CCBE) ve Birleşik Krallık'taki Law Society gibi küresel hukuk otoritelerinin yıllardır dile getirdiği uyarılarla birebir örtüşmektedir. Bu kurumların yayınladığı rehberler ve etik görüşler, üç temel ilke etrafında birleşiyordu:

- Yetkinlik ve İnsan Denetimi: Avukatlar, kullandıkları teknolojinin risklerini ve sınırlarını anlamakla yükümlüdür. Yapay zekâ bir araçtır, asla nihai karar verici olamaz. Üretilen her bilginin, bir insan profesyonel tarafından titizlikle doğrulanması esastır. Bu, Avukatlık Kanunu'nun 34. maddesindeki özen yükümlülüğünün bir gereğidir.

- Gizlilik: Müvekkil verilerinin gizliliği kutsaldır. Halka açık yapay zekâ sistemlerine hassas bilgilerin girilmesi, affedilemez bir mesleki ihlaldir. Bu ilke, Avukatlık Kanunu'nun 36. maddesi ve Türk Ceza Kanunu'nun 239. maddesi ile de desteklenmektedir.

- Hesap Verebilirlik: Sonuç ne olursa olsun, sorumluluk yapay zekâya değil, onu kullanan avukata aittir. Bu, Türk Borçlar Kanunu'nun vekâlet sözleşmesine ilişkin hükümleri ve genel sorumluluk ilkeleriyle uyumludur.

OpenAI'nin yeni kullanım politikası, tam da bu ilkeleri yansıtarak, kullanıcılarını sözleşmesel olarak, hukuk kurallarının ve baroların zaten etik olarak zorunlu kıldığı şekilde davranmaya mecbur bırakmaktadır. Bu, hukuk mesleğinin öngörüsünün ve ilkelerinin, Silikon Vadisi'nin "hızlı hareket et ve kuralları sonra düşün" kültürüne karşı kazandığı net bir zaferdir.

Politikanın Sonuçları ve Hukukun Geleceği

Bu kararın hukuk dünyası için derin ve kalıcı etkileri olacaktır:

Bu politikadan sonra, bir avukatın ChatGPT'den aldığı doğrulanmamış bir bilgiyi kullanması, artık sadece kötü bir muhakeme değil, aynı zamanda hizmet sağlayıcının kullanım koşullarının da açık bir ihlali anlamına gelecektir. Bu durum, olası bir mesleki sorumluluk davasında avukatın “yapay zekâ öyle dedi” savunmasını artık imkânsız hale getirmektedir. Avukatlık Kanunu'nun 134. maddesi uyarınca mesleki çalışmada görevlerini yapmayan veya görevinin gerektirdiği dürüstlüğe uygun şekilde davranmayanlar hakkında disiplin cezaları uygulanabilir.

Artık her hukuk bürosunun, yapay zekâ kullanımına dair net, yazılı politikalara sahip olması bir zorunluluktur. Bu politikalar, hangi araçların kullanılabileceğini, hangi verilerin girilemeyeceğini ve çıktıların nasıl doğrulanacağını net bir şekilde tanımlamalıdır. Bu, hem mesleki sorumluluktan kaçınmak hem de müvekkil güvenliğini sağlamak için kritik öneme sahiptir.

Riskleri belirlediğimize göre, enerjimizi yapay zekânın gerçekten değer kattığı alanlara yöneltebiliriz: Binlerce sayfalık belgeyi saniyeler içinde analiz etmek, ilk taslakları oluşturmak, hukuki araştırmalara başlangıç noktası sağlamak ve e-araştırma süreçlerini otomatikleştirmek gibi. Amaç, avukatın yerini almak değil, avukatın zamanını daha stratejik ve katma değeri yüksek işlere ayırmasını sağlamaktır. Türkiye Sağlık Veri Araştırmaları ve Yapay Zekâ Uygulamaları Enstitüsü gibi kurumlar, yapay zekâ alanındaki gelişmeleri takip ederek patent başvuruları yapmakta ve fikri mülkiyet haklarını korumaktadır. Bu tür çalışmalar, yapay zekânın doğru ve etik kullanımı için yol gösterici olabilir.

Sonuç / Özet

OpenAI'nin 29 Ekim 2025'te yürürlüğe giren yeni kullanım politikası, yapay zekânın hukuk alanındaki ilk, toy ve tehlikeli adımlarının atıldığı dönemi kapatarak, daha olgun, daha sürdürülebilir ve daha verimli bir entegrasyon dönemini başlatmaktadır. Bu karar, teknolojik ilerlemenin mesleki sorumluluk ve etik ilkelerle dengelenmesi gerektiğini açıkça ortaya koymuştur. Hukuk camiası, bu teknolojik dalga karşısında pasif bir izleyici olmak yerine, proaktif bir şekilde riskleri tanımlamış ve kırmızı çizgileri çizmiştir. Bugün, teknolojinin yaratıcısı bile bu çizgilerin doğruluğunu kabul etmek zorunda kalmıştır. Gelecek, avukatların yerini alan makinelerin değil, makineleri akıllıca yöneten ve insan denetimini elden bırakmayan avukatların olacaktır. Bu yeni dönemde, yapay zekâ, avukatların stratejik ve katma değeri yüksek işlere odaklanmasını sağlayan güçlü bir asistan olarak konumlandırılmalıdır.