Yatırım Robotunuz Zarar Ederse Sorumlu Kim?

Abone Ol

Finans dünyası sessiz sedasız bir devrim yaşıyor. Artık yatırım kararlarımıza yön verenler sadece takım elbiseli danışmanlar değil; Python'la kodlanmış, devasa veri setleriyle eğitilmiş "robo-danışmanlar". Düşük maliyetleri ve kolay erişilebilirliğiyle yatırım yapmayı herkes için erişilebilir kılma iddiasındaki bu yapay zekâ platformları, bir tuşla kişiye özel portföyler oluşturuyor. Peki, teknolojinin sunduğu bu kolaylık, algoritmaların yanıldığı ve yatırımcıların ciddi zarara uğradığı bir senaryoda içinden çıkılmaz bir hukuki soruna dönüşürse ne olacak? Paranızı emanet ettiğiniz o "akıllı" algoritma hata yaptığında kapısını çalacağınız bir sorumlu var mı?

Mevcut Hukuk Neden Çaresiz Kalıyor? "Kara Kutu" Problemi

Bir yatırımcının, robo-danışman tavsiyesiyle yaptığı yatırımın hüsranla sonuçlandığını düşünelim. Doğal olarak aklına, hizmeti aldığı yatırım kuruluşuna dava açmak gelecektir. İlk bakışta, Türk Borçlar Kanunu'ndaki "ifa yardımcısının fiillerinden sorumluluk" hükmü, yatırım kuruluşunu, kullandığı yapay zekâdan sorumlu tutmak için en net yol gibi görünüyor. Ne de olsa algoritma, borcun ifasında kullanılan bir "yardımcıdır".

Ancak sorun burada başlıyor. Yatırım kuruluşu, "Hata bende değil, algoritmayı geliştiren teknoloji şirketinde" veya "Verileri hatalı sağlayan veri sağlayıcısında" diyerek kendini savunabilir. Bu durumda yatırımcı, kendisini karmaşık bir sorumluluk zincirinin içinde bulur.

Dahası, modern yapay zekâ sistemlerinin "kara kutu" olarak adlandırılan doğası, en temel hukuki soruları bile yanıtsız bırakıyor. Milyonlarca veriyi analiz ederek karar veren bir derin öğrenme modelinin, belirli bir tavsiyeyi neden verdiğini çoğu zaman onu tasarlayan mühendisler bile tam olarak açıklayamaz. Bu durumda davacı yatırımcı, zarara neden olan hatanın ne olduğunu, bu hatada kimin "kusurlu" olduğunu (programcı mı, veri bilimci mi, yoksa yönetici mi?) ve zarar ile hata arasındaki "nedensellik bağını" nasıl ispatlayacak? Bu durum, yatırımcının omuzlarına neredeyse kaldırılması imkânsız bir ispat yükü bindiriyor.

İki Kıta, İki Farklı Yaklaşım: AB Kural Koyuyor, ABD Yaptırım Uyguluyor

Dünya bu sorunla yüzleşirken iki temel yaklaşım öne çıkıyor:

1. Avrupa Birliği'nin Kural Bazlı Yaklaşımı: AB, oyunun kurallarını baştan yazıyor. Çığır açan Yapay Zekâ Tüzüğü (AI Act) ile yatırım tavsiyesi veren sistemleri "yüksek riskli" olarak sınıflandırarak bu sistemleri geliştirenlere ve kullananlara katı şeffaflık, denetim ve insan gözetimi yükümlülükleri getiriyor. Daha da önemlisi, yeni Ürün Sorumluluğu Direktifi (PLD) ile "yazılımı" ve "yapay zekâ sistemlerini" açıkça "ürün" olarak tanımlıyor. Bu devrimci adım, bir algoritma hatasını "üretim hatası" sayarak, yazılım geliştiricisi için bir "kusursuz sorumluluk" rejimi yaratıyor ve mağdurun tazminata ulaşmasını kolaylaştırıyor.

2. ABD'nin Yaptırım Odaklı Yaklaşımı: ABD Menkul Kıymetler ve Borsa Komisyonu (SEC), yeni kurallar koymak yerine mevcut dolandırıcılıkla mücadele yasalarını teknolojiye acımasızca uyguluyor. Charles Schwab davasında verilen 187 milyon dolarlık ceza bunun en çarpıcı örneği. Sorun, algoritmanın teknik bir hata yapması değil, "sıfır komisyon" vaadine rağmen müşterinin parasını gizli bir gelir modeli oluşturacak şekilde yüksek oranlı nakit pozisyonunda tutmasıydı. SEC, burada teknolojiye değil, iş modelinin altında yatan ve dürüstçe açıklanmayan "çıkar çatışmasına" odaklandı. Bu, sorunun her zaman kodda değil, bazen de "niyette" olduğunu gösteriyor.

Peki ya Türkiye? SPK'yı Bekleyen Görevler

Türkiye'de de robo-danışmanlık uygulamaları hızla yayılıyor ve Sermaye Piyasası Kurulu'nun (SPK) bu konunun farkında olduğunu stratejik planlarından anlıyoruz. Ancak farkındalığın ötesine geçip somut adımlar atma zamanı geldi de geçiyor. Küresel gelişmeler ışığında, Türk hukuku için yol haritası oldukça net:

- Net Bir Düzenleme Şart: SPK, bu hizmetlerin hukuki niteliğini (danışmanlık mı, portföy yönetimi mi?), aktörlerin sorumluluk sınırlarını ve asgari standartları belirleyen özel bir tebliğ yayınlamalıdır.

- Şeffaflık ve Açıklanabilirlik Esas Olmalı: Algoritmanın temel mantığı, sınırlılıkları ve tüm dolaylı maliyetler yatırımcının anlayacağı dilde açıklanmalıdır. Bir kararın neden verildiğini makul düzeyde açıklayabilen "Açıklanabilir Yapay Zekâ" (XAI) sistemleri teşvik edilmeli, hatta zorunlu kılınmalıdır.

- İspat Yükü Dengelenmeli: "Kara kutu" sorunu karşısında yatırımcının çaresiz kalmaması için, AB'de olduğu gibi belirli şartlar altında ispat yükünü hizmet sağlayıcıya kaydıran "nedensellik karinesi" gibi modern mekanizmalar hukuk sistemimize kazandırılmalıdır.

Teknoloji, hukukun her zaman birkaç adım önünde ilerliyor. Ancak bu durum, hukukun çaresiz olduğu anlamına gelmez. Yatırımcının korunması ve piyasa güveninin tesisi için inovasyonu boğmadan denetleyen, şeffaflığı zorunlu kılan ve en önemlisi sorumluluğun buharlaşmasına izin vermeyen akılcı bir hukuki çerçeve oluşturmak zorundayız.

Unutmayalım ki, teknoloji ne kadar "akıllı" olursa olsun, hukuki sorumluluk eninde sonunda bir insana veya kuruma aittir. Algoritmanın arkasında duranlar, onun yarattığı sonuçların da sorumluluğunu üstlenmek zorundadır.

Kaynak:

Demir, Şamil. “Yapay zekâ destekli yatırım tavsiyelerinin hukuki niteliği: sermaye piyasasında sorumluluğun sınırları”, 09 Temmuz 2025. https://doi.org/10.5281/zenodo.15849149.