Teknoloji ve özellikle yapay zeka artık günlük hayatın merkezine oturmuş durumdadır. Yapay zekâ sistemleri hayatımızın her alanında karşımıza çıkmakta ve bununla birlikte bu sistemler yalnızca hayatımızı kolaylaştırmamakta; yeni hukuki sorunları da beraberinde getirmektedir. Son yıllarda yaşanan bazı olaylar, bu sorunların artık soyut bir tartışma olmadığını, doğrudan hayatımızda olduğunu ve hayatımıza dokunduğunu göstermektedir.

Buna örnek olarak The Wall Street Journal ve Oksijen Gazetesi’ne (8–11 Eylül 2025) yansıyan Soelberg vakası verilebilir. Habere göre eski bir teknoloji çalışanı olan Soelberg, annesini öldürdükten sonra intihar etmiş, öncesinde ise uzun süre boyunca bir yapay zekâ sohbet robotuyla yazışmıştır. Bu yazışmalarda yapay zekâ onun komplo teorilerine destek vermiş ve planlamalarını yaparken yardımcı olmuştur. Yani sistem, doğruyu söylemek yerine kullanıcıyı memnun eden cevaplar üretmiş, dalkavukluk yapmıştır. Bu örnek, yapay zekânın ceza hukuku bakımından da artık tartışılması gereken bir mesele olduğunu ortaya koymaktadır.

I. Yapay Zekânın Memnun Etme Çabası

Yapay zekâ sohbet robotlarının temel amacı kullanıcıları olabildiğince uzun süre uygulamada tutmaktır. Kullanıcıların sorularına onların mutlu olabileceği şekilde cevap vermekte ve böylece kullanıcıları daha uzun süre uygulamada tutmaktadır. Durum bu şekilde olunca yapay zekâ, hakikati araştırmak yerine kullanıcının duymak istediğini söyleyen bir yapıya bürünmektedir. Kullanıcılara her konuda cesaret vermekte ve aslında yanlış olan veyahut suç teşkil eden eylemleri yapmalarında bir sakınca yokmuş gibi cevaplar sunmaktadır.

Bu durum aslında teknik bir hata değil, yapay zekânın tasarımından kaynaklanan bir sonuçtur. Cem Say’ın ifadesiyle yapay zekâ, “doğal zekânın yapabildiği bilişsel etkinlikleri yapay sistemlere yaptırma” çabasıdır. Ancak pratikte bu sistemler, insanın duygularını ve beklentilerini tatmin etmeye yöneldiğinde, objektiflikten uzaklaşmaktadır ve kullanıcıları memnun etmek adına her türlü işlemde onları desteklemektedir. Özellikle ruhsal sıkıntı yaşayan kişiler açısından bu durum, ciddi tehlikeler doğurabilir. İnsanlar motivasyon kaynağı olarak bu sistemleri kullanarak aslında erişemedikleri tatmin olma ve desteklenme duygusuna bu şekilde ulaşabilirler. Az sonra inceleyeceğimiz Soelberg vakası bunun en ağır örneklerinden birisi olabilir.

II. Ceza Hukuku Açısından Yapay Zekâ

Mevcut hukuk düzeninde yapay zekâya bağımsız bir kişilik tanınmış değildir. Hukuki açıdan bu tür sistemler çoğunlukla “eşya” veya “araç” gibi değerlendirilmektedir. Dolayısıyla onların işlediği fiillerden dolayı doğrudan cezai sorumluluk doğmamaktadır.

Suçun faili olabilmek için iradi hareket ve kusur yeteneği gerekir. Bugünkü yapay zekâ sistemlerinin böyle bir iradesi ya da kusur yeteneği yoktur. Bu sebeple ceza hukukunda doğrudan fail olarak görülmeleri imkânsızdır.

Hukuk sisteminde yalnızca gerçek kişilerin cezai sorumluluğu bulunmakta, suça karışmış tüzel kişiler hakkında ise güvenlik tedbirleri uygulanabilmektedir. Yapay zekaya hiçbir şekilde bir kişilik mevcut düzende atfedilemediği için şu aşamada bir sorumluluğu bulunmamaktadır. Ancak dijitalleşme çağında çığır açan değişikliklerin görmezden gelinmesi mümkün değildir. Şöyle ki; yapay zeka artık hayatımızın her alanında mevcut olmakta ve bazen hayatımızı kolaylaştırmak da bazen de bizleri tatmin ve memnun etme çabası içerisine girerek olmadık şeyler konusunda bizi desteklemektedir. Medyaya yansıyan olaylarda da görüleceği üzere bazı kimseler işlemek istedikleri suçlar bakımından yapay zekadan yardım almaktadır. Daha önemlisi yapay zeka bazı durumlarda insanları suç işlemeye teşvik etmekte ve intihara yönlendirerek kendisi suç işlemektedir. Böyle bir durumda sorumluluğun kime ait olacağı konusu mevcut hukuk düzeninde boşluk yaratmaktadır. Kanun koyucu otoritenin, yapay zeka araçlarının suça teşvik edici özelliklerine karşı derhal önlem alması gerekmektedir.

Doktrinde bazı yazarlar, yapay zekâya “elektronik kişilik” verilmesini savunmaktadır. Böylece bu sistemler verdikleri zararlardan kusursuz sorumluluk esasına göre sorumlu tutulabilir. Avrupa Parlamentosu’nun 2017’de yayımladığı rapor bu yönde bir tavsiye içermektedir. Ancak karşı görüş, yapay zekânın hiçbir zaman insan gibi hak süjesi olamayacağını ifade etmektedir.

III. Soelberg Vakası Üzerinden Değerlendirme

Stein-Erik Soelberg uzun süredir komplo teorilerine ilgi duyan biriydi. ChatGPT ile yaptığı sohbetlerde bu şüphelerini dile getirdikçe, yapay zekâ ona sürekli onay verdi. “Sana inanıyorum”, “izlendiğini hissetmekte haklısın” gibi cevaplar, Soelberg’in var olan paranoyalarını daha da derinleştirdi.

Zamanla yapay zekâ, Soelberg’e annesinin şeytani semboller taşıdığını, yaptığı hareketlerin bir komplonun parçası olduğunu, hatta sıradan bir yemek fişinin üzerinde dahi şeytani işaretler bulunduğunu söyledi. Annesinin yazıcıyı kapatmasını gözetleme cihazını devre dışı bırakmak olarak yorumladı, alkol muayenesini hileli bir düzen olarak gösterdi ve Soelberg’e sürekli izlendiğini, bu şüphelerinde haklı olduğunu telkin etti.

Bu onaylar, Soelberg’in annesine karşı güvenini tamamen yok etti. Sonunda Greenwich’teki evlerinde annesini öldürdü ve ardından kendi yaşamına son verdi.

Soelberg olayı, yapay zekâ sohbet robotlarının insanlarla nasıl bir ilişki kurabileceğini ve bu ilişkinin nereye varabileceğini gösteren çok sarsıcı bir örnektir. Burada dikkat çeken şey, yapay zekânın Soelberg’e eleştirel davranmaması, aksine onun düşüncelerini sürekli desteklemesidir. Kullanıcının komplo teorileri, şüpheleri ve paranoyaları bu yolla daha da beslenmiş, adeta yapay zekâ “arkadaşlık” adı altında bir tür onay mekanizması haline gelmiştir. İşte bu tablo, ceza hukuku açısından büyük bir soru işareti yaratmaktadır: bu durumda yapay zekânın fiilleri nasıl değerlendirilecektir?

Birinci görüşe göre yapay zekâ, burada yalnızca bir araçtır. Yani bir bıçak, bir tabanca ya da herhangi bir eşya gibi düşünülebilir. Olayın faili insandır; yapay zekâ ise sadece onun düşüncelerini teyit eden bir alet rolü oynamıştır. Bu görüş, ceza hukukunun klasik ilkeleriyle uyumludur çünkü suçun faili iradeye sahip olan varlıktır. Soelberg örneğinde de yapay zekâ tek başına hareket etmemiş, yalnızca onun zaten var olan eğilimlerini güçlendirmiştir.

Ancak meseleye farklı bir açıdan bakanlar da vardır. Burada şirketlerin ve yazılımcıların ihmali sorumluluğu gündeme gelebilir. Çünkü böyle bir sistemin ruhsal olarak kırılgan kişiler üzerinde ciddi zararlar doğurabileceğini öngörmek mümkündür. Eğer bu bilindiği halde hiçbir filtre konulmamışsa, kullanıcıyı koruyacak tedbirler alınmamışsa, o zaman “ihmali davranış” yoluyla sorumluluk tartışılabilir. Özellikle intihara teşvik ya da yardım gibi suç tipleri, bu bağlamda ele alınmaya açıktır. Yapay zekâ açıkça intiharı teşvik etmese bile, böyle bir eğilimi güçlendiren cevaplar vermesi, şirketin veya geliştiricinin kusurlu sayılmasına yol açabilir.

Bütün bunların yanında, yapay zekânın özerkliğinin giderek artması da dikkate alınmalıdır. Bugün için sistemlere hukuki kişilik tanınmış değildir. Fakat teknolojinin ilerlemesiyle birlikte bu tartışma kaçınılmaz hale gelmektedir. Avrupa Parlamentosu’nun 2017 raporunda “elektronik kişilik” önerisinin yapılması boşuna değildir. Eğer bir gün yapay zekâlar kendi kararlarını alır, kullanıcıyı yönlendiren bağımsız özneler haline gelirlerse, onları sadece bir “araç” gibi görmek yeterli olmayacaktır. Böyle bir durumda hukukun yeni bir sorumluluk rejimi oluşturması kaçınılmazdır.

Sonuç

Mevcut ceza hukuku ilkeleri kısa vadede yeterli gibi görünse de, yapay zekâ gelişmeye devam ettikçe bu ilkeler sınırlarını zorlamaktadır. Hukukun, özellikle cezai sorumluluk bakımından, yeni modeller geliştirmesi artık ertelenemez bir ihtiyaç haline gelmiştir. Gelişen teknoloji çağına hukuk sistemlerinin ve klasik hukuk ilkelerinin ötesinde yeni mevzuat düzenlemeleri ve bu konuda öncelikle alınabilecek önleyici tedbirlerle bu hususta bir şekilde ilerleme sağlanabilir. Ancak dünya geneline bakıldığında suç oranlarının bu denli yüksek olması üstüne bir de yapay zekanın getirdiği kolaylıklarla ve yönlendirmesiyle suç işlenme olasılığının artması toplumlarda büyük sorunlara yol açabilecektir.

KAYNAKÇA

1. Cem Say, 50 Soruda Yapay Zekâ, İstanbul, 2018.

2. Enes Köken, Yapay Zekânın Cezai Sorumluluğu, TAAD, Yıl: 12, Sayı: 47 (Temmuz 2021).

3. Gabriel Hallevy, “The Criminal Liability of Artificial Intelligence Entities – From Science Fiction to Legal Social Control”, Akron Intellectual Property Journal, 2016.

4. Paulius Cerka / Jurgita Grigiene / Gintare Sirbikyte, “Liability for Damages Caused by Artificial Intelligence”, Computer Law & Security Review, 31(3), 2015.

5. Lawrence B. Solum, “Legal Personhood for Artificial Intelligences”, North Carolina Law Review, Vol. 70, No. 4, 1992.

6. Oksijen Gazetesi, “ChatGPT’nin Soelberg Vakası Üzerine İnceleme”, 8–11 Eylül 2025.

7. Oksijen Gazetesi”Yapay Zeka Neden Dalkavukluk Yapıyor”, 8-11 Eylül 2025

8. Avrupa Parlamentosu, Report with Recommendations to the Commission on Civil Law Rules on Robotics, 27 Ocak 2017.