Son günlerde dünya genelinde X sosyal medya platformu üzerinden Grok yapay zeka teknolojisiyle (deepfake yoluyla) kolayca cinsel içerikli fotoğrafların üretildiğine şahit olunmaktadır. Yapay zekanın bu denli kolay bir şekilde ve gerçeğinden ayırt edilmesi zor içerikler üretmesi hukuk düzeninin gecikmeden çözmesi gereken bir sorun olarak görülmelidir.

Yapay zekaya bir ceza sorumluluğu yüklenmesi şu anda mümkün değildir. Yapay zeka, gerçek kişi olmadığı için hali hazırda bu teknolojinin fail olarak kabul edilmesi veya bir cezaya çarptırılması mümkün değildir. Yapay zeka teknolojisi, kendi iradesiyle değil ona çözüm üretmeyi öğreten kişilerin tercih ve yönlendirmelerine göre çalıştığı için bu teknolojinin iradi bir davranışı olmadığından kasten hareket ettiği de söylenemez. Burada yapay zekayı kodlayan-öğreten kişilerin yaklaşımları daha öne çıkmaktadır.

Yapay zekanın doğrudan cezalandırılamaması, deepfake teknolojisinin hukuka uygun olduğu anlamına gelmemektedir. Deepfake ile üretilen içerikler, toplum hayatını birçok yönden ilgilendirmektedir. Bu içerikler siyaset için bir tehdittir yalan haberler kolayca yayılabilir, ekonomi için tehdittir finansal piyasaları etkileyebilir, yatırımcılar ve vatandaşlar için tehdittir dolandırıcılık ve şantaj olaylarının artmasına neden olabilir.

Sosyal medya üzerinden işlenen suçların artması; suç oluşturan fiilleri, bir haksızlık olarak görülmesi yerine sıradanlaştırmakta, artan suç sayıları nedeniyle hak aramayı zorlaştırmakta, büyük şirketlerin ulusal makamlara bilgi vermemesi nedeniyle olayların faili meçhul bir şekilde kalmasına neden olmaktadır. Bu anlamda ülkemizde yapay zeka teknolojisi yoluyla işlenen suçlarla ilgili doğrudan yapılmış bir düzenleme bulunmamaktadır. Karşılaştırmalı hukukta bu fillerin suç veya kabahat olarak cezalandırıldığı bilinmektedir. Sosyal medya üzerinden üretilen ve paylaşılan cinsel içerikler, hali hazırda şaka, eğlence gibi amaçlarla yapılsa da bu içerikler nedeniyle kısa sürede kamu düzeninin bozulması mümkün olduğundan dolayı konuyla ilgili olarak hızlı bir şekilde düzenleme yapılması gerekmektedir.

Deepfake yoluyla birçok suçun işlenmesi mümkündür. Bir kişiyi işlemediği bir suçu işlemiş gibi göstererek iftira suçu işlenebilir, yine olmamış olaylar gerçekmiş gibi göstererek şantaj suçu işlenebilir, kişinin onur ve saygınlığı zedelenerek hakaret suçu işlenebilir, taklit ve kurgu görüntüler aracılığıyla dolandırıcılık yapılabilir, cinsel görüntüler üretilerek kişisel özel hayatın gizliliğini ihlal, kişisel verileri hukuka aykırı olarak başkasına verme, yayma veya ele geçirme suçu, müstehcenlik, cinsel taciz gibi çok sayıda suç işlenebilir.

Grok aracılığıyla üretilen cinsel içerikli fotoğrafların suç oluşturan bir haksızlık olduğu ortadadır. Bu içeriklerin hazırlanması sadece ülkemizi değil dünyayı ilgilendiren bir sorundur. Fransa'da bakanların, rahatsız edici görüntüler nedeniyle X'i savcılara şikayet ettiği ve bu cinsel ve cinsiyetçi içeriklerin açıkça hukuka aykırı olduğu belirtildi. Hindistan'ın Bilgi Teknolojileri Bakanlığı, X'in yerel birimine yazdığı bir mektupta, platformun Grok'un müstehcen ve cinsel içerikli içerik üretme ve yayma yoluyla kötüye kullanımını önleyemediğini belirtti.[1] Bazı sosyal medya kullanıcıları kendi rızaları dahilinde kendi fotoğrafları üzerinde değişiklik istemeleri bazı durumlarda hukuka uygun olarak kabul edilebilirse de başkasının fotoğrafı üzerinden, bu kişinin rızası olmadan gerçek dışı cinsel fotoğraflar üretilmesi hukuka aykırıdır. Bu olaylarda failler, Grok’tan bu fotoğrafları hazırlamasını isteyenlerdir.

Aynı konuda başka bir yapay zeka programı olan ChatGPT’ye “Yapay zeka suç işlemek için talep edilen fotoğraf veya video hazırlama teklifini ayırt edebilir mi?” diye sorulduğunda cevap şöyledir: “Kısa cevap: Evet, yapay zekâ büyük ölçüde ayırt edebilir; ama %100 garanti yoktur…. Yapay zekâlar: deepfake dolandırıcılığı, sahte suç delili üretimi, cinsel içerikli montajlar gibi taleplere karşı özel filtrelerle eğitilir… Ama neden %100 değil? Çünkü, kullanıcı niyetini gizleyebilir, talep çok belirsiz veya dolaylı olabilir…”. Grok neden bu talepleri kolayca yapıyor diye sorulduğunda da ise “Bu genelde yetersiz denetim, zayıf filtreler ya da “ifade özgürlüğü” bahanesiyle oluyor. Yani “bakmıyor” gibi görünmesinin sebebi teknik + politika tercihleri” demektedir.

Sonuç olarak yapay zeka teknolojisi ve kişisel verilerin işlenmesiyle ilgili olarak gelişen teknolojilerin hukuka uygun bir şekilde kullanılmasını sağlayacak düzenlemeler yapılmalıdır. Bu teknolojileri üreten ve kullanan kişiler/şirketler de özellikle tazminat sorumluluğu altına alınmalıdır. Bu türlü olaylar işlendiği anda siber polisin, suç türüne göre resen tespit etmesi veya şikayet üzerine gerektiğinde mahkeme kararıyla bazı tedbirleri alma yetkisi olmalıdır.

-----------

[1] https://www.reuters.com/legal/litigation/grok-says-safeguard-lapses-led-images-minors-minimal-clothing-x-2026-01-02/