İnsanoğlunun robot ve yapay zekâ sistemlerini geliştirmeye yönelik çabası kendi doğasına karşı gösterdiği muhalif tutuma verdiği değer ile alakalıdır diye düşünüyorum. İnsanoğlu bir yandan kendisini sürekli aşmak ve yenilemek isterken aşmasına vesile kıldığı şeylerin kendisi ile aynı seviyede bulunmasından da hoşlanmamakta ve aynı zamanda bu durumu kendi varlığı için tehdit olarak da algılamaktadır.

Şu an için robotların yapay da olsa bir zekâya sahip ancak bilince sahip olmadıklarını düşündüğümüzde, insanlık için bu bir yandan zafer bir yandan da tamamlanması gereken bir proje gibi gözükmektedir. Gelecek bilimcilere göre, robotların 10 ile 25 yıl arası bir zaman diliminde bilince sahip olabileceği öngörülmektedir. Her geçen gün robot ve yapay zekâ algoritmalarının insanların karar alma sürecindeki etki ve katkısı artmaktadır. Haliyle bu durumda, robot ve yapay zekâ sistemlerine ilişkin etik düzenleme tartışmalarının yapılmasını daha da alevlendirmiş ve gerekli hale getirmiştir.

Makalede, uluslararası kuruluşlardan, bilim insanlarına, endüstride yer alan üretici, yazılımcı ve tasarımcıya kadar pek çok ilgili kurum, kuruluş ve gerçek kişilerin, robot ve yapay zekâya sahip sistemlere ilişkin etik kaygı ve taleplerini içerir bildiri ve raporların bir kısmı ile beraber etik ve hukuki konularda genel hatları ile irdelenmeye çalışılmıştır.

Böylelikle, bu çerçevede, amacımız spekülatif kurguya dayalı senaryolar kurmak veyahut üretmek değil, günümüz ve yakın gelecek problemlerine yönelik çözüm yolu önerilerini ortaya koymak ve geliştirerek paylaşmak olmalıdır. Bu minvalde robot ve yapay zekâya sahip sistemlerin etik meselelerine ilişkin uluslararası çalışmalardan bahsetmekle konuya giriş yapmakta fayda vardır.

Avrupa Parlamentosu tarafından 18 Aralık 2018 tarihinde Brüksel’de “Güvenilir Yapay Zekâ İçin Etik Kılavuz İlkeler Taslağı” ( Draft Ethics Guidelines For Trustworthy AI) nihai hali Mart 2019’da neticelenecek şekilde sektördeki tüm paydaşların danışabilmesi, katkı, destek ve önerilerini sunabilmesi amacıyla kamuoyu ile paylaşılarak herkese çağrı yapılmıştır. Söz konusu bu çalışma belgesi, Avrupa Birliği Komisyonunun yapay zekâ konusunda çalışan üst düzey 52 kişilik uzman grubu (AI HLEG ) tarafından taslak şeklinde ilgililere duyurulmuştur. Taslak ile amaçlanan, robot ve yapay zekâ sistemlerinin birey ve toplum yararına hizmet edecek biçimde etik ilkelerinin belirlenmesidir.

Taslağa göre, yapay zekânın bireyler ve toplum açısından muazzam faydalar üretme kabiliyetine sahip olduğu ve bu potansiyelin içinde riskleri de barındırması sebebiyle uygun yönetilmesi gerekliliğine özellikle vurgu yapılmıştır. Genel olarak, yapay zekânın faydalarının risklerinden ağır bastığı kabul edilse de, yapay zekânın faydalarını azami düzeye çıkaran, risklerini de asgariye indiren yolun takip edilmesi gerektiği belirtilmiştir. Doğru olan bu yolda kalınmasını sağlamak için, yapay zekâ için insan merkezli yaklaşımın gerekli olduğu, yapay zekânın geliştirilmesinin ve kullanımının kendi içinde bir araç olarak görülmemesi gerektiği, insan refahının amaçlanması için bir hedef olarak görülmesi gerektiği hatırlatılmıştır. Teknolojinin daha da geliştirilmesi için güvenilir yapay zekânın insanlık için kuzey yıldızı olacağı, insanlar teknolojiye güvenebilirlerse ancak ve ancak yapay zekânın faydalarından güvenle ve tam olarak yararlanabileceklerine vurgu yapılmıştır.

Bu bağlamda, Komisyon güvenilir yapay zekâ için iki bileşenin olduğunu belirtmiştir. Bunlardan ilki, bir yapay zekâ, etik bir amaç sağlayarak temel haklara, geçerli düzenlemeler ile temel ilke ve değerlere saygı göstermelidir. İkincisi ise, iyi niyetli olsa bile teknolojik yönden maharet ve ustalık eksikliği, istenmeyen zararlara sebebiyet verebileceğinden, bir yapay zekâ teknik olarak sağlam ve güvenilir olmalıdır. 

Komisyon taslak raporda ayrıca, bireysel hedeflerin seçilmesi ve bunlara saldırılmasının kritik işlevleri üzerinde tatmin edici bir insan kontrolü olmadan öldürücü otonom silahların çalışabildiğini ve sonuçta ortaya çıkacak tüm kayıplardan insanların sorumlu bulunduğunu ve hesap vereceğini vurgulamıştır.  Günümüzde, bilinmeyen sayıda ülke ve endüstriler, seçebilen hedefleme kapasitesine sahip füze tertiplerinden, bilişsel becerilere sahip makine öğrenmesinden kimin, ne zaman ve nerede insan müdahalesi olmadan savaşacağına karar veren değişen tekniklerdeki öldürücü otonom silah sistemlerini araştırmakta ve geliştirmektedir. Bu durumunda tarihsel olarak eşi benzeri görülmemiş bir düzeyde kontrol edilemeyen bir silahlanma yarışına yol açabileceği ve insan kontrolünün neredeyse tamamen ortadan kalktığı ve arıza riskinin de ele alınmayan askeri koşullar yaratabileceği gibi benzeri temel etik kaygıları da ortaya çıkardığı tespit edilmiştir.

Komisyon, raporun birinci bölümünde yapay zekâ için etik amaçları 3 ana başlık ile ele almıştır. Bunlar İlkeler, Değerler ve Haklar olarak ayrılmıştır. Bu ana başlıklarda 9 alt ilke çerçevesinde ele alınmıştır. Ancak Komisyon bu ilkelerin kesinliğini reddederek ilgililerin öneri ve fikirlerine açık olarak yapay zekâ etiğinin belirlenmesi gerektiğine vurgu yapmaktadır. Söz konusu alt ilkeler ise şu şekilde sıralanmıştır:

- İnsan Haysiyetine Saygı

- Bireysel Özgürlük

- Demokrasi, Adalet ve Hukuk Kurallarına Saygı

- Azınlıklara Mensup Kişilerin Hakları Dahil Olmak Üzere Eşitlik, Ayrımcılık Yapılmaması ve Dayanışma

- Vatandaşlık Hakları

- Yararlılık İlkesi (İyi Yap)

- Kötülük Yapmama İlkesi (Zarar Vermeme)

- Otonomluk İlkesi (İnsanı Koru)

- Adalet İlkesi (Adil Ol)

Güvenilir yapay zekâ gereksinimlerinin elde edilmesi ve bunun başarılması için ise, aşağıda listelenen 10 gereksinimin yukarıda sayılan ilkeler, değerler ve haklardan türetildiği, bunların daha detaylı değerlendirilebilmeleri için farklı uygulama alanları ve endüstrilerde eşit derecede önemli olsa da her birinde özel koşulların da göz önüne alınması gerektiği belirtilmiştir. İşbu gereksinimler ise şunlardır:

- Hesap Verilebilirlik

- Veri Yönetimi

- Herkes için Tasarım

- Yapay Zekâ Otonomluğunun Yönetimi (İnsan Gözetimi)

- Ayrımcılık Yapmama

- İnsan Özerkliğinin Geliştirilmesine Saygı

- Gizliliğe Saygı

- Sağlamlık

- Güvenlik

- Şeffaflık

Taslağın en dikkat çekici bölümlerden birisi de, uzman grup taslakta, yapay zekâ geliştirenlerin, güvenilir yapay zekâ gereksinimlerini karşılayıp karşılamadıklarını değerlendirmelerini sağlayacak kendilerine sorabilecekleri bir soru listesi yayınlamıştır. Yapay zekâ geliştirenler, işler ola ki ters giderse kimin hesap vereceği ve sorumlu olacağı gibi soruları kendine sormalı, bu kapsamda Avrupa Genel Veri Koruma Yönergesine uyumlu bir “durdurma düğmesi” de öngörülmelidir.

Birçok ülke tarafından yapay zekâ ve robotların etik açıdan durumu değerlendirilmeye çalışılırken belki de en hararetli tartışmalar yapay zekâ ve robotların askeri alanda kullanımı neticesindeki etik problemlere odaklanmaktadır. Öldürücü otonom silah sistemleri bir diğer deyişle katil robotlar birçok kesim tarafından kabul edilmeyerek yasaklanması konusunda bildiriler, raporlar ve talepler politikacılara ve kanun yapıcılara duyurulmaktadır.

Danışma kurulunda geçtiğimiz yıl vefat eden Stephen Hawking ile Elon Musk’ın da yer aldığı Boston merkezli Future of Life Institute (Yaşamın Geleceği Enstitüsü) öldürücü otonom silahlar hakkında birçok konferans düzenleyip,  raporlar yayınlayarak politikacılar ve ilgilileri yapay zekânın faydaları ve risklerinin belirlenmesi için uyarmaya çalışmaktadır. Enstitü, öldürücü otonom silahların geliştirilmesini, ticaretini, üretilmesini, kullanılmasını hiçbir şekilde desteklemediklerini ve bu sürece katılmayacaklarını bildirmiş, onların bu bildirilerine politikacıların, kanun yapıcıların, teknoloji şirketlerinin, kuruluşların ve bireylerin katılmasını umduklarını söylemektedirler.

Enstitü, bir insanın hayatına son verme kararının asla ama asla bir makineye devredilmemesi gerektiği fikri temelinde öldürücü otonom silahlara yaklaşımını belirlemektedir. Nitekim Enstitüye göre, başkalarının ya da hiç kimsenin suçlanabileceği bir insan hayatına son verme kararının makinelerin almasına izin vermeme halinin etik bir unsur olarak kabul edilmesi gerektiğine inanmaktadır.

Enstitüye göre, insan hayatına son verme kararının makinelere devredilmemesi savlarına çok güçlü ve yararcı bir kanıtta bulunmaktadır. Öldürücü otonom silahların insan müdahalesi olmaksızın hedefleri seçmesi ve taarruza geçmesi, her ülke ve birey için tehlikeli bir istikrarsızlık ve kaygı yaratacaktır. Binlerce yapay zekâ araştırmacısı, öldürücü otonom silahların riskleri, nitelikleri ve insan hayatına son verme gibi zorlukları ortadan kaldırarak özellikle veri sistemleri ve gözetleme sistemleriyle bağlantılı olduğunda öldürücü otonom silahların güçlü bir şiddet ve baskı aracı haline geleceği konusunda hemfikirdir.

Enstitü ayrıca, öldürücü otonom silahların özelliklerinin nükleer, biyolojik ve kimyasal silahlardan oldukça farklı olduğuna değinerek, tek bir grubun tek yanlı hareketlerinin çok kolay bir şekilde silahlanma yarışına kıvılcım çakabileceğine işaret etmektedir. Böylesine bir silahlanma yarışının önlenmesi ise muhakkak ki ulusal ve uluslararası güvenlik için önceliklerden olmalıdır.

Enstitü, birçok ilgili kişi ve kuruluşun katılımı ile 28-31 Ekim 2018 tarihinde Asilomar Konferansı düzenleyerek yapay zekânın insanlık için faydalı bir amaç olarak kullanımını desteklemek ve güçlendirmek amacına rehberlik edecek 23 ilkesini Asilomar Yapay Zekâ İlkeleri (Asilomar AI Principles) başlığı ile kamuoyuna duyurmuştur. Bu ilkeler ise şunlardır:

Araştırma Konuları

1. Araştırma Hedefi: Yapay zekâ araştırmalarının amacı yönlendirilmemiş zekâ değil, faydalı-yararlı zekâ yaratmak olmalıdır.

2. Araştırma Fonu Temini: Yapay zekâ yatırımlarına, bilgisayar bilimi, ekonomi, hukuk, etik ve sosyal bilimler gibi çetrefilli sorular da dahil olmak üzere yararlı kullanımını sağlamaya yönelik araştırmalardaki fonlarda eşlik etmelidir:

Gelecekteki AI sistemlerini son derece sağlam hale nasıl getirebiliriz, böylelikle arızalanmadan veyahut saldırıya uğramadan istediklerimizi yaparlar.

İnsanların kaynaklarını ve amaçlarını sağlarken, otomasyonla refahımızı nasıl artırabiliriz?

Daha adil ve verimli olacak şekilde yapay zekâya ayak uydurabilmek ve yapay zekâ ile ilişkili riskleri yönetebilmek için yasal sistemlerimizi nasıl güncelleyebiliriz?

Yapay zekâ hangi değerler ile uyumlu olmalı ve hangi yasal ve etik statüye sahip olmalıdır?

3. Bilim-Politika Bağlantısı: Yapay zekâ araştırmacıları ve kanun koyucular arasında yapıcı ve sağlıklı bir fikir teatisi olmalıdır.

4. Araştırma Kültürü: Yapay zekâ araştırmacıları ve geliştirenleri arasında işbirliği, güven ve şeffaflık kültürü teşvik edilmelidir.

5. Yarıştan Kaçınma: Yapay zekâ sistemlerini geliştiren ekipler, güvenlik standartlarında açıkları önlemek için aktif olarak işbirliği yapmalıdır.

Etik ve Değerler

6. Güvenlik: Yapay zekâ sistemleri çalışma ömürleri boyunca güvenli ve emniyetli olmalı ve buna ek olarak uygulanabilir ve gerçekleştirilebilir olduğunda doğrulanabilir de olmalıdır.

7. Hata Şeffaflığı: Bir yapay zekâ sistemi zarara sebebiyet verirse, nedenini tespit etmek mümkün olmalıdır.

8. Hukuki Şeffaflık: Otonom bir sistemin hukuki karar alma sürecine katılması, yetkili olan bir insan unsuru otorite tarafından denetlenebilir, tatmin edici bir açıklama sağlamalıdır.

9. Sorumluluk: Gelişmiş yapay zekâ sistemlerinin tasarımcıları ve inşa edenleri, bu sonuçları şekillendiren fırsatlar ve sorumluluklarla birlikte, bu kullanımların, kötüye kullanımların ve eylemlerin etik anlamda paydaşlarıdır.

10. Değer Sıralaması: Yüksek otonom seviyeye sahip yapay zekâ sistemlerinin amaçları ve davranışları çalışmaları boyunca insani değerlere uyumlu olacak şekilde güvence altına alınarak tasarlanmalıdır.

11. İnsani Değerler: Yapay zekâ sistemleri, insan haysiyeti, haklar, özgürlükler ve kültürel çeşitlilik idealleriyle uyumlu olacak şekilde tasarlanmalı ve çalıştırılmalıdır.

12. Kişisel Gizlilik: Yapay zekâ sistemlerinin bu verileri analiz etme ve kullanma gücü göz önüne alındığında, insanlar, ürettikleri verilere erişme, yönetme ve kontrol etme hakkına sahip olmalıdır.

13. Özgürlük ve Gizlilik: Yapay zekânın kişisel verilere uygulanması, insanların gerçek veya algılanan özgürlüğünü makul bir şekilde kısıtlamamalıdır.

14. Paylaşılan Fayda: Yapay zekâ teknolojileri, mümkün olduğunca çok insana fayda sağlamalı ve güçlendirmelidir.

15. Paylaşılan Refah: Yapay zekâ tarafından oluşturulan ekonomik refah, tüm insanlığa fayda sağlamak için geniş bir şekilde paylaşılmalıdır.

16. İnsan Kontrolü: İnsanlar, insan tarafından seçilen hedeflere ulaşmak için verilen kararların yapay zekâ sistemlerine nasıl ve devredilip devredilmeyeceğini seçme kararını vermelidir.

17. Yıkmama: Son derece gelişmiş yapay zekâ sistemlerinin kontrolüyle sağlanan güç, toplum sağlığının dayandığı sosyal ve toplumsal süreçleri yıkmak yerine saygı duymalı ve geliştirmelidir. 

18. Yapay Zekâ Silahlar Yarışı: Öldürücü otonom silahlarda silahlanma yarışından kaçınılmalıdır.

Uzun Vadeli Sorunlar

19. Kapasite Uyarısı: Görüş birliği bulunmamakta ve işte tam da bu sebeple, gelecekteki yapay zekâ kapasitesinin üstün sınırları hakkında güçlü varsayımlardan kaçınmalıyız.

20. Önem: Gelişmiş yapay zekâ, Dünya'daki yaşam tarihinde derin bir değişikliği    temsil edebilir ve yeterli özen ve kaynaklarla planlanıp yönetilmelidir.

21. Riskler: Yapay zekâ sistemlerinin, özellikle de felaket veya varoluşsal risklerin yarattığı riskler, beklenen etkileriyle orantılı olarak planlama ve hafifletme çabalarına tabi olmalıdır.

22. Tekrarlanan Özgelişim: Yapay zekâ sistemleri, hızla artan kalite veya miktara yol açabilecek şekilde kendini geliştirmek veya kendini çoğaltmak/kopyalamak için sıkı güvenlik ve kontrol önlemlerine tabi kılınarak tasarlanmalıdır.

23. Kamu Yararı: Süper zekâ yalnızca yaygın çapta paylaşılan etik ideallerin hizmetinde ve bir devlet ya da kuruluştan ziyade tüm insanlığın yararına geliştirilmelidir.

Avrupa Parlamentosu ise, öldürücü otonom silah sistemleri hakkındaki kararını (European Parliament Resolution of 12 September 2018 on Autonomous Weapon Systems 2018/2752(RSP)) 12.09.2018 tarihinde yayınlamıştır. Söz konusu karar, uluslararası pek çok kuruluşun öldürücü otonom silah sistemlerinin yasaklanmasına ilişkin görüşlerinin de dikkate alınarak kararın kaleme alındığı vurgusu ile başlamaktadır.

Kararda, hangi silah sistemlerinin öldürücü silah sistemi olarak nitelendirilebileceği tarifi yapılarak, bireysel hedeflerin seçilmesi ve bunlara saldırılmasının kritik işlevleri üzerinde tatmin edici bir insan kontrolü bulunmayan silah sistemlerinin öldürücü silah sistemi olarak tarif edilebileceği belirtilmiştir.

Birçok ülke ve kuruluşun öldürücü otonom silah sistemleri üzerine çalıştığı vurgulanarak, otomatik, uzaktan çalıştırılan ve uzaktan kumandalı sistemler gibi otonom olmayan sistemlerin öldürücü otonom silah sistemleri içerisine dahil edilemeyeceği belirtilmiştir. Parlamento, kararın ilerleyen bölümünde aslında niye bu tür sistemleri ölümcül silah sistemi olarak nitelemediğini zımni olarak da açıklamıştır. Nitekim, şu anki teknolojide öldürücü karar alma sürecinde robot ve/veya yapay zekâ üzerinde insan gözetimi ve varlığı devam ettiğinden yaşam ve ölüm kararlarının neticesinden sorumlu ve/veya hesap verici olan hâlen insandır. Hedeflerin seçilmesi ve bunlara saldırılmasındaki kritik işlevleri üzerindeki insan kontrolüne yönelik olarak insanların etik ve yasal sorunları tartışılmalıdır. Hali hazırda, makineler ve robotların, ölçülülük, ayırt etme ve tedbir alma-önlem alma gibi insan benzeri kararları alacak seviyede de olmadıkları ifade edilmiştir.

Parlamento, özellikle insancıl hukuk ve insan hakları hukuku dahil olmak üzere uluslararası hukukun tamamının öldürücü otonom silah sistemleri ve bunların üreticilerinin tümüne uygulanacağını vurgulamıştır.

Kararın en dikkat çeken kısmında ise, Avrupa Birliği askeri kuvvetlerinin sahip olduğu silah sisteminin öldürücü otonom silah sistemi içerisine dahil edilemeyeceği ve bunların öldürücü niteliğe sahip olduklarını kabul etmediklerini, sadece topraklarını tehditlere karşı savunmak için belli başlı silah sistemlerine sahip olduklarını belirtmiştir.

Öyleyse, Avrupa Parlamentosunun öldürücü otonom silahlara ilişkin verdiği bu karara baktığımızda ne anlamalıyız? Katil robotlar olarak da bilinen öldürücü otonom silahların, kontrolsüz bir silahlanma yarışına sebebiyet vererek savaşları temelinden değiştirme gücüne sahip olduğu kabul edilmişken; diğer bir yandan öldürücü otonom silah sistemleri üzerinde şu an için tatmin edici bir insan kontrolünün olduğu ve bu sebeplerden ötürü öldürücü olarak nitelendirilen otonom silah sistemlerine insan odaklı bir bakış açısıyla yaklaşılması gerektiğinin altı ısrarla çizilmiştir.

Peki gerçekten tatmin edici ya da makul ölçüdeki insan kontrolünden ne anlıyoruz ya da ne anlamalıyız? Etik ve hukuki tartışmalar yapılırken, bahsi geçen insan kontrolünün sınırlarının nerede başladığı ve nerede son bulduğu ile bu iki sınır arasında neler olabileceğine dair varsayımların ya da olasılıkların tartışılarak olası çözüm önerileri ya da kanuni düzenlemelerin yapılması kanımca gerekmektedir. Avrupa Birliği Parlamentosu ortak bir robot tanımı dahi yapamamışken, makine ve robotlar üzerindeki kontrolün sınırlarına dair yapılan tartışmanın çerçevesini ya da tanımlarını netleştirmesi zor gibi görünmektedir.

Diğer yandan, Avrupa Birliği, üye devletlerinin özellikle askeri alanda geliştirmekte olduğu yapay zekâ ve robot teknolojilerine -kısmen haklı tarafı bulunmakla birlikte- ket vurmak da istememektedir. Güvenilir Yapay Zekâ İçin Etik Kılavuz İlkeler Taslağında da, etik ilkelerin belirlenmesinin hiçbir şekilde yapay zekâ sistemlerinin geliştirilmesine engel teşkil etmemesi gerektiği vurgulanmıştır. Bu sebeplerle, Parlamento hem endüstri hem de ülke güvenliği açısından özellikle otonom silah sistemlerine yönelik “öldürücü” nitelendirmesinde bulunmaktan kaçınmış, öyle ki kararın isminde bile öldürücü ibaresini kullanmamıştır. Buna ek olarak günümüzdeki otonom silah sistemlerinin öldürücü nitelikte olup olmadığı ya da başkaca tartışılan hukuki ve/veya etik meselelere ilişkin çerçevenin çizilmesi hususunda da Parlamentonun HUKUKUN koruyuculuğundan ayrılmama isteği bu karar ile de anlaşılır şekilde bariz kılınmaya çalışılmıştır.

Parlamentonun otonom silahlar hakkındaki kararında dikkat çeken robotlar üzerindeki insan kontrolü meselesine Avrupa Parlamentosunun başkaca raporlarında da sık sık değinilmektedir. Bu kapsamda robotlar üzerinde insanoğlunun kontrol sınırları nedir sorusuna bir diğer cevapta, Avrupa Parlamentosuna raportör Mady Delvaux tarafından sunulan 2015/2103 (INL) Robotlara İlişkin Medeni Hukuk Kuralları Tasarı Raporu (Civil Law Rules on Robotics 2015/2103 (INL))dur. Bu rapor ile Avrupa Birliği Komisyonuna, yapay zekâ ve robot bilimi hakkında güvenlik ve ekonomik yararlılıkları ile birlikte ayrıca etik kurallarının da belirlenmesi için ilgililerle birlikte çalışma çağrısı yapılmıştır. Komisyona sunulan raporda, robotlara belirli bir yasal statü belirlenmesi gerektiği önerisinde bulunulmuştur. Komisyon ise, en karmaşık otonom özellikli robotların zarar vermesi halinde ancak bu özellikli robotlara özel hak ve yükümlülükler bahşetmenin robotlara belirli bir yasal statü yaratmanın iyi bir sonucu olabileceğini vurgulamıştır.  Ancak, akıllı otonom kararlar veya üçüncü kişilerle bağımsız bir şekilde etkileşim kurmaları halinde söz konusu bu robotlara elektronik kişilik yasal statüsünün verilebileceği belirtilmiştir. Komisyon, günümüzde bu seviyede otonom robot olmadığından robotlara elektronik kişilik statüsünün şimdilik verilmesinin mümkün olmadığını da ayrıca ifade etmiştir.

Bütün meseleler robot veyahut yapay zekâ sistemlerinin insandan ne kadar bağımsız olduğu noktasında düğümlenmektedir. Peki robotların insandan bağımsızlık düzeyini anlayana kadar geçen sürede -ya da anlayabilecek miyiz?- hukuki veyahut etik meselelere nasıl çözüm bulacağız?

Uluslararası arenada robotun hukuki kişiliğinin kabul edilmemesi, robotların halen bir araç/vasıta ve insan kontrolüne bağlı olduğu düşünüldüğünden sorumluluk anlamında sorumluluk elbette bir insana yüklenecektir. İşbu sorumluluk çemberi içerisinde yer alan insan gruplarının, robotların hangi eylemlerinden hangi oranlarda sorumlu olduğunu bilmemesi ve robotik teknolojinin de bu bilme unsurunu muğlak biçimde bırakması hali de hukuki ve etik tartışmaların her geçen gün alevlenmesine sebebiyet vermektedir. Hem endüstrideki aktörlerin hem de kullanıcı konumunda yer alan toplum bireylerinin karşılaşabileceği risklerin belirlenerek gerekli yasal düzenlemelerin ivedilikle yapılması gerekmektedir.

Robotları insanlığın refahı ve rahatını sağlayan araçlar olarak kabul edersek, her bir aracında birden fazla kullanımı olabileceğini düşünmeliyiz. Bir bıçakla meyve soyacağımız gibi insan da öldürebiliriz, ya da bir silahla kendimizi yırtıcı hayvanlardan koruyacağımız gibi bir insanı da öldürebiliriz. Robotları da öldürücü ya da zarar verici tasarlamadıkça robotlar da toplumda güvenli bir şekilde yer edinebilirler.

Bu kapsamda, robotların yasalara uygun şekilde tasarlandığından emin olmalıyız. Esasen, çoğunlukla, bir kimsenin kasten yasaları ihlal eden bir robot yarattığını düşünemeyiz. Nitekim, tasarımcılar hukukçu değillerdir, ancak yine de kanun yapıcılar ve devlet otoritesi tasarımcılara hukuka ve insan hakları standartlarına uygun robot yaratmaları gerektiğini hatırlatmalıdır. Ancak bu hatırlatma, hiçbir şekilde teknolojinin gelişmesi ve ilerlemesine ket vuracak şekilde değil, bilimin kötü amaçlarla kullanılmasını önleyici hatırlatmalar şeklinde olmalıdır. Bu süreç, toplum değerleri ile robot yaratma kriterleri arasında dengenin sağlanması yoluyla ilerlemelidir. Robot tasarımcıları ve üreticileri robot tasarlarken birçok olasılık ve gelecek senaryolarını üreterek tasarım yapmalıdır.

Bir robotun üretiminden nihai tüketiciye/kullanıcıya ulaşıncaya kadar robotun oluşturulması ve kullanılması sürecine dair birçok kişi bulunmaktadır. Hatta robotun derin öğrenme süreci devam edeceğinden üretici ve tasarımcı bu sürecin daimi unsur aktörü olarak süreçte kalacak gibi görünmektedir. Böylelikle, bu robotun hareket ve eylemleri var olan kanunları ihlal eder veya zarar meydana getirirse, sorumluluk nasıl dağıtılacak ve paylaştırılacaktır? Tüm bu soruların da etik ve hukuki etkileri muhakkak olacaktır.

Nasıl ki, bir ürün satın aldığımız zaman o ürünün uluslararası alması gerekli sertifikalar ve/veya bir takım belgeler o ürünün güvencesi ve garanti fonksiyonunu gösteriyorsa, robot üreticileri ve tasarımcıları için de robotlara özgü güvenliği sağlayıcı bir takım sertifikasyon ve belge alma zorunluluğu geliştirilmelidir.

Bilgisayar bilimi uzmanlığının yanı sıra aynı zamanda filozof da olan Oxford Üniversitesi’nden Paula Boddington’a göre, algoritmaların iyi ve kötü yönlerinin her çalışmada öncelikli olarak düşünülmesi gerektiğini ifade etmektedir. Bu önceliğin muhakkak düşünülmesi gerektiği ve algoritmaların hatalı olabildiğine dair en önemli kanıtlardan biri de, Amerikan eyalet Mahkemelerinin bir kısmında kullanılan Northpointe algoritmasıdır. Bu algoritma, yaş, cinsiyet ve başkaca 100 faktörü değerlendirerek bir suçlunun tekrar suç işleme olasılığının ne olduğunu öngörüyordu. Nortpointe algoritmasını oluşturanlar bu 100 faktör içinde ırk faktörünü düşünmemişlerdi, ancak başka araştırmacılar Nortpointe’i analiz ettiklerinde algoritmanın hatalı bir şekilde siyahi suçluları beyaz suçlulara nazaran yaklaşık iki katı kadar yüksek bir risk oranı ile tekrar suç işleme olasılığı yönüyle yaftaladığını tespit ettiler. Amerikan Mahkemeleri de algoritmanın bu önyargılı yaklaşımından habersizce algoritmaya güvenerek adalet sistemini geliştirmeyi umarak hatalı bu hesaplamaları temel alarak hapis kararları vermiş oldu.

Araç olarak kullanılan algoritmaların yeteri kadar anlaşılmadan kullanılmasının olası tehlikelerinin boyutları Northpointe örneği ile de acı bir biçimde gösterilmiş oldu. Keza, mevcut makine öğrenme sistemleri o kadar hızlı çalışmakta ki, nasıl karar alabildiklerini bu makineleri yapan, üreten insanlar da dahil olmak üzere kimse bilmemektedir. Makine öğrenme sistemi ile bir makine çevreden sürekli bilgi alarak sürekli olarak bu bilgilerle kendini yenileyip, güncellediğinden üreticiler dahi nasıl karar aldıklarını anlamada ve onları kontrol etmekte zorlanmaktadır.

Kullanılan bu makine öğrenimi sisteminin anlaşılma zorluğu yapay zekâ ve robotlara yönelik etik ilkelerin belirlenmesi ve inşasını oldukça zorlaştırmakta, şeffaf olma ilkesini ise bertaraf etmektedir. Bu zorluk, şeffaflık ilkesini oldukça bulanık hale getirdiğinden kara kutu problemi (black box problem) olarak da tarif edilmektedir.

Görüldüğü üzere, robot ve yapay zekâ sistem algoritmalarında kısmen insan kontrolü olsa da kara kutu problemi nedeniyle insana yüklenecek sorumluluk ilkeleri nasıl belirlenip tahmin edilebilecektir? İnsanoğlunun bu şartlar altında algoritma hatasını tahmin edebilme kapasitesi ne şekilde belirlenecektir? Boddington da bu hususta algoritmaları kontrol edebileceğinizi garanti edemiyorsanız, bu durumdan etkilenecek insanlara bilginizin sınırlarını ve risklerin neler olduğu hususunu ayrıntılı şekilde açıklamanın mümkün olduğunca fazla şeffaflığa sahip olunarak yapılması gerektiğini ifade etmektedir.

Bununla birlikte, yapay zekâ algoritmalarının almış olduğu kararların etik değerlere sahip olması toplum ve bireyin refah, mutluluğu ve güvenliği için önem arz etmektedir. Bir yapay zekâyı programlayan programcının, tasarımcının hatta ve hatta yapay zekâ sistemlerini kontrol edebilen ve/veya yönlendirebilen kullanıcının dahi etik ve ahlak anlayışının doğru, güvenilir olması gerekmektedir. Bu ve benzeri kaygı ve önerilerle Dünya’nın pek çok yerindeki akademisyen, hukukçu, filozof ve bilim insanı yapay zekâ ve robotun etik ilkelerinin belirlenmesi amacıyla fikir teatileri yapmakta ve uluslararası kuruluşları ile kanun yapıcılara bu konularda düzenleme yapma çağrısında bulunmaktadırlar.

Yapay zekâ sistemleri ile var olması istenen etik ilkelerin insan merkezli yaklaşım ile ele alınması çoğunluğun görüşü gibi görünmekte ise de; yapay zekâ algoritmalarının program değişkenliği arttıkça insan-makine ayrımı daha da bulanıklaşacaktır. Yapay zekânın sahip olduğu etik anlayışı programcısının, tasarımcısının ahlak ve etik anlayışına göre şekillendiği varsayımı üzerine de ayrıca bir takım etik tartışmalar yapılmaktadır. İnsan-makine birlikteliğinin ve insan kontrolünün devam etmesi durumunda insan sorumluluğu ve hesap verilebilirliği muhakkak olacaktır. Önemli olan husus, ileri seviye otonom niteliklere haiz yapay zekâ sistemlerinin etik algoritmalarının insanlar tarafından programlanabilir şekilde kalıp kalmayacağıdır? Kendi kendini tamir eden veya derin öğrenme ile kendini her geçen gün geliştiren yapay zekâ sistemlerinde etik düzenlemeler nasıl yapılabilecektir?

İnsanın sahip olması gereken etik ve ahlak ilkelerine her insanın sahip olmadığı gerçeği karşısında, robot ve yapay zekâ otonom sistemlerinin insana bağımlı olması ve insanoğlunun robot ve yapay zekânın sahip olması gereken etik ilkeleri belirleme çabası da insanoğlunun en büyük paradokslarından biri sanırım. İnsanoğlu etik ve ahlaki anlamda iyileşmeli ki, iyi ve doğru insanların oluşturduğu algoritmalarla programlanmış robot ve yapay zekâ sistemleri insanlığın yararı ve faydasına olsun. Robotik teknoloji sarmalında Edgar Allan Poe’nun ifadesiyle, insanoğlu olarak alışılmamış ile anlaşılmazı birbirine karıştırmak gibi vahim ama sık görülen bir hataya düşmüş gibiyiz.

.

Av. Meliha AKBİLEK ( LL.M )

.

KAYNAKLAR :

1- https://ec.europa.eu/futurium/en/node/6044

2- http://www.europarl.europa.eu/sides/getDoc.do?pubRef=-//EP//NONSGML+TA+P8-TA-2018-0341+0+DOC+PDF+V0//EN

3- https://futureoflife.org/lethal-autonomous-weapons-pledge/

4-http://www.europarl.europa.eu/sides/getDoc.do?pubRef=//EP//NONSGML%2BCOMPARL%2BPE-582.443%2B01%2BDOC%2BPDF%2BV0//EN 

5- https://futureoflife.org/ai-principles/

6- Margaret Boden, Joanna Bryson, Darwin Caldwell, Kerstin Dautenhahn, Lilian Edwards, Sarah Kember, Paul Newman, Vivienne Parry, Geoff Pegman, Tom Rodden, Tom Sorrell,Mick Wallis, Blay Whitby & Alan Winfield (2017) Principles of Robotics: Regulating Robots In The Real World, Connection Science, 29:2, 124-129 https://www.tandfonline.com/doi/pdf/10.1080/09540091.2016.1271400 

7-https://futureoflife.org/2017/07/31/towards-a-code-of-ethics-in-artificial-intelligence/