1981 yılında bir motosiklet fabrikasında çalışan 37 yaşında bir Japon işçi, yanında çalışan yapay zekâya sahip robot tarafından öldürüldü. Robot, hatalı bir biçimde işçiyi kendi görevi için bir tehdit olarak tanımlamış ve bu tehditten kurtulmak için en etkili yol olarak hidrolik kollarını devreye sokup işçiyi çalışan makineye vurarak ölümüne sebep olmuştu.1
2016 yılında ise Microsoft şirketinin Tay isimli Twitter karakteri, diğer kullanıcılardan öğrendiklerini tekrarlayarak nefret söylemli ifadelerde bulundu.2
Bu iki örnek de yapay zekâ ve suç kavramlarını bir araya getiriyor. Yakın gelecekte hayatımızda yeri büyük ihtimalle artacak otonom araçların karışacakları kazaların sonucunda gerçekleşen ölüm ve yaralanmalar da bu örneklere eklenecek.
Yapay zekânın hayatımızdaki yeri her geçen gün büyük bir hızla genişlerken hukuki ya da cezai boyutu henüz belirsizliklerle dolu… Oysa işlenen suçların sorumluluğunun kime ait olacağı, başka bir anlatımla ceza hukuku açısından failin kim olacağı tartışılması gereken bir konu.
Yapay zekâ hukuki kişilik olarak kabul edilebilir mi?
Günümüzde yapay zekânın hukuki sorumluluğuna ilişkin tartışmalar 1990’lı yılların başında Internet’in düzenlenmesine ilişkin tartışmaları kısmen hatırlatıyor. ABD’de 1996 tarihli İletişim Ahlak Kanunu’nu Kongrede tartışılırken, Internet’in hükümetler tarafından düzenlenmesine karşı çıkan John Perry Barlow, Siberalan Bağımsızlık Bildirgesi’nde ‘siberalan’ın gerçek dünyadan farklı kurallarla düzenlenmesi gerektiği fikrini bir adım öteye taşıyor ve tamamen düzenlemeden vareste olması gerektiğini ileri sürüyordu.3
Benzer şekilde yapay zekânın bir kişilik olup olamayacağı noktasındaki tartışmalar da, yapay zekânın hukuki sorumluluğu ile doğrudan ilgili. Bu bağlamda farklı teoriler/modeller ileri sürülerek, yapay zekânın kişiliğe sahip olup olamayacağı ve bu kişiliğin dayandığı argümantasyon izah edilmeye çalışılıyor. Roma hukukunda olduğu gibi köle – efendi ayrımına gidilerek, yapay zekânın sahibi adına hak iktisap edebilmesi ve borç altına girebilmesi kölelik statüsü olarak adlandırılıyor. Sözü edilen ikinci kavram, elektronik kişilik. Bu, özellikle Avrupa Birliği tarafından sıklıkla ifade edilen ve tüzel kişiler gibi farklı bir statüye sahip olan, şirketler gibi resmi bir sicile kaydedildikten sonra faaliyette bulunan, vermiş olduğu zararların karşılanması için özel bir fon oluşturulması düşünülen bir model olarak değerlendiriliyor. Diğer bir model ise yapay zekâ ile sahibi arasındaki yapay vekil/temsilci ilişkisi olarak tanımlanabilir. Son teklif edilen model ise Machine Sapiens de denilen yapay insan modeli.
Yapay zekânın hukuki sorumluluğa olup olmayacağı, onun kişilik olarak kabul edilip edilmemesine bağlı.
Yapay zekânın bir kişilik olup olamayacağı, öncelikle hukuktaki kişilik kavramının insan ile sınırlandırılıp sınırlandırılmadığı meselesi ile doğrudan ilişkili.
İnsan dışındaki varlıklara hukukta haklar tanınması, hukuk tarihine yabancı bir kavram değil. Nitekim şirketlerin ilk kez oluşturulduğu, sermaye yapılarının ortaya çıktığı ilk zamanlarda, şirketlerin hukukta hak sahibi olup olamayacağı, ceza hukuku özelinde ise bir suçun öznesi olup olamayacağı tartışmaları yapıldı. Fransa, Danimarka, Belçika gibi bazı ülkeler tüzel kişilerin ceza sorumluluklarını düzenlediler. Ülkemizde, Almanya, İtalya ve İspanya örneklerinde olduğu gibi tüzel kişilerin ceza hukukunda fail olmasını kabul edilmiyor. Bunun en önemli sebebi, tüzel kişinin dış dünyada değişiklik meydana getirecek hareketinin aslında her zaman bir gerçek kişi tarafından gerçekleştiriliyor olması. Yani, tüzel kişi, mesela bir şirket, dış dünyada kendiliğinden bir değişiklik meydana getirmiyor, onu yönetenler bu değişikliği yapıyor. Buradan hareketle de tüzel kişiler, fail olarak kabul edilmiyor.
Bununla birlikte Türk ceza hukukunda, tüzel kişiler fail olamamakla birlikte bir suçun tüzel kişinin yararına işlenmesi durumunda müsadere ve faaliyet iznini iptali gibi bazı güvenlik tedbirleri uygulanıyor.
Yapay zekâ ceza sorumluluğuna tabi tutulmalı mı?
Genel olarak literatüre bakıldığında yapay zekânın ceza sorumluluğunun üç teori altında (sıradancı yaklaşım – istisnacı yaklaşım ve yapay zekânın üstlendiği işleve göre konuyu ele alan yaklaşım) incelendiğini görüyoruz.4 Söz konusu teorilerdeki argümantasyon esas alınarak farklı bir tasnifleme ile konuyu ele almaya çalışacağız.
İlk teori, ya da sıradancı yaklaşım, yapay zekâyı, yaratılmış zekâ olarak da tanımlayabileceğimizden, yapay zekâyı yaratanın, söz konusu algoritmayı kodlayan, oluşturan kişi veya kişilerin bu durumdan sorumlu tutulması gerektiğini öne sürer.
Ancak konu bu kadar basit değil. Zira ceza hukukunda, yapay zekâyı yaratanın, fail olabilmesi için kasten veya en azından taksirle hareket etmiş olması gerekli. Yani, yapay zekânın söz konusu suçu işleyeceğini öngörüp buna göre ilgili kodu oluşturacak olursa kasten hareket etmiş olur. Bunun yanı sıra böyle bir sonucu öngörememiş olsa bile dikkat ve özen yükümlülüğü kurallarına uygun hareket etmesi durumunda öngörebilecek olursa taksirle hareket etmiş olacaktır.
Sıradancı yaklaşım veya mevcut hukuk kuralları açısından sorunun çözülmesi noktasında iki açıya odaklanmakta fayda var.
Bir bilişim suçu işlemek için yapay zekânın oluşturulması durumunda, henüz amaçlanan suçlar işlenmemişse bile sadece yapay zekânın oluşturulması eyleminin bile suç teşkil edeceğini ifade edebiliriz.
Böyle bir durumda, zararlı yazılım oluşturma ve bulundurma eylemlerinin cezalandırılmasına ilişkin görüşler, yapay zekâya da uygulanabilir. Örneğin kişiler arasındaki haberleşme içeriklerini analiz etmek suretiyle, listelenmiş bazı kelimelerin bulunması durumunda haberleşmeyi engelleyen veya kişilerin bilişim sistem açıklarını analiz ederek bilişim sistemlerine giren bir algoritma bu kapsamda düşünülebilir. Bu kapsamda zararlı yazılımların ruhsatsız silah gibi düşünülerek bulundurulmasının yasaklanması gerektiğini savunan görüşler de var.5
Avrupa Konseyi tarafından hazırlanan Siber Suçlar Sözleşmesi,6 6’ncı maddesinde “Cihazların Kötüye Kullanılması” (Misuse of Devices) başlığı altında, Sözleşmede düzenlenen bilişim suçlarının işlenmesi için kullanılmak üzere hazırlanan donanım ve yazılımların kullanım amacıyla üretilmesi, satışı, kullanım amaçlı tedarik edilmesi, kullanım amaçlı bulundurulması, ithal edilmesi, dağıtımı ve başka şekilde erişilebilir hale getirilmesi cezalandırılıyor. Siber Suçlar Sözleşmesi’nin iç hukuka aktarılmasından sonra Türk Ceza Kanunu’na da 245a maddesi eklendi.7 Söz konusu maddeye göre, bilişim sistemlerinin araç olarak kullanılması suretiyle işlenen suçları gerçekleştirmek için cihazın, bilgisayar programının, şifrenin veya sair güvenlik kodunun imali, ithali, sevki, nakledilmesi, depolanması, kabul edilmesi, satılması, satışa arz edilmesi, satın alınması, başkalarına verilmesi veya bulundurulması cezalandırılıyor. Madde geniş bir şekilde kaleme alınmış ve bilgisayar programlarına da maddede açıkça yer verilmiş durumda. Bu kapsamda fidye virüsün, bilişim sistemlerindeki verilere veya sisteme zarar vermek amacıyla oluşturulması, ticarete konu edilmesi ve bulundurulması TCK m. 245a kapsamında cezalandırılıyor.8 Ara sonuç olarak bir suçun işlenmesi için yapay zekâ algoritmasının oluşturulması, söz konusu algoritmanın ticareti konu edinilmesi veya bulundurulması, TCK’ya göre suç.
Yapay zekâ suça araç olursa fail kim olur?
Mevcut düzenlemelerle konuya yaklaşımda olasılıklar üzerinden hareket ederek, konuya ilişkin vaka bazlı çözümler önermek bir diğer yöntem olarak karşımıza çıkıyor. Bu kapsamda öncelikle yapay zekânın bir suçun işlenmesi amacıyla oluşturulması üzerinde durmak gerekli. Burada yapay zekâ aslında işlenen suç bakımından bir araç olarak karşımıza çıkıyor. Dolayısıyla hangi suç işlenirse işlensin fail aslında programcı veya yapay zekâ programını suç işlemekte kullanan kişi.
İkinci bir ihtimal olarak yapay zekânın başta suç işlemek için oluşturulmaması ancak büyük veriyi işleyerek makine öğrenmesi yapan algoritmanın belli bir süre sonra bazı suçları işlemesi durumunu ele almak gerekiyor. Örneğin, yazının girişinde söz ettiğimiz yapay zekâ algoritması Tay’ın nefret suçu işlemesi. Bu durumda programcının veya kullanıcının taksir sorumluluğu söz konusu olabilir. Eğer işlenen suç taksirle işlenebilen bir suç ise ve yapay zekânın oluşturulmasında dikkat ve özen yükümlülüğünün sınırları dışına çıkılmış ise programcı veya kullanıcının taksirli suçtan sorumluluğu söz konusu olur.
Burada belirtmeliyiz ki, kullanıcının yapay zekâyı oluştururken dikkat ve özen yükümlülüğü ihlali olmamasına karşın yapay zekânın, öngörünün dışından işlediği verilerden sezgisel algoritma olması nedeniyle öngörülmeyen çıktılarla hareket etmesi durumunda kullanıcı veya programcının ceza sorumluluğuna gidilmesi mümkün olmaz. Örneğin bir web sitesine yönelik saldırı tespiti yapan ve güvenlik yazılımlarını etkinleştiren bir sezgisel algoritmanın, Internet üzerinden bir IP’den gelen sürekli hizmet istemlerini saldırı olarak değerlendirerek, ilgili web sayfasına meşru savunma kapsamında erişerek web sayfasını kullanılamaz hale getirmesi durumu bu bağlamda düşünülebilir. Bu noktada taksir sorumluluğundan bahsedebilmek için “dikkat ve özen yükümlülüğünün” sınırlarının da belirlenmesi gereklidir. Bu sınır kanaatimizce bu alanda yapılan çalışmalarda oluşturulan etik ilkelerden çıkarılabilecek ve zamanla geliştirilecektir.
Mevcut hukuksal düzenlemeler yetersiz kalırsa ne olur?
Yapay zekânın cezai sorumluluğunu tartışan ikinci teori olan istisnacı yaklaşım ise mevcut hukuksal düzenlemelerin soruna çare bulamadığını ve konunun özel düzenlemelere konu edinmesi gerektiğini düşünüyor.
Yukarıda vermiş olduğumuz örneğe dönersek, yani sezgisel algoritmanın kendi kendine bir web sitesine saldırmasına, programcının veya kullanıcının ceza hukuku açısından sorumlu tutulamayacağını belirtmiştik. Fakat bu durumda yapay zekânın kendisine bir suç faili olarak odaklanarak sorunu çözebiliriz.
Ceza hukukunda bir suçtan bahsedebilmek için irade ile dış dünyada değişikliğe neden olan bir hareket ve o hareket ile fail arasında psişik bağ bulunmalı. Yapay zekânın dış dünyada bir değişikliğe neden olabileceği malum fakat yapay zeka, düşünülebilse bile, anlama ve isteme sonucu oluşan psişik bağın var olup olmadığı, tartışma konusu.
Yapay zekânın bu kapsamda sorumluluğunun söz konusu olabilmesi için hukuk düzeninde kişilik sahibi olması ve ceza hukuku sisteminin de, kabul edilen kişiliği fail olarak düzenlemesi gereklidir. Bunun yanı sıra yapay zekânın suç faili olarak görülmesi söz konusu olmasa bile güvenlik tedbirlerinin uygulanması düşünülebilir.
Hangi yaptırımlar uygulanabilir?
İstisnacı yaklaşımın yerleşmesi için zamana ihtiyacımız olduğu aşikâr. Peki, yapay zekâ asla cezaya tabi olmayacak mı?
Ceza hukuku vasıtasıyla uygulanan cezanın amacının ilgili kişinin ıslahı ve bu suretle toplumsal normu dikkate almasının sağlanması olduğu düşünüldüğünde, yapay zekâya uygulanacak ceza anlamsızlaşıyor. Bununla birlikte meseleyi toplumu koruma noktasında çözmeye çalışırsak, bazı yaptırımların niteliği değiştirilerek; kendine özgü, kanunla düzenlenmiş güvenlik tedbirlerinin yapay zekâya uygulanması yani söz konusu olabilir.9 Örneğin yapay zekânın kişilik olarak tanınması, hak sahibi olması durumunda para cezası uygulanması bu kapsamda değerlendirilebilir.
Bunun yanı sıra büyük veri işlemek suretiyle makine öğrenmesi yapan ve öğrendiği doğrultuda suç işleyen yapay zekânın, suç işlemeye neden olarak öğrenmeleri dijital müsadere yoluyla silinebilir. Yine gerçek kişiler bakımından uygulanan hapis cezası da, yapay zekâlı varlık bakımından otonom bir faaliyet icra etmesinin, bir programcının denetiminde sürdürülmesi suretiyle özgürlüğünün kısıtlanması şeklinde uygulanabilir.10
Bunlara ilaveten yapay zekânın geriye dönüşsüz olarak tamamıyla silinmek suretiyle, gerçek kişilerde olduğu gibi ölüm cezası uygulanması da bu kapsamda söz konusu olabilir.
Bu makalede yer alan fikirler yazara aittir ve Fikir Turu’nun editöryel politikasını yansıtmayabilir.
Bu yazı ilk kez 2 Aralık 2020’de yayımlanmıştır.
- Gabriel Hallevy, “Yapay Zekaya Sahip Varlıkların Cezai Sorumluluğu – Bilim Kurgudan Yasal Toplumsal Denetime”, (Çev. Müslüm Fincan), Küresel Bakış, Y. 8, S. 24 (Haziran 2014), ss. 111 – 142.
- Cem Say, 50 Soruda Yapay Zekâ, 6. Baskı, İstanbul 2018, s. 151.
- “Yönetenler güçlerinin meşruluğunu yönetilenlerin rızasına borçludur. Size ne bu rıza verildi, ne de bu rızayı almanız için sizden ricada bulunuldu. Biz davet etmedik sizi. Ne bizi ne de bizim dünyamızı biliyorsunuz. Sizin sınırlarınız dâhilinde değildir. Doğanın bir ürünüdür o ve bizim kolektif faaliyetimiz sayesinde gelişecektir.” Cabir Aliyev, Çevrimiçi İfade Özgürlüğü Teorisi ve Hukuku, Liberte Yayınları, Ankara 2018, s. 16.
- Hallevy, s. 67 vd.; Aydemir, s. 69 vd.; Sinan Altunç, Robotlar, Yapay Zekâ ve Ceza Hukuku, https://www.academia.edu/37812174/Robotlar_Yapay_Zekâ_ve_Ceza_Hukuku, Erişim Tarihi: 01 Aralık 2019; Zafer İçer – Başak Buluz, “Yapay Zekânın Ceza Muhakemesindeki Rolü ve Geleceği”, 9’uncu Uluslararası Suç ve Ceza Film Festivalinde sunulan tebliğ metni; Gabriel Hallevy, “Yapay Zekâya Sahip Varlıkların Cezai Sorumluluğu – Bilim Kurgudan Yasal Toplumsal Denetime”, (Çev. Müslüm Fincan), Küresel Bakış, Y. 8, S. 24 (Haziran 2014), ss. 111 – 142; Gabriel Hallevy, “I, Robot – I, Criminal” – When Science Fiction Becomes Reality: Legal Liability of AI Robots Committing Criminal Offences”, Syracuse Science & Technology Law Reporter, Vol. 22, Spring 2010, ss. 1 – 37.
- Richard Downing, “Shoring Up the Weakest Link: What Lawmakers Around the World Need to Consider in Developing Comprehensive Laws to Combat Cybercrime”, 43 Colum. J. Transnat’l L. 705, (2005), s. 733 (ss. 705 – 762).
- Sözleşme TBMM tarafından 22.4.2014 tarih ve 6533 sayılı Kanun ile kabul edilmiş olup, 2.5.2014 tarih ve 28988 sayılı Resmi Gazete’de yayımlanarak yürürlüğe girmiştir.
- 24.03.2016 tarih ve 6698 sayılı Kanun’un 30’uncu maddesi ile.
- Bu konuda bkz. İbrahim Korkmaz, Cihaz, Program, Şifre ve Güvenlik Kodlarının Bilişim Suçlarının İşlenmesi Amacıyla İmal ve Ticareti Suçu, Terazi Hukuk Dergisi, Vol. 13, Sayı 142, Haziran 2018, ss. 45 – 55.
- Bu konuda bkz. Hallevy, Gabriel, Liability for Crimes Involving Artificial Intelligence System, Switzerland 2015 (Springer), s. 217.
- Bu konuda bkz. Hallevy, Liability for Crimes, s. 220.