Yapay zekâ teknolojisinin baş döndürücü hızla gelişmesi, fırsatların yanı sıra insanlık için varoluşsal riskleri de beraberinde getiriyor. Son dönemde, bu riskler arasında en çok dikkat çeken başlık ise yapay zekânın nükleer silah sistemleri üzerindeki potansiyel etkisi.
Alanında önde gelen bilim insanları ve güvenlik uzmanları, kontrolden çıkan bir yapay zekânın nükleer kodlara erişme ihtimalinin hafife alınamayacak kadar ciddi olduğu konusunda uyarıyor. Bu uyarılar, yalnızca teknik güvenlik açıklarına değil, aynı zamanda stratejik karar alma süreçlerinde insan kontrolünün kaybolması tehlikesine de işaret ediyor. Futurism.com editörlerinden Victor Tangermann bu meseleyi daha da ileriye taşıyarak ek uyarılarda bulunuyor.
Yazıdan öne çıkan bölümleri aktarıyoruz.
“Her şeye girmenin bir yolunu bulacak!”
Nobel ödüllü bilim insanları geçen ay (temmuz 2025) nükleer uzmanlarla bir araya gelerek yapay zekâ ve dünyanın sonu hakkında tartıştı. Bu, kıyamet gününü konu alan bir bilimkurgu filminin başlangıcı gibi geliyorsa, yalnız değilsiniz.
Wired’ın haberine göre, bir araya gelen uzmanlar, yapay zekânın nükleer kodları ele geçirmesinin sadece an meselesi olduğu konusunda büyük ölçüde hemfikir görünüyordu. Bunun neden böyle olması gerektiği tam olarak belli değil, ancak derginin haberinde kaçınılmazlık hissi ve endişe açıkça hissediliyor.
Emekli ABD Hava Kuvvetleri Tümgenerali ve Atom Bilimcileri Bülteni Bilim ve Güvenlik Kurulu üyesi Bob Latiff, Wired’a “Bu elektrik gibi bir şey. Her şeye girmenin bir yolunu bulacak,” dedi.
Bu tuhaf bir durum. Yapay zekâların çok sayıda karanlık yönü olduğu zaten kanıtlandı. Kapatılmakla tehdit edildiklerinde, insan kullanıcıları şaşırtıcı bir hızla şantaja başvuruyorlar.
Bir YZ veya YZ ağları bağlamında, nükleer silah stoklarını korumak, bu tür kötü anlaşılmış riskleri çok büyük hale getiriyor. Ve bu, bazı uzmanlar arasında gerçek bir endişe konusu olan ve aynı zamanda Terminatör filminin konusu olan, varsayımsal bir süper insan YZ’nin kontrolden çıkıp insanlığın nükleer silahlarını ona karşı kullanması durumunu hesaba katmadan bile böyle.
Bu yılın başlarında, eski Google CEO’su Eric Schmidt, “insanlar bu düzeyde bir zekâya sahip olduğunda ne olacağını anlamadıkları” gerekçesiyle, insan düzeyinde bir YZ’nin “artık bizi dinlemek için bir nedeni olmayabileceği” uyarısında bulundu.
Bu tür YZ karamsarlığı, gerçeklik yavaş yavaş akan bir yakalama oyunu oynarken, teknoloji liderlerinin yıllardır aklında olan bir konu. Mevcut haliyle, riskler muhtemelen daha sıradan olacaktır, çünkü günümüzün en iyi YZ modelleri hâlâ, çıktılarının yararını büyük ölçüde azaltan yaygın halüsinasyonlardan mustariptir.
Ayrıca, kusurlu YZ teknolojisinin siber güvenliğimizde boşluklar bırakarak düşmanların — hatta düşman YZ’lerin — nükleer silahları kontrol eden sistemlere erişmesine olanak tanıması tehdidi de söz konusudur.
Geçen ay yapılan olağandışı toplantıda, yapay zekâ gibi karmaşık bir konuda tüm katılımcıların uzlaşması zor oldu. Amerikan Bilim Adamları Federasyonu’nun küresel risk direktörü Jon Wolfsthal, yayına verdiği demeçte “YZ’nin ne olduğunu kimse gerçekten bilmiyor” dedi.
En azından bazı ortak noktalar buldular
Wolfsthal, “Bu alanda neredeyse herkes, nükleer silahlarla ilgili kararların etkili bir şekilde insan kontrolü altında olmasını istediğini söylüyor” diye ekledi. Latiff, “çalıştığınız insanlara sorumlu birinin olduğunu garanti edebilmeniz gerekir” dedi.
Tüm bunlar biraz şaka gibi geliyorsa, yanılmıyorsunuz. Başkan Donald Trump yönetimi sırasında federal hükümet, yapay zekâyı mümkün olan her alana entegre etmekle meşguldü, ancak uzmanlar, bu teknolojinin henüz bu göreve hazır olmadığını ve belki de hiçbir zaman hazır olamayacağını söylüyor. Enerji Bakanlığı, bu yıl YZ’nin 2. Dünya Savaşı sırasında dünyanın ilk nükleer bombalarının üretilmesiyle sonuçlanan projeye atıfta bulunarak, YZ’nin “bir sonraki Manhattan Projesi” olduğunu ilan etti.
Hangi noktada “dur” demeli
ChatGPT’nin üreticisi OpenAI de tehdidin ciddiyetini vurgulayarak, bu yılın başlarında ABD Ulusal Laboratuvarları ile YZ’yi nükleer silah güvenliği için kullanmak üzere bir anlaşma imzaladı.
Geçen yıl, ABD’nin nükleer füze stoklarından sorumlu Hava Kuvvetleri generali Anthony Cotton, bir savunma konferansında Pentagon’un AI’ya yatırımını iki katına çıkardığını ve bunun “karar verme yeteneklerimizi geliştireceğini” iddia ederek övündü.
Neyse ki Cotton, teknolojinin tam kontrolü ele almasına izin vermemiz gerektiğini söylemekten kaçındı.
“Ancak yapay zekânın bizim adımıza bu kararları almasına asla izin vermemeliyiz” diye ekledi.”
Bu yazı ilk kez 12 Ağustos 2025’te yayımlanmıştır.
