Yapay zekâ, insanlık tarihinin en hızlı gelişen ve kontrolü en güç teknolojilerinden biri haline geldi. Bugün gelinen noktada, sadece bir verimlilik aracı olmaktan çıkıp ulusal güvenliğin, egemenliğin ve hatta küresel güç dengesinin ana eksenine yerleşti. Bu eşi benzeri görülmemiş güç, bir yandan devletlerin küresel hakimiyet kurma iştahını kabartırken diğer yandan kontrol edilemez bir yıkım ihtimalini de beraberinde getiriyor. Günümüzde hükümetler ile teknoloji devleri arasında yaşanan sert rüzgarlar, aslında bu yenilikçi teknolojinin kime hizmet edeceği ve hangi sınırlarda kalacağı sorusunun henüz cevaplanmamış olmasından kaynaklanıyor. Eskiden en kritik stratejik teknolojileri bizzat üreten ve kontrol eden devlet aygıtı, bugün ulusal güvenliğini bile sivil mühendislerin kurduğu kapalı sistemlere emanet etmek zorunda kalıyor.
The Economist internet sitesinde yayımlanan yazı, Amerikan hükümeti ile yapay zekâ şirketi Anthropic arasında patlak veren krizi merkeze alarak, teknolojinin dizginlenemez gücü ile devletlerin ulusal güvenlik hedefleri arasındaki tehlikeli çatışmayı ele alıyor. Yazı, Donald Trump’ın Anthropic ekibini hedef alan çelişkili ve sert söylemlerinden Savaş Bakanlığı’nın Anthropic’i bir tedarik zinciri riski ilan ederek köşeye sıkıştırma çabalarına, Claude yapay zekâ modelinin siber saldırılarda farkında olmadan araçsallaştırılmasından küresel güvenlik zirvelerinin sembolik ve etkisiz doğasına kadar uzanan gelişmeleri ortaya koyuyor.
Yazıdan öne çıkan bölümleri aktarıyoruz:
“27 Şubat’ta ABD Başkanı Donald Trump; savaş bakanlığı ve diğer devlet kurumlarıyla çalışan Amerikan yapay zekâ şirketi Anthropic’in, kendi ifadesiyle ‘solcu kaçıklar’ diye nitelediği ekibe sert çıktı. Sosyal medyada, ‘Amerika Birleşik Devletleri Hükümeti’ndeki TÜM Federal Kurumlara, Anthropic teknolojisinin kullanımını DERHAL DURDURMALARI talimatını veriyorum. Buna ihtiyacımız yok, bunu istemiyoruz ve onlarla bir daha iş yapmayacağız!’ yazdı. Fakat hemen bir cümle sonra, Anthropic’i önümüzdeki altı ay boyunca hükümetle iş birliği yapmaya zorlamak için ‘Başkanlığın Tüm Gücünü’ kullanma sözü verdi. Anlaşılan o ki, bu ‘kaçıklar’, devletin işleyişi için hem katlanılamaz bir risk teşkil ediyor hem de o kadar vazgeçilmezler ki gerekirse çalışmaya zorlanmaları gerekiyor.
Yapay zekânın insan becerilerini aşma potansiyeli netleştiğinden beri dünya bu ikilemle boğuşup duruyor: Bu teknoloji hem vazgeçilemeyecek kadar güçlü hem de gönül rahatlığıyla kucaklanamayacak kadar tehlikeli görünüyor. Nitekim Donald Trump ile Anthropic arasındaki kavga da şirketin kendi modellerinin kötü amaçlarla kullanılabileceğine dair duyduğu endişelerden patlak verdi. Donald Trump ve ekibi ise tam aksine, süreci minimum kısıtlamayla ilerletmek niyetindeydi. İşin korkutucu tarafı şu ki Amerikan hükümeti; yapay zekânın sadece teoride değil, gerçek dünyada da ciddi zararlar verme kabiliyeti iyice gün yüzüne çıkmışken süreci hızlandırma yoluna gitti.
Donald Trump’ın Anthropic’e duyduğu öfkenin temelinde, geçen yıl ‘Amerika’nın küresel yapay zekâ hakimiyetini korumak ve artırmak’ adına çıkardığı kararname yer alıyor. Bu hamle, Savaş Bakanı Pete Hegseth’in bu yılın başlarında ordu genelinde ‘Amerika’nın önde gelen yapay zekâ modelleriyle denemeler yapılması’ talimatını vermesine yol açtı. Geçen yıl ABD Başkan Yardımcısı J.D. Vance de yapay zekâ güvenliğini ‘yolunu şaşırmış bir liberal takıntısı’ olarak niteleyip kestirip atmıştı.
Pentagon ile Anthropic arasındaki kavga
Yönetimin bu bariz telaşına rağmen (ya da tam da bu yüzden) Anthropic, modellerinin kitlesel iç gözetleme veya tam otonom silahlarda kullanılmasını engelleyecek yasal güvenceleri korumak için direndi. Savaş Bakanlığı ise yapay zekâyı yasal bulduğu her şekilde kullanabilmesi gerektiğini savundu ve geri adım atmayan Anthropic’i ‘korkakça bir kurumsal erdem gösterisi sergilemekle’ suçladı. Pete Hegseth, firmayı ‘ulusal güvenlik için tedarik zinciri riski’ ilan edeceğini söyledi; bu tanım şimdiye kadar sadece casusluk veya sabotaj şüphesi taşıyan yabancı firmalar için kullanılıyordu. Pete Hegseth, ‘Amerikan ordusuyla iş yapan hiçbir yüklenici veya ortak, Anthropic ile ticari faaliyet yürütemez’ diyerek resti çekti.
Bu tehdit Anthropic için oldukça ciddi. Pentagon ile yapılan ve tartışmaya konu olan sözleşme 200 milyon dolar değerinde; bu, kısa süre önce 380 milyar dolar değer biçilen bir şirket için devede kulak kalsa da meselenin boyutu başka. Anthropic’in diğer devlet kurumlarıyla olan sözleşmeleri de artık tehlike altında. Eğer Savaş Bakanlığı ile iş yapan her firma Anthropic ile bağını koparmaya zorlanırsa, bu durum sadece müşterileri değil, tedarikçileri ve yatırımcıları da vurur.
Kod yazımından savaş sahasına
Bu kavga aslında Amerikan hükümeti için de pek iç açıcı bir durum değil. En azından kısa vadede bakıldığında Anthropic vazgeçilmez bir noktada duruyor. Şirketin büyük dil modeli Claude, kod yazma konusunda rakipsiz denecek kadar iyi. Üstelik Anthropic, Şubat sonuna kadar Pentagon’un gizli askeri verilerde kullanım onayı verdiği tek yapay zekâ şirketiydi. Rakip xAI’a da benzer bir yetki ancak o zaman verildi; fakat xAI’ın modeli Grok’un çok daha fazla hata barındırdığı ve pek de güven vermediği biliniyor. OpenAI da Donald Trump ve Pete Hegseth’in Anthropic’e yüklendiği gün Pentagon ile sözleşme imzaladı ama askeri sistemlere tam entegre olmaları epey vakit alacak. Daha da kötüsü, bu gerilim diğer yapay zekâ şirketlerini devletle iş yapmaktan soğutabilir. Keyfi kaçınca işinizi batırabilecek bir muhatapla kim masaya oturmak ister ki? Hele asıl hedef Amerika’nın yapay zekâdaki liderliğini perçinlemekse, ülkenin en başarılı şirketlerinden birini ezmeye çalışmak tam anlamıyla kendi ayağına sıkmak demek.
Aslında iki tarafın da biraz gövde gösterisi yaptığı söylenebilir. Hükümetin öfkesi, Anthropic’in araçlarını o tartışmalı işlerde kullanma isteğinden çok, kendisine ‘hayır’ denilmesine tahammül edememesinden kaynaklanıyor gibi. Çin Komünist Partisi istediği ürüne dilediği an el koyabilirken, Amerikan makamları hukukun sınırları ve teknoloji devlerinin devasa egolarıyla boğuşmak zorunda. OpenAI ve ChatGPT’nin başındaki Sam Altman da şirketinin kitlesel gözetleme ya da tam otonom silahlara bulaşmayacağını belirtiyor; fakat teknik korumaların yeterli olduğunu savunup ekstra yasal güvenceye gerek olmadığını da iddia ediyor.
İdealizm ile silahlanma yarışı arasında
Anthropic cephesinde ise mesele sadece birkaç varsayımsal tehlikeden ibaret değil muhtemelen. Sektörde herkes ‘iyilik yapma’ peşindeymiş gibi konuşsa da Anthropic bu idealist tavrıyla gerçekten öne çıkıyor. Zaten şirketi kuranlar da OpenAI’ın ‘güvenli ve sorumlu yapay zekâ’ hedefinden saptığını düşünen eski çalışanlar. ABD Savaş Bakanı Pete Hegseth’in yardımcılarından birine göre Anthropic’in CEO’su Dario Amodei bir ‘Tanrı kompleksi’ içinde yaşıyor. Fakat sektördeki mühendis kapma yarışı ve dudak uçuklatan maaşlar sayesinde, bu beyinler işin gidişatını beğenmedikleri an başka yere kaçabilir, hatta emekli olup gidebilirler. İşte yapay zekâ güvenliğini gerçekten dert edenlerin yolu eninde sonunda Anthropic’te kesişiyor.
Aslında bu kavga, Anthropic’in dürüstlük ve ilkelilik konusundaki imajına tam anlamıyla doping etkisi yaptı. Donald Trump’ın hışmına uğradıktan sadece bir gün sonra Claude uygulaması, Apple mağazasında Amerika’nın en çok indirilen ücretsiz uygulaması koltuğuna oturdu. Pazartesi günü Claude kısa süreliğine erişime kapandı; şirket bu durumu talebin bir anda patlamasına bağlıyor.
Dario Amodei’nin kitlesel gözetimle ilgili dile getirdiği endişeler, kulağa adeta bir pazarlama taktiği gibi geliyor. Yasaların, yapay zekânın verileri işleyip yönlendirme konusundaki o muazzam gücünün hala çok gerisinde kaldığını savunuyor. Amodei’ye göre teknoloji, Amerikalıların yasal olarak dinlenebildiği o istisnai durumları fırsat bilip, durumu çok daha korkutucu boyutlara taşıyabilir. Bu sözler sivil özgürlükler adına bir kaygı barındırsa da, aynı zamanda Claude’un yeteneklerine yönelik büyük bir övgü anlamına geliyor.
Yapay zekânın ‘Çernobil anı’
Yine de dolaylı yoldan bazı faydalar sağlasa da, yapay zekâyı geliştirenler arasında sistemin verebileceği zararlara dair korkular gayet gerçek ve oldukça yaygın. Google ve OpenAI’den yüzlerce çalışan, şirket yönetimlerini Anthropic’e destek vermeye çağıran ortak bir bildiri imzaladılar. Hatırlanacağı üzere Google, şirket içinde kopan fırtınaların ardından 2018’de drone görüntülerini incelemek için Pentagon ile yaptığı yapay zekâ sözleşmesinden çekilmek zorunda kalmıştı. Sam Altman bile Anthropic’i bir tedarik zinciri tehdidi olarak yaftalamanın ‘son derece yanlış bir karar’ olduğunu dile getirdi.
Yapay zekâ şirketlerinin patronları, kapalı kapılar ardında teknolojinin devasa ve yıkıcı bir felakete sebep olacağı bir tür ‘Çernobil vakası’ yaşamaktan korkuyorlar. Savaş Bakanlığı ile yaşanan son gerilim de bu riski iyice artırıyor: Zira yavaş ilerleyip ürününüzün kullanımına kısıtlamalar getirmek, federal hükümetin kurumunuzun idam fermanını imzalamasıyla sonuçlanıyorsa, bu piyasada sadece gözü kara olanlar hayatta kalacaktır. Öte yandan piyasaların yarattığı baskı da cabası: Yatırımcılar, yapay zekâ şirketlerinin o devasa yatırımlar uğruna hızla nakit eritmesinden oldukça tedirginler.
Yapay zekâ devlerinin uykularını kaçıran bu senaryolar, artık sadece birer varsayımdan ibaret değiller. Yapay zekânın barındırdığı tehlikeler üzerine hazırlanan yakın tarihli bir raporda, ‘Bu risklerin bir kısmı halihazırda belgelenmiş zararlarla birlikte gerçeğe dönüşüyor’ tespiti yapıldı. Rapor, teknolojinin karanlık yüzünün kendini göstermeye başladığı alanlar olarak siber güvenlik ve biyolojik silahlara dikkat çekiyor.
Daha Şubat ayında, İsrail merkezli Gambit Security firması; vergi mükellefleri, seçmenler ve devlet memurlarına ait çok sayıda hassas bilginin Meksika hükümetinden çalındığını duyurmuştu. Saldırganların kimliği hala meçhul olsa da, Claude’un bu suça farkında olmadan alet edildiği gün gibi ortada. Siber korsanlar, hedefteki sunucuların güvenliğini ölçmek için yasal bir sızma testi yapıldığına inandırarak botu kandırmayı başarmışlardı. Bunun üzerine Claude sistemdeki açıkları bulup kullanmış, arka kapılar açmış ve hükümetin sistemlerine daha derinlemesine sızılmasını sağlayacak verileri analiz etmişti.
Silinen kırmızı çizgiler ve küresel belirsizlik
Dario Amodei’ye göre bundan birkaç yıl önce yapay zekâ sohbetleri tamamen riskler etrafında dönüyordu. 2023 yılında dönemin İngiltere Başbakanı Rishi Sunak, bu sorunu masaya yatırmak için küresel bir Yapay Zekâ Güvenlik Zirvesi düzenlemişti. O etkinlik önce Paris’te bir ‘Eylem’ zirvesine, ardından geçtiğimiz ay Delhi’de bir ‘Etki’ zirvesine evrilmişti.
Bağımsız organizasyonlar, sistemleri takip edip riskleri raporlamaya devam ediyorlar. Ne var ki bu denetleyici grupların izlenen politikalar üzerinde pek bir ağırlığı yok gibi duruyor. Konuyla ilgili toplantılara öncülük eden AI Safety Connect’in kurucu ortağı Nicolas Miailhe durumu şu sözlerle anlatıyor: ‘O kadar çok kırmızı çizgiyi aştık ki. Turing testini hatırlıyor musunuz? Ne oldu o teste? Çoktan aşıp geçtik. Otonom ölümcül silahlarla ilgili kırmızı çizgileri hatırlıyor musunuz? Şu an Ukrayna’da her iki taraf da bu sistemleri sahada kullanıyor. Kırmızı çizgilerin yeri durmadan değişiyor.’
Delhi’deki zirvede Hindistan hükümeti, dev yapay zekâ şirketlerini herhangi bir kısıtlamaya mecbur bırakmadı; yalnızca yapay zekâ gelişimini riskler açısından izleme konusunda şirketlerle mutabakata vardı. Daha da dikkat çekici olan, etkinliğin sonunda Hindistan Başbakanı Narendra Modi‘nin yapay zekâ dünyasının en önemli isimlerini yan yana dizip onları el ele tutuşmaya davet etmesiydi.”
Bu yazı ilk kez 18 Mart 2026’da yayımlanmıştır.




