Yapay zekâ çalışmaları neden riskli?

Yapay zekâ tehdit mi? Etik olabilir mi? İnsanı ne kadar anlayabilir? Sohbet robotları hakkındaki riskler, kaygılar neler? Çağımızın önemli düşünce insanları neden endişeli? Riskleri avantaja çevirmek mümkün mü? Ekonomiden kültüre hayatımızı nasıl değiştirebilir? Daron Acemoğlu ve Slovaj Zizek hangi görüşte?

OpenAI tarafından geliştirilen genel kullanıma açık bir yapay zekâ platformunun son versiyonu olan GPT-4 ve ChatGPT’ye yönelik eleştiriler son bulmuyor.

Son olarak Elon Musk, teknoloji dünyasından bazı isimler ve kimi yapay zekâ uzmanları, gelişmiş mevcut yapay zekâ uygulamalarının topluma ve insanlığa yönelik potansiyel risklerinden söz eden bir açık mektup yayınladılar. Mektupta, bu tür tasarımlar için güvenlik protokolleri geliştirilene, uygulanana ve bağımsız uzmanlarca denetlenene dek yapay zekâ çalışmalarının altı ay durdurulması yönünde bir çağrı yaptılar.

Bu çağrıdan sadece birkaç gün önce de Project Syndicate sitesinde, iki dikkat çekici isim, konuyu farklı yönlerden ele alıp uyarılarda bulundu. Düşünür Slovaj Zizek, yazılımların insanlığın kültürünün temel taşları olan ironi, tepkisellik ve çelişkilerin altını oyduğuna, ekonomist Daron Acemoğlu ise yapay zekâ yatırımlarının toplumsal refahı ve huzuru bozma riskine dikkat çekti.

Zizek, yazısında, geliştirilen sohbet robotlarının insan kültürünü ve iletişiminin temelini oluşturan nüansları, ironileri ve çelişkilerini “anlamayacak kadar naif veya aptal” olmakla eleştirdi ve sohbet robotlarının insanların istenmeyecek bir yöne doğru evrilmesine yol açabileceği görüşünü savundu. Zizek’in yazısından öne çıkan bazı bölümler şöyle:

Yapay budalalık

“Doğal dilde bir konuşmayı sürdürülebilen, bir kullanıcının temel amacını anlayabilen ve önceden belirlenmiş kurallara ve verilere dayalı yanıtlar sunabilen “sohbet robotları” (chatbots) hakkında yeni bir şey yok. Ancak bu tür sohbet robotlarının kapasitesi son aylarda önemli ölçüde artarken pek çok çevrede paniğe neden oldu. …

İnsanlar saldırgan, cinsiyetçi veya ırkçı ifadeler kullanarak kendilerinden ağzı bozuk fanteziler istediğinde chatbot buna nasıl yanıt vermeli? Yapay zekâlar sorulan sorulara aynı düzeyde yanıt verecek şekilde programlanmalı mı?

Bu tür bir düzenlemenin gerekli olduğuna karar verirsek, o zaman sansürün ne kadar ileriye gidebileceğini de belirlememiz gerekecek. Mesela bazı çevrelerin “saldırgan” bulduğu siyasi duruşlar yasaklanacak mı? Örneğin Batı Şeria’daki Filistinlilerle dayanışma ifadeleri veya eski ABD Başkanı Jimmy Carter’ın bir kitabının başlığında ileri sürdüğü gibi İsrail’in ırkçı ve ayrımcı bir ülke olduğu iddiaları ne olacak? Bunlar “Antisemitist” bulunarak engellenecek mi?

Sorun bununla da bitmiyor. Ressam ve yazar James Bridle’ın uyardığı üzere, yeni yapay zekâlar “mevcut kültürün toptan sahiplenilmesine dayanıyor”, ama bazı şeylerin “gerçekten akıllıca veya anlamlı oldukları inancı bilfiil tehlikelidir.” Bu nedenle yeni yapay zekânın sunduğu kabiliyetlere ve ürünlere karşı çok dikkatli olmalıyız.

Yapay zekâ insanın ironisi ve tepkiselliğinden yoksun

Alman şair ve yazar Heinrich von Kleist, 1805 tarihli, “Konuşma sürecinde düşüncelerin kademeli oluşumu üzerine” başlıklı makalesinde, kişinin net bir fikri olmadıkça konuşmak için ağzını açmaması gerektiği şeklindeki yaygın kanıya tam aksi yönde bir görüşle karşı çıkar: “Bir düşünce belirsiz bir şekilde ifade ediliyorsa, bundan bu düşüncenin karışık bir şekilde tasarlandığı sonucu kesinlikle çıkmaz. Tam tersine, en kafa karıştırıcı biçimde ifade edilen fikirlerin, en açık şekilde düşünülmüş fikirler olması da oldukça olasıdır.”

Dil ve düşünce arasındaki ilişki olağanüstü derecede karmaşıktır. Stalin’in 1930’ların başındaki konuşmalarından birinden bir pasajda, “sadece düşüncelerinde bile kolektivizasyona1 karşı çıkanları acımasızca tespit etmeli ve bunlarla savaşmalıyız. Evet, aynen bunu kastediyorum, insanların düşünceleriyle bile savaşmalıyız” ifadesini kullanmıştır. Konuşmanın bu bölünün önceden hazırlanmadığı rahatlıkla söylenebilir. Stalin kendini konuşmanın cazibesine kaptırdıktan sonra ne söylediğinin hemen farkına varmış. Ancak geri adım atmak yerine abarttığı görüşüne bağlı kalmaya karar vermiş. Jacques Lacan’ın daha sonra ifade ettiği gibi, bu, beyanla sürpriz bir şekilde ortaya çıkan bir hakikat durumuydu. Louis Althusser, ödül ve sürpriz arasındaki etkileşimde benzer bir fenomen tanımladı. Aniden bir fikri kavrayan biri, ulaştığı sonuca şaşıracaktır. Yine soruyorum: Herhangi bir chatbot bunu yapabilir mi?

Sorun, sohbet robotlarının aptal olması değil, yeterince “aptal” olmamalarıdır. Sorun saf, yani ironiden veya tepkisellikten yoksun olmaları değil, yeterince saf olmamalarıdır. O halde asıl tehlike, insanların bir sohbet robotunu gerçek bir insan sanması değil, sohbet robotlarıyla iletişim kuran gerçek kişilerin sohbet robotları gibi konuşmasına neden olmasıdır. Çünkü tüm nüans ve ironileri kaçırırlar, takıntılı biçimde yalnızca tam olarak kişinin söylemek istediğini düşündüğü şeyleri söylerler.

Ben gençken, bir arkadaşım travma yaratan bir deneyimin ardından tedavi için bir psikanaliste gitmişti. Bu arkadaşın psikanalistlerin hastalarından ne beklediğine dair düşüncesi bir klişeden ibaretti. Bu yüzden ilk seansını babasından nasıl nefret ettiğine ve onun ölmesini istediğine dair sahte “serbest çağrışımlar” sunarak geçirdi. Analistin tepkisi dahiceydi: “Freud öncesi” saf bir duruş benimsedi ve “Seni sen yapan kişi hakkında nasıl böyle konuşabilirsin?” diye çıkıştı ve arkadaşımı babasına saygı duymadığı için kınadı. Bu sahte saflık açık bir mesaj gönderdi: Sizin sahte “çağrışımlarınıza” inanmıyorum. Bir chatbot bu alt metni anlayabilir mi?

Büyük olasılıkla anlamayacaklar. Çünkü Rowan Williams’ın Dostoyevski’nin Budala romanındaki Prens Mişkin yorumuna benziyor. Standart okumaya göre, “Budala Mişkin”, gerçek dünyanın sert vahşetleri ve tutkuları tarafından izole bir deliliğe sürüklenen “kesinlikle bir aziz kadar iyi ve güzel bir adamdır”. Ancak Williams’ın göre Mişkin iyi görünse de, etrafındaki karmaşık ilişkiler ağındaki rolü sayesinde tanık olduğu yıkımı ve ölümü tetikleyen kişidir.

Mesele sadece Mişkin’in saf bir budala olması değil. Kendine özgü budalalığı, kendisini başkaları üzerindeki feci etkilerinden habersiz bırakıyor. Mişkin, tam anlamıyla bir chatbot gibi konuşan düz bir insan. Onun “iyiliği”, bir sohbet robotu gibi, meydan okumalara ironi olmadan tepki vermesi, herhangi bir düşünümden yoksun basmakalıp sözler sunması, her şeyi kelimesi kelimesine alması ve otantik fikir oluşumundan ziyade zihinsel bir otomatik tamamlamaya güvenmesi gerçeğinde yatar. Bu nedenle, yeni sohbet robotları, günümüzün “uyanmış” kalabalığından uykuda kalmayı tercih eden “MAGA+”2 milliyetçilerine kadar her türden ideologla çok iyi anlaşacak.”

Yapay zekâ çalışmalarının ekonomik sonuçları neler olabilir?

Ekonomist Prof. Dr. Daron Acemoğlu ise, Project Syndicate için Simon Johnson ile birlikte kaleme aldığı makalede, ChatGPT gibi genel kullanıma açık yapay zekâ uygulamalarının ekonomik sonuçlarına değiniyor. Acemoğlu ve Johnson, yapay zekânın çalışanların işlerini ellerinden alabileceğini, tüketici alışkanlıkları ve deneyimlerini değiştirebileceğini ve sonuçta bundan tüm yatırımcıların zarar göreceğini ileri sürüyor. Yazıdan öne çıkan bölümleri aktarıyoruz:

“Microsoft’un OpenAI’ın, sanki bir insan yazmış gibi okunan metinler üretebilen doğal dilde bir yapay zekâ programı olan ChatGPT’den memnun olduğu bildiriliyor. Şirketler ve risk sermayesi fonları, finansmana kolay erişimin avantajlarından yararlanarak son on yılda yapay zekâ silahlanma yarışına milyarlarca dolar yatırım yaptı ve bu da artık daha geniş bir görev yelpazesinde insanların işlerinin ellerinden alınmasında kullanılabilecek bir teknolojiyle sonuçlandı. Bu sadece işçiler için değil, tüketiciler ve hatta yatırımcılar için de bir felaket olabilir.

Kariyer basamakları nasıl örülecek?

İşçiler için sorun açık: Güçlü iletişim becerileri gerektiren daha az iş olacak ve dolayısıyla iyi maaşlı daha az pozisyon kalacak. Temizlikçiler, şoförler ve diğer bazı işçiler işlerine devam edecek, ancak diğer herkes korkmalı. Müşteri hizmetlerini düşünün. Şirketler, müşterilerle etkileşim kurmaları için insanları işe almak yerine, kızgın arayanları akıllı ve yatıştırıcı sözlerle yönlendirmek için ChatGPT gibi üretken yapay zekâlara giderek daha fazla bel bağlayacak. Başlangıç seviyesinde işlerin sayısının azalması, bir kariyere başlamak için daha az fırsat olacağı anlamına geliyor. Bu da dijital teknolojilerin daha önce başlattığı çalışanları işsiz bırakma eğilimin süreceğini gösteriyor.

Tüketiciler insana hasret kalacak

Tüketiciler de mağdur olacak. Chatbot’lar tamamen rutin soruları ele almakta iyi olabilir. Ama insanları genellikle müşteri hizmetlerini aramaya yönlendiren rutin sıradan değildir. Bir havayolunun uçuşlarını iptal etmesi veya bodrumunuzda bir borunun patlaması gibi gerçek sorunlarla karşılaştığınızda kaynakları sıralama ve zamanında çözüm bulma becerisine sahip, iyi nitelikli, empati kuran bir profesyonelle konuşmak istersiniz. Düzgün konuşan ama beceriksiz bir sohbet robotu ile değil.

Elbette ideal bir dünyada, daha iyi müşteri hizmeti sunan yeni şirketler ortaya çıkar ve iyi bir pazar payı elde eder. Ancak gerçek dünyada, birçok giriş engeli, yeni firmaların hızla büyümesini zorlaştırıyor.

Özel sermaye kendi altını mı oyuyor?

Halka açık şirketlerin yatırımcıları da ChatGPT çağında kaybedecek. Bu şirketler, işlerini güçlerini daha üretken ve yeni görevleri yerine getirebilir hale getirmek için yeni teknolojilere yatırım yaparak ve çalışanların becerilerini geliştirmek için çok sayıda eğitim sağlayarak tüketicilere sundukları hizmetleri geliştirebilir. Ama bunu yapmıyorlar. Pek çok yönetici, nihayetinde kendi kendilerini baltalayarak, istihdamı kısıp ücretleri olabildiğince düşük tutmaya takıntılı biçimde bağlı bir strateji izliyor. Yöneticiler bu kesintileri takip ediyor, çünkü “akıllı çocuklar” (analistler, danışmanlar, finans profesörleri, diğer yöneticiler) bunu yapmaları gerektiğini söylüyor. Wall Street ise şirketlerin performansını çalışanları ellerinden geldiğince sıkıştıran şirketlere göre değerlendiriyor.

Yapay zekâ ayrıca yeni girişim sermayesinin3 zararlı sosyal etkilerini artırmaya da hazır. Hâlihazırda, özel sermayenin eline geçen şirketlere borç yükleyerek ve ardından işgücünün içini boşaltarak büyük servetler kazanmak mümkün. Bundan böyle ChatGPT ve diğer yapay zekâ teknolojileri, iş yeri gözetimi, daha zorlu çalışma koşulları, sıfır saatli sözleşmeler4 vb. yoluyla işçileri mümkün olduğunca sıkıştırmayı daha da kolaylaştıracak.

Refah devleti ortadan mı kalkıyor?

Bu eğilimlerin hepsinin Amerikalıların harcama gücü – ABD ekonomisinin motoru – üzerinde korkunç etkileri var. Ancak yakında çıkacak kitabımız “Power in Progress: Our Thousand Years Struggle Over Technology and Prosperity” açıkladığımız gibi, teknoloji gelecekte tam gaz giden bir ekonomik lokomotif olmayacak. Nihayetinde, yeni makinelerin piyasaya sürülmesi ve teknolojik atılımlar geçmişte çok farklı sonuçlara yol açmıştı.

Bir asırdan fazla bir süre önce Henry Ford, yeni elektrikli makinelere büyük yatırımlar yaparak ve daha verimli bir montaj hattı geliştirerek otomobil üretiminde devrim yarattı. Evet, merkezi elektrik kaynakları makinelerin daha fazla görevi daha verimli bir şekilde gerçekleştirmesini sağladığı ve bu yeni teknolojiler bir miktar otomasyon getirdi. Ancak elektriğe geçişle birlikte fabrikanın yeniden düzenlenmesi işçiler için yeni görevler ve daha yüksek maaşlı binlerce yeni iş yaratarak ortak refahı artırdı. Ford, insanla bütünleşen bir teknoloji yaratmanın iyi bir iş olduğunu göstermede öncülük etti.

Bugün yapay zekâ da aynısını yapma fırsatı sunuyor. Yapay zekâ destekli dijital araçlar, hemşirelerin, öğretmenlerin ve müşteri hizmetleri temsilcilerinin hizmetlerini iyileştirmeye yardımcı olabilir. Algoritmaların tahmin gücü, insanların yerini almak yerine insanlara yardım etmek için kullanılabilir. Yapay zekâlar, insanların dikkate alacağı öneriler sunmak için kullanılıyorsa, bu tür önerileri akıllıca kullanma yeteneği, değerli bir insan becerisi olarak kabul edilecektir. Diğer yapay zekâ uygulamaları, çalışanların görevlere daha iyi atanmasını kolaylaştırabilir ve hatta tamamen yeni pazarlar yaratabilir.

Ne yazık ki, bu fırsatlar göz ardı ediliyor. Çünkü çoğu teknoloji lideri, insanların hâlihazırda gayet iyi yaptığı şeyleri yapabilen yazılımlar geliştirmek için yoğun bir şekilde çaba harcamaya devam ediyor. Herkes, yalnızca anlık müşteri deneyimi için değil, aynı zamanda halkın harcama gücünün geleceği için de çok az endişe duyarak, işgücü maliyetlerini azaltmak için yapay zekâdan yararlanmaya odaklanıyor.

Ford, kitlelerin satın almaya gücü yetmiyorsa seri üretim arabaların anlamsız olduğunu anlamıştı. Günümüzün kurumsal devleri, aksine, yeni teknolojileri kolektif geleceğimizi mahvedecek şekillerde kullanıyor.”

Bu yazı ilk kez 31 Mart 2023’te yayımlanmıştır.

Her ikisi de Project Syndicate’te yayınlanan Slovoj Zizek’in “Yapay budalalık” başlıklı yazısı ile Daron Acemoğlu ve Simon Johnson’un birlikte kaleme aldıkları, “ChatGPT’nun sorunu ne?” başlıklı yazılarından bölümler Mustafa Alkan tarafından çevrilmiş ve editoryal katkısı ile yayına hazırlanmıştır. Yazıların orijinallerine aşağıdaki linklerden ulaşabilirsiniz. Artificial Idiocy by Slavoj Žižek – Project Syndicate (project-syndicate.org)What’s Wrong with ChatGPT? by Daron Acemoglu & Simon Johnson – Project Syndicate (project-syndicate.org)
  1. Çiftçilerin paylarını birleştirerek büyük bir çiftlik oluşturması ve burada bir arada çalışarak meydana gelen kârdan pay alması üzerine kurulu sosyalist tarım politikası…
  2. ABD’de Donald Trump taraftarı aşırıcı gruplar.
  3. Var olan şirketlerin satın alınmasıyla yapılan özel sektör yatırımları…
  4. Bir işverenin bir çalışanın çalıştığı saat sayısını değiştirebileceği ve herhangi bir saat önermek zorunda olmadığı bir iş sözleşmesi.

Fikir Turu
Fikir Turuhttps://fikirturu.com/
Fikir Turu, yalnızca Türkiye’deki düşünce hayatını değil, dünyanın da ne düşündüğünü, tartıştığını okurlarına aktarmaya çalışıyor. Bu amaçla, İngilizce, Arapça, Rusça, Almanca ve Çince yazılmış önemli makalelerin belli başlı bölümlerini çevirerek, editoryal katkılarla okuruna sunmaya çalışıyor. Her makalenin orijinal metnine ve değerli çevirmen arkadaşlarımızın bilgilerine makalenin alt kısmındaki notlardan ulaşabilirsiniz.

YORUMLAR

Subscribe
Bildir
guest

0 Yorum
Eskiler
En Yeniler Beğenilenler
Inline Feedbacks
View all comments

Son Eklenenler

Yapay zekâ çalışmaları neden riskli?

Yapay zekâ tehdit mi? Etik olabilir mi? İnsanı ne kadar anlayabilir? Sohbet robotları hakkındaki riskler, kaygılar neler? Çağımızın önemli düşünce insanları neden endişeli? Riskleri avantaja çevirmek mümkün mü? Ekonomiden kültüre hayatımızı nasıl değiştirebilir? Daron Acemoğlu ve Slovaj Zizek hangi görüşte?

OpenAI tarafından geliştirilen genel kullanıma açık bir yapay zekâ platformunun son versiyonu olan GPT-4 ve ChatGPT’ye yönelik eleştiriler son bulmuyor.

Son olarak Elon Musk, teknoloji dünyasından bazı isimler ve kimi yapay zekâ uzmanları, gelişmiş mevcut yapay zekâ uygulamalarının topluma ve insanlığa yönelik potansiyel risklerinden söz eden bir açık mektup yayınladılar. Mektupta, bu tür tasarımlar için güvenlik protokolleri geliştirilene, uygulanana ve bağımsız uzmanlarca denetlenene dek yapay zekâ çalışmalarının altı ay durdurulması yönünde bir çağrı yaptılar.

Bu çağrıdan sadece birkaç gün önce de Project Syndicate sitesinde, iki dikkat çekici isim, konuyu farklı yönlerden ele alıp uyarılarda bulundu. Düşünür Slovaj Zizek, yazılımların insanlığın kültürünün temel taşları olan ironi, tepkisellik ve çelişkilerin altını oyduğuna, ekonomist Daron Acemoğlu ise yapay zekâ yatırımlarının toplumsal refahı ve huzuru bozma riskine dikkat çekti.

Zizek, yazısında, geliştirilen sohbet robotlarının insan kültürünü ve iletişiminin temelini oluşturan nüansları, ironileri ve çelişkilerini “anlamayacak kadar naif veya aptal” olmakla eleştirdi ve sohbet robotlarının insanların istenmeyecek bir yöne doğru evrilmesine yol açabileceği görüşünü savundu. Zizek’in yazısından öne çıkan bazı bölümler şöyle:

Yapay budalalık

“Doğal dilde bir konuşmayı sürdürülebilen, bir kullanıcının temel amacını anlayabilen ve önceden belirlenmiş kurallara ve verilere dayalı yanıtlar sunabilen “sohbet robotları” (chatbots) hakkında yeni bir şey yok. Ancak bu tür sohbet robotlarının kapasitesi son aylarda önemli ölçüde artarken pek çok çevrede paniğe neden oldu. …

İnsanlar saldırgan, cinsiyetçi veya ırkçı ifadeler kullanarak kendilerinden ağzı bozuk fanteziler istediğinde chatbot buna nasıl yanıt vermeli? Yapay zekâlar sorulan sorulara aynı düzeyde yanıt verecek şekilde programlanmalı mı?

Bu tür bir düzenlemenin gerekli olduğuna karar verirsek, o zaman sansürün ne kadar ileriye gidebileceğini de belirlememiz gerekecek. Mesela bazı çevrelerin “saldırgan” bulduğu siyasi duruşlar yasaklanacak mı? Örneğin Batı Şeria’daki Filistinlilerle dayanışma ifadeleri veya eski ABD Başkanı Jimmy Carter’ın bir kitabının başlığında ileri sürdüğü gibi İsrail’in ırkçı ve ayrımcı bir ülke olduğu iddiaları ne olacak? Bunlar “Antisemitist” bulunarak engellenecek mi?

Sorun bununla da bitmiyor. Ressam ve yazar James Bridle’ın uyardığı üzere, yeni yapay zekâlar “mevcut kültürün toptan sahiplenilmesine dayanıyor”, ama bazı şeylerin “gerçekten akıllıca veya anlamlı oldukları inancı bilfiil tehlikelidir.” Bu nedenle yeni yapay zekânın sunduğu kabiliyetlere ve ürünlere karşı çok dikkatli olmalıyız.

Yapay zekâ insanın ironisi ve tepkiselliğinden yoksun

Alman şair ve yazar Heinrich von Kleist, 1805 tarihli, “Konuşma sürecinde düşüncelerin kademeli oluşumu üzerine” başlıklı makalesinde, kişinin net bir fikri olmadıkça konuşmak için ağzını açmaması gerektiği şeklindeki yaygın kanıya tam aksi yönde bir görüşle karşı çıkar: “Bir düşünce belirsiz bir şekilde ifade ediliyorsa, bundan bu düşüncenin karışık bir şekilde tasarlandığı sonucu kesinlikle çıkmaz. Tam tersine, en kafa karıştırıcı biçimde ifade edilen fikirlerin, en açık şekilde düşünülmüş fikirler olması da oldukça olasıdır.”

Dil ve düşünce arasındaki ilişki olağanüstü derecede karmaşıktır. Stalin’in 1930’ların başındaki konuşmalarından birinden bir pasajda, “sadece düşüncelerinde bile kolektivizasyona1 karşı çıkanları acımasızca tespit etmeli ve bunlarla savaşmalıyız. Evet, aynen bunu kastediyorum, insanların düşünceleriyle bile savaşmalıyız” ifadesini kullanmıştır. Konuşmanın bu bölünün önceden hazırlanmadığı rahatlıkla söylenebilir. Stalin kendini konuşmanın cazibesine kaptırdıktan sonra ne söylediğinin hemen farkına varmış. Ancak geri adım atmak yerine abarttığı görüşüne bağlı kalmaya karar vermiş. Jacques Lacan’ın daha sonra ifade ettiği gibi, bu, beyanla sürpriz bir şekilde ortaya çıkan bir hakikat durumuydu. Louis Althusser, ödül ve sürpriz arasındaki etkileşimde benzer bir fenomen tanımladı. Aniden bir fikri kavrayan biri, ulaştığı sonuca şaşıracaktır. Yine soruyorum: Herhangi bir chatbot bunu yapabilir mi?

Sorun, sohbet robotlarının aptal olması değil, yeterince “aptal” olmamalarıdır. Sorun saf, yani ironiden veya tepkisellikten yoksun olmaları değil, yeterince saf olmamalarıdır. O halde asıl tehlike, insanların bir sohbet robotunu gerçek bir insan sanması değil, sohbet robotlarıyla iletişim kuran gerçek kişilerin sohbet robotları gibi konuşmasına neden olmasıdır. Çünkü tüm nüans ve ironileri kaçırırlar, takıntılı biçimde yalnızca tam olarak kişinin söylemek istediğini düşündüğü şeyleri söylerler.

Ben gençken, bir arkadaşım travma yaratan bir deneyimin ardından tedavi için bir psikanaliste gitmişti. Bu arkadaşın psikanalistlerin hastalarından ne beklediğine dair düşüncesi bir klişeden ibaretti. Bu yüzden ilk seansını babasından nasıl nefret ettiğine ve onun ölmesini istediğine dair sahte “serbest çağrışımlar” sunarak geçirdi. Analistin tepkisi dahiceydi: “Freud öncesi” saf bir duruş benimsedi ve “Seni sen yapan kişi hakkında nasıl böyle konuşabilirsin?” diye çıkıştı ve arkadaşımı babasına saygı duymadığı için kınadı. Bu sahte saflık açık bir mesaj gönderdi: Sizin sahte “çağrışımlarınıza” inanmıyorum. Bir chatbot bu alt metni anlayabilir mi?

Büyük olasılıkla anlamayacaklar. Çünkü Rowan Williams’ın Dostoyevski’nin Budala romanındaki Prens Mişkin yorumuna benziyor. Standart okumaya göre, “Budala Mişkin”, gerçek dünyanın sert vahşetleri ve tutkuları tarafından izole bir deliliğe sürüklenen “kesinlikle bir aziz kadar iyi ve güzel bir adamdır”. Ancak Williams’ın göre Mişkin iyi görünse de, etrafındaki karmaşık ilişkiler ağındaki rolü sayesinde tanık olduğu yıkımı ve ölümü tetikleyen kişidir.

Mesele sadece Mişkin’in saf bir budala olması değil. Kendine özgü budalalığı, kendisini başkaları üzerindeki feci etkilerinden habersiz bırakıyor. Mişkin, tam anlamıyla bir chatbot gibi konuşan düz bir insan. Onun “iyiliği”, bir sohbet robotu gibi, meydan okumalara ironi olmadan tepki vermesi, herhangi bir düşünümden yoksun basmakalıp sözler sunması, her şeyi kelimesi kelimesine alması ve otantik fikir oluşumundan ziyade zihinsel bir otomatik tamamlamaya güvenmesi gerçeğinde yatar. Bu nedenle, yeni sohbet robotları, günümüzün “uyanmış” kalabalığından uykuda kalmayı tercih eden “MAGA+”2 milliyetçilerine kadar her türden ideologla çok iyi anlaşacak.”

Yapay zekâ çalışmalarının ekonomik sonuçları neler olabilir?

Ekonomist Prof. Dr. Daron Acemoğlu ise, Project Syndicate için Simon Johnson ile birlikte kaleme aldığı makalede, ChatGPT gibi genel kullanıma açık yapay zekâ uygulamalarının ekonomik sonuçlarına değiniyor. Acemoğlu ve Johnson, yapay zekânın çalışanların işlerini ellerinden alabileceğini, tüketici alışkanlıkları ve deneyimlerini değiştirebileceğini ve sonuçta bundan tüm yatırımcıların zarar göreceğini ileri sürüyor. Yazıdan öne çıkan bölümleri aktarıyoruz:

“Microsoft’un OpenAI’ın, sanki bir insan yazmış gibi okunan metinler üretebilen doğal dilde bir yapay zekâ programı olan ChatGPT’den memnun olduğu bildiriliyor. Şirketler ve risk sermayesi fonları, finansmana kolay erişimin avantajlarından yararlanarak son on yılda yapay zekâ silahlanma yarışına milyarlarca dolar yatırım yaptı ve bu da artık daha geniş bir görev yelpazesinde insanların işlerinin ellerinden alınmasında kullanılabilecek bir teknolojiyle sonuçlandı. Bu sadece işçiler için değil, tüketiciler ve hatta yatırımcılar için de bir felaket olabilir.

Kariyer basamakları nasıl örülecek?

İşçiler için sorun açık: Güçlü iletişim becerileri gerektiren daha az iş olacak ve dolayısıyla iyi maaşlı daha az pozisyon kalacak. Temizlikçiler, şoförler ve diğer bazı işçiler işlerine devam edecek, ancak diğer herkes korkmalı. Müşteri hizmetlerini düşünün. Şirketler, müşterilerle etkileşim kurmaları için insanları işe almak yerine, kızgın arayanları akıllı ve yatıştırıcı sözlerle yönlendirmek için ChatGPT gibi üretken yapay zekâlara giderek daha fazla bel bağlayacak. Başlangıç seviyesinde işlerin sayısının azalması, bir kariyere başlamak için daha az fırsat olacağı anlamına geliyor. Bu da dijital teknolojilerin daha önce başlattığı çalışanları işsiz bırakma eğilimin süreceğini gösteriyor.

Tüketiciler insana hasret kalacak

Tüketiciler de mağdur olacak. Chatbot’lar tamamen rutin soruları ele almakta iyi olabilir. Ama insanları genellikle müşteri hizmetlerini aramaya yönlendiren rutin sıradan değildir. Bir havayolunun uçuşlarını iptal etmesi veya bodrumunuzda bir borunun patlaması gibi gerçek sorunlarla karşılaştığınızda kaynakları sıralama ve zamanında çözüm bulma becerisine sahip, iyi nitelikli, empati kuran bir profesyonelle konuşmak istersiniz. Düzgün konuşan ama beceriksiz bir sohbet robotu ile değil.

Elbette ideal bir dünyada, daha iyi müşteri hizmeti sunan yeni şirketler ortaya çıkar ve iyi bir pazar payı elde eder. Ancak gerçek dünyada, birçok giriş engeli, yeni firmaların hızla büyümesini zorlaştırıyor.

Özel sermaye kendi altını mı oyuyor?

Halka açık şirketlerin yatırımcıları da ChatGPT çağında kaybedecek. Bu şirketler, işlerini güçlerini daha üretken ve yeni görevleri yerine getirebilir hale getirmek için yeni teknolojilere yatırım yaparak ve çalışanların becerilerini geliştirmek için çok sayıda eğitim sağlayarak tüketicilere sundukları hizmetleri geliştirebilir. Ama bunu yapmıyorlar. Pek çok yönetici, nihayetinde kendi kendilerini baltalayarak, istihdamı kısıp ücretleri olabildiğince düşük tutmaya takıntılı biçimde bağlı bir strateji izliyor. Yöneticiler bu kesintileri takip ediyor, çünkü “akıllı çocuklar” (analistler, danışmanlar, finans profesörleri, diğer yöneticiler) bunu yapmaları gerektiğini söylüyor. Wall Street ise şirketlerin performansını çalışanları ellerinden geldiğince sıkıştıran şirketlere göre değerlendiriyor.

Yapay zekâ ayrıca yeni girişim sermayesinin3 zararlı sosyal etkilerini artırmaya da hazır. Hâlihazırda, özel sermayenin eline geçen şirketlere borç yükleyerek ve ardından işgücünün içini boşaltarak büyük servetler kazanmak mümkün. Bundan böyle ChatGPT ve diğer yapay zekâ teknolojileri, iş yeri gözetimi, daha zorlu çalışma koşulları, sıfır saatli sözleşmeler4 vb. yoluyla işçileri mümkün olduğunca sıkıştırmayı daha da kolaylaştıracak.

Refah devleti ortadan mı kalkıyor?

Bu eğilimlerin hepsinin Amerikalıların harcama gücü – ABD ekonomisinin motoru – üzerinde korkunç etkileri var. Ancak yakında çıkacak kitabımız “Power in Progress: Our Thousand Years Struggle Over Technology and Prosperity” açıkladığımız gibi, teknoloji gelecekte tam gaz giden bir ekonomik lokomotif olmayacak. Nihayetinde, yeni makinelerin piyasaya sürülmesi ve teknolojik atılımlar geçmişte çok farklı sonuçlara yol açmıştı.

Bir asırdan fazla bir süre önce Henry Ford, yeni elektrikli makinelere büyük yatırımlar yaparak ve daha verimli bir montaj hattı geliştirerek otomobil üretiminde devrim yarattı. Evet, merkezi elektrik kaynakları makinelerin daha fazla görevi daha verimli bir şekilde gerçekleştirmesini sağladığı ve bu yeni teknolojiler bir miktar otomasyon getirdi. Ancak elektriğe geçişle birlikte fabrikanın yeniden düzenlenmesi işçiler için yeni görevler ve daha yüksek maaşlı binlerce yeni iş yaratarak ortak refahı artırdı. Ford, insanla bütünleşen bir teknoloji yaratmanın iyi bir iş olduğunu göstermede öncülük etti.

Bugün yapay zekâ da aynısını yapma fırsatı sunuyor. Yapay zekâ destekli dijital araçlar, hemşirelerin, öğretmenlerin ve müşteri hizmetleri temsilcilerinin hizmetlerini iyileştirmeye yardımcı olabilir. Algoritmaların tahmin gücü, insanların yerini almak yerine insanlara yardım etmek için kullanılabilir. Yapay zekâlar, insanların dikkate alacağı öneriler sunmak için kullanılıyorsa, bu tür önerileri akıllıca kullanma yeteneği, değerli bir insan becerisi olarak kabul edilecektir. Diğer yapay zekâ uygulamaları, çalışanların görevlere daha iyi atanmasını kolaylaştırabilir ve hatta tamamen yeni pazarlar yaratabilir.

Ne yazık ki, bu fırsatlar göz ardı ediliyor. Çünkü çoğu teknoloji lideri, insanların hâlihazırda gayet iyi yaptığı şeyleri yapabilen yazılımlar geliştirmek için yoğun bir şekilde çaba harcamaya devam ediyor. Herkes, yalnızca anlık müşteri deneyimi için değil, aynı zamanda halkın harcama gücünün geleceği için de çok az endişe duyarak, işgücü maliyetlerini azaltmak için yapay zekâdan yararlanmaya odaklanıyor.

Ford, kitlelerin satın almaya gücü yetmiyorsa seri üretim arabaların anlamsız olduğunu anlamıştı. Günümüzün kurumsal devleri, aksine, yeni teknolojileri kolektif geleceğimizi mahvedecek şekillerde kullanıyor.”

Bu yazı ilk kez 31 Mart 2023’te yayımlanmıştır.

Her ikisi de Project Syndicate’te yayınlanan Slovoj Zizek’in “Yapay budalalık” başlıklı yazısı ile Daron Acemoğlu ve Simon Johnson’un birlikte kaleme aldıkları, “ChatGPT’nun sorunu ne?” başlıklı yazılarından bölümler Mustafa Alkan tarafından çevrilmiş ve editoryal katkısı ile yayına hazırlanmıştır. Yazıların orijinallerine aşağıdaki linklerden ulaşabilirsiniz. Artificial Idiocy by Slavoj Žižek – Project Syndicate (project-syndicate.org)What’s Wrong with ChatGPT? by Daron Acemoglu & Simon Johnson – Project Syndicate (project-syndicate.org)
  1. Çiftçilerin paylarını birleştirerek büyük bir çiftlik oluşturması ve burada bir arada çalışarak meydana gelen kârdan pay alması üzerine kurulu sosyalist tarım politikası…
  2. ABD’de Donald Trump taraftarı aşırıcı gruplar.
  3. Var olan şirketlerin satın alınmasıyla yapılan özel sektör yatırımları…
  4. Bir işverenin bir çalışanın çalıştığı saat sayısını değiştirebileceği ve herhangi bir saat önermek zorunda olmadığı bir iş sözleşmesi.

Fikir Turu
Fikir Turuhttps://fikirturu.com/
Fikir Turu, yalnızca Türkiye’deki düşünce hayatını değil, dünyanın da ne düşündüğünü, tartıştığını okurlarına aktarmaya çalışıyor. Bu amaçla, İngilizce, Arapça, Rusça, Almanca ve Çince yazılmış önemli makalelerin belli başlı bölümlerini çevirerek, editoryal katkılarla okuruna sunmaya çalışıyor. Her makalenin orijinal metnine ve değerli çevirmen arkadaşlarımızın bilgilerine makalenin alt kısmındaki notlardan ulaşabilirsiniz.

YORUMLAR

Subscribe
Bildir
guest

0 Yorum
Eskiler
En Yeniler Beğenilenler
Inline Feedbacks
View all comments

Son Eklenenler

0
Would love your thoughts, please comment.x