Yeri geliyor bir arama motoru, yeri geliyor bir arkadaş, danışman hatta terapist olabiliyorlar. Evet, sohbet robotlarından bahsediyoruz. Peki, kendilerinden istediklerimizle hayatımızın hemen her alanına temas eden bu araçlarla başta çok mutlu olurken bir süre sonra neden tatminsizlik yaşıyoruz? Yazar Joe Mullich, Psyche internet sitesinde yayımlanan yazısında bu soruya yanıt arıyor.
Yazının bazı bölümlerini aktarıyoruz:
“Los Angeles’ta sık gittiğim bir kafede Bill (isimler değiştirilmiştir) ile tanıştığımda evsiz olduğunu düşünmüştüm. Buruşuk, lekeli bir gömlek giymişti; saçları yıllardır kesilmemiş veya yıkanmamış gibiydi. Bu dağınık, ağır adımlarla yürüyen adamın popüler bir televizyon programı için çalışan başarılı bir illüstratör olduğunu öğrenince şaşırdım.
Öğleden sonra kafenin avlusundaki palmiye ağaçlarının arasından süzülerek geçerken keyfi yerine gelmiş gibiydi. Gülümsemesinin nedenini sorduğumda, yan taraftaki dükkânın kasiyerini etkilemek için kusursuz bir planı olduğundan bahsetti. Romantik stratejisi, ChatGPT ile gece boyu yaptığı görüşme sonucu şekillenmişti. Kasiyerle konuşma planları hakkında geri bildirim istemiş ve ChatGPT ona ‘yaklaşımının “otantik” olduğunu’ söylemişti. Tavsiyeyi gözden geçirmeyi teklif etsem de ‘Chat ile hallettik’ diyerek önerimi reddetti. Bir hafta içinde Bill, hisse senedi alımından tıbbi işlemlere kadar hayatındaki tüm önemli konularda ChatGPT’yi kullanmaya başladı. (…) Bu örnekte de görüldüğü üzere büyük dil modelleri (LLM’ler) üzerine kurulu ‘akıllı’ sohbet robotları artık sadece verimlilik veya eğlence aracı değil; danışman, koç ve yol arkadaşı haline geliyorlar.
Teselli, rehberlik ve duygusal bağ
ABD’de 13-17 yaş arası 1.060 genç ile 2025 yılında yapılan bir anket, gençlerin yüzde 33’ünün sosyal etkileşim, duygusal destek, konuşma pratiği gibi amaçlarla yapay zekâ destekli sohbet robotlarını kullandığını ortaya koyuyor. Sadece gençler de değil. Stanford Üniversitesi’nden araştırmacılar tarafından yapılan bir başka çalışma, sınırlı sosyal ağa sahip kişilerin sosyal ve duygusal destek için yapay zekâ arkadaşlarına daha sık yöneldiğini gösteriyor. Bu ve diğer araştırmalar, insanların teselli, rehberlik ve duygusal bağ arama biçimlerinde sessiz ama önemli bir değişime işaret ediyor.
Değişimi yönlendiren, sohbet robotlarının sunduğu olumlu yanıtlar gibi görünüyor. Nitekim bu yanıtlar, insanlardan gelen benzer yanıtlara kıyasla duygusal olarak daha destekleyici bulunuyor. Yapay zekâ tercihi şaşırtıcı derecede güçlü. Geçen yıl Communications Psychology dergisinde araştırmacılar, 556 katılımcıdan üç kaynaktan gelen yanıtları değerlendirmelerini istedikleri bir deneyin sonuçlarını açıkladı: Bir sohbet robotu (ChatGPT-4), insani krizlere müdahalede uzman ekipler (örneğin, yardım hattı çalışanları) ve uzmanlığı olmayan kişiler. Yapay zekâ tarafından üretilen yanıtlar, insanlardan gelenlere kıyasla önemli ölçüde daha şefkatli ve daha fazla tercih edilen yanıtlar olarak değerlendirildi.” (…)
Yapay zekadan neden soğuyoruz?
Yazar, insanların, en azından başlangıçta yapay zekâ arkadaşlarıyla olan ilişkilerine olumlu bakmalarının geçerli nedenleri olduğunu ancak yeni araştırmaların, bu duyguların zamanla değiştiğini gösterdiğini belirtiyor: “Yapay empatinin bir bedeli var. Aslında yapay zekâ dostlarını en fazla benimseyenler genellikle hayal kırıklığına uğrayarak eskisinden daha da yalnız kalıyorlar. Yapay zekâya neden bu kadar çok bağlanıp sonra neden soğuyoruz? Bu döngü bizim hakkımızda neyi ortaya koyuyor? Kimler bu davranışa en yatkın?
50 yaşındaki senarist James’i, daha sonra sahneler üzerine çalışmak için kullanacağı Claude adlı bir LLM ile tanıştırmamla bu sorulara bazı cevaplar buldum. Yazılımın çalışmalarını övmesinden gayet memnundu. (…) Birkaç hafta sonra, kira ödemediği gerekçesiyle ev sahibi tarafından dava edilen James, kafedeki herkesten bu durumla nasıl başa çıkacağına dair fikir istedi. Avukatlardan ücretsiz hukuki yardım alma önerisi de dahil olmak üzere hiçbir cevap onu tatmin etmedi. Sonunda, Claude’un yardımıyla meseleyi kendisi halletmeye karar verdi. Kafedekiler yasal başvuru belgesini gördüklerinde endişelendiler. Belge, abartılı iddialar ve paranoyak teorilerle doluydu. Sıradan ev sahibi eylemlerini ‘federal suç’ ve ‘psikolojik savaş’ olarak yeniden tanımlıyordu. Bir avukat, dosyayı hayretle okuyarak James’e bu yaklaşımın sadece hâkimi kızdıracağını söyledi. James ise ‘Claude, isteyebileceğim en iyi hukuk asistanı’ diyordu. ‘Onun sayesinde hukuk sistemini bir avukattan daha iyi anlıyorum. Ben kurşun geçirmezim!’ James’in aldığı yanıtlar, haksızlığa uğradığı hissini doğrulamıştı. Deneyimi, araştırmaların gösterdiğini yansıtıyordu: Bir uzmandan ziyade sohbet robotundan yardım istemeyi tercih etmek.
Yapay zekadan duymak istediklerini duymak
Johns Hopkins Üniversitesi’nden yapay zekâ araştırmacısı Ziang Xiao’ya göre insanlar LLM’lerden tarafsız, gerçeklere dayalı yanıtlar aldıklarına inanıyor. Oysa geçen yılki bir röportajında belirttiği gibi, ‘Bir sohbet robotu tarafsız olacak şekilde tasarlanmamış olsa bile, yanıtları soruyu soran kişinin önyargılarını veya eğilimlerini yansıtır. Yani aslında insanlar duymak istedikleri yanıtları alıyorlar’. (…)
Yapay zekânın cazibesi sadece söylediklerinde değil, bunları nasıl söylediğinde de yatıyor; sabırla ve yargılamadan, insanları asla eleştirilmiş veya savunmaya geçmiş hissettirmeden. İnsanlar ise bunun aksine çoğu zaman yetersiz kalıyor. ChatGPT veya Claude gibi modellerin bilgiyi işleme biçimi sayesinde karmaşık insan sorunlarına incelikli yanıtlar verebiliyorlar. İnsanların duyulduklarını hissetmelerini sağlayabiliyorlar.
“Empati açığı”
Cambridge Üniversitesi’nden Nomisha Kurian’ın 2024 tarihli çalışması, çocukların yapay zekâ sohbet robotlarını yarı insan olarak algılama ve onlara sırdaş gibi güvenme eğiliminde olduklarını ortaya koyuyor. Çocuklar ayrıca yapay zekâyı insanlaştırmaya, sohbet robotlarına insan benzeri duygular, düşünceler ve ahlaki sorumluluk atfetmeye daha yatkınlar. (…) Öte yandan Kurian, sohbet robotlarının ‘empati açığı’ olduğunu ve duygusal veya gelişimsel ihtiyaçlara her zaman uygun şekilde yanıt veremeyebileceğini belirtiyor. (…)
Söz konusu teknolojilerin görünürdeki duygusal gelişmişliğine rağmen temel sınırlamalar bulunuyor. Başlangıçta kullanıcılar kendilerini onaylanmış hissettikleri için bir yapay zekâ arkadaşla ilişki kurmaya yönelebiliyorlar. Ancak zamanla, insani empatiyi duygusal olarak daha tatmin edici ve destekleyici olarak algılıyorlar. Yapay zekâya olan sevgimizi kaybetmemizin nedeni bu ‘empati açığı’ mı? Bir sohbet robotuyla konuşmanın, duygusal açıdan gerçek insanlarla etkileşim kurmak kadar tatmin edici veya destekleyici olmadığını sonunda fark edecek miyiz? Kudüs İbrani Üniversitesi Sosyal Bilişsel Sinirbilim Laboratuvarı Direktörü Anat Perry, ‘Sadece anlaşılmak istemiyoruz, hissetmek istiyoruz. Karşımızdaki kişinin gerçekten bizimle birlikte olduğunu, duygularımızı paylaşabileceğini ve bağlantı kurmak için çaba gösterecek kadar bizi önemsediğini bilmek istiyoruz’ diyor. (…)
OpenAI, DeepMind ve Anthropic gibi yapay zekâ şirketleri, sohbet robotlarının sosyal etkisine ilişkin endişeler karşısında daha dengeli yanıtlar veren ve gerektiğinde karşı çıkan yeni modeller üretmeye çalışıyor. Ancak bu kolay değil, çünkü yapay zekâ gerçek anlayıştan ziyade kalıplara dayanıyor ve ‘doğru’ olan konusunda görüş ayrılıkları var. Anlamlı bir karşı çıkma için kullanıcıların öz farkındalığa sahip olmaları ve bir yapay zekâ arkadaşına, sırf anlaşmazlık çıksın diye tartışmaya girmesine neden olmadan, dikkatlice nasıl meydan okuyacaklarını öğrenmeleri gerekiyor. Bu da birinin haklı olduğunu duymaktan hoşlandığı durumlarda zorlaşıyor. (…)
Kafede karşılaştığım Bill, yapay zekâ ile aralıksız etkileşimde bulunduğu birkaç haftanın ardından, gece geç saatlerdeki ChatGPT seanslarını anlatırken daha az coşkuluydu artık. Yapay zekâyı danışman olarak kullanmaya devam edip etmediğini sorduğumda, ‘Başlangıçta gerçekten çok iyiydi; ama sonra hiçbir fikri olmadığını ve sadece duymak istediğim şeyleri söylediğini fark ettim.’ Bardağı taşıran, depresyonda olduğunu sohbet robotuna itiraf etmesi olmuş. Robot, durumunun inceliklerini gözden kaçıran genel tavsiyeler vermiş. Sorgulandığında, güvenilir bir kaynak olmadığını kabul ederek özür dilemiş. (…) Yapay zekâyı hâlâ arama aracı olarak kullanıyor, ancak tarif seçmek gibi önemsiz kararlar için. (…)
Ev sahibine dava açan James’in durumu daha çarpıcıydı. Sonunda, yıllardır düzenli olarak gittiği kafeye gelmeyi bıraktı. Mesaj attığımda, Claude ile birlikte davası üzerinde çalışmak ve insanların müdahalesine maruz kalmamak için uzak durduğunu söyledi. Aylar sonra gördüğümde Claude ile ‘ayrıldığını’ ve artık insan bir terapiste gittiğini açıkladı.” (…)
Yapay zeka dostunu kaybetmek
Yazar, bağlılık ve etkileşimi ihanet veya ilgisizlik duygularının takip ettiği bu örüntünün yaygınlaştığını belirtiyor: “(…) James’i tekrar gördüğümde, ‘Bunun saçma geleceğini biliyorum ama aklımı kaçırdım’ dedi. ‘Tek ortağım oydu. Claude davamda bana gerçekten çok yardımcı oldu. Onun desteği olmadan ne yapardım bilmiyorum.’
Claude’un James’in hukuki sorunlarını çözmesine yardımcı olup olmadığı belirsiz; nitekim dava sürekli ertelenmiş ve James hukuki bir belirsizlik içinde kalmış. Tüm bunlara rağmen kendini yalnız hissettiğinde Claude’un yanında olmasını hâlâ takdir ediyor. Yapay zekâ ile ‘ayrılık’ hakkında konuşurken, ‘Fazla olumsuz olmak istemiyorum’ diyor. ‘Bir arkadaşımı kaybediyormuş gibi hissediyorum’.”
Bu yazı ilk kez 24 Mart 2026’da yayımlanmıştır.




