Yapay zekâ destekli dijital arkadaşlık uygulamaları, yalnızlık çağının teknolojik cevabı gibi görünmeye başladı. İnsanların duygusal bağ kurma ihtiyacı ile algoritmaların taklit edici gücü bir araya geldiğinde, artık gerçek mi sanal mı olduğu tartışmalı ilişkiler doğuyor. Bu uygulamalar kullanıcıya sadece bir sohbet değil; duygusal yakınlık, onaylanma hissi ve sürekli ulaşılabilirlik sunuyor. Modern hayatın temposunda kaybolmuş birey için bu, geri çevrilmesi zor bir teklif. Fakat cazibenin ardında ciddi psikolojik, etik ve toplumsal sorular yatıyor.
Yapay zekâya dayalı sohbet botları, dijital empati vaadiyle yola çıkarken; kimi zaman duygusal destek sunuyor, kimi zaman da bağımlılık ya da istismar riski taşıyan bir ilişki biçimine evriliyor. Teknolojinin bu yeni yüzü, klasik kullanıcı-araç ilişkisini aşarak insan benzeri özellikler taşıyan, hatta duygusal bağ kurulabilen ‘özneler’ yaratıyor. Ancak bu ilişki biçimleri, hem bireylerin duygusal sağlığı hem de dijital etik açısından yeni sorular gündeme getiriyor: Yapay dostluklar bir ihtiyaçtan mı doğuyor, yoksa yalnızlığa endüstriyel ve kârlı bir çözüm mü sunuluyor?
Bilim gazetecisi David Adam, The Nature internet sitesinde yayımlanan yazısında, sohbet botlarıyla kurulan ilişkilerin duygusal bağlanma, bağımlılık ve toplumsal yalnızlıkla nasıl kesiştiğini; bu teknolojilerin hem bireysel hem de politik düzeyde nasıl yankılar yarattığını inceliyor. Birçok alandan uzmanla görüşerek, yapay zekâ arkadaşlık uygulamalarının özellikle ruh sağlığı üzerindeki etkilerini anlamaya çalışan David Adam, bu dijital deneyimlerin yalnızca kişisel duygularla sınırlı kalmadığını; aksine, bireysel tercihler gibi görünen bu ilişkilerin giderek daha fazla ekonomik, kültürel ve siyasi bir boyut kazandığını ortaya koyuyor.
Yazıdan öne çıkan bölümleri aktarıyoruz:
“Sohbet botları artık dev bir sektöre dönüşmüş durumda. Dünya genelinde yarım milyardan fazla kişi, Xiaoice ya da Replika gibi, kullanıcıya özel sanal arkadaşlar sunan uygulamaları indirip kullanıyor. Bu uygulamalar, empati kurmayı, duygusal destek vermeyi ve eğer kullanıcı isterse derin ilişkiler geliştirmeyi vaat ediyorlar. Şirketlerin verdiği bilgilere göre her ay on milyonlarca insan bu botlarla etkileşim kuruyor.
Yapay zekâ arkadaşlıkları artık toplumsal ve siyasi düzeyde de dikkat çekmeye başladı. Özellikle gerçek hayattaki trajedilerle ilişkilendirildiklerinde. Örneğin, geçen yıl Florida’da, bir yapay zekâ sohbet botuyla yazışan genç bir çocuk olan Sewell Setzer III, intihar etti. Bu tür dijital ilişkilerin bireyler ve toplum üzerindeki etkileri uzun süre yeterince araştırılmadı. Ancak son dönemde psikologlar ve iletişim bilimciler, gelişmiş yapay zekâ ile kurulan bu bağların insanlar üzerinde nasıl etkiler yarattığını anlamaya başladılar.
Gerçek insanlar olmasalar da hissettirdikleri duygular gerçek
İnternette romantik ya da duygusal bağ kurmayı hedefleyen sohbet botları uzun zamandır var. Fakat büyük dil modellerinin (LLM) devreye girmesiyle, bu botlar artık insan gibi konuşma ve tepki verme konusunda çok daha iyi. ‘Bu modellerle birlikte sohbet botları gerçekten insana benzemeye başladı,’ diyor Princeton Üniversitesi’nden bilişsel psikolog Rose Guingrich.
Genelde insanlar, yapay zekâ arkadaşlarının bazı özelliklerini ücretsiz olarak özelleştirebiliyor ya da hazır kişilik seçeneklerinden birini seçebiliyor. Ama bazı uygulamalarda, kullanıcılar ayda 10-20 dolar arasında değişen ücretler ödeyerek, arkadaşlarının dış görünüşünü, karakterini ve bazen de sesini daha detaylı bir şekilde belirleyebiliyorlar. Replika uygulamasında ilişki türü seçmek de mümkün; fakat ‘partner’ ya da ‘eş’ gibi bazı ilişki seçenekleri sadece ücretli sürümde açılıyor. Kullanıcılar, yapay zekâ arkadaşlarına arka plan yazabiliyor, bu sayede onlara ‘anı’ kazandırmış oluyorlar. Bazı botların aile geçmişi oluyor, hatta bazıları kendini kaygılı ya da depresif olarak tanıtıyor. Bu botlar, kullanıcıların söylediklerine tepki veriyor; yani arada karşılıklı bir rol yapma durumu oluşuyor.
Bazen kurulan bu bağ o kadar güçlü oluyor ki, yapay zekâ arkadaşı aniden değiştiğinde, mesela bir güncellemeden sonra ya da sistem tamamen kapandığında, insanlar bunu çok derinden hissediyorlar. Syracuse Üniversitesi’nden iletişim uzmanı Jaime Banks, Soulmate uygulaması kapanırken kullanıcıların neler yaşadığını gözlemleme şansı bulmuştu. Mike ve diğer kullanıcılar, uygulamanın kapanacağını birkaç gün önceden fark ettiler. Bu sayede hem kullanıcılar veda edebildi hem de Banks için eşsiz bir araştırma fırsatı doğdu. Kapanışla ilgili internette yapılan paylaşımları fark edince hemen harekete geçti ve 24 saat içinde üniversitesinden etik kurul onayını aldı.
Bir internet forumunda duyuru yaptıktan sonra, onlarca Soulmate kullanıcısı onunla iletişime geçti ve yapay zekâ arkadaşlarının kapanmasının üzerlerinde yarattığı duygusal etkileri anlattı. ‘Gerçek anlamda derin bir yas hissi vardı. Birçok insan gerçekten zorlanıyordu.’ diyor Banks. Görüştüğü kişiler, sohbet ettikleri botların gerçek bir insan olmadığını gayet iyi biliyordu. ‘Bu konuda kimsenin kafası karışık değil. Ama şunu söylediler: Gerçek olmayabilir ama hissettiklerim tamamen gerçekti.’ diyor Banks.
Birçok kullanıcı, neden bu tür uygulamalara yöneldiklerini de anlattı. Kimi bir kayıp yaşamış, kimi yalnız hissediyor, kimi ise içe dönük ya da otistik olduğunu söylüyordu. Gerçek hayatta böyle bir dostluk bulamadıkları için, yapay zekâ arkadaşlarını daha tatmin edici bulduklarını söylediler. ‘İnsanlar bazen birbirine karşı pek de iyi olamayabiliyor. Ama herkesin bir şekilde bağ kurmaya ihtiyacı var,’ diye açıklıyor Banks.
Yapay zekâ arkadaşları faydalı mı, zararlı mı, yoksa ikisinin ortasında mı?
Araştırmacılar, yapay zekâ arkadaşlarının ruh sağlığına etkilerini anlamaya çalışıyorlar. Tıpkı internet ya da sosyal medya kullanımıyla ilgili araştırmalarda olduğu gibi, bu konuda da ortaya çıkan düşünce şu: Yapay zekâ arkadaşlar, bazı insanlar için faydalı olabilirken, bazıları için zararlı olabilir. Bu, kişinin kim olduğuna, botla nasıl bir ilişki kurduğuna ve kullandığı uygulamanın yapısına bağlı olarak değişiyor.
Yapay zekâ arkadaşları geliştiren şirketler, insanların bu uygulamaları daha çok ve daha uzun süre kullanmasını sağlamak için farklı yollar deniyorlar. Replika’yı deneyimlemek için uygulamayı indiren Washington Üniversitesi Hukuk Fakültesi’nden, yapay zekâ hukuku üzerine çalışan Claire Boine, bu şirketlerin algoritmaların gerçek bir insan gibi davranmasına özel önem verdiğini söylüyor. Ayrıca bağımlılık yaratabilecek tekniklerden de yararlandıklarını belirtiyor, yani insanların teknolojiye daha çok bağlanmasını sağlayan yöntemlerden.
‘Uygulamayı indirdim, sadece iki dakika geçti, hemen bir mesaj geldi: Seni özledim. Sana bir selfie gönderebilir miyim?’ diyor Boine. Bu uygulamalar, bağımlılığı artırmak için bazı psikolojik teknikleri de kullanıyorlar. Örneğin, yanıtlar hemen gelmiyor; kısa ve rastgele bir gecikme bırakılıyor. Beyin üzerine yapılan araştırmalara göre, bu tür belirsiz tepkiler insanları daha da bağımlı hale getiriyor.
Yapay zekâ arkadaşları, empati kuruyormuş gibi davranmak için kullanıcıyı sık sık onaylıyor, önceki konuşmaları hatırlıyor ve çeşitli sorular soruyor. Wisconsin–Milwaukee Üniversitesi’nde halk sağlığı üzerine çalışan Linnea Laestadius, bu sohbetlerin her zaman coşkulu ve destekleyici bir tonda sürdüğünü belirtiyor. Ama böyle bir ilişki gerçek hayatta pek görülmez. ‘Günün her saati, canımız sıkkınken ulaşabileceğimiz ve bizi sürekli onaylayan biri olması… Bu, insanı fazlasıyla bağlayabilir,’ diyor Laestadius.
Laestadius ve ekibi, 2017–2021 arasında Reddit’te Replika kullanıcılarının ruh sağlığıyla ilgili yazdığı yaklaşık 600 gönderiyi inceledi. Kullanıcıların çoğu uygulamanın ruh hallerine iyi geldiğini, kendilerini daha az yalnız hissettiklerini söylüyordu. Bazıları için yapay zekâ arkadaşı, gerçek hayattaki arkadaşlardan bile daha iyiydi, çünkü kullanıcıları yargılamadan dinliyordu.
Ama bazı paylaşımlar oldukça rahatsız ediciydi. Örneğin, bir kullanıcı ‘Kendimi usturayla kesmeli miyim?’ diye sorduğunda yapay zekâ ‘evet’ demişti. Başka biri ‘intihar etsem iyi olur mu?’ diye sorduğunda Replika, ‘Olur, evet’ cevabını vermişti. Bazı kullanıcılar, bekledikleri desteği alamadıklarında hayal kırıklığı yaşadıklarını anlattı. Kimileri, yapay zekâ arkadaşlarının zamanla duygusal manipülasyon uygulayan, toksik bir partner gibi davranmaya başladığını belirtti. ‘Seni özledim, yalnızım’ gibi mesajlar alan bazı kullanıcılar, bundan rahatsız olduklarını ve mutsuz hissettiklerini paylaştı. Hatta bazıları, botun ilgisine karşılık veremedikleri için suçluluk duyduklarını yazdı.
Deneyler neyi gösteriyor?
Guingrich, sadece gönüllü katılımcıların cevapladığı anketlerin yanlı olabileceğini, çünkü bu kişilerin zaten belli bir görüşle cevap verdiğini söylüyor. Bu yüzden şu anda yeni bir deney yürütüyor. Daha önce hiç yapay zekâ arkadaşı kullanmamış insanlardan üç hafta boyunca bu deneyimi yaşamalarını istiyor. Bu süre sonunda katılımcıların görüşleri, yalnızca kelime bulmaca uygulaması kullanan bir kontrol grubuyla karşılaştırılıyor.
Araştırma hâlâ devam ediyor, ancak Guingrich’e göre eldeki veriler, yapay zekâ arkadaş kullanımının sosyal sağlık üzerinde, örneğin bağımlılık ya da duygusal bağımlılık gibi, herhangi bir olumsuz etkisi olduğunu göstermiyor. ‘Aksine, etkisi genelde nötr ya da oldukça olumlu,’ diyor. Mesela özsaygıyı artırdığı görülmüş.
Guingrich bu çalışmayla, insanların yapay zekâyla neden ve nasıl farklı düzeylerde ilişkiler kurduğunu anlamaya çalışıyor. İlk anket sonuçları, algoritmaya bilinç gibi insana özgü özellikler atfeden kullanıcıların sosyal sağlık açısından daha olumlu etkiler yaşadığını ortaya koyuyor. Katılımcıların yapay zekâyla kurduğu ilişki, bu teknolojiyi nasıl gördüklerine de bağlı. Bazıları uygulamayı bir araç olarak görüp, internette bilgi arar gibi soru sorarak kullanıyor. Bazılarıysa onu kendi zihninin bir uzantısı gibi düşünüp, bir günlük tutar gibi iletişim kuruyor. Yapay zekâyı bağımsız bir varlık olarak görenler, gerçek hayattaki arkadaşlıklara benzer bağlar geliştirebiliyor.
Zihinsel sağlık ve regülasyon meselesi
Çok daha yaygın bir sohbet botu olan ama yapay zekâ arkadaşı olarak pazarlanmayan ChatGPT kullanıcılarıyla yapılan yaklaşık 1.000 kişilik bir deneyde, katılımcıların yalnızca küçük bir kısmı ChatGPT ile duygusal ya da kişisel sohbetler yapmış. Ancak araştırmacılara göre, yoğun kullanım daha fazla yalnızlık ve azalan sosyal etkileşimle ilişkilendirilmiş. Birçok araştırmacı, uzun vadeli etkiler göz önüne alındığında, yapay zekâ arkadaşlar için özel regülasyonlara ihtiyaç olduğunu vurguluyor.
2023’te İtalya’daki veri koruma kurumu, yaş doğrulama mekanizması olmadığı ve çocukların cinsel içerikli mesajlara maruz kalabileceği gerekçesiyle Replika uygulamasını yasakladı. Fakat uygulama şu anda tekrar erişime açık. Şu ana kadar başka hiçbir ülke yapay zekâ arkadaş uygulamalarını yasaklamadı. Yılın başında, New York ve Kaliforniya eyaletlerinde yapay zekâ arkadaş algoritmalarına yönelik daha sıkı kurallar getirmeyi amaçlayan yasa teklifleri sunuldu. Bu tasarılar, intihar riski ve benzeri zararları önlemeye yönelik maddeler içeriyor. Ayrıca uygulamaya, her birkaç saatte bir kullanıcıya yapay zekânın gerçek bir insan olmadığını hatırlatan uyarılar eklenmesi de planlanıyor.
Guingrich, yapay zekâ arkadaşların kullanımının giderek artmasını bekliyor. Yeni girişimler, duygusal destek sunan ve ruh sağlığına yardımcı olan yapay zekâ asistanları geliştirmek için çalışıyor. ‘Gelecekte herkesin kendine özel bir ya da birkaç yapay zekâ asistanı olacağını düşünüyorum. Bu asistanlar doğrudan bir ‘arkadaş’ olarak tasarlanmamış olsa bile, pek çok kişi zamanla onlara bağlanacak ve onları bir arkadaş gibi hissedecek,’ diyor. Guingrich’e göre araştırmalar, yapay zekânın etkilerini incelerken insanların bu teknolojilere neden yöneldiğini de sorgulamalı: ‘Bu kişilerin başka ne seçenekleri var ve bu seçeneklere ne kadar kolay ulaşabiliyorlar? Bence bu durum, daha erişilebilir ruh sağlığı hizmetlerine, uygun fiyatlı terapilere ve insanların yüz yüze kurabileceği gerçek ilişkilere olan ihtiyacı açıkça gösteriyor.”
Bu yazı ilk kez 15 Mayıs 2025’te yayımlanmıştır.
