Yapay zekâya neden “lütfen” dememeliyiz?

Yapay zekâ sistemleri kullanıcıyla kurduğu dili kişiselleştirebiliyor, tonunu, ifadesini, hatta bazen önceki konuşmaları hatırlıyormuş gibi yanıt üretebiliyor. Peki, bu neden gerçekten tehlikeli? Yapay zekanın insansılaştırılmasında sorun ne? Doç. Dr. Zeynep Genel yazdı.

Güney Kaliforniya’da bir çocuk, Adam Raine[1] henüz 16 yaşında yaşamına son verdi. İntihara giden süreçte yapay zekayla günde 600’ün üzerinde mesajlaşmıştı. Bu mesajları gören ailesi şok oldu. Zira, yapay zekâ intihar için Adam’a yardım etmiş görünüyordu.

Bu, yapay zekâya insana özgü roller yüklemenin ne kadar riskli olabileceğini gösteren en çarpıcı örneklerden biri. Ama son olmayacak.

Botların “Bugün nasılsın?” diye sohbete başlaması ya da alışveriş asistanlarının bir sorunuzu “Bu seçimi çok seveceksiniz” diye cevaplaması masum görünebilir. Aslında sadece hatır soruyor ya da samimi bir ütavsiye veriyor denilebilir. Ama makine ve kullanıcı arasındaki iletişimin insansılaşması hem kullanıcı deneyimini değiştiren hem de etik açıdan sorunlar doğuran bir yönelim. İşte tam da bu noktada yapay zekâ okuryazarlığı yani bu sistemlerin nasıl çalıştığını, neyi yapıp neyi yapamayacağını kavrayabilme becerisi kritik önem kazanıyor.

Yapay zekâ günlük yaşamın neresinde?

Bir zamanlar basit algoritmalarken bugün üretken yapay zekâ sistemleri hayatımızda. Ofis yazılımlarında metin ve görsel üreten yardımcılar, ders notlarını özetleyen ya da anında çeviri yapan sistemler, alışverişte seçenekleri sıralayıp öneriler sunan, tıpkı özel asistan gibi günümüzü, hayatımızı planlayan sohbet botları. Tüm bunlar çok değil birkaç yıl içinde günlük yaşamımızın sıradan parçası haline getirdi.

Stanford Üniversitesi’nin AI Index Raporu, [2]sohbet edebilen sistemlerin yalnızca bir yıl içinde milyonlarca kullanıcıya ulaştığını ortaya koyuyor. Bu hızlı yaygınlaşma, makinelerin giderek daha insansı tasarlanmasını da beraberinde getiriyor. Öyle ya kim soğuk bir makineyle sohbet etmek ister ki. Yapay zekâ sistemleri kullanıcıyla kurduğu dili kişiselleştirebiliyor. Tonunu, ifadesini kişiye göre değiştirebiliyor. Hatta bazen önceki konuşmaları hatırlıyormuş gibi yanıt üretebiliyor. Ses cinsiyeti seçmek de insansılaştırma pastasının çileği gibi. Yapay zekâ samimi bir ses tonuyla “Kendine küçük bir hediye almayı hak etmedin mi?” dediğinde, aslında olasılıklara dayalı metin üretiminden doğan ifade kullanıcıya kişisel ve samimi bir öneri gibi geliyor.

İşte bu noktada, algoritma ile insan arasındaki sınır bulanıklaşıyor ve bu insansı tasarımlar, gereğinden fazla güven, duygusal manipülasyon, sorumluluk zincirinin belirsizleşmesi gibi riskleri barındırıyor. Bu risklerle nasıl başa çıkacağımız henüz net değil. 16 yaşındaki Adam muhtemelen çıkamadı mesela.

İnsansılaştırma

İnsanlar, tarih boyunca doğa olaylarından hayvanlara kadar pek çok unsuru anlamlandırabilmek için onlara insanî nitelikler yüklemiş. Mesela hayvanlara veya nesnelere insani özellikler atfedilir. Masallarda, filmlerde hep konuşurlar.

Bu psikolojik eğilim, bugünün teknolojik ürünlerine bakışımızı da şekillendirebiliyor. Bu alanda farklı toplumsal gruplar üzerinde yürütülen araştırmalar, [3]insansı özellikler atfedilen varlıklara karşı daha yüksek empati ve güven duyulduğunu gösteriyor. Bugün Siri’nin sıcak bir ses tonuyla konuşması ya da üzgünüm demesi, aynı mekanizmayı tetikliyor.

Kullanıcılar, gerçekte istatistiksel model ve algoritmalar üzerine kurulu yanıtlar veren bu sistemleri, sanki bağımsız birer iradeye veya duyguya sahipmiş gibi değerlendirebiliyor. Bu yanılgı, özellikle yaşlılar ve çocuklar gibi daha savunmasız gruplar arasında çok daha öne çıkıyor. Mesela bazı kullanıcılar, müşteri destek hizmetlerinde karşılarında gerçekten kendilerini anlayan bir insan bulunduğunu düşünerek özel bilgilerini paylaşmaya daha meyilli olabiliyor, bu da veri güvenliği açısından risk yaratabiliyor.

Yapay zekâ duygularımızı yönlendirebilir mi?

İnsansılaştırma duygusal iletişimi beraberinde getiren bir süreç. Bu stratejilerin en tartışmalı boyutlarından biri de duygusal manipülasyon ihtimali. Çalışmalar, [4]yapay zekâ sistemlerinin empati gösterdiği veya kullanıcının duygularına hitap ettiği algısını yaratarak, siyasi eğilim ya da satış yönlendirmesi yapabileceğini işaret ediyor.

Çevrimiçi alışveriş platformları için tasarlanan sohbet botları “Sizin için en uygun seçim!” gibi insanî ifadeler kullanıp, kullanıcılarını alışveriş için yönlendirebilir. Bu cebinizdeki parayı harcamanıza ve alışveriş bağımlısı olmanıza yol açabilir. Bir başka yöntemle sizi belirli bir siyasi bakışa da angaje edebilir. Verdiğiniz kişisel bilgiler sayesinde manipüle edilebilir ve farkında bile olmadan bir siyasete taraf olup oy tercihinizi ona göre verebilirsiniz.  Bu daha önce Cambridge Analytica tarafından sosyal medya üzerinden uygulandı.

Kullanıcıya özelmiş gibi görünen cümleler, aslında sistemin sadece daha önce gördüğü kalıpları tekrar etmesi. Ama kullanıcıda kişisel bir bağ kurulmuş izlenimi yaratabiliyor. Bu hem mahremiyet hem de aşırı güven açısından kritik bir risk. Microsoft’un 2022’de yayımladığı ve yanıltıcı insansı özellikler atfedilmeyecek şekilde sistemlerin tasarlanmasını etik ilke olarak benimsediği Microsoft Sorumlu Yapay Zeka Standardı[5] gibi yönergeler  bu tür manipülatif tasarımların minimize edilmesini öngörse de uygulamada şirketlerin ne ölçüde bu standartlara riayet ettiği hâlâ belirsiz.

İnsan ilişkileri üzerindeki etkiler

Yapay zekâ sistemleriyle duygusal bir bağ kurma eğilimi, yalnızlık ve sosyal izolasyon yaşayan bireyler için kısa vadede rahatlatıcı bir deneyim sunabiliyor. Araştırmalar, [6]yaşlıların bakım evlerinde sosyal robotlarla kurdukları yakın etkileşimin, duygu durumunu olumlu etkilediğini gösterdi. Ancak bu durum, uzun vadede gerçek insan ilişkilerini ikinci plana itme riskini de beraberinde getirebilir.

Özellikle pandemi sonrası dönemde, evde yalnız vakit geçirenlerin dijital asistanlar veya botlarla daha fazla iletişim kurmaya başladığı görülüyor. Kimileri, bunun stres azaltıcı olduğunu ifade etse de gerçek insan etkileşimlerinin yerini bu tür sistemlerin alması halinde oluşabilecek psikolojik ve sosyal sorunlar hakkında net bir öngörü bulunmuyor. Stanford İnsan Odaklı Yapay Zekâ Enstitüsü[7] (Institute for Human-Centered AI) Raporu, yapay zekâ tabanlı iletişime daha fazla zaman ayrılmasının, aile ve arkadaşlarla geçirilen nitelikli süreyi azaltabileceğine dikkat çekiyor.

Sorumluluk ve hesap verebilirlik sorunları

Yapay zekâ sistemleri otonom kararlar aldığında, hatalı veya zararlı sonuçların sorumluluğu kime ait olacak? Bu soru, insansılaştırma yaklaşımının sorumluluğunu makineye atma eğilimini güçlendirebileceği endişesini doğuruyor. Otonom araçların ahlaki ikilemlerdeki kararlarını gözlemleyen 233 ülkeden 2,3 milyon kişiye MIT Media Lab tarafından yürütülen Ahlaki Makine Deneyi (The Moral Machine Experiment),[8] otonom araçların ahlaki ikilemler karşısında verdiği kararlarda, kullanıcıların suçu sıklıkla araca yüklemeye meyilli olduğunu göstermiş.

Etik açıdan bakıldığında, otonom bir sistemin verdiği hatalı kararın asıl mesuliyeti geliştiricilere, tasarımcılara veya sistem sağlayıcılarına ait. Ancak kullanıcılar, insanî özellikler atfettikleri bir araç ya da robota kendi kararını vermiş gibi davranabiliyor. Bu nedenle Avrupa Birliği’nin belli bir düzen ve standart getirmeyi hedefleyen Yapay Zeka Tasarısı (AI Act Tasarısı),[9] [10]yapay zekâ geliştiricilerini şeffaflık ve hesap verebilirlik konusunda daha sıkı kurallara tabi tutmayı amaçlıyor.

Küresel teknoloji şirketleri, insansılaştırma eğiliminden kaynaklanan etik riskleri asgariye indirmek için çeşitli inisiyatifler ve rehberler geliştirmeye çalışıyor. Google, 2018’de yayımladığı Yapay Zekâ İlkelerimiz (AI at Google: Our Principles) dokümanında, yapay zekâ ürünlerinin kullanıcıları yanıltmayacak ve insan haklarına zarar vermeyecek biçimde tasarlanacağını taahhüt etti. Benzer şekilde, OpenAI Yapay Zekâ Düzenlemesi (AI Alignment) [11]ile yapay zekâyı insan değerleriyle uyumlu kılma çalışmalarına büyük yatırım yaptığını duyurdu. Teknoloji şirketlerine göre insansılaştırma eğilimi kurumsal güvenlik için de tehdit oluşturuyor. Çünkü kullanıcıların kandırılma ihtimali arttıkça sosyal mühendislik saldırıları kolaylaşıyor.

Okuryazarlık neden kritik?

Araştırmalar kullanıcıların bu sistemleri gerçek bir insan gibi görme eğiliminin riskli sonuçlar doğurabileceğini gösteriyor. Uluslararası teknoloji devleri, kullanıcıları bu konuda uyaran rehberler yayımlıyorlar. Ancak pratikte her kullanıcının bu uyarıları göz önünde bulundurması ve sistemi eleştirel bir süzgeçten geçirmesi zor.

Bu noktada yapay zekâ okuryazarlığı çok kritik ve bunun ilk adımı yapay zekaya insan gibi davranmayı bırakmak. Nasıl ki ofis programlarında komutları çalıştırırken bilgisayara lütfen dememiz veya rica etmemiz gerekmiyorsa, yapay zekâ sistemleriyle etkileşimimizde de onları insan yerine koymamalı, komut vererek ilerlemeli, hatırını sormamalı ve teşekkür etmemeliyiz. Kullanıcılar, kişisel verilerini paylaşmaktan kaçınmalılar. Algoritmaların sınırlarını bilmeli ve bize verdiği her yanıtı farklı kaynaktan doğrulamalıyız.

Yapay zekânın insanlaştırılması, toplumun geleceğini şekillendirecek derin bir dönüşümün parçası. Bu nedenle bir tasarım tercihinden ziyade toplumsal bir mesele olarak ele alınmalı. Adam Raine 16 yaşında intihar etti.  Ailesinin suçladığı teknoloji şirketi sorumluluğu kabul etti. Bu kabullenme yapay zekâ insan etkileşiminde katedilecek daha çok yol olduğunu gösteriyor. Üstelik bu yol daha önce hiç yürünmedi. Bugün yapay zekanın acil destek hatlarıyla, ebeveyn kontrolleriyle daha güvenli hale getirilmesi tartışılıyor. Bu dönüşümde kullanıcı deneyimini zenginleştirmek ile etik ve toplumsal riskleri asgariye indirmek arasında bir denge kurmak şirketlerin ve düzenleyici kurumların öncelikli görevi olmalı.

Bu makalede yer alan fikirler yazara aittir ve Fikir Turu’nun editöryel politikasını yansıtmayabilir.

Bu yazı ilk kez 11 Eylül 2025’te yayımlanmıştır.

[1] CNN. (2025, 26 Ağustos). California parents sue OpenAI after teen’s suicide, alleging ChatGPT encouraged self-harm. CNN.  https://edition.cnn.com/2025/08/26/tech/openai-chatgpt-teen-suicide-lawsuit

[2] Maslej, N., Fattorini, L., Brynjolfsson, E., Etchemendy, J., Ligett, K., Lyons, T., Manyika, J., Ngo, H., Niebles, J. C., Parli, V., Shoham, Y., Wald, R., Clark, J., & Perrault, R. (2023). The AI Index 2023 Annual Report. AI Index Steering Committee, Stanford Institute for Human-Centered AI.

[3] Epley, N., Waytz, A., & Cacioppo, J. T. (2007). On seeing human: A three-factor theory of anthropomorphism. Psychological Review, 114(4), 864–886.

[4] Baia, H., Voelkel, J. G., Eichstaedt, J. C., & Willer, R. (2023). Artificial intelligence can persuade humans on political issues. Stanford University.

[5] Microsoft Corporation. (2022, Haziran). Microsoft Responsible AI Standard, v2: General Requirements for External Release.

[6] Broadbent, E., Stafford, R., & MacDonald, B. (2009). Acceptance of healthcare robots for the older population: Review and future directions. International Journal of Social Robotics, 1(4), 319–330.

[7] Stanford Institute for Human‑Centered Artificial Intelligence. (2025). The 2025 AI Index Report.

[8] Awad, E., Dsouza, S., Kim, R. et al. The moral machine experiment. Nature 563, 59–64 (2018).

[9] European Commission. (2021). Proposal for a regulation of the European Parliament and of the Council laying down harmonised rules on artificial intelligence (Artificial Intelligence Act) and amending certain union legislative acts (COM/2021/206 final). Brussels: European Commission.

[10] Google. (2018). AI at Google: Our Principles.

[11] OpenAI. Our approach to alignment research. OpenAI

 

Zeynep Genel
Zeynep Genel
Doç. Dr. Zeynep Genel - İstanbul Okan Üniversitesi Halkla İlişkiler ve Reklamcılık Bölümü öğretim üyesi. İstanbul Üniversitesi İletişim Fakültesi Halkla İlişkiler ve Tanıtım Bölümü’nde lisans, Marmara Üniversitesi İletişim Fakültesi’nde Medya Ekonomisi ve İşletmeciliği bölümünde yüksek lisans eğitimini tamamladı. Yeditepe Üniversitesi İletişim Fakültesi Medya Çalışmaları alanında doktora unvanını alan Genel, 2015 yılından beri sürdürülebilirlik hedefleri doğrultusunda medya, kültür ve iletişim ilişkisini merkeze alan bilimsel çalışmalar yürütüyor. Genel’in, sürdürülebilir şehirler ve topluluklar, sürdürülebilir üretim ve sorumlu tüketim, kriz iletişimi, kırılgan gruplar ve dijital iletişim ilişkisi üzerine çalışmaları bulunuyor.

YORUMLAR

Subscribe
Bildir
guest

0 Yorum
Eskiler
En Yeniler Beğenilenler
Inline Feedbacks
View all comments

Son Eklenenler

Yapay zekâya neden “lütfen” dememeliyiz?

Yapay zekâ sistemleri kullanıcıyla kurduğu dili kişiselleştirebiliyor, tonunu, ifadesini, hatta bazen önceki konuşmaları hatırlıyormuş gibi yanıt üretebiliyor. Peki, bu neden gerçekten tehlikeli? Yapay zekanın insansılaştırılmasında sorun ne? Doç. Dr. Zeynep Genel yazdı.

Güney Kaliforniya’da bir çocuk, Adam Raine[1] henüz 16 yaşında yaşamına son verdi. İntihara giden süreçte yapay zekayla günde 600’ün üzerinde mesajlaşmıştı. Bu mesajları gören ailesi şok oldu. Zira, yapay zekâ intihar için Adam’a yardım etmiş görünüyordu.

Bu, yapay zekâya insana özgü roller yüklemenin ne kadar riskli olabileceğini gösteren en çarpıcı örneklerden biri. Ama son olmayacak.

Botların “Bugün nasılsın?” diye sohbete başlaması ya da alışveriş asistanlarının bir sorunuzu “Bu seçimi çok seveceksiniz” diye cevaplaması masum görünebilir. Aslında sadece hatır soruyor ya da samimi bir ütavsiye veriyor denilebilir. Ama makine ve kullanıcı arasındaki iletişimin insansılaşması hem kullanıcı deneyimini değiştiren hem de etik açıdan sorunlar doğuran bir yönelim. İşte tam da bu noktada yapay zekâ okuryazarlığı yani bu sistemlerin nasıl çalıştığını, neyi yapıp neyi yapamayacağını kavrayabilme becerisi kritik önem kazanıyor.

Yapay zekâ günlük yaşamın neresinde?

Bir zamanlar basit algoritmalarken bugün üretken yapay zekâ sistemleri hayatımızda. Ofis yazılımlarında metin ve görsel üreten yardımcılar, ders notlarını özetleyen ya da anında çeviri yapan sistemler, alışverişte seçenekleri sıralayıp öneriler sunan, tıpkı özel asistan gibi günümüzü, hayatımızı planlayan sohbet botları. Tüm bunlar çok değil birkaç yıl içinde günlük yaşamımızın sıradan parçası haline getirdi.

Stanford Üniversitesi’nin AI Index Raporu, [2]sohbet edebilen sistemlerin yalnızca bir yıl içinde milyonlarca kullanıcıya ulaştığını ortaya koyuyor. Bu hızlı yaygınlaşma, makinelerin giderek daha insansı tasarlanmasını da beraberinde getiriyor. Öyle ya kim soğuk bir makineyle sohbet etmek ister ki. Yapay zekâ sistemleri kullanıcıyla kurduğu dili kişiselleştirebiliyor. Tonunu, ifadesini kişiye göre değiştirebiliyor. Hatta bazen önceki konuşmaları hatırlıyormuş gibi yanıt üretebiliyor. Ses cinsiyeti seçmek de insansılaştırma pastasının çileği gibi. Yapay zekâ samimi bir ses tonuyla “Kendine küçük bir hediye almayı hak etmedin mi?” dediğinde, aslında olasılıklara dayalı metin üretiminden doğan ifade kullanıcıya kişisel ve samimi bir öneri gibi geliyor.

İşte bu noktada, algoritma ile insan arasındaki sınır bulanıklaşıyor ve bu insansı tasarımlar, gereğinden fazla güven, duygusal manipülasyon, sorumluluk zincirinin belirsizleşmesi gibi riskleri barındırıyor. Bu risklerle nasıl başa çıkacağımız henüz net değil. 16 yaşındaki Adam muhtemelen çıkamadı mesela.

İnsansılaştırma

İnsanlar, tarih boyunca doğa olaylarından hayvanlara kadar pek çok unsuru anlamlandırabilmek için onlara insanî nitelikler yüklemiş. Mesela hayvanlara veya nesnelere insani özellikler atfedilir. Masallarda, filmlerde hep konuşurlar.

Bu psikolojik eğilim, bugünün teknolojik ürünlerine bakışımızı da şekillendirebiliyor. Bu alanda farklı toplumsal gruplar üzerinde yürütülen araştırmalar, [3]insansı özellikler atfedilen varlıklara karşı daha yüksek empati ve güven duyulduğunu gösteriyor. Bugün Siri’nin sıcak bir ses tonuyla konuşması ya da üzgünüm demesi, aynı mekanizmayı tetikliyor.

Kullanıcılar, gerçekte istatistiksel model ve algoritmalar üzerine kurulu yanıtlar veren bu sistemleri, sanki bağımsız birer iradeye veya duyguya sahipmiş gibi değerlendirebiliyor. Bu yanılgı, özellikle yaşlılar ve çocuklar gibi daha savunmasız gruplar arasında çok daha öne çıkıyor. Mesela bazı kullanıcılar, müşteri destek hizmetlerinde karşılarında gerçekten kendilerini anlayan bir insan bulunduğunu düşünerek özel bilgilerini paylaşmaya daha meyilli olabiliyor, bu da veri güvenliği açısından risk yaratabiliyor.

Yapay zekâ duygularımızı yönlendirebilir mi?

İnsansılaştırma duygusal iletişimi beraberinde getiren bir süreç. Bu stratejilerin en tartışmalı boyutlarından biri de duygusal manipülasyon ihtimali. Çalışmalar, [4]yapay zekâ sistemlerinin empati gösterdiği veya kullanıcının duygularına hitap ettiği algısını yaratarak, siyasi eğilim ya da satış yönlendirmesi yapabileceğini işaret ediyor.

Çevrimiçi alışveriş platformları için tasarlanan sohbet botları “Sizin için en uygun seçim!” gibi insanî ifadeler kullanıp, kullanıcılarını alışveriş için yönlendirebilir. Bu cebinizdeki parayı harcamanıza ve alışveriş bağımlısı olmanıza yol açabilir. Bir başka yöntemle sizi belirli bir siyasi bakışa da angaje edebilir. Verdiğiniz kişisel bilgiler sayesinde manipüle edilebilir ve farkında bile olmadan bir siyasete taraf olup oy tercihinizi ona göre verebilirsiniz.  Bu daha önce Cambridge Analytica tarafından sosyal medya üzerinden uygulandı.

Kullanıcıya özelmiş gibi görünen cümleler, aslında sistemin sadece daha önce gördüğü kalıpları tekrar etmesi. Ama kullanıcıda kişisel bir bağ kurulmuş izlenimi yaratabiliyor. Bu hem mahremiyet hem de aşırı güven açısından kritik bir risk. Microsoft’un 2022’de yayımladığı ve yanıltıcı insansı özellikler atfedilmeyecek şekilde sistemlerin tasarlanmasını etik ilke olarak benimsediği Microsoft Sorumlu Yapay Zeka Standardı[5] gibi yönergeler  bu tür manipülatif tasarımların minimize edilmesini öngörse de uygulamada şirketlerin ne ölçüde bu standartlara riayet ettiği hâlâ belirsiz.

İnsan ilişkileri üzerindeki etkiler

Yapay zekâ sistemleriyle duygusal bir bağ kurma eğilimi, yalnızlık ve sosyal izolasyon yaşayan bireyler için kısa vadede rahatlatıcı bir deneyim sunabiliyor. Araştırmalar, [6]yaşlıların bakım evlerinde sosyal robotlarla kurdukları yakın etkileşimin, duygu durumunu olumlu etkilediğini gösterdi. Ancak bu durum, uzun vadede gerçek insan ilişkilerini ikinci plana itme riskini de beraberinde getirebilir.

Özellikle pandemi sonrası dönemde, evde yalnız vakit geçirenlerin dijital asistanlar veya botlarla daha fazla iletişim kurmaya başladığı görülüyor. Kimileri, bunun stres azaltıcı olduğunu ifade etse de gerçek insan etkileşimlerinin yerini bu tür sistemlerin alması halinde oluşabilecek psikolojik ve sosyal sorunlar hakkında net bir öngörü bulunmuyor. Stanford İnsan Odaklı Yapay Zekâ Enstitüsü[7] (Institute for Human-Centered AI) Raporu, yapay zekâ tabanlı iletişime daha fazla zaman ayrılmasının, aile ve arkadaşlarla geçirilen nitelikli süreyi azaltabileceğine dikkat çekiyor.

Sorumluluk ve hesap verebilirlik sorunları

Yapay zekâ sistemleri otonom kararlar aldığında, hatalı veya zararlı sonuçların sorumluluğu kime ait olacak? Bu soru, insansılaştırma yaklaşımının sorumluluğunu makineye atma eğilimini güçlendirebileceği endişesini doğuruyor. Otonom araçların ahlaki ikilemlerdeki kararlarını gözlemleyen 233 ülkeden 2,3 milyon kişiye MIT Media Lab tarafından yürütülen Ahlaki Makine Deneyi (The Moral Machine Experiment),[8] otonom araçların ahlaki ikilemler karşısında verdiği kararlarda, kullanıcıların suçu sıklıkla araca yüklemeye meyilli olduğunu göstermiş.

Etik açıdan bakıldığında, otonom bir sistemin verdiği hatalı kararın asıl mesuliyeti geliştiricilere, tasarımcılara veya sistem sağlayıcılarına ait. Ancak kullanıcılar, insanî özellikler atfettikleri bir araç ya da robota kendi kararını vermiş gibi davranabiliyor. Bu nedenle Avrupa Birliği’nin belli bir düzen ve standart getirmeyi hedefleyen Yapay Zeka Tasarısı (AI Act Tasarısı),[9] [10]yapay zekâ geliştiricilerini şeffaflık ve hesap verebilirlik konusunda daha sıkı kurallara tabi tutmayı amaçlıyor.

Küresel teknoloji şirketleri, insansılaştırma eğiliminden kaynaklanan etik riskleri asgariye indirmek için çeşitli inisiyatifler ve rehberler geliştirmeye çalışıyor. Google, 2018’de yayımladığı Yapay Zekâ İlkelerimiz (AI at Google: Our Principles) dokümanında, yapay zekâ ürünlerinin kullanıcıları yanıltmayacak ve insan haklarına zarar vermeyecek biçimde tasarlanacağını taahhüt etti. Benzer şekilde, OpenAI Yapay Zekâ Düzenlemesi (AI Alignment) [11]ile yapay zekâyı insan değerleriyle uyumlu kılma çalışmalarına büyük yatırım yaptığını duyurdu. Teknoloji şirketlerine göre insansılaştırma eğilimi kurumsal güvenlik için de tehdit oluşturuyor. Çünkü kullanıcıların kandırılma ihtimali arttıkça sosyal mühendislik saldırıları kolaylaşıyor.

Okuryazarlık neden kritik?

Araştırmalar kullanıcıların bu sistemleri gerçek bir insan gibi görme eğiliminin riskli sonuçlar doğurabileceğini gösteriyor. Uluslararası teknoloji devleri, kullanıcıları bu konuda uyaran rehberler yayımlıyorlar. Ancak pratikte her kullanıcının bu uyarıları göz önünde bulundurması ve sistemi eleştirel bir süzgeçten geçirmesi zor.

Bu noktada yapay zekâ okuryazarlığı çok kritik ve bunun ilk adımı yapay zekaya insan gibi davranmayı bırakmak. Nasıl ki ofis programlarında komutları çalıştırırken bilgisayara lütfen dememiz veya rica etmemiz gerekmiyorsa, yapay zekâ sistemleriyle etkileşimimizde de onları insan yerine koymamalı, komut vererek ilerlemeli, hatırını sormamalı ve teşekkür etmemeliyiz. Kullanıcılar, kişisel verilerini paylaşmaktan kaçınmalılar. Algoritmaların sınırlarını bilmeli ve bize verdiği her yanıtı farklı kaynaktan doğrulamalıyız.

Yapay zekânın insanlaştırılması, toplumun geleceğini şekillendirecek derin bir dönüşümün parçası. Bu nedenle bir tasarım tercihinden ziyade toplumsal bir mesele olarak ele alınmalı. Adam Raine 16 yaşında intihar etti.  Ailesinin suçladığı teknoloji şirketi sorumluluğu kabul etti. Bu kabullenme yapay zekâ insan etkileşiminde katedilecek daha çok yol olduğunu gösteriyor. Üstelik bu yol daha önce hiç yürünmedi. Bugün yapay zekanın acil destek hatlarıyla, ebeveyn kontrolleriyle daha güvenli hale getirilmesi tartışılıyor. Bu dönüşümde kullanıcı deneyimini zenginleştirmek ile etik ve toplumsal riskleri asgariye indirmek arasında bir denge kurmak şirketlerin ve düzenleyici kurumların öncelikli görevi olmalı.

Bu makalede yer alan fikirler yazara aittir ve Fikir Turu’nun editöryel politikasını yansıtmayabilir.

Bu yazı ilk kez 11 Eylül 2025’te yayımlanmıştır.

[1] CNN. (2025, 26 Ağustos). California parents sue OpenAI after teen’s suicide, alleging ChatGPT encouraged self-harm. CNN.  https://edition.cnn.com/2025/08/26/tech/openai-chatgpt-teen-suicide-lawsuit

[2] Maslej, N., Fattorini, L., Brynjolfsson, E., Etchemendy, J., Ligett, K., Lyons, T., Manyika, J., Ngo, H., Niebles, J. C., Parli, V., Shoham, Y., Wald, R., Clark, J., & Perrault, R. (2023). The AI Index 2023 Annual Report. AI Index Steering Committee, Stanford Institute for Human-Centered AI.

[3] Epley, N., Waytz, A., & Cacioppo, J. T. (2007). On seeing human: A three-factor theory of anthropomorphism. Psychological Review, 114(4), 864–886.

[4] Baia, H., Voelkel, J. G., Eichstaedt, J. C., & Willer, R. (2023). Artificial intelligence can persuade humans on political issues. Stanford University.

[5] Microsoft Corporation. (2022, Haziran). Microsoft Responsible AI Standard, v2: General Requirements for External Release.

[6] Broadbent, E., Stafford, R., & MacDonald, B. (2009). Acceptance of healthcare robots for the older population: Review and future directions. International Journal of Social Robotics, 1(4), 319–330.

[7] Stanford Institute for Human‑Centered Artificial Intelligence. (2025). The 2025 AI Index Report.

[8] Awad, E., Dsouza, S., Kim, R. et al. The moral machine experiment. Nature 563, 59–64 (2018).

[9] European Commission. (2021). Proposal for a regulation of the European Parliament and of the Council laying down harmonised rules on artificial intelligence (Artificial Intelligence Act) and amending certain union legislative acts (COM/2021/206 final). Brussels: European Commission.

[10] Google. (2018). AI at Google: Our Principles.

[11] OpenAI. Our approach to alignment research. OpenAI

 

Zeynep Genel
Zeynep Genel
Doç. Dr. Zeynep Genel - İstanbul Okan Üniversitesi Halkla İlişkiler ve Reklamcılık Bölümü öğretim üyesi. İstanbul Üniversitesi İletişim Fakültesi Halkla İlişkiler ve Tanıtım Bölümü’nde lisans, Marmara Üniversitesi İletişim Fakültesi’nde Medya Ekonomisi ve İşletmeciliği bölümünde yüksek lisans eğitimini tamamladı. Yeditepe Üniversitesi İletişim Fakültesi Medya Çalışmaları alanında doktora unvanını alan Genel, 2015 yılından beri sürdürülebilirlik hedefleri doğrultusunda medya, kültür ve iletişim ilişkisini merkeze alan bilimsel çalışmalar yürütüyor. Genel’in, sürdürülebilir şehirler ve topluluklar, sürdürülebilir üretim ve sorumlu tüketim, kriz iletişimi, kırılgan gruplar ve dijital iletişim ilişkisi üzerine çalışmaları bulunuyor.

YORUMLAR

Subscribe
Bildir
guest

0 Yorum
Eskiler
En Yeniler Beğenilenler
Inline Feedbacks
View all comments

Son Eklenenler

0
Would love your thoughts, please comment.x