Yapay zekanın duygularla, insanlığın da etikle imtihanı

Bilgisayarlı görme veya makine öğrenmesine giriş dersleri alan herkesi ilk heyecanlandıran ödevlerden biri, insan görüntülerine bakarak “mutlu”, “kızgın”, “üzgün” gibi sonuçlar çıkarma programı olabilir. Gözetimli öğrenme (supervised learning) kullanan bu uygulama, aslında bu duyguları tanımlamak yerine, kendisine gösterilen örnekleri daha önce gördüklerine benzetmeye çalışır. Başka bir deyişle, girdi olarak verilen veri kümesinde “kızgın” olarak etiketlenmiş herkese daha çok benzeyen her yüzün kızgın olduğu sonucuna varır.

Aslında insanları anlamaya çalışan algoritmalar çok daha eskiye dayanıyor.1 Ancak yapay zekânın, daha doğrusu derin öğrenme ve sinirsel ağların gelişmesiyle çok daha tutarlı ve yüksek kesinlikte sonuçlar alınmaya başlandığı için güncel olarak birçok şirket bu algoritmaları var olan sistemlerini güçlendirmek ve bu sistemlerdeki insan faktörlerini optimize etmek için kullanmaya çalışıyor. Sistemleri herhangi bir limit gözetmeden tam kapasite çalıştırabiliyorlar, peki insanları? İşte tam bu noktada, insanlardan tam kapasite verim almak için yapay zeka devreye giriyor: işçilerin çalışma saatlerinin optimizasyonundan maaşlarımızın kişiye göre optimum hesaplanmasına kadar! Böylelikle, karşımıza, 2024’te 54 milyar dolara ulaşacak bir teknoloji marketi çıkıyor.2

Gözlem verileri, kaslar, kombinasyonlar

Mutluluğun resmini çizebilir misiniz? Mutluluğun olmasa da, mutlu görünen bir insanın yüz mimiklerini az çok anlayabiliriz; gülümseyen, kaşları hafif kalkık, elmacık kemikleri de yukarıda bir insan bize mutlu bir imaj verir. Peki, yapay zekâ bunu nasıl anlıyor?

Demin bahsettiğim gözetimli öğrenmede kullanılan etiketler bir veri türü, ancak asıl “mutlu” duygusunun nereden geldiğine dair bir bilgi taşımıyor. Örneğin, veri kümesindeki bütün mutlu etiketlerini “kedi” olarak değiştirirsek, bütün mutlulara kedi diyen bir sistem de elde edebiliriz.

Duygu tanıma, el yordamıyla duygulara göre kümelenmiş insan yüzlerinde bu kümelerin doğal dağılımını öğrenmeye çalışırken; ifade tanıma, kaslarımızın o anki kombinasyonlarına göre bu bilgiye ulaşmaya çalışır. Biyoloji ve psikoloji alanında çalışan bilim adamları, kaslarımıza ve mimiklerimize göre ifadelerimizi sınıflandırmak için Yüzsel Aksiyon Birimleri (Facial Action Units)3 denilen bir sistem yaratarak, anatomik olarak her duyguyu kapsayan bir baz tanımlıyorlar. Mesela, “mutlu” duygusu 6. ve 12. birimlerin birleşiminden oluşuyor. 6. birim (kalkık yanak) orbicularis oculi kasıyla ilişkili ve 12. birim (dudak köşeleri çekik) ise zygomaticus major kasına karşılık geliyor. Dolayısıyla yapay zekânın daha ileri uygulamaları da, direkt verilen duygu etiketlerini öğrenmek yerine, bu birimleri görüntülerden tanımaya çalışıyor.

Gözetimli öğrenmenin insan özelliklerini deşifre etmek üzerine daha birçok kullanımı mevcut, gelin bunların veri türlerine bir göz gezdirelim.

Mesela bakış takibi ve sınıflandırması (gaze tracking) insanların iki boyutlu ve üç boyutlu ortamlarda etkileşimini öğrenmeye yönelik uygulamalar sağlıyor. Ses tonundan, tutarlılığından ve spektrumundan duygu ve davranış değişimlerini saptamak da mümkün. Yakın zamanda sadece medikal alanda kullanılan fizyolojik veriler (kalp atışı, oksijen yoğunluğu, elektrokardiogram sinyalleri, beyin görüntüleri) de şu sıralar yapay zekâ araştırmacıların insanları öğrenmek ve taklit edebilmek için kullandığı gözlem verileri arasında yer alıyor.

Son olarak, genelde yazıları inceleyerek ve sentezleyerek çeviri, yapay zeka ile konuşma ve çevre betimleme uygulamalarına olanak sağlayan doğal dil işleme (natural language processing) alanı da, görüntü işlemeye hem destek hem de rakip olarak, kurulan cümlelerden düşünce analizi (sentiment analysis) yapmak için birçok imkân sunuyor.

İnsanları anlamaya dair uygulamalar

Yüz tanıma teknolojileri bu konuda eskiye uzanıyor. Google, IBM, Apple, Microsoft4 ve Megvii (Çin) yüz tanıma algoritmaları; fotoğraf etiketlemeden hasta ve hastalık tespitine, her gün telefonumuzu açmaktan polis gözetlemelerine5 kadar birçok alanda kullanılıyor.

Peki, yüz tanımanın ötesinde, bütün bahsettiğimiz verilerden nasıl uygulamalar çıkıyor?

Bahsettiğim ifade tanıma metodları, alışveriş sırasında tüketici duygularından memnuniyet tespiti, araçlarda şoför güvenliği için yola bakma gözetlemesi, önceden intihar tespiti,6 sanal sınıflarda öğrencilerin derse ilgisi ve takibi için çocuk duygularının tanınması7 gibi birçok uygulamada kullanılıyor. Mesela bakışların da çeşitleri (sabit, sekme, takip, vb.) ve bu çeşitlerin kombinasyonlarının insanların davranışsal özelliklerini anlamak için kullanılması mümkün. Özellikle 3 boyutlu sanal ve arttırılmış gerçek ortamlarında, bakış takibi ile yepyeni etkileşimli medya içerikleri, oyunlar ve verimlilik uygulamaları geliştiriliyor. Göz kırparak “tıklamak” veya dilinizi çıkararak ateş etmek isterseniz, hâlihazırda birkaç uygulama önerebilirim.

Bütün uygulamalar masum değil

Tabii ki insanı anlamaya dair bütün uygulamalar bu kadar masum değil. Mesela Amazon bahsettiğim gözlem verilerini yapay zekâya yükleyerek, her işçiye özel günlük performans hedefini (The Rate) belirliyor ve haftada üç kez bu hedefin gerisinde kalanları otomatik olarak işten çıkarıyor.

Performans ve iş ölçümünün bir ürünü de Uber ve Lyft’in kullanmış olduğu maaş belirleyen yapay zekâ uygulamaları. Baştaki örneklerin diğer direkt kullanım alanları ise, aynı sistemlerin genelgeçer “mutlu”, “üzgün” gibi etiketler yerine; “yetkin”, “güvenli”, “başarılı”, “kültürel olarak uygun”, “sakin” gibi belirsiz ve subjektif etiketlerle veya küçük görevlerdeki performansa göre8 işe alım sırasında uygulanması veya “tedirgin”, “korkak” gibi etiketlerle polis güçlerindeki sorgu sistemlerine entegre edilmesi.

Derin sahteler

Yapay zekânın insanları anlamaya çalışmanın ötesine giderek türetmeye çalıştığı bambaşka bir alan ise Deep Fakes olarak bilinen Derin Sahteler.

Deep Fakes, gerçekte olmayan insan veya performansların görüntü veya videolarına deniyor.9 Örneğin ABD’nin önceki başkanlarından Barack Obama’nın alakasız demeçler vermesi,10 ünlülerin sahte pornografik içerikleri11 ve olmayan videolarının mahkeme delili olarak gösterilmesi12 hep derin sahte örnekleri… Yüz ve duygu tanıma, bunların hem yaratılmasında hem de açığa çıkarılmasında rol oynuyor.

Ütopya veya distopya?

Bütün bu uygulamalar geliştiriliyor ve hayatımızın bir kenarından bizleri etkiliyor, hatta bahsettiğim gibi sağlık ve eğlence alanlarında da büyük rol oynuyor. Ancak bu sistemlerin güvenilirliği, tutarlılığı, kapsayıcılığı ve genelleştirilebilirliği sizce ne kadar ölçülüyor?

Teknoloji şirketlerinin olgunlaşmamış algoritmaları piyasaya sürmelerine tanık olmuşsunuzdur. Google’ın ilk fotoğraf etiketleme sistemleri Afrika asıllı insanları “goril” olarak etiketlerken,13 Nixon kameralar Asya asıllı yüzleri göz kırpmış olarak uyarıyordu.14 Fotoğraf işleme alanında masum hatalar olarak görünse de, bu sistemlerin karar verme mercilerine entegre edilmesi ve güç odaklarının kullanımına geçmesi ile daha ciddi sorunlar gündeme gelmeye başladı. Sınırlarda bu duygu tanıma metotlarının yalan detektörü gibi kullanılması,15 polislerin yanlış yüz tanımaya dayalı yanlış insanları tutuklaması,16 hükümetlerin bu tahmini analizlere dayanarak kimin sağlık, eğitim, vb. yardımlara sahip olacağını belirlemesi gibi birçok “büyük birader” senaryosu ve neticesi yaşandı.

İnsan bazlı bu yüz, duygu ve ifade tanıma sistemlerinin ve maalesef yan etkilerinin yaygınlaşmasıyla, akademik ve endüstriyel araştırmacılar bu metotları genel adıyla yapay zekâda Eşitlik, İzlenebilirlik, Saydamlık ve Etik (Fairness, Accountability, Transparency, and Ethics) alanı altında incelemeye başladı. Kısaltması FATE’in ise “kader” anlamına gelmesi çok manidar.

FATE alanında son zamanlarda gündemden düşmeyen bir çalışma MIT’den Joy Buolamwini’ye ait: Cinsiyet Tonları (Gender Shades).17 MIT Medya Laboratuvarı’nda çalışan araştırmacı ve dijital aktivist Buolamwini kullanımda olan tanıma algoritmalarını alıp beyaz ve erkek ağırlıklı olmayan görüntü kümelerinde deniyor ve fark ediyor ki, bu sistemler açık tenli erkeklerin cinsiyetini sadece %1 yanlış tanımlarken, bu oran koyu tenli kadınlarda %35’e ulaşabiliyor. Bunun altında yatan esas neden olarak da, bu öğrenme algoritmalarının eğitimi sırasında kullanılan veri kümelerinin yüzde 70-80 açık tenli erkeklerden oluşması olarak gösteriliyor.

Bu konuda başka bir araştırma18 ise, piyasada kullanılan sekiz duygu tanıma yazılımını karşılaştırıyor. Kullandıkları veri kümesinde insanlar bile 75% doğru duyguyu sezerken, en iyi sistem 62%’de kalıyor. Hayal edin ki işe başvuruyorsunuz ve sizi işe alacak insan yapay zekâya başvurduğunda, sizin en iyi ihtimalle 62% kızgın baktığınızı tahmin ediyor. Ne yapacaksınız?

Bu belirsizliğin bir nedeni sadece kaslarımızın hareketlerinden ne hissettiğimizin tespit edilebileceği hipotezinin çürütülüyor olması. Yeni bir çalışmaya19 göre, aksiyon birimlerinin değişimi ile duygularımızın değişimi düşündüğümüz kadar ilintili değil, duygularda ve bu duyguları ifade etmemizde etkili olan birçok faktör var. Kültürel olarak ele alırsak, başı iki yana sallamak Türkiye’de hayır anlamına gelirken, Hint kültüründe evet anlamına geliyor. Veya bir film sahnesini o an açtığımızda ağlayan insanın aslında üzgün olduğu sonucuna varmadan önce bağlamına bakıyoruz; aslında istediği bir şeye kavuşmuş ve mutluluktan ağlıyor da olabilir.

Duyguları fizyolojik sinyallerden anlamaya çalışan başka bir çalışma20 ise, aslında insanların anlamadıkları bir şakaya gülebildiklerini veya empati kurmadıkları bir acıya baskıdan dolayı negatif ifadeler gösterebildiklerini ortaya çıkarıyor. Özetlersek, duygularımızı insanlar bile yüksek oranda doğru tanımlayamıyorken; bağlamdan, kültürden, cinsiyetten, ırktan ve durumdan haberi olmayan yapay sistemlerin yüksek kesinlikle anlamasını bekliyoruz.

Güç kimde, neden böyle? Asabi miyim AI?

FATE araştırmaları ilerledikçe yapay zekâ ile yüz, ifade ve duygu tanıma sistemlerinin daha bebeklik dönemlerinde olduğunu görebiliyoruz. Peki, bu kadar gelişmeye açık sistemler nasıl insan hayatına yön verebilecek şekilde sahaya yerleştirilebiliyor, kullanıma açılabiliyor?

Bizdeki karşılığı Genel Veri Koruma Yönetmeliği olan GDPR (General Data Protection Regulation) akabinde hem Avrupa’da hem de ABD’de biyometrik veri güvenliği kapsamında yüz tanımaya21 ve duygu tanımaya22 dair yasalar gelişiyor. Özellikle saydamlık, adalet ve kapsayıcılık başlıklarında, bu sistemler bütün hedef popülasyon için aynı kesinlikte çalışmadıkça kullanılmalarının yasaklanması tartışılıyor.

Fakat maalesef yapay zekâ ve siber kanunlar aynı hızda gelişmiyor ve teknolojide önde olan şirketler ve ülkeler bu gibi daha iyileştirilmesi gereken teknolojileri hayatımıza sokabiliyor. İşin daha kötüsü, verileri toplayan ve kullananlar da bu sınıfın bir parçası olunca, sistematik önyargı (systematic bias) dezavantajlı sınıfların teknoloji alet edilerek daha da dezavantajlı hale getirilmesine yarıyor.23 Google gibi köklü şirketler, kendi yapay zekâ algoritmalarının etik sonuçları sorgulanınca, bu araştırmayı içeren makaleyi geri çekmedikleri için alanlarında önde gelen araştırmacıları bir çırpıda işten atabiliyorlar.24 Etik ilkeler, yapay zekânın geliştirilmesine olduğu kadar değerlendirilmesine, regülasyonuna ve uygulamalarına odaklanmıyor. Bu sistemleri kimin, nerede ve nasıl kullanacağı konuları maalesef göz ardı ediliyor.

Sonuç olarak, aslında ne size mülakatta %62 kararlılıkla “kızgın” diyen yapay zekânın sizin sadece kırmızı giymiş bir kadın olduğunuzdan haberi var, ne de o sistemi kullananın aslında ne kadar düşük bir kararlılık oranıyla size “kızgın” etiketi verildiğinden.

Her ne kadar bizi anlayacağına inandığımız yapay sistemlerin hayali ile heyecanlansak da, bu sistemleri entegre etmeden önce nasıl eğitildiği, hangi veri kümelerinin kullanıldığı, bütün popülasyona uygulanabilirliği, kimin bu sistemlerden çıkarı olduğu, sonuçlarının saydamlığı, anlaşılırlığı ve en önemlisi, adil platformlarda adil kararları desteklemesinin deterministikliğini tartışmamız gerekli. Biz bu insani konuları çözene kadar, yapay zekânın insanı çözmesini beklememiz dileğiyle…

Bu makalede yer alan fikirler yazara aittir ve Fikir Turu’nun editöryel politikasını yansıtmayabilir.

Bu yazı ilk kez 28 Nisan 2021’de yayımlanmıştır.

  1. [https://mitpress.mit.edu/books/affective-computing]
  2. [https://www.iflexion.com/blog/facial-recognition-software]
  3. [https://www.paulekman.com/facial-action-coding-system/, Ekman P, Friesen WV, Hager JC (2002). Facial Action Coding System: The Manual on CD ROM. Salt Lake City: A Human Face]
  4. [https://azure.microsoft.com/en-us/services/cognitive-services/face]
  5. [https://www.vox.com/recode/2019/10/8/20903536/amazon-ring-doorbell-civil-rights-police-partnerships]
  6. [https://www.theatlantic.com/technology/archive/2019/07/google-partners-lgbt-suicide-prevention-nonprofit/593821/]
  7. [https://www.cnn.com/2021/02/16/tech/emotion-recognition-ai-education-spc-intl-hnk/index.html]
  8. [https://www.businessinsider.com/unilever-artificial-intelligence-hiring-process-2017-6]
  9. [U. A. Ciftci, I. Demir and L. Yin, “FakeCatcher: Detection of Synthetic Portrait Videos using Biological Signals,” in IEEE Transactions on Pattern Analysis and Machine Intelligence, doi: 10.1109/TPAMI.2020.3009287]
  10. [https://www.msnbc.com/hallie-jackson/watch/fake-obama-warning-about-deep-fakes-goes-viral-1214598723984]
  11. https://www.theverge.com/2018/1/24/16929148/fake-celebrity-porn-ai-deepfake-face-swapping-artificial-intelligence-reddit
  12. [https://www.law.com/njlawjournal/2021/02/22/looking-out-for-manipulated-deepfake-evidence-in-family-law-cases/]
  13. [https://www.wsj.com/articles/BL-DGB-42522]
  14. [http://content.time.com/time/business/article/0,8599,1954643,00.html
  15. https://techcrunch.com/2021/02/05/orwellian-ai-lie-detector-project-challenged-in-eu-court/
  16. [https://www.bbc.com/news/uk-wales-south-west-wales-44007872 ]
  17. [Buolamwini, J. & Gebru, T. (2018). Gender Shades: Intersectional Accuracy Disparities in Commercial Gender Classification. Proceedings of the 1st Conference on Fairness, Accountability and Transparency, in PMLR 81:77-91].
  18. [Dupré D, Krumhuber EG, Küster D, McKeown GJ (2020) A performance comparison of eight commercially available automatic classifiers for facial affect recognition. PLOS ONE 15(4): e0231968.]
  19. [Barrett LF, Adolphs R, Marsella S, Martinez AM, Pollak SD. Emotional Expressions Reconsidered: Challenges to Inferring Emotion From Human Facial Movements. Psychological Science in the Public Interest. 2019;20(1):1-68. doi:10.1177/1529100619832930]
  20. Ciftci, U. A. (2014). Physiological data collection and analysis for human affection study. State University of New York at Binghamton
  21. https://www.perpetuallineup.org/
  22. https://ainowinstitute.org/AI_Now_2019_Report.pdf
  23. https://www.ted.com/talks/joy_buolamwini_how_i_m_fighting_bias_in_algorithms
  24. https://venturebeat.com/2021/02/19/google-fires-ethical-ai-lead-margaret-mitchell/

İlke Demir

Dr. İlke Demir – Dr. Demir doktora ve yüksek lisans eğitimini Amerika’nın Indiana eyaletindeki Purdue Üniversitesi’nde, Prof. Daniel Aliaga’nın danışmanlığında tamamladı. Daha öncesinde lisans eğitimi için Orta Doğu Teknik Üniversitesi Bilgisayar Mühendisliği anadal ve Elektrik Elektronik yandal programlarını bitirdi. Doktora tezi, canlandırım, modelleme ve sentezleme alanlarında geometrik ve topolojik şekil işleme algoritmaları tasarlayarak yordamsallaştırma (proceduralization) alanında çığır açtı. Sonrasında Dr. Demir Facebook’a doktora sonrası araştırmacısı olarak katılarak, MIT’den Ramesh Raskar ile çalıştı ve liderliğindeki takım Üretken Sokak Adresleri adlı çığır açan projeyi geliştirdi. Buradaki araştırmaları ayrıca yeni nesil sanal gerçeklik başlıklarında insan davranışını anlamak için derin öğrenme yaklaşımlarını, harita oluşturma için jeo-uzamsal makine öğrenimini ve geniş kapsamlı 3B yeniden yapılandırmayı içeriyor. Dr. Demir, sanat ve bilimin kesiştiği noktada sırasıyla Pixar Animasyon Stüdyoları ve Intel Stüdyoları'nda çeşitli animasyon uzun metrajlı film ve VR / AR kısa filmlerine katkıda bulundu. Intel'de dünyanın en büyük hacimsel yakalama stüdyosunun araştırma temellerini kurarak, yaratıcı süreç ile yapay zeka yaklaşımları arasındaki boşluğu doldurdu. Intel'e katılmadan önce kısa bir start-up deneyimi yaşadı (başarılı bir satın alma ile sonlandı) ve aynı zamanda California Üniversitesi’nde misafir akademisyen olarak görev yaptı. Bilgisayarlı görme ve makine öğrenmesi kesişiminde, Dr. İlke Demir’in araştırmaları gerçek dünyayı dijitalleştiren üretken modellere, derin sahte tespit ve yaratım tekniklerine, jeo-uzamsal analiz ve sentez metodlarına, ve sentezleme ve fabrikasyon için kompütasyonel geometriye odaklanıyor. Dr. Demir halen kıdemli araştırmacı - bilim insanı olarak Intel’de görevini sürdürüyor. Saygın akademik konferans ve dergilerdeki yayınlarına ek olarak, derin öğrenme, bilgisayarla görme ve bilgisayar grafikleri alanlarında DeepGlobe, SkelNetOn, WiCV, SUMO, DLGC, EarthVision ve OpenEDS gibi çalıştaylar, yarışmalar ve dersler düzenledi. Dr. Demir, en iyi bildiri / poster / hakem ödüllerinin yanı sıra Jack Dangermond Ödülü, Bilsland Tez Bursu, IEEE Endüstri Seçkin Öğretim Üyesi ve ACM Seçkin Konuşmacısı gibi çok sayıda ödül aldı. Bilimsel makaleleri, The Independent, IEEE Spectrum, VentureBeat, MIT Tech Review ve Liberation gibi dünyanın dört bir yanındaki medya kuruluşlarından büyük ilgi gördü. Dr. Demir çalışmalarının kapsadığı çok çeşitli konularda dünya çapında 50'den fazla konuşma ve panel sunmaya davet edildi. Dr. Demir, bilim kadınlarını destekleyen birçok organizmada aktif bir şekilde görev alarak, her zaman kadınların ve yeterince temsil edilmeyen azınlıkların savunucusu olmaya devam ediyor. Daha ayrıntılı bilgi için: https://ilkedemir.github.io/

guest
1 Yorum
Inline Feedbacks
View all comments
Tijen
Tijen
02/05/2021 19:00

Çok aydınlatıcı, farkındalık yaratan, yeni bir gelecek kurulurken insanlığın üstesinden gelmek zorunda kalacağı sorunlar üzerine düşünmemizi sağlayan bir makale, yazarı kutluyorum…

1
0
Would love your thoughts, please comment.x
()
x
Send this to a friend