Kömür madenindeki kanaryalar mı, dijital çağın özneleri mi?

Siber zorbalık dijital dünyanın tek tehdidi değil. Siber köleleştirme (grooming) ve çocuklara yönelik cinsel istismar materyalleri (CSAM) gibi yeni tehlikeler hızla yayılıyor… Çocukların üçte biri internette istemediği içeriklere maruz kalıyor. Bunlarla mücadele için dünya ne yapıyor? Dr. Sinan Aşçı yazdı.

Bir dönem okul koridorlarında yaşandığı için konuştuğumuz zorbalık, çoktan cep telefonlarımızın ve tabletlerimizin ekranına taşındı. Ancak mesele yalnızca kötü niyetli mesajlar ya da alaycı yorumlarla sınırlı değil. Dijital ortamlar geliştikçe zorbalık da biçim değiştiriyor. Çoğu zaman algoritmaların ve yapay zekânın görünmez desteğiyle çok daha karmaşık hale geliyor; siber zorbalık artık tek başına değil, başka çevrimiçi risklerle iç içe yaşanıyor.

Ben de bu konulardaki çalışmalarımı bir süredir İrlanda’da sürdürüyorum. Burada çocukların çevrimiçi deneyimlerine dair ulusal araştırmalar, parlamentoya sunulan raporlar ve sivil toplumun yürüttüğü projeler, küresel eğilimleri görmem için güçlü bir pencere açıyor. Dolayısıyla aktaracağım örnekler yalnızca İrlanda’yı değil, hepimizi ilgilendiren küresel bir tabloyu işaret ediyor.

Renkli avatarların karanlık yüzü

Bugün bir çocuğun çevrimiçi oyunda tanıştığı biriyle sohbeti, bazen bir “siber köleleştirme” (İngilizcede online grooming) sürecine dönüşebiliyor. Fail, önce masumane bir oyun arkadaşı gibi davranıyor, küçük sırlar paylaşıyor, ardından yavaş yavaş güven kazanarak kendine bağlılık yaratıyor. Çocuk, manipülasyon altında olduğunu fark etmiyor bile.

Yapılan araştırmalar bu tür köleleştirmelerin yalnızca yabancılarla sınırlı olmadığını, kimi zaman çocuğun zaten tanıdığı kişiler tarafından da gerçekleşebildiğini gösteriyor. Geçtiğimiz günlerde yayınlanan Netflix belgeseli Bilinmeyen Numara: Lisede Mesaj Skandalı (Unknown Number: The High School Catfish), çoğu zaman çocukları korumak için en büyük müttefik olan aile içinde bile risklerin ortaya çıkabileceğini bir kez daha hatırlatıyor.

Bir başka ağır tehdit ise “çocuklara yönelik cinsel istismar materyalleri” (İngilizcede CSAM ya da Child Sexual Abuse Material). Bu içerikler yeni değil; fakat üretken yapay zekâ sayesinde sahte ama gerçekmiş gibi görünen materyallerin üretilmesi çok kolaylaştı.

İngiltere’de Ofcom tarafından 2023 yılında yapılan ulusal bir  , 11-17 yaş arası gençlerin %30’unun çevrimiçi ortamda istenmeyen cinsel içeriklerle karşılaştığını bildiriyor. ABD’de Pew Research Center’ın 2022 yılında yaptığı bir   da gençlerin %40’ından fazlasının siber zorbalığa maruz kaldığını ortaya koyuyor. Almanya’da Kuzey Ren-Vestfalya Medya Kurumu (Almancada Landesanstalt für Medien NRW)’nin 2025 anketinde, reşit olmayanların neredeyse dörtte biri (24%), sosyal medya veya çevrimiçi oyunlar aracılığıyla siber köleleştirme (İngilizcede cybergrooming) yaşadığını, hatta bu rakamın 14 yaş altı çocuklarda %16 olduğu ortaya koyuluyor.

Türkiye’de gerçekleştirilen ulusal araştırmalarda ise, ebeveynlerin büyük çoğunluğunun çocuklarının çevrimiçi ortamda ciddi risklerle karşılaştığını tespit ettiğini ortaya koyuyor; genel olarak en çok kaygı uyandıran başlıklar her zaman üzerine konuştuğumuz çevrimiçi riskler.

Sorunun yalnızca Batı’da değil, bizde de olduğunu görmek zor değil. Bir çocuk odasında oyun oynarken birkaç dakika içinde hiç istemediği sahnelerle karşılaşabiliyor. Ölçek ise ürkütücü: Birleşmiş Milletler’e göre 2022’de çevrimiçi çocuklara yönelik cinsel istismar materyalleri (CSAM) ihbarları 32 milyonu aştı. Artık gerçek bir çocuğun görüntüsü olmadan, sıfırdan sahte materyal üretmek mümkün. “Gerçek bir mağdur yok” savunması ise meseleyi masumlaştırmıyor; aksine istismar kültürünü besleme riski taşıyor. Bu, buzdağının yalnızca görünen kısmı. Üretken yapay zekâ kaynaklı sahte içeriklere ilişkin yasal boşluklar, İngiltere ve Avustralya’daki yeni düzenlemelerle daraltılırken, AB metinlerinde bu riskin daha net tanımlanması çağrıları sürüyor.

Korku yerine akılcı adımlar

Peki sorun teknoloji mi yoksa onun nasıl kullanıldığı mı?

Cevap açık: teknoloji suçun aracı olabilir ama aynı zamanda çözümün de parçası.

Deepfake ve üretken yapay zekâ, istismar içeriklerini çoğaltabilir; ama aynı teknikler sahteyi ayırt eden algılayıcılar, görsel adli analiz ve platform içi tespit sistemlerinde de kullanılabiliyor. Çözüm, teknolojiyi yasaklamak değil; riskleri ölçen, şeffaflık ve hesap verebilirliği zorunlu kılan bir çerçeveyle yönetebilmek. Bu çelişkili durum, çocukların yapay zekâ çağında nasıl korunabileceğine dair etik tartışmaları da beraberinde getiriyor[1].

Araştırma sonuçları da dikkat çekici. İrlanda’da yapılan bir   göre, 8-12 yaş grubunun %71’i, yaş sınırı 13 olan sosyal medya platformlarında hesap açmış durumda; çocukların %28’i son bir yılda kendisini korkutan ya da rahatsız eden içeriklerle karşılaştığını söylüyor[2].

Genel olarak diğer Avrupa ülkelerinde de tablo farklı değil. EU Kids Online araştırmasına[3] göre, çocukların üçte biri internette istemediği içeriklere maruz kalıyor. Yeni bir rapor[4], gençlerin yapay zekâ ve yanlış bilgilendirme (misinformation) çağında nasıl yol aldıklarını inceliyor ve algoritmaların onların eleştirel düşünme becerilerini doğrudan etkilediğini ortaya koyuyor.

Bu noktada üzerine düşünmemiz için görünmez aktörler olan algoritmalar öne çıkıyor. Netflix’te hangi diziyi izleyeceğimizden TikTok’ta karşımıza çıkan videolara kadar her şey bu filtrelerin sonucu. Çocuklar sık sık “İstemediğim şeyleri önüme getiriyor” diyor. İrlanda Parlamentosu’na (Joint Oireachtas Committee on AI) sunulan raporda uzmanlar, algoritmaların çocuklara şiddet, nefret ve cinsel içerik sunduğunu vurguluyor. Bu konuda öneri açık ve asla yasaklamak değil: 16 yaş altı için öneri algoritmaları (recommendation algorithms) varsayılan olarak kapalı olmalı, çocukların internetteki davranışsal profilleri reklam ya da içerik yönlendirmede kullanılmamalı.

Bir başka tehdit de deepfake. Bir çocuğun sosyal medyaya koyduğu 20 fotoğraf, dakikalar içinde istismar amaçlı sahte videolara dönüştürülebiliyor. İngiltere ve Avustralya bu konuda özel yasalar çıkarırken, Avrupa Birliği’nin yapay zekâ düzenlemesinde bu risklerin yeterince ele alınmadığı eleştiriliyor. İrlanda’daki oturumlarda dile getirilen bir diğer uyarı da buydu: “çıplaklaştırma” (nudify) uygulamaları ve açık modeller, çocukların görüntülerini kullanarak cinsel içerikli deepfake üretmeyi mümkün kılıyor. Üstelik kimi zaman bu içerikler akranlar tarafından birbirine karşı da kullanılıyor. Yani mesele, teknolojiyi yasaklamak değil; sorumlu bir çerçeveyle yönetebilmek. Burada “ahlaki panik” üretmek kolay: “Her şey kontrolden çıkıyor, artık güvenlik diye bir şey kalmadı” demek mümkün. Oysa gerçek tablo daha karmaşık. Bir yandan suçun araçları çeşitleniyor, öte yandan denetim için elimizde hiç olmadığı kadar güçlü yöntemler var.

Yapay zekâ destekli sohbet botları da hızla yayılıyor. Snapchat’te ya da WhatsApp’ta çocuklarla sohbet eden botlar, empati taklidi yapıyor. Yakın zamanda görülen bazı davalarda, bu botlarla etkileşimin çocukları kendine zarar vermeye yönelttiği öne sürüldü. İrlanda’daki uzmanlar, ilkokul çocuklarının dörtte birinin, 12-15 yaş grubunun üçte birinin bu botları kullandığını belirtti. Raine v. OpenAI davasında, genç bir kullanıcının bu sohbetler sonucu yardım aramaktan vazgeçmesi ve intihara sürüklenmesi kamuoyunda büyük yankı uyandırdı.

Risklerden çözümlere

İlginç bir karşılaştırma, oyuncaklarla dijital ürünler arasında yapılıyor: Bir oyuncak piyasaya sürülmeden önce sıkı güvenlik testlerinden geçiyor; dijital ürünlerde ise benzer standartlar yok. İrlanda’daki bir sunumda kullanılan metafor çarpıcıydı: “Çocuklar, dijital çağın kömür madenindeki kanaryalarıdır.”

Dünyadan yasal düzenleme örneklerine bakmak bu dönüşümü anlamak açısından önemli. Avrupa Birliği’nin Dijital Hizmetler Yasası (DSA), platformlara içerik kaldırma süreçlerinde şeffaflık ve kullanıcı güvenliği yükümlülükleri getiriyor. Yine AB’nin Yapay Zekâ Yasası (AI Act), yüksek riskli alanlarda (örneğin, biyometrik gözetim ya da çocuk istismarı içerikleri) yapay zekânın nasıl sınırlandırılması gerektiğini düzenliyor.

İngiltere’nin geçtiğimiz yıl yürürlüğe soktuğu Çevrimiçi Güvenlik Yasası (Online Safety Act), çocukları korumayı merkezine alıyor. ABD’de uzun süredir aktif olan Kayıp ve İstismar Edilen Çocuklar Ulusal Merkezi (NCMEC – National Center for Missing & Exploited Children) ise dünya genelinden ihbar toplayıp kolluk kuvvetleriyle paylaşan önemli bir merkez.

Türkiye’de ise bu alanda henüz kapsamlı ve bütüncül bir yaklaşım geliştirilmiş değil. Daha çok yasaklama ve erişim engelleme yöntemleri öne çıkıyor; ancak uzun vadeli çocuk koruma politikaları, uluslararası örneklerde gördüğümüz gibi, şeffaflık, hesap verebilirlik ve çok paydaşlı işbirliğiyle güçlendirilebilir.

Sorumluluk yalnızca devletlerin ya da şirketlerin değil. Devletler risk değerlendirmesi ve uluslararası işbirliği yapmalı. Platformlar şeffaflık, kötüye kullanım filtreleri ve raporlama mekanizmaları geliştirmeli. Eğitimciler ve ebeveynler dijital okuryazarlığı çocuklara kazandırmalı. Bireyler de şüpheli içerikle karşılaştığında raporlama araçlarını kullanmalı. Çünkü biliyoruz ki, bu düzenlemeler tek başına sihirli çözümler değil; ama en azından teknoloji şirketlerini sorumluluk almaya zorlayan bir çerçeve oluşturuyor.

Dijital dünyanın karanlık yüzünü tamamen yok etmek belki mümkün değil. Ama riskleri azaltmak, mağdurları korumak ve failleri daha hızlı yakalamak ve bu davranışları sergilememeleri üzere topluma kazandırma programları düzenlemek için elimizde hiç olmadığı kadar güçlü araçlar var.

Asıl mesele, korkuya kapılmak değil, bu araçları doğru değerler ve akıllı regülasyonlarla kullanabilmek. Çocuklar için güvenli bir dijital gelecek, uzak bir hayal değil; doğru adımlar atıldığında ulaşılabilecek bir hedef. Hepimizin sorumluluğu, bu geleceği kurarken çocukları yalnızca korunacak bir “risk grubu” olarak değil, aynı zamanda sürecin aktif öznesi olarak konumlandırmak; bu nedenle de araştırma süreçlerine, politika geliştirme aşamalarına ve karar mekanizmalarına etkin biçimde dâhil etmektir.

Bu makalede yer alan fikirler yazara aittir ve Fikir Turu’nun editöryel politikasını yansıtmayabilir.

Bu yazı ilk kez 21 Ekim 2025’te yayımlanmıştır.

[1] bknz. Re-Imaging Ethics and Research with Children: Symposium Report

[2] bknz. CyberSafeKids A life behind the screens: Uncovering the realities of digital childhood.

[3] bknz. EU Kids Online 2020: Survey results from 19 countries.

[4] bknz. Exploring How Young People Navigate the Evolving Online World in the Era of Artificial Intelligence and Misinformation.

Sinan Aşçı
Sinan Aşçı
Dr. Sinan Aşçı - Dublin City University bünyesindeki Anti-Bullying Centre’da doktora sonrası araştırmacı. Hâlen Siber Zorbalık, Siber Nefret ve Siber Taciz Gözlemevi (Observatory on Cyberbullying, Cyberhate, and Cyberharassment) projesinde görev yapıyor. Çalışmalarında, gelişen teknolojilerin çocuklara yönelik cinsel istismar materyalleri (CSAM) üretimi, çevrimiçi radikalleşme ve dijital zararlar üzerindeki etkilerini; ayrıca bu dinamiklerin İrlanda’daki çevrimdışı yansımalarını inceliyor. 2023’ten bu yana, siber zorbalık, siber köleleştirme ve kendine zarar verme davranışlarını tespit etmeye yönelik ebeveyn kontrol teknolojileri geliştiren CILTER projesine katkı sunuyor. Daha önce Bahçeşehir Üniversitesi Yeni Medya Bölümü’nde doktor öğretim üyesi, International University SDI München’de (Almanya) yarı zamanlı öğretim üyesi olarak görev yaptı. Galatasaray Üniversitesi Medya ve İletişim Çalışmaları Doktora Programı’ndan mezun olup, doktora araştırmasını Türkiye’de gençler ve siber zorbalık üzerine yürüttü. Medya eğitimi, çeşitlilik ve dijital okuryazarlık alanlarında çok sayıda AB destekli projede yer aldı; Türkiye, Almanya ve Güney Kore’de medya ve iletişim dersleri verdi. Araştırma alanları arasında gençlik kültürü, LGBTIQ+ toplulukları, çevrimiçi zararlar, sosyal medya ve dijital okuryazarlık bulunuyor. Ayrıca uluslararası akademik dergilerde hakemlik ve editörlük yapıyor.

YORUMLAR

Subscribe
Bildir
guest

0 Yorum
Eskiler
En Yeniler Beğenilenler
Inline Feedbacks
View all comments

Son Eklenenler

Kömür madenindeki kanaryalar mı, dijital çağın özneleri mi?

Siber zorbalık dijital dünyanın tek tehdidi değil. Siber köleleştirme (grooming) ve çocuklara yönelik cinsel istismar materyalleri (CSAM) gibi yeni tehlikeler hızla yayılıyor… Çocukların üçte biri internette istemediği içeriklere maruz kalıyor. Bunlarla mücadele için dünya ne yapıyor? Dr. Sinan Aşçı yazdı.

Bir dönem okul koridorlarında yaşandığı için konuştuğumuz zorbalık, çoktan cep telefonlarımızın ve tabletlerimizin ekranına taşındı. Ancak mesele yalnızca kötü niyetli mesajlar ya da alaycı yorumlarla sınırlı değil. Dijital ortamlar geliştikçe zorbalık da biçim değiştiriyor. Çoğu zaman algoritmaların ve yapay zekânın görünmez desteğiyle çok daha karmaşık hale geliyor; siber zorbalık artık tek başına değil, başka çevrimiçi risklerle iç içe yaşanıyor.

Ben de bu konulardaki çalışmalarımı bir süredir İrlanda’da sürdürüyorum. Burada çocukların çevrimiçi deneyimlerine dair ulusal araştırmalar, parlamentoya sunulan raporlar ve sivil toplumun yürüttüğü projeler, küresel eğilimleri görmem için güçlü bir pencere açıyor. Dolayısıyla aktaracağım örnekler yalnızca İrlanda’yı değil, hepimizi ilgilendiren küresel bir tabloyu işaret ediyor.

Renkli avatarların karanlık yüzü

Bugün bir çocuğun çevrimiçi oyunda tanıştığı biriyle sohbeti, bazen bir “siber köleleştirme” (İngilizcede online grooming) sürecine dönüşebiliyor. Fail, önce masumane bir oyun arkadaşı gibi davranıyor, küçük sırlar paylaşıyor, ardından yavaş yavaş güven kazanarak kendine bağlılık yaratıyor. Çocuk, manipülasyon altında olduğunu fark etmiyor bile.

Yapılan araştırmalar bu tür köleleştirmelerin yalnızca yabancılarla sınırlı olmadığını, kimi zaman çocuğun zaten tanıdığı kişiler tarafından da gerçekleşebildiğini gösteriyor. Geçtiğimiz günlerde yayınlanan Netflix belgeseli Bilinmeyen Numara: Lisede Mesaj Skandalı (Unknown Number: The High School Catfish), çoğu zaman çocukları korumak için en büyük müttefik olan aile içinde bile risklerin ortaya çıkabileceğini bir kez daha hatırlatıyor.

Bir başka ağır tehdit ise “çocuklara yönelik cinsel istismar materyalleri” (İngilizcede CSAM ya da Child Sexual Abuse Material). Bu içerikler yeni değil; fakat üretken yapay zekâ sayesinde sahte ama gerçekmiş gibi görünen materyallerin üretilmesi çok kolaylaştı.

İngiltere’de Ofcom tarafından 2023 yılında yapılan ulusal bir  , 11-17 yaş arası gençlerin %30’unun çevrimiçi ortamda istenmeyen cinsel içeriklerle karşılaştığını bildiriyor. ABD’de Pew Research Center’ın 2022 yılında yaptığı bir   da gençlerin %40’ından fazlasının siber zorbalığa maruz kaldığını ortaya koyuyor. Almanya’da Kuzey Ren-Vestfalya Medya Kurumu (Almancada Landesanstalt für Medien NRW)’nin 2025 anketinde, reşit olmayanların neredeyse dörtte biri (24%), sosyal medya veya çevrimiçi oyunlar aracılığıyla siber köleleştirme (İngilizcede cybergrooming) yaşadığını, hatta bu rakamın 14 yaş altı çocuklarda %16 olduğu ortaya koyuluyor.

Türkiye’de gerçekleştirilen ulusal araştırmalarda ise, ebeveynlerin büyük çoğunluğunun çocuklarının çevrimiçi ortamda ciddi risklerle karşılaştığını tespit ettiğini ortaya koyuyor; genel olarak en çok kaygı uyandıran başlıklar her zaman üzerine konuştuğumuz çevrimiçi riskler.

Sorunun yalnızca Batı’da değil, bizde de olduğunu görmek zor değil. Bir çocuk odasında oyun oynarken birkaç dakika içinde hiç istemediği sahnelerle karşılaşabiliyor. Ölçek ise ürkütücü: Birleşmiş Milletler’e göre 2022’de çevrimiçi çocuklara yönelik cinsel istismar materyalleri (CSAM) ihbarları 32 milyonu aştı. Artık gerçek bir çocuğun görüntüsü olmadan, sıfırdan sahte materyal üretmek mümkün. “Gerçek bir mağdur yok” savunması ise meseleyi masumlaştırmıyor; aksine istismar kültürünü besleme riski taşıyor. Bu, buzdağının yalnızca görünen kısmı. Üretken yapay zekâ kaynaklı sahte içeriklere ilişkin yasal boşluklar, İngiltere ve Avustralya’daki yeni düzenlemelerle daraltılırken, AB metinlerinde bu riskin daha net tanımlanması çağrıları sürüyor.

Korku yerine akılcı adımlar

Peki sorun teknoloji mi yoksa onun nasıl kullanıldığı mı?

Cevap açık: teknoloji suçun aracı olabilir ama aynı zamanda çözümün de parçası.

Deepfake ve üretken yapay zekâ, istismar içeriklerini çoğaltabilir; ama aynı teknikler sahteyi ayırt eden algılayıcılar, görsel adli analiz ve platform içi tespit sistemlerinde de kullanılabiliyor. Çözüm, teknolojiyi yasaklamak değil; riskleri ölçen, şeffaflık ve hesap verebilirliği zorunlu kılan bir çerçeveyle yönetebilmek. Bu çelişkili durum, çocukların yapay zekâ çağında nasıl korunabileceğine dair etik tartışmaları da beraberinde getiriyor[1].

Araştırma sonuçları da dikkat çekici. İrlanda’da yapılan bir   göre, 8-12 yaş grubunun %71’i, yaş sınırı 13 olan sosyal medya platformlarında hesap açmış durumda; çocukların %28’i son bir yılda kendisini korkutan ya da rahatsız eden içeriklerle karşılaştığını söylüyor[2].

Genel olarak diğer Avrupa ülkelerinde de tablo farklı değil. EU Kids Online araştırmasına[3] göre, çocukların üçte biri internette istemediği içeriklere maruz kalıyor. Yeni bir rapor[4], gençlerin yapay zekâ ve yanlış bilgilendirme (misinformation) çağında nasıl yol aldıklarını inceliyor ve algoritmaların onların eleştirel düşünme becerilerini doğrudan etkilediğini ortaya koyuyor.

Bu noktada üzerine düşünmemiz için görünmez aktörler olan algoritmalar öne çıkıyor. Netflix’te hangi diziyi izleyeceğimizden TikTok’ta karşımıza çıkan videolara kadar her şey bu filtrelerin sonucu. Çocuklar sık sık “İstemediğim şeyleri önüme getiriyor” diyor. İrlanda Parlamentosu’na (Joint Oireachtas Committee on AI) sunulan raporda uzmanlar, algoritmaların çocuklara şiddet, nefret ve cinsel içerik sunduğunu vurguluyor. Bu konuda öneri açık ve asla yasaklamak değil: 16 yaş altı için öneri algoritmaları (recommendation algorithms) varsayılan olarak kapalı olmalı, çocukların internetteki davranışsal profilleri reklam ya da içerik yönlendirmede kullanılmamalı.

Bir başka tehdit de deepfake. Bir çocuğun sosyal medyaya koyduğu 20 fotoğraf, dakikalar içinde istismar amaçlı sahte videolara dönüştürülebiliyor. İngiltere ve Avustralya bu konuda özel yasalar çıkarırken, Avrupa Birliği’nin yapay zekâ düzenlemesinde bu risklerin yeterince ele alınmadığı eleştiriliyor. İrlanda’daki oturumlarda dile getirilen bir diğer uyarı da buydu: “çıplaklaştırma” (nudify) uygulamaları ve açık modeller, çocukların görüntülerini kullanarak cinsel içerikli deepfake üretmeyi mümkün kılıyor. Üstelik kimi zaman bu içerikler akranlar tarafından birbirine karşı da kullanılıyor. Yani mesele, teknolojiyi yasaklamak değil; sorumlu bir çerçeveyle yönetebilmek. Burada “ahlaki panik” üretmek kolay: “Her şey kontrolden çıkıyor, artık güvenlik diye bir şey kalmadı” demek mümkün. Oysa gerçek tablo daha karmaşık. Bir yandan suçun araçları çeşitleniyor, öte yandan denetim için elimizde hiç olmadığı kadar güçlü yöntemler var.

Yapay zekâ destekli sohbet botları da hızla yayılıyor. Snapchat’te ya da WhatsApp’ta çocuklarla sohbet eden botlar, empati taklidi yapıyor. Yakın zamanda görülen bazı davalarda, bu botlarla etkileşimin çocukları kendine zarar vermeye yönelttiği öne sürüldü. İrlanda’daki uzmanlar, ilkokul çocuklarının dörtte birinin, 12-15 yaş grubunun üçte birinin bu botları kullandığını belirtti. Raine v. OpenAI davasında, genç bir kullanıcının bu sohbetler sonucu yardım aramaktan vazgeçmesi ve intihara sürüklenmesi kamuoyunda büyük yankı uyandırdı.

Risklerden çözümlere

İlginç bir karşılaştırma, oyuncaklarla dijital ürünler arasında yapılıyor: Bir oyuncak piyasaya sürülmeden önce sıkı güvenlik testlerinden geçiyor; dijital ürünlerde ise benzer standartlar yok. İrlanda’daki bir sunumda kullanılan metafor çarpıcıydı: “Çocuklar, dijital çağın kömür madenindeki kanaryalarıdır.”

Dünyadan yasal düzenleme örneklerine bakmak bu dönüşümü anlamak açısından önemli. Avrupa Birliği’nin Dijital Hizmetler Yasası (DSA), platformlara içerik kaldırma süreçlerinde şeffaflık ve kullanıcı güvenliği yükümlülükleri getiriyor. Yine AB’nin Yapay Zekâ Yasası (AI Act), yüksek riskli alanlarda (örneğin, biyometrik gözetim ya da çocuk istismarı içerikleri) yapay zekânın nasıl sınırlandırılması gerektiğini düzenliyor.

İngiltere’nin geçtiğimiz yıl yürürlüğe soktuğu Çevrimiçi Güvenlik Yasası (Online Safety Act), çocukları korumayı merkezine alıyor. ABD’de uzun süredir aktif olan Kayıp ve İstismar Edilen Çocuklar Ulusal Merkezi (NCMEC – National Center for Missing & Exploited Children) ise dünya genelinden ihbar toplayıp kolluk kuvvetleriyle paylaşan önemli bir merkez.

Türkiye’de ise bu alanda henüz kapsamlı ve bütüncül bir yaklaşım geliştirilmiş değil. Daha çok yasaklama ve erişim engelleme yöntemleri öne çıkıyor; ancak uzun vadeli çocuk koruma politikaları, uluslararası örneklerde gördüğümüz gibi, şeffaflık, hesap verebilirlik ve çok paydaşlı işbirliğiyle güçlendirilebilir.

Sorumluluk yalnızca devletlerin ya da şirketlerin değil. Devletler risk değerlendirmesi ve uluslararası işbirliği yapmalı. Platformlar şeffaflık, kötüye kullanım filtreleri ve raporlama mekanizmaları geliştirmeli. Eğitimciler ve ebeveynler dijital okuryazarlığı çocuklara kazandırmalı. Bireyler de şüpheli içerikle karşılaştığında raporlama araçlarını kullanmalı. Çünkü biliyoruz ki, bu düzenlemeler tek başına sihirli çözümler değil; ama en azından teknoloji şirketlerini sorumluluk almaya zorlayan bir çerçeve oluşturuyor.

Dijital dünyanın karanlık yüzünü tamamen yok etmek belki mümkün değil. Ama riskleri azaltmak, mağdurları korumak ve failleri daha hızlı yakalamak ve bu davranışları sergilememeleri üzere topluma kazandırma programları düzenlemek için elimizde hiç olmadığı kadar güçlü araçlar var.

Asıl mesele, korkuya kapılmak değil, bu araçları doğru değerler ve akıllı regülasyonlarla kullanabilmek. Çocuklar için güvenli bir dijital gelecek, uzak bir hayal değil; doğru adımlar atıldığında ulaşılabilecek bir hedef. Hepimizin sorumluluğu, bu geleceği kurarken çocukları yalnızca korunacak bir “risk grubu” olarak değil, aynı zamanda sürecin aktif öznesi olarak konumlandırmak; bu nedenle de araştırma süreçlerine, politika geliştirme aşamalarına ve karar mekanizmalarına etkin biçimde dâhil etmektir.

Bu makalede yer alan fikirler yazara aittir ve Fikir Turu’nun editöryel politikasını yansıtmayabilir.

Bu yazı ilk kez 21 Ekim 2025’te yayımlanmıştır.

[1] bknz. Re-Imaging Ethics and Research with Children: Symposium Report

[2] bknz. CyberSafeKids A life behind the screens: Uncovering the realities of digital childhood.

[3] bknz. EU Kids Online 2020: Survey results from 19 countries.

[4] bknz. Exploring How Young People Navigate the Evolving Online World in the Era of Artificial Intelligence and Misinformation.

Sinan Aşçı
Sinan Aşçı
Dr. Sinan Aşçı - Dublin City University bünyesindeki Anti-Bullying Centre’da doktora sonrası araştırmacı. Hâlen Siber Zorbalık, Siber Nefret ve Siber Taciz Gözlemevi (Observatory on Cyberbullying, Cyberhate, and Cyberharassment) projesinde görev yapıyor. Çalışmalarında, gelişen teknolojilerin çocuklara yönelik cinsel istismar materyalleri (CSAM) üretimi, çevrimiçi radikalleşme ve dijital zararlar üzerindeki etkilerini; ayrıca bu dinamiklerin İrlanda’daki çevrimdışı yansımalarını inceliyor. 2023’ten bu yana, siber zorbalık, siber köleleştirme ve kendine zarar verme davranışlarını tespit etmeye yönelik ebeveyn kontrol teknolojileri geliştiren CILTER projesine katkı sunuyor. Daha önce Bahçeşehir Üniversitesi Yeni Medya Bölümü’nde doktor öğretim üyesi, International University SDI München’de (Almanya) yarı zamanlı öğretim üyesi olarak görev yaptı. Galatasaray Üniversitesi Medya ve İletişim Çalışmaları Doktora Programı’ndan mezun olup, doktora araştırmasını Türkiye’de gençler ve siber zorbalık üzerine yürüttü. Medya eğitimi, çeşitlilik ve dijital okuryazarlık alanlarında çok sayıda AB destekli projede yer aldı; Türkiye, Almanya ve Güney Kore’de medya ve iletişim dersleri verdi. Araştırma alanları arasında gençlik kültürü, LGBTIQ+ toplulukları, çevrimiçi zararlar, sosyal medya ve dijital okuryazarlık bulunuyor. Ayrıca uluslararası akademik dergilerde hakemlik ve editörlük yapıyor.

YORUMLAR

Subscribe
Bildir
guest

0 Yorum
Eskiler
En Yeniler Beğenilenler
Inline Feedbacks
View all comments

Son Eklenenler

0
Would love your thoughts, please comment.x