Yapay zekanın çocuklara yönelik istismarda kullanılmasının önüne nasıl geçilecek?

Yükselen yapay zeka cinsel içerik fenomeni

Yapay zekanın çocuklara yönelik istismarda kullanılmasının önüne nasıl geçilecek?


Yapay zekanın çocuklara yönelik istismarda kullanılmasının önüne nasıl geçilecek?

İngiltere polisi, tamamı yapay zeka tarafından oluşturulan içerikle bağlantılı olmasa da istihbarat görevlileri aracılığıyla çocuk cinsel istismarıyla ilgili görüntüler yüzünden bir yıl içinde bin 700 kişiyi tutukladı.

İngiltere’deki bir araştırma, halkın yaklaşık yüzde 70'inin yapay zekanın halihazırda çocuklara yönelik cinsel istismar içeriği oluşturmak için kullanıldığının farkında olmadığını ortaya koydu.

İngiltere’de çocukların korunması konusunda faaliyet gösteren yardım kuruluşu “Lucy Faithfull Vakfı”, ülke genelinde 2 bin 500'den fazla kişiyle anket gerçekleştirdi.

Kamuoyu araştırmasına katılanların yaklaşık yüzde 88'i, 18 yaşından küçüklerin yapay zeka tarafından üretilen cinsel görüntülerinin yasadışı olması gerektiği konusunda aynı fikirde.

Ankete katılanların yüzde 40'ı, 18 yaşından küçüklerin yapay zeka tarafından üretilen cinsel görüntülerinin İngiltere’de yasal olduğunu düşünüyor.

Avrupa Birliği (AB) ve İngiltere’de, yapay zeka teknolojisi kullanılarak oluşturulan içerikler de dahil olmak üzere, reşit olmayanların cinsel görüntülerini oluşturmak, görüntülemek veya paylaşmak yasa dışı.

Çocuklara yönelik düşünce ve davranışlardan ya da başka bir yetişkinin davranışından endişe duyan kişilere yardımcı olmak amacıyla hizmet veren “Stop It Now” adlı ihbar hattına gelen yardım talepleri her geçen gün artıyor.

“Stop It Now” direktörü Donald Findlater, yapay zekanın hızlı evrimi yüzünden her gün çocuklara yönelik cinsel suçları çevrimiçi ortamda işleyenlerin oranındaki artışa dikkat çekti.

Euronews Next'e konuşan Findlater, son bir yıl içinde yapay zeka tarafından üretilen çocuk cinsel istismarı içeriklerle ilgili raporların sayısında artış olduğunu belirterek, "Her gün İngiltere'de polis tarafından çocukların cinsel istismarıyla ilgili görüntüleri izledikleri için tutuklanan kişilerle ilgili bizi arıyorlar, bunların arasında yapay zeka tarafından üretilen görüntüleri izleyenlerin sayısı da giderek artıyor." dedi.

Yapay zekanın zararlı içerik oluşturmakta nasıl kullanıldığına ilişkin "halk arasında ciddi bilgi eksiklikleri olduğu için toplumun bu konuda uyanık olması gerektiğini kaydeden Findlater, "Bu görüntülere bakmak doğru değil. Bu görüntüler çocukları cinsel malzeme yapmanın bir yolu. Bu yapılacak uygun bir şey değildir. Çocuklar saygımızı hak ediyor. Onların hakları var. Onların haklarını çiğnememeliyiz ve bunu yapmanın sonuçları olduğunu bilmeliyiz" diyerek, doğrudan ya da dolaylı olarak ilgili kişilerden yardım almaları çağrısında bulundu.

2023'te 217 binden fazla kişi “Stop It Now” yardım hattına başvururken, bunların yaklaşık yüzde 80'i kendileri için duydukları endişeleri dile getirdi.

Yükselen yapay zeka cinsel içerik fenomeni

Yapay zeka tarafından üretilen çocuk cinsel istismarı materyallerinin yayılması, İnternet İzleme Vakfı (IWF) tarafından geçen yıl yayınlanan endişe verici bir rapora da konu oldu.

IWF analistleri tarafından değerlendirilen karanlık bir web, çocuk cinsel istismarı forumundaki 11 bin kez yapay zeka tarafından üretilen görüntüden 2 bin 500'den fazlasını suç unsuru olarak değerlendirdi.

IWF CEO'su Susie Hargreaves konuyla ilgili yaptığı açıklamada, "Bilinen, gerçek mağdurların yüzlerinin kullanıldığı yapay zeka CSAM [çocuk cinsel istismarı materyali] görüntüleri görüyoruz. Ünlülerin 'yaşlandırıldığı' ve ünlü çocukların benzerliklerini kullanan AI CSAM'leri görüyoruz. Teknolojinin, giyinik görüntüleri tamamen meşru nedenlerle internete yüklenen çocukları nasıl 'çıplaklaştırdığını' görüyoruz. Ve tüm bu içeriğin nasıl ticarileştirildiğini görüyoruz." diyerek endişesini dile getirdi.

Findlater, insanların "bunu yapmanın hiçbir sonucu olmadığını düşünerek kendilerini kandırmamaları gerektiği" uyarısında bulundu.

Ulusal Polis Müdürleri Konseyi (NPCC) Çocuk Koruma ve İstismar Soruşturması Temsilcisi Ian Critchley, yapay zeka tarafından üretilen çocukların cinsel görüntüleriyle ülkenin dört bir yanında mücadele ettiklerini belirterek, "Teknoloji nereye giderse, istismar da onu takip ediyor. Yapay zeka tarafından yapılanlar da dahil olmak üzere çocukların cinsel görüntülerini oluşturmak, görüntülemek ve paylaşmak kesinlikle yasalara aykırı. Biz bu suçu işleyenleri tespit etme konusunda karalıyız.” dedi.

İngiltere polisi 1.700 kişiyi tutukladı

İngiltere polisi, hepsi yapay zeka tarafından oluşturulan içerikle bağlantılı olmasa da çevrimiçindeki istihbarat görevlileri aracılığıyla bir yıl içinde 1.700 tutuklama yaptı.

Yapay zeka tarafından üretilen içerik, sanal yaratımlardan mağdurların belirlenmesi söz konusu olduğunda araştırmacılar için yeni zorluklar da yaratıyor.

New York Times gazetesinde yakın bir süre önce çıkan araştırma, AI teknolojisi ilerledikçe kolluk kuvvetlerinin işlerinin zorlaştığını ortaya koydu.

Uzmanlar, yapay zeka şirketleri ve sosyal medya platformlarının daha fazla düzenleme yapılmasını istiyor

Uzmanlar ayrıca bu sorunun önüne geçebilmek için yapay zeka şirketleri ve sosyal medya platformlarının daha fazla düzenleme yapılmasını istiyor.

Araştırmacılar geçtiğimiz yıl, kar amacı gütmeyen bir kuruluş olan “LAION” tarafından oluşturulan, “Stable Diffusion” adlı yapay zeka aracını eğitmek için kullanılan veri setinde, çocuk cinsel istismarı şüphesi taşıyan 3 bin 200'den fazla görüntü tespit etti.

İnternet İzleme Vakfı, birkaç hafta önce Stable Diffusion'ın "modellerinin kullanım koşullarını ihlal edecek görüntüler üretmesini pratikte engelleyemediği" için "çocuk cinsel istismarı görüntüleri üreticileri tarafından tercih edilen bir araç" olarak vurgulandığı uyarısında bulundu.

“Stop It Now” adlı kuruluşun direktörü Donald Findlater, "Düzenlemelerin arttığını görmeyi çok istiyorum yapay zeka şirketleri tarafından geliştirilen bu tür araçların teknolojilerini kötüye kullanılamayacak ve dolayısıyla çocuk cinsel istismarı görüntüleri oluşturulamayacak ve paylaşılamayacak şekilde geliştirdiklerini görmeyi arzu ediyorum" diyerek beklentisini dile getirdi. X (eski adıyla Twitter), çocuk cinsel istismarı içerikleriyle nasıl mücadele ettiğini tam olarak açıklayamadığı için geçen yıl ekim ayında Avustralya tarafından 366.742 Euro para cezasına çarptırıldı.

Daha yakın bir zamanda, Meta'nın Aralık 2023'te uçtan uca şifrelemeyi yaygınlaştırma kararı da çocuk istismarcılarına çevrimiçi ortamda güvenli bir sığınak sağlayacağı endişesiyle karşılandı.

Tespit süreçlerinin yetersiz olduğunu kabul eden AB ise çocuk cinsel istismarı içeriğiyle mücadele için geçici bir tedbiri 3 Nisan 2026'ya kadar uzatmaya karar verdi.

Bu tedbir, internet sağlayıcılarının bu tür içerikler için hizmetlerini aramasına ve yetkililere bildirmesine olanak tanıyor.

EURO NEWS