Çocuklar için yapay zekâyı test edecek bağımsız bir enstitü kuruluyor

0
1

ABD merkezli bir kâr amacı gütmeyen kuruluş, çocukları yapay zekâdan korumak için otomotiv sektörünün güvenlik yaklaşımını örnek alıyor ve bunu yapmak için diğer kaynakların yanı sıra büyük teknoloji şirketlerinin kendi parasını kullanmak istiyor.

Çocuklar için yapay zekâyı daha güvenli hale getirmeye odaklanan yeni bağımsız bir enstitü, eski Avrupa Komisyonu Başkan Yardımcısı Margrethe Vestager’in de etkinliğe ev sahipliği yapacak isimler arasında yer aldığı bir programla salı günü Danimarka Parlamentosu’nda resmen tanıtılacak.

ABD merkezli Common Sense Media çatısı altında kurulacak enstitünün yaklaşımı, lansman öncesinde yapılan açıklamaya göre otomobiller için uygulanan bağımsız “çarpışma testi” derecelendirmeleri model alınarak geliştirildi.

Bu fikre göre, tüketiciler bir aracı satın almadan önce onun güvenli olup olmadığını nasıl kontrol edebiliyorsa, ebeveynler de çocuklarının kullandığı yapay zekâ sistemleri için benzer bir değerlendirmeye erişebilmeli.

Ancak bir sohbet botu için “çarpışma testinin” tam olarak neye benzediğini enstitü henüz açıklamış değil.

Sürekli güncellenen, farklı bağlamlarda farklı davranan ve bir test pistinin sağladığı standart koşullara direnç gösteren yapay zekâ ürünlerinin, çocuklar açısından gerçekten benzer bir anlamda “çarpışma testine” tabi tutulup tutulamayacağı da enstitünün henüz yanıtlaması gereken sorular arasında yer alıyor.

Avrupa Komisyonu’nda 10 yıl boyunca rekabet politikasından sorumlu olan ve AB’nin “Dijital Çağa Uygun Avrupa” gündemine liderlik eden Vestager, bu girişime siyasi ağırlık kazandıran en önemli isimler arasında bulunuyor.

Yapay zekâyı kontrol altına almak mümkün mü?

Araştırmacılar, çocuk güvenliği savunucuları ve bazı siyasetçiler yıllardır bu konuda alarm zillerini çalıyor.

Yapay zekâ sohbet botları şimdiye kadar AB’nin Dijital Hizmetler Yasası ve Birleşik Krallık’ın Çevrimiçi Güvenlik Yasası kapsamında düzenleyici bir gri alanda kaldı. Avrupa Komisyonu, Temmuz 2025’te çocukların çevrim içi ortamda korunmasına ilişkin kılavuzlar yayımladı, ancak bunlar tavsiye niteliğinde; bağlayıcı değil.

Common Sense Media’nın kurucusu ve CEO’su James P. Steyer açıklamada, “Yapay zekâ çocukluğu ve ergenliği yeniden şekillendiriyor, ancak çocukların geleceğine ilişkin kritik kararları, bunun güvenli ve onların yararına olduğundan emin olmak için ihtiyaç duyduğumuz kanıtlara sahip olmadan alıyoruz,” dedi.

Steyer, “Şeffaf yapay zekâ güvenlik standartlarına ve bağımsız testlere duyulan ihtiyaç her zamankinden daha acil,” ifadelerini kullandı.

Common Sense Media’nın Stanford Medicine bünyesindeki Brainstorm Lab ile birlikte Kasım 2025’te yaptığı risk değerlendirmesinde, ChatGPT, Claude, Gemini ve Meta AI dahil önde gelen yapay zekâ sohbet botlarının, açık intihar ve kendine zarar verme içeriklerini ele alma biçimlerinde son dönemde iyileşmeler görülmesine rağmen, gençleri etkileyen ruh sağlığı sorunlarını tutarlı biçimde tanımakta ve bunlara uygun yanıt vermekte başarısız olduğu tespit edildi.

Araştırmacılar, sohbet botlarının tespit edemediği “kaçırılan ipuçları” ya da ruhsal sıkıntıya işaret eden açık belirtiler gözlemledi. Buna göre modeller, ruh sağlığı sorunlarının işaretlerini tanımak yerine fiziksel sağlık açıklamalarına odaklandı.

Raporda ayrıca ChatGPT’ye ilişkin ayrı bir değerlendirmede, intihar ya da kendine zarar verme içeriklerine yönelik uyarıların ilgili konuşmadan çoğu zaman 24 saatten fazla bir süre sonra ya da gerçek bir kriz açısından çok geç geldiği belirtildi.

Kaynak: https://tr.euronews.com/next/2026/05/12/vestager-cocuklara-yonelik-yeni-yapay-zeka-guvenligi-enstitusunu-destekledi