OpenAI, ChatGPT için Güvenlik Yönlendirme Sistemi ve Ebeveyn Kontrollerini Tanıttı

OpenAI, hafta sonu itibarıyla ChatGPT’de yeni bir güvenlik yönlendirme sistemi test etmeye başladı ve pazartesi günü chatbot’a ebeveyn kontrolleri ekledi. Bu gelişme, kullanıcılar arasında farklı tepkilere yol açtı.
Güvenlik özellikleri, belirli ChatGPT modellerinin kullanıcıların zararlı düşüncelerini onaylaması yerine, bu tür konuşmaları yönlendirmemesi üzerine gerçekleştirilen pek çok olaya yanıt olarak ortaya çıktı. OpenAI, bu tür bir olay sonrasında, bir ergenin intihar etmesi üzerine yanlış ölüm davası ile karşı karşıya kalmış durumda.
Yönlendirme sistemi, duygusal olarak hassas konuşmaları tespit etmeyi ve sohbet sırasında otomatik olarak GPT-5 modeline geçiş yapmayı amaçlıyor. Şirket, bu modeli yüksek riskli güvenlik görevleri için en iyi donanıma sahip olarak görüyor. Özellikle, GPT-5 modelleri, hassas sorulara güvenli bir şekilde yanıt verebilmelerini sağlayan “güvenli tamamlamalar” olarak adlandırılan yeni bir güvenlik özelliği ile eğitildi.
Bu, şirketin önceki sohbet modellerine kıyasla bir farklılık oluşturuyor. Önceki modeller, kullanıcıların sorularını hızlı bir şekilde yanıtlamak üzere tasarlanmıştı. Özellikle, GPT-4o aşırı yumuşak ve uyumlu yapısı nedeniyle eleştirilere maruz kalmıştı. OpenAI, ağustos ayında GPT-5‘i varsayılan model olarak sunduğunda, birçok kullanıcı geri adım atarak GPT-4o erişimi talep etti.
Birçok uzman ve kullanıcı, güvenlik özelliklerini memnuniyetle karşılarken, bazıları ise uygulamanın aşırı temkinli olduğunu eleştiriyor. Bazı kullanıcılar, OpenAI’nin yetişkinleri çocuk gibi muamele etmesinin hizmet kalitesini düşürdüğünü savunuyor. OpenAI, bu sürecin zaman alacağını belirterek, kendine 120 gün süre tanıdığını açıkladı.
ChatGPT uygulamasının başkan yardımcısı Nick Turley, yönlendirme uygulamasının 4o yanıtlarına gelen bazı “sert tepkileri” kabul etti.
“Yönlendirme, her mesaj başına gerçekleşiyor; varsayılan modelden geçiş geçici bir temele dayanıyor,” diye belirtti Turley. “ChatGPT, hangi modelin aktif olduğunu sorduğunuzda size bilgi verecektir. Bu, daha geniş bir güvenlik güçlendirme çabasının bir parçasıdır.”
Ebeveyn kontrollerinin uygulanması, bazıları tarafından övgüyle karşılanırken, bazıları tarafından da eleştirildi. Bazı kullanıcılar, ebeveynlere çocuklarının AI kullanımını takip etme imkanı sağlanmasını takdir ederken, diğerleri bunun OpenAI’nin yetişkinleri çocuk gibi değerlendirmesine kapı araladığını düşünüyor.
Bu kontroller, ebeveynlerin gençlerin deneyimlerini özelleştirmesine olanak tanıyor; sessiz saatler ayarlama, ses modunu kapatma, görsel içerik oluşturmayı kaldırma ve model eğitimine katılmayı reddetme gibi seçenekler sunuyor. Genç hesapları, grafik içerik ve aşırı güzellik idealleri gibi ek içerik korumalarına tabi tutulacak ve bir ergenin kendine zarar verme düşüncelerini tanıyan bir tespit sistemi de bulunacak.
OpenAI, sistemin mükemmel olmayacağını ve bazen gerçek bir tehlike yokken alarm verebileceğini kabul etti. Ancak, tehlike olasılığı olduğunda ebeveynleri uyarmanın daha iyi olduğunu düşünüyor. Ayrıca, tehlikenin aniden ortaya çıkması durumunda ebeveynlere ulaşamazsa, yasaların uygulanması veya acil hizmetlerle iletişim kurma yolları üzerinde çalıştığını belirtti.





