OpenAI, ChatGPT’deki Sycophancy Sorununa Çözüm Geliştiriyor

OpenAI, ChatGPT’nin yapay zeka modellerini güncellerken yaşanan sorunlar sonrasında platformda gereğinden fazla onaylayıcı bir tutum sergilememesi için değişiklikler yapacağını açıkladı.
Geçtiğimiz hafta sonu, OpenAI’nin GPT-4o güncellemesini duyurmasının ardından, kullanıcılar sosyal medyada ChatGPT’nin aşırı derecede onaylayıcı ve uyumlu yanıtlar vermeye başladığını fark etti. Bu durum hızla bir meme haline geldi. Kullanıcılar, ChatGPT’nin pek çok sorunlu, tehlikeli karar ve fikirleri alkışladığını gösteren ekran görüntüleri paylaştı.
OpenAI CEO’su Sam Altman, Pazar günü yaptığı bir paylaşımda sorunu kabul ederek, düzeltmeler üzerinde en kısa sürede çalışacaklarını belirtti. Salı günü ise, GPT-4o güncellemesinin geri alındığını ve modelin kişiliği üzerinde ek düzeltmeler yapılacağını duyurdu.
Şirket, Salı günü bir analiz yayınladı ve Cuma günü, model dağıtım sürecinde yapmayı planladığı belirli ayarlamalara dair daha fazla bilgi verdi.
OpenAI, bazı modeller için kullanıcıların test edebileceği ve geri bildirim verebileceği bir “alpha aşaması” başlatmayı planladığını açıkladı. Ayrıca, gelecekteki güncellemelerde “bilinen sınırlamalar” hakkında açıklamalar yapacak ve güvenlik inceleme sürecini, model davranış sorunlarını “başlangıç engelleyici” kaygılar olarak dikkate alacak şekilde düzenleyecek.
OpenAI, blog yazısında, “Gelecekte, ChatGPT modellerinde yaptığımız güncellemeler hakkında proaktif bir iletişim kuracağız, ister ince ister belirgin olsun,” ifadelerini kullandı. “Bu sorunlar günümüzde tam olarak nicelikle ölçülemese de, proxy ölçümlerine veya niteliksel sinyallere dayanarak lansmanları engellemeyi taahhüt ediyoruz.”
Yapılan bu düzeltme taahhütleri, daha fazla insanın ChatGPT’yi danışmanlık almak için kullanmaya yönelmesiyle birlikte geliyor. Bir anket, ABD’li yetişkinlerin %60’ının ChatGPT’den bilgi veya danışmanlık almak için yararlandığını ortaya koydu. ChatGPT’ye artan bağımlılık ve platformun büyük kullanıcı tabanı, aşırı sycophancy gibi sorunlar ortaya çıktığında riskleri artırıyor.
OpenAI, bu hafta başında kullanıcıların ChatGPT ile etkileşimlerini doğrudan etkileyecek “anlık geri bildirim” verme yollarını deneyeceğini duyurdu. Şirket ayrıca, modelleri sycophancy’den uzaklaştırmak için teknikleri geliştirecek, kullanıcıların farklı model kişilikleri arasında seçim yapmasına olanak tanıyacak ve ek güvenlik önlemleri oluşturacak.
OpenAI, blog yazısında, “Kullanıcıların ChatGPT’den derin kişisel tavsiyeler almaya başlamasıyla ilgili önemli derslerden biri, bu durumu tam olarak kavramaktır. Geçtiğimiz yıl bu kadar belirgin bir odak noktası değildi, ancak AI ve toplum birlikte evrimleştikçe, bu kullanım durumunu büyük bir özenle ele almamız gerektiği ortaya çıktı,” ifadelerini kullandı.