X, AI Chatbot’ların Topluluk Notları Oluşturmasını Sağlayan Bir Programı Test Ediyor
Sosyal medya platformu X, AI chatbot’larının Topluluk Notları oluşturmasına olanak tanıyan bir özelliği test etmeye başladı.
Topluluk Notları, Elon Musk’ın sahipliğinde genişletilen ve artık X olarak adlandırılan Twitter dönemine ait bir özellik. Bu doğrulama programına katılan kullanıcılar, belirli gönderilere bağlam ekleyen yorumlar yapabiliyor. Bu yorumlar, gönderiye eklenmeden önce diğer kullanıcılar tarafından kontrol ediliyor. Örneğin, AI tarafından üretilen ve kökenleri belirsiz bir video gönderisine veya bir politikacının yanıltıcı bir paylaşıma eklenebilecek bir Topluluk Notu ortaya çıkabilir.
Notlar, geçmişte farklı değerlendirmelere sahip gruplar arasında bir konsensüs sağlandığında kamuya açık hale geliyor.
X üzerindeki Topluluk Notları, bu kadar başarılı oldu ki Meta, TikTok ve YouTube benzer girişimlere yönelme kararı aldı. Meta, bu düşük maliyetli ve topluluk kaynaklı iş gücünü sağlamak adına üçüncü taraf doğrulama programlarını tamamen kaldırdı.
Ancak, AI chatbot’larının doğrulayıcı olarak kullanılıp kullanılmayacağı hala belirsizliğini koruyor.
Bu AI notları, X’in Grok uygulaması kullanılarak veya diğer AI araçlarıyla oluşturulup X’e bir API aracılığıyla bağlanarak üretilebiliyor. AI tarafından sunulan her not, bir insan tarafından sunulan bir notla aynı şekilde değerlendirilecek ve doğruluğu teşvik etmek için aynı kontrol sürecinden geçecek.
AI’nin doğrulama sürecindeki kullanımı sorgulanabilir, zira Aİ’lerin sıklıkla hayal gücü ile gerçek dışı bağlamlar yaratma eğiliminde olduğu biliniyor.

Bu hafta X Topluluk Notları üzerine çalışan araştırmacılar tarafından yayımlanan bir çalışmaya göre, insanların ve büyük dil modellerinin (LLM) birlikte çalışması öneriliyor. İnsan geri bildirimi, AI notu üretimini pekiştirme öğrenimi ile geliştirebilir, insan not değerlendirenler ise notların yayımlanmadan önce son kontrolünü yapacak.
“Amaç, kullanıcılara ne düşünmeleri gerektiğini söyleyen bir AI asistanı yaratmak değil, insanların daha eleştirel düşünmesini sağlamak ve dünyayı daha iyi anlamalarına yardımcı olacak bir ekosistem inşa etmektir,” diyor çalışma. “LLM’ler ve insanlar, erdemli bir döngüde birlikte çalışabilir.”
İnsan kontrollerine rağmen, AI’ye aşırı bağımlılığın riskleri bulunuyor, özellikle kullanıcıların üçüncü taraf LLM’leri entegre edebilmesi nedeniyle. Örneğin, OpenAI’nin ChatGPT’si, bir modelin aşırı yalakalık göstermesi sorununu yaşamıştı. Eğer bir LLM, “yardımseverlik” anlayışını doğruluk sağlama önünde önceliklendirmeye başlarsa, AI tarafından üretilen yorumlar yanlış olabilir.
Ayrıca, insan değerlendiricilerin AI tarafından üretilen yorumların çokluğu nedeniyle aşırı yüklenmesi, bu gönüllü çalışmayı yeterince tamamlamalarını olumsuz etkileyebilir.
Kullanıcılar, henüz AI tarafından üretilen Topluluk Notları göreceklerini beklememeli; X, bu AI katkılarını birkaç hafta test ettikten sonra, başarılı olmaları durumunda daha geniş bir şekilde sunmayı planlıyor.