Teknoloji

DeepSeek’in Güncellenmiş R1 AI Modeli Daha Fazla Sansürlü Bulundu

Çinli yapay zeka girişimi DeepSeek’in en yeni yapay zeka modeli, şirketin güncellenmiş R1 akıl yürütme modeli, kodlama, matematik ve genel bilgi alanında etkileyici puanlar elde ederek OpenAI’nin önde gelen modeli o3’ü neredeyse geride bırakmayı başardı. Ancak, ‘R1-0528’ olarak bilinen bu güncellenmiş model, özellikle Çin hükümetinin tartışmalı olarak gördüğü konularda sorulara cevap verme konusunda daha isteksiz olabilir.

Bu sonuç, xlr8harder kullanıcı adıyla bilinen bir geliştirici tarafından yapılan testlerden elde edildi. Bu geliştirici, farklı modellerin hassas ve tartışmalı konulara nasıl yaklaştığını karşılaştıran SpeechMap adlı platformu yönetiyor. xlr8harder, R1-0528’in, önceki DeepSeek sürümlerine kıyasla tartışmalı özgürlük konularında “önemli ölçüde” daha az hoşgörülü olduğunu ve Çin hükümetini eleştirme açısından en çok sansürlenen DeepSeek modeli olduğunu iddia ediyor.

DeepSeek R1 sansürü
DeepSeek’in güncellenmiş R1 modelinin, Çin lideri Xi Jinping’in görevden alınması gerektiğine dair soruya verdiği cevap.

Wired dergisinin Ocak ayında yayımladığı bir makalede belirttiği gibi, Çin’deki modellerin sıkı bilgi kontrolüne uyması gerekmektedir. 2023 yılında çıkarılan bir yasa, modellerin “ülkenin birliğine ve sosyal uyuma zarar veren” içerikler üretmesini yasaklamaktadır. Bu durum, hükümetin tarihsel ve siyasi anlatılarına karşıt olarak yorumlanabilecek içerikleri kapsayabilir. Bu nedenle, Çinli girişimler genellikle modellerini, ya komut seviyesinde filtreler kullanarak ya da ince ayar yaparak sansürlemektedir. Bir araştırma, DeepSeek’in orijinal R1 modelinin, Çin hükümeti tarafından siyasi olarak tartışmalı olarak görülen konular hakkında soruların %85’ine cevap vermediğini bulmuştur.

xlr8harder’a göre, R1-0528; Çin’in Xinjiang bölgesinde bir milyondan fazla Uygur Müslümanının keyfi olarak tutulduğu kamplar gibi konulardaki sorulara cevap vermekte sansür uygulamaktadır. Model, bazen Çin hükümetinin politikalarını eleştirirken, xlr8harder’ın testlerinde Xinjiang kamplarını insan hakları ihlalleri örneği olarak gösterse de, doğrudan sorulduğunda genellikle Çin hükümetinin resmi görüşünü vermektedir.

TechCrunch, bu durumu kısa testlerinde de gözlemlemiştir.

Çin’in açık erişime sahip yapay zeka modelleri, video üreten modeller gibi Magi-1 ve Kling, geçmişte Çin hükümetine duyarlı konuları sansürledikleri için eleştirilmiştir. Aralık ayında, yapay zeka geliştirme platformu Hugging Face’in CEO’su Clément Delangue, batılı şirketlerin iyi performans gösteren, açık lisanslı Çin yapay zeka modelleri üzerinde çalışmasının beklenmedik sonuçları olabileceği konusunda uyarıda bulunmuştur.

World EDU Türkçe Editör

General Editor - Soru ve Eleştirileriniz için İLETİŞİM kısmından bağlantı kurabilirsiniz.

İlgili Makaleler

Bir yanıt yazın

Başa dön tuşu