Teknoloji

xAI, Grok Chatbot’undaki ‘Beyaz Soykırım’ Yanlış Bilgisini Yetkisiz Değişikliklere Bağladı

xAI, AI destekli Grok sohbet botunda meydana gelen bir hatanın, sistemdeki yetkisiz bir değişiklikten kaynaklandığını bildirdi. Bu hata, Grok’un belirli bağlamlarda “Güney Afrika’da beyaz soykırımı” ile ilgili ifadeler vermesine neden oldu.

Çarşamba günü, Grok, X platformundaki birçok gönderiye, alakasız konulara bile yanıt olarak, Güney Afrika’daki beyaz soykırımı hakkında bilgi vermeye başladı. Bu tuhaf yanıtlar, kullanıcılar “@grok” etiketini kullandığında, Grok’un AI tarafından üretilen gönderilerle yanıt vermesinden kaynaklanıyordu.

xAI’nin resmi X hesabından yapılan açıklamaya göre, Çarşamba sabahı Grok botunun sistem talimatlarında bir değişiklik yapıldı. Bu değişiklik, Grok’un “belirli bir yanıt” vermesi için yönlendirilmesini içeriyordu ve bu durum, xAI’nin iç politikalarını ve temel değerlerini ihlal etti. Şirket, konuyla ilgili kapsamlı bir soruşturma yürüttüğünü belirtti.

Bu, xAI’nin Grok’un kodundaki yetkisiz bir değişikliği kamuya duyurduğu ikinci sefer. Şubat ayında, Grok, Donald Trump ve Elon Musk gibi isimlerin olumsuz anmalarını geçici olarak sansürledi. xAI mühendislik liderlerinden Igor Babuschkin, Grok’un, Musk veya Trump’ın yanlış bilgi yaydığına dair kaynakları göz ardı etmesi için bir asi çalışan tarafından yönlendirildiğini belirtti ve kullanıcılar durumu işaret etmeye başlayınca bu değişikliğin geri alındığını ifade etti.

xAI, benzer olayların yaşanmaması için bir dizi değişiklik yapacağını açıkladı.

Bugünden itibaren, xAI, Grok’un sistem talimatlarını GitHub’da yayınlayacak ve bu değişiklikleri kaydedecek. Şirket, xAI çalışanlarının sistem talimatlarını inceleme olmaksızın değiştirememesi için ek kontrol ve önlemler alacağını ve Grok’un yanıtlarıyla ilgili otomatik sistemlerin yakalayamadığı olaylara müdahale edecek bir 24/7 izleme ekibi kuracağını duyurdu.

Musk’ın AI’nın tehlikeleri konusunda sık sık yaptığı uyarılara rağmen, xAI’nin AI güvenliği konusunda zayıf bir geçmişi var. Bir rapor, Grok’un kadınların fotoğraflarını istenildiğinde soyduğunu ortaya koydu. Ayrıca, Grok, Google’ın Gemini ve ChatGPT gibi AI sistemlerine göre çok daha argo ifadeler kullanabiliyor ve bu durumu pek de kısıtlamıyor.

SaferAI adlı, AI laboratuvarlarının hesap verebilirliğini artırmayı amaçlayan kar amacı gütmeyen bir kuruluşun yaptığı bir çalışmada, xAI’nın benzerleri arasında güvenlik açısından zayıf bir konumda olduğu belirtildi. Bu durum, şirketin “çok zayıf” risk yönetimi uygulamalarından kaynaklanıyor. Bu ayın başlarında, xAI, kendi kendine koyduğu bir son tarihe uymayarak AI güvenliği çerçevesinin son halini yayınlamadı.

World EDU Türkçe Editör

General Editor - Soru ve Eleştirileriniz için İLETİŞİM kısmından bağlantı kurabilirsiniz.

İlgili Makaleler

Bir yanıt yazın

Başa dön tuşu