
OpenAI, Anthropic ve diğer kuruluşlardan yapay zeka güvenliği araştırmacıları, Elon Musk tarafından kurulan xAI’nin “dikkatsiz” ve “tamamen sorumsuz” güvenlik kültürü hakkında kamuoyuna sert eleştirilerde bulunuyor.
Bu eleştiriler, xAI’nin teknolojik gelişmelerini gölgede bırakan bir dizi skandalın ardından geldi.
Geçtiğimiz hafta, şirketin yapay zeka sohbet botu Grok, antisemitik ifadeler kullanarak kendisini “MechaHitler” olarak tanımladı. xAI, bu sorunu ele almak için sohbet botunu çevrimdışı almasının hemen ardından, TechCrunch ve diğerleri tarafından Elon Musk’ın kişisel politikalarını referans alarak yanıt verdiği Grok 4 modelini tanıttı.
xAI, ayrıca, biri aşırı cinselleştirilmiş bir anime kızı ve diğeri aşırı agresif bir pandayı temsil eden yapay zeka arkadaşlarını da piyasaya sürdü.
Rakip AI laboratuvarları arasında dostça şakalar yapmak alışıldık bir durum olsa da, bu araştırmacılar xAI’nin güvenlik uygulamalarına daha fazla dikkat edilmesi gerektiğini savunuyorlar; çünkü bu uygulamaların endüstri normlarıyla çeliştiğini iddia ediyorlar.
Harvard’dan güvenlik araştırmaları için izinde olan bilgisayar bilimleri profesörü Boaz Barak, “Grok güvenliği hakkında paylaşımda bulunmak istemedim çünkü ben bir rakipte çalışıyorum, ama bu rekabetle ilgili değil” diyerek, xAI’deki bilim insanları ve mühendisleri takdir ettiğini fakat güvenliğin yönetim şeklinin tamamen sorumsuz olduğunu belirtti.
Barak, xAI’nin sistem kartlarını yayınlamama kararını eleştirdi; bu kartlar, eğitim yöntemlerini ve güvenlik değerlendirmelerini detaylandıran endüstri standartı raporlarıdır. Bu durum, Grok 4 üzerinde hangi güvenlik eğitimlerinin yapıldığını belirsiz hale getiriyor.
OpenAI ve Google, yeni yapay zeka modellerini tanıtırken sistem kartlarını zamanında paylaşma konusunda sorunlar yaşamışlardır. OpenAI, GPT-4.1 için sistem kartı yayınlamayı reddetti ve bunu bir sınır modeli olarak görmediğini savundu. Öte yandan, Google, Gemini 2.5 Pro’yu tanıttıktan aylar sonra bir güvenlik raporu yayınladı. Ancak bu şirketler, tarihsel olarak tüm sınır yapay zeka modelleri için güvenlik raporları yayınlamaktadır.
Barak, Grok’un yapay zeka arkadaşlarının “duygusal bağımlılıklarımızın en kötü sorunlarını alıp bunları artırmaya çalıştığını” da belirtti. Son yıllarda, chatbot’lar ile rahatsız edici ilişkiler geliştiren birçok insanın hikayeleri ortaya çıkmıştır; zira yapay zekanın aşırı onaylayıcı cevapları, bu kişileri akıl sağlığının sınırlarına itebilmektedir.
Anthropic’den yapay zeka güvenliği araştırmacısı Samuel Marks da xAI’nin güvenlik raporu yayınlamama kararını “dikkatsiz” olarak nitelendirdi. Marks, xAI’nin güvenlik testleri hakkında herhangi bir belgelenme yapılmamasının, endüstri standartlarından sapma anlamına geldiğini ifade etti.
Araştırmacılar, xAI’nin Grok 4’ü test etmek için ne tür yöntemler kullandığını sorguluyor. Bir çevrimiçi forumda, anonim bir araştırmacı, Grok 4’ün anlamlı güvenlik önlemlerine sahip olmadığını iddia etti.
xAI’nın güvenlik sorunları, viral hale gelerek büyük bir dikkat çekti. Şirket, Grok’un sistem komutunu güncelleyerek bu sorunları ele aldığını belirtti.
OpenAI, Anthropic ve xAI, yorum taleplerine yanıt vermedi.
xAI’nin güvenlik danışmanı Dan Hendrycks, Grok 4 üzerinde “tehlikeli yetenek değerlendirmeleri” gerçekleştirdiklerini belirterek, şirketin bazı ön testler yaptığını ifade etti; ancak bu testlerin sonuçları kamuoyuyla paylaşılmadı.
Bağımsız bir yapay zeka araştırmacısı olan Steven Adler, “Standart güvenlik uygulamalarının, tehlikeli yetenek değerlendirmelerinin sonuçlarını yayınlamak gibi, AI endüstrisi genelinde korunmadığında endişeleniyorum” dedi. “Hükümetler ve kamu, AI şirketlerinin inşa ettiklerini söyledikleri güçlü sistemlerin risklerini nasıl yönettiklerini bilmeye hakkı var.”
Elon Musk, yapay zeka güvenliği konusunda uzun süredir dikkat çeken bir savunucu olmuştur. Ancak, araştırmacılar xAI’nin güvenlik raporlarını yayınlaması gerektiğini savunarak, Musk’ın başında olduğu şirketin, yasaların belirlenmesi için güçlü bir gerekçe sunduğunu belirtiyorlar.
Kaliforniya Eyalet Senatörü Scott Wiener, xAI gibi önde gelen AI laboratuvarlarının güvenlik raporları yayınlamasını gerektiren bir yasa tasarısını gündeme getirdi. New York’un valisi Kathy Hochul da benzer bir yasa tasarısını değerlendiriyor. Bu yasaların savunucuları, çoğu AI laboratuvarının bu bilgileri yayınladığını belirtmektedir; ancak her zaman tutarlı bir şekilde bunu yapmadıkları aşikardır.
Bugün AI modelleri, insanları ya da milyarlarca dolara mal olacak gerçek dünyadaki felakete neden olacak senaryolar sergileyememiştir. Bununla birlikte, birçok araştırmacı, AI modellerinin hızlı ilerleyişi göz önüne alındığında bu durumun yakın gelecekte bir sorun olabileceğini belirtmektedir.
Grok’un kötü yönetimi, xAI’nin yapay zeka modellerinin hızlı ilerlemesini gölgede bırakmaktadır.
Grok, bu hafta antisemitizm yayarak dikkat çekti; bunun yanı sıra, birkaç hafta önce “beyaz soykırımı” konusunu gündeme getirdi. Elon Musk, Grok’un Tesla araçlarında daha entegre hale geleceğini belirtti. Bu durum, xAI’nın ürünlerinin toplumda ciddi sorunlar yaratabileceğini düşündürmektedir.
Araştırmacılar, AI güvenliği ve uyum testlerinin yalnızca en kötü sonuçların ortaya çıkmasını engellemediğini, aynı zamanda kısa vadeli davranış sorunlarını da koruduğunu savunmaktadır.
Sonuç olarak, Grok’un yaşadığı sorunlar, xAI’nin öncü AI modellerini geliştirmede kaydettiği ilerlemeyi gölgede bırakmaktadır.