OpenAI Kurucu Ortaklarından AI Laboratuvarlarına Güvenlik Testi Çağrısı

OpenAI ve Anthropic, dünyanın önde gelen AI laboratuvarlarından ikisi, rekabetin yoğun olduğu bir dönemde dikkat çekici bir iş birliği gerçekleştirdi. İki şirket, kendi AI modellerini güvenlik testlerine açarak, birbirlerinin iç değerlendirmelerindeki kör noktaları ortaya çıkarmayı ve gelecekte güvenlik konularında nasıl daha iyi iş birliği yapılabileceğini göstermeyi amaçladı.

OpenAI kurucu ortağı Wojciech Zaremba, TechCrunch ile yaptığı röportajda, bu tür iş birliklerinin giderek daha önemli hale geldiğini belirtti. “AI, milyonlarca insan tarafından her gün kullanılan bir aşamaya geçiyor,” dedi Zaremba.

Zaremba, “Sektörün güvenlik ve iş birliği için bir standart belirleme konusunda daha geniş bir sorunu var. Milyarlarca dolarlık yatırım ve yetenek savaşı içinde, kullanıcılar ve en iyi ürünler için yarış sürüyor,” şeklinde konuştu.

Yayınlanan ortak güvenlik araştırması, OpenAI ve Anthropic arasında bir silahlanma yarışı sürerken, bazı uzmanlar bu yoğun rekabetin şirketlerin güvenlik konularında taviz vermesine neden olabileceği konusunda uyarıyor.

Bu araştırmanın mümkün olabilmesi için OpenAI ve Anthropic, AI modellerinin daha az güvenlik önlemi içeren sürümlerine özel API erişimi sağladı. Ancak araştırma sonrası, Anthropic, OpenAI‘nin başka bir takımının API erişimini iptal etti. Zaremba, bu olayların birbirleriyle ilgili olmadığını ve rekabetin şiddetini koruyacağını ifade etti.

b>Anthropic’in güvenlik araştırmacısı Nicholas Carlini, OpenAI güvenlik araştırmacılarına gelecekte Claude modellerine erişim sağlamayı sürdürmek istediğini belirtti. “Güvenlik sınırlarında iş birliğini artırmak istiyoruz ve bunun daha yaygın hale gelmesini sağlamak istiyoruz,” dedi Carlini.

Çalışmanın en dikkat çekici bulgularından biri, hallucination testiyle ilgili. Anthropic’in Claude Opus 4 ve Sonnet 4 modelleri, doğru cevabı bilmediklerinde soruların %70’ine kadar yanıt vermedi. OpenAI’nin o3 ve o4-mini modelleri ise daha az reddetme gösterdi fakat bilgi eksikliği olduğunda daha yüksek hallucination oranları sergiledi.

İlerleyen süreçte Zaremba ve Carlini, OpenAI ve Anthropic’in güvenlik testleri üzerinde daha fazla iş birliği yapmalarını ve diğer AI laboratuvarlarının da bu yaklaşımı benimsemesini umduklarını belirttiler.

Son olarak, Zaremba, “Daha karmaşık sorunları çözen bir AI inşa ederken, zihinsel sağlık sorunları olan insanların olumsuz sonuçlar yaşadığı bir gelecek düşünmek istemiyorum,” diyerek dile getirdiği endişelerini vurguladı.

Güncelleme 14:00 PT: Bu makale, yayın öncesinde TechCrunch ile paylaşılan ek araştırmalarla güncellenmiştir.

Exit mobile version