
Irregular, yapay zeka güvenliği alanında önemli bir adım atarak, Çarşamba günü 80 milyon dolarlık yeni bir finansman turu açıkladı. Bu tur, Sequoia Capital ve Redpoint Ventures tarafından yönetildi ve Wiz CEO’su Assaf Rappaport’un da katılımıyla gerçekleşti. İşlemle ilgili bir kaynağa göre, bu finansman turu Irregular’ı 450 milyon dolar değerinde bir şirkete dönüştürdü.
Kurucu ortaklardan Dan Lahav, TechCrunch’a verdiği demeçte, “Görüşümüz, yakın gelecekte ekonomik etkinliğin büyük kısmının insan ve yapay zeka etkileşimi ile yapay zeka ve yapay zeka etkileşimi üzerinden geleceği yönünde. Bu durum, güvenlik yapılarını birçok noktada kıracak,” dedi.
Eski adı Pattern Labs olan Irregular, yapay zeka değerlendirmeleri konusunda önemli bir oyuncu haline geldi. Şirketin çalışmaları, Claude 3.7 Sonnet ve OpenAI’nin o3 ve o4-mini modelleri için güvenlik değerlendirmelerinde sıklıkla atıf alıyor. Daha genel olarak, şirketin, bir modelin zafiyet tespit yeteneğini puanlama çerçevesi olan SOLVE, sektör içinde yaygın olarak kullanılmaktadır.
Irregular, mevcut modellerin riskleri üzerinde önemli çalışmalar yapmış olmasına rağmen, daha iddialı bir hedefle fon topluyor: ortada görünmeden önce yeni riskler ve davranışları tespit etmek. Şirket, bir model piyasaya sürülmeden önce kapsamlı testler yapılmasını sağlayan karmaşık bir simülasyon ortamı sistemi oluşturdu.
Kurucu ortak Omer Nevo, “Karmaşık ağ simülasyonlarımız var ve burada yapay zeka hem saldırgan hem de savunucu rolünde yer alıyor,” diyor. “Yeni bir model çıktığında, savunmaların nerede etkili olduğunu ve nerede etkili olmadığını görebiliyoruz.”
Yapay zeka endüstrisi için güvenlik, önemli bir odak noktası haline geldi. Çünkü sınır modellerin ortaya çıkardığı potansiyel riskler giderek artıyor. Bu yaz, OpenAI iç güvenlik önlemlerini gözden geçirerek, olası kurumsal casusluk risklerine karşı önlemler aldı.
Aynı zamanda, yapay zeka modelleri, yazılım zafiyetlerini bulma konusunda giderek daha yetenekli hale geliyor; bu durum, hem saldırganlar hem de savunucular için ciddi sonuçlar doğuruyor.
Irregular kurucuları için, bu durum büyük dil modellerinin artan yeteneklerinin neden olduğu ilk güvenlik sorunlarından biri. Lahav, “Sınır laboratuvarının amacı giderek daha sofistike ve yetenekli modeller yaratmaksa, bizim amacımız bu modelleri güvence altına almak,” diyor. “Ama bu sürekli bir değişim, bu nedenle gelecekte daha yapacak çok iş var.”