
OpenAI, şirket casusluğuna karşı koymak amacıyla güvenlik operasyonlarını önemli ölçüde revize etti. Financial Times’ın haberine göre, bu adım, Çinli girişim DeepSeek’in Ocak ayında rakip bir model piyasaya sürmesinin ardından geldi. OpenAI, DeepSeek’in kendi modellerini “distilasyon” teknikleri kullanarak uygunsuz bir şekilde kopyaladığını iddia ediyor.
Güvenlik önlemlerinin artırılması, çalışanların hassas algoritmalara ve yeni ürünlere erişimini sınırlayan “bilgi çadırı” politikalarını içeriyor. Örneğin, OpenAI’nin o1 modelinin geliştirilmesi sırasında, yalnızca projeye dahil edilen onaylı ekip üyeleri, projeyi ortak ofis alanlarında tartışabiliyordu.
Daha fazlası da var. OpenAI, sahip olduğu teknolojiyi çevrimdışı bilgisayar sistemlerinde izole ediyor, ofis alanlarına biyometrik erişim kontrolleri (çalışanların parmak izlerini tarıyor) uyguluyor ve dış bağlantılar için açık onay gerektiren bir “varsayılan olarak reddetme” internet politikası yürütüyor. Ayrıca, veri merkezlerinde fiziksel güvenliği artırmış ve siber güvenlik personelini genişletmiştir.
Bu değişikliklerin, yabancı düşmanların OpenAI’nin fikri mülkiyetini çalmak istemeleri nedeniyle daha geniş endişeleri yansıttığı belirtiliyor. Bununla birlikte, Amerikan AI şirketleri arasındaki sürekli iş gücü çekişmeleri ve CEO Sam Altman’ın yorumlarının artan sıklıkta sızdırılması gibi iç güvenlik sorunlarını da ele almak isteyebilir.
OpenAI ile yorum almak için iletişime geçtik.