AI Araştırmacıları, Teknoloji Endüstrisinden AI’nın ‘Düşüncelerini’ İzleme Çağrısında Bulundu

OpenAI, Google DeepMind, Anthropic gibi önde gelen AI araştırmacıları ve çeşitli şirketler ile sivil toplum kuruluşlarından oluşan geniş bir koalisyon, Salı günü yayımlanan bir pozisyon belgesinde AI modellemelerinin düşüncelerini izleme tekniklerine daha derin bir inceleme yapılması gerektiğini vurguladı.
AI modellemelerinin temel bir özelliği olan chains-of-thought yani CoT’ler, AI modellerinin sorunları çözme süreçlerini dışa vurduğu bir yöntemdir. Bu süreç, insanların zor bir matematik sorusunu çözmek için kullandıkları bir not defteri gibi çalışır. Araştırmacılar, CoT izleme yönteminin AI ajanlarını kontrol altında tutmanın önemli bir yolu olabileceğini belirtiyor.
Pozisyon belgesinde, “CoT izleme, sınır AI için güvenlik önlemlerine değerli bir katkı sunmaktadır. AI ajanlarının nasıl karar verdiğine dair nadir bir bakış açısı sunar,” denildi. Araştırmacılar, mevcut görünürlük seviyesinin devam edeceğine dair garanti olmadığını vurguladı ve araştırma topluluğunu CoT izlenebilirliğinden en iyi şekilde yararlanmaya çağırdı.
Belgede, AI model geliştiricilerinin CoT’lerin neden izlenebilir olduğunu araştırmaları ve AI modellerinin yanıtlarına nasıl ulaştıklarını daha iyi anlamak için şeffaflığı artıran veya azaltan faktörleri incelemeleri istendi. CoT izleme yönteminin AI modellemelerini anlamada önemli bir araç olabileceği belirtilse de, bu yöntemin kırılgan olabileceğine dikkat çekildi.
Belgenin imzacıları arasında OpenAI’nin baş araştırma sorumlusunun yanı sıra, Nobel ödüllü Geoffrey Hinton ve Google DeepMind’in kurucu ortağı Shane Legg gibi önemli isimler yer alıyor. Ayrıca, UK AI Security Institute, METR ve UC Berkeley gibi kuruluşlardan da imzacılar bulunmaktadır.
Bu pozisyon belgesi, AI endüstrisinin liderleri arasında bir birlik momentini işaret ediyor ve AI güvenliği etrafında araştırmaları artırmayı amaçlıyor. Teknoloji şirketleri arasındaki yoğun rekabet, bazı firmaların, milyon dolarlık teklifler ile OpenAI, Google DeepMind ve Anthropic’ten önde gelen araştırmacıları işe almasına neden oldu.
OpenAI araştırmacılarından Bowen Baker, “Bu yeni chain-of-thought kavramı üzerinde çalıştığımız kritik bir dönemdeyiz. Bu oldukça faydalı görünüyor, ancak insanlar buna odaklanmazsa birkaç yıl içinde kaybolabilir,” diyerek belgenin yayınlanmasının bu konuya daha fazla araştırma ve dikkat çekmek için bir mekanizma olduğunu ifade etti.
OpenAI, Eylül 2024’te ilk AI modelleme modeli olan o1’in önizlemesini kamuya sundu. O zamandan beri, teknoloji endüstrisi benzer yeteneklere sahip rakip modelleri hızla piyasaya sürdü.
Ancak, AI modellemelerinin nasıl çalıştığına dair hala oldukça az şey biliniyor. AI laboratuvarları son bir yıl içinde performans artırma konusunda başarılı olsa da, bu durum onların nasıl yanıtlarına ulaştıklarını daha iyi anlamaya dönüşmedi.
Anthropic, AI modellerinin nasıl çalıştığını anlamada sektörün öncülerinden biri olmuştur. CEO Dario Amodei, AI modellerinin karanlık kutusunu 2027 yılına kadar açma taahhüdünde bulundu. Açıklamalarda, OpenAI ve Google DeepMind’i de bu konuyu araştırmaya teşvik etti.
Bu tür pozisyon belgelerinin amacı, CoT izleme gibi yeni araştırma alanlarına dikkat çekmek ve bu konularda daha fazla araştırma yapılmasını teşvik etmektir. OpenAI, Google DeepMind ve Anthropic halihazırda bu konuları araştırıyor, ancak bu belgenin daha fazla finansman ve araştırma teşvik edebileceği düşünülüyor.