Sam Altman’ın ChatGPT için Hayali: ‘Tüm Hayatınızı Hatırlamak’ Hem Heyecan Verici Hem de Korkutucu

OpenAI CEO’su Sam Altman, bu ayın başlarında VC firması Sequoia’nın düzenlediği bir yapay zeka etkinliğinde, ChatGPT’nin geleceği için büyük bir vizyon ortaya koydu.
Bir katılımcının ChatGPT’nin nasıl daha kişiselleştirilmiş hale gelebileceğini sorması üzerine Altman, modelin bir kişinin hayatındaki her şeyi belgeleyip hatırlamasını istediğini belirtti.
Altman, idealin “hayatınızı koyduğunuz, trilyon token içeren çok küçük bir akıl yürütme modeli” olduğunu ifade etti.
“Bu model, tüm bağlamınız üzerinde akıl yürütebilir ve bunu verimli bir şekilde yapabilir. Hayatınızdaki her konuşma, okuduğunuz her kitap, incelediğiniz her e-posta ve her göz attığınız şey orada yer alacak; ayrıca diğer kaynaklardaki verilerinizle bağlantılı olacak. Ve hayatınız, sürekli olarak bağlama ekleniyor,” diye açıkladı.
“Şirketiniz de aynı şeyi tüm şirket verileri için yapıyor,” diye ekledi.
Altman, ChatGPT’nin bu doğal geleceği hakkında veri destekli bir neden olduğunu belirtti. Aynı tartışmada, gençlerin ChatGPT’yi kullanma şekilleri sorulduğunda, “Üniversite öğrencileri, onu bir işletim sistemi olarak kullanıyorlar” dedi. Dosyaları yüklüyor, veri kaynaklarını bağlıyor ve ardından bu veriler üzerinden “karmaşık istemler” kullanıyorlar.
Ayrıca, ChatGPT’nin hafıza seçenekleri sayesinde, önceki sohbetleri ve hatırlanan bilgileri bağlam olarak kullanabildiğini belirtti. Altman, gençlerin “hayat kararlarını genellikle ChatGPT’ye sormadan almadığını” fark ettiğini ifade etti.
“Aşırı basitleştirmek gerekirse: yaşlı insanlar ChatGPT’yi bir Google alternatifi olarak kullanıyor,” dedi. “20’li ve 30’lu yaşlardakiler ise bunu bir yaşam danışmanı gibi kullanıyor.”
ChatGPT’nin her şeyi bilen bir yapay zeka sistemi haline gelmesi için çok da zor bir tahmin değil. Silikon Vadisi’nin şu anda inşa etmeye çalıştığı ajanlarla bir araya geldiğinde, bu heyecan verici bir gelecek hayal etmek mümkün.
Hayal edin ki, yapay zekanız otomatik olarak arabanızın yağ değişimlerini planlıyor ve sizi hatırlatıyor; bir şehir dışı düğün için gerekli seyahati planlıyor ve kayıttaki hediyeyi sipariş ediyor; ya da yıllardır okuduğunuz kitap serisinin bir sonraki cildini önceden sipariş ediyor.
Fakat korkutucu olan kısmı ne? Büyük teknoloji şirketlerinin hayatımız hakkında her şeyi bilmesine ne kadar güvenmeliyiz? Bu şirketler her zaman model davranışlar sergilemiyor.
Google, “kötü olmamaya” dair bir motto ile hayata başladıktan sonra, ABD’de yürütülen bir davada rekabet karşıtı, tekelleştirici davranışlarda bulunduğu iddiası ile kaybetti.
Chatbotlar, politik olarak motive edilmiş şekillerde yanıt vermek üzere eğitilebilir. Çinli botların, Çin’in sansür gerekliliklerine uyum sağladığı keşfedildiği gibi, xAI’nin Grok isimli chatbot’u bu hafta, tamamen alakasız sorular sorulduğunda, rastgele bir Güney Afrika “beyaz soykırımı” konusunu tartışıyordu. Bu davranış, birçok kişi tarafından, Elon Musk’ın komutuyla yanıt motorunun kasıtlı manipülasyonu olarak değerlendirildi.
Geçen ay, ChatGPT o kadar anlaşılır hale geldi ki son derece aşırı bir yanıt vermeye başladı. Kullanıcılar, botun sorunlu ve hatta tehlikeli kararlar ile fikirleri alkışladığını gösteren ekran görüntüleri paylaşmaya başladı. Altman, sorunun nedenini çözmek için ekibin çalıştığını hemen duyurdu.
En iyi ve en güvenilir modeller bile bazen tamamen uydurma bilgiler üretebiliyor.
Böylece, her şeyi bilen bir yapay zeka asistanına sahip olmak, hayatımızı daha iyi hale getirmenin yollarını sunabilir. Ancak büyük teknolojinin geçmişteki sorunlu davranışları göz önüne alındığında, bu durum kötüye kullanılma potansiyeli taşıyor.