Anthropic Kullanıcılarına Yeni Bir Seçenek: Verilerinizi Paylaşın ya da Çıkış Yapın
Anthropic, kullanıcı verilerini yönetme şekline büyük değişiklikler getiriyor. Tüm Claude kullanıcılarının, 28 Eylül tarihine kadar, sohbetlerinin yapay zeka modellerini eğitmek için kullanılmasını isteyip istemediklerine karar vermeleri gerekiyor. Şirket, bu politika değişiklikleri hakkında bilgi almak için yönlendirdiği blog yazısında, bu değişimin nedenini açıklamaktan çok, kullanıcıların karar verme özgürlüğüne vurgu yapıyor.
Değişikliklerin özüne gelecek olursak: Daha önce, Anthropic, kullanıcı sohbet verilerini model eğitimi için kullanmıyordu. Ancak şimdi, şirket, kullanıcı sohbetlerini ve kodlama oturumlarını kullanarak yapay zeka sistemlerini eğitmek istiyor ve çıkış yapmayan kullanıcılar için veri saklama süresini beş yıla çıkarıyor.
Bu, önemli bir güncelleme. Daha önce, Anthropic’in tüketici ürünlerini kullanan kullanıcılara, sohbet talepleri ve çıktılarının, yasal veya politika gereklilikleri dışında, 30 gün içinde otomatik olarak silineceği bildirilmişti. Ancak, eğer bir kullanıcının girdisi, şirketin politikalarını ihlal ettiyse, bu veriler iki yıl boyunca saklanabiliyordu.
Burada tüketici derken, yeni politikaların Claude Free, Pro ve Max kullanıcıları, ayrıca Claude Code kullananları kapsadığını belirtelim. Claude Gov, Claude for Work, Claude for Education veya API erişimi kullanan iş müşterileri, bu değişikliklerden etkilenmeyecek; bu durum, OpenAI’nin benzer şekilde kurumsal müşterilerini veri eğitim politikalarından koruma yöntemine benziyor.
Peki bu değişikliklerin sebebi ne? Anthropic, güncelleme ile ilgili blog yazısında, bu değişiklikleri kullanıcıların tercihine dayandırıyor ve çıkış yapmamış kullanıcıların, “model güvenliğini geliştirmemize yardımcı olacağını” belirtiyor. Kullanıcıların, gelecekteki Claude modellerinin kodlama, analiz ve akıl yürütme gibi becerilerde gelişmesine katkıda bulunacağını, bu sayede tüm kullanıcılar için daha iyi modellerin ortaya çıkacağını savunuyor.
Kısacası, “bize yardım edin, size yardımcı olalım” mesajı veriliyor. Ancak gerçekte, bu durumun daha az özverili bir nedeni olabilir.
Diğer büyük dil modeli şirketlerinde olduğu gibi, Anthropic’in de veriye ihtiyacı, insanları markasına dair olumlu hissettirmekten daha ağır basıyor. Yapay zeka modellerini eğitmek için büyük miktarda kaliteli sohbet verisine ihtiyaç duyuluyor. Milyonlarca Claude etkileşimine erişim sağlamak, Anthropic’in OpenAI ve Google gibi rakiplerine karşı rekabet gücünü artıracak türden gerçek dünya içeriği sunabilir.

Yapay zeka gelişiminin rekabetçi baskılarının ötesinde, bu değişiklikler, Anthropic ve OpenAI gibi şirketlerin veri saklama uygulamaları üzerindeki artan denetimle ilgili daha geniş endüstri değişimlerini de yansıtır. Örneğin, OpenAI şu anda, The New York Times ve diğer yayıncılar tarafından açılan bir davanın sonucunda, tüm tüketici ChatGPT sohbetlerini süresiz olarak saklamak zorunda olduğu bir mahkeme kararıyla mücadele ediyor.
Haziran ayında, OpenAI COO’su Brad Lightcap, bunun “kapsamlı ve gereksiz bir talep” olduğunu ve “kullanıcılara yaptığımız gizlilik taahhütleriyle temel bir çelişki” oluşturduğunu belirtti. Mahkeme kararı, ChatGPT Free, Plus, Pro ve Team kullanıcılarını etkilese de, kurumsal müşteriler ve Sıfır Veri Saklama anlaşmalarına sahip olanlar hâlâ korunuyor.
Endişe verici olan, bu değişen kullanım politikalarının kullanıcılar arasında yarattığı kafa karışıklığıdır; birçok kullanıcı bu politikaların farkında bile değil. Teknolojinin hızla değiştiği bir dönemde, gizlilik politikalarının da değişmesi kaçınılmaz. Ancak bu değişikliklerin çoğu oldukça kapsamlı ve şirketlerin diğer haberleri arasında yalnızca kısa bir şekilde geçiştiriliyor.
Mevcut kullanıcıların karşılaştığı değişiklikler arasında, yeni kullanıcıların kayıt sırasında tercihlerini belirleyebileceği, ancak mevcut kullanıcıların “Tüketici Şartları ve Politikalarındaki Güncellemeler” başlıklı bir pop-up ile karşılaşacağı bulunuyor. Bu pop-up, büyük harflerle yazılmış bir “Kabul Et” butonu ve daha küçük yazıyla, alt kısımda veri paylaşım izinleri için bir anahtar içeriyor ve bu anahtar varsayılan olarak “Açık” konumunda.
Bu tasarım, kullanıcıların “Kabul Et” butonuna tıklarken, veri paylaşımına onay verdiğini fark etmemesi endişelerini artırıyor.
Kullanıcı farkındalığı açısından riskler oldukça yüksek. Gizlilik uzmanları, yapay zekanın etrafındaki karmaşıklığın, anlamlı kullanıcı onayını neredeyse imkansız hale getirdiği konusunda uzun zamandır uyarıda bulunuyor. Biden yönetimi altında, Federal Ticaret Komisyonu, yapay zeka şirketlerinin “hizmet şartlarını veya gizlilik politikasını gizlice değiştirmesi veya bir açıklamayı hiperlinkler, hukuki terimlerle veya küçük yazıyla saklaması” durumunda yaptırım uygulama riski taşıdığını bildirdi.
Bu süreçte, komisyonun bu uygulamaları izleyip izlemediği ise belirsizliğini koruyor.







