Teknoloji

Silicon Valley’nin AI Güvenliği Savunucularına Yönelik Eleştirileri Tartışma Yarattı

Silicon Valley’de, Beyaz Saray’ın AI ve Kripto Danışmanı David Sacks ve OpenAI’nin Strateji Direktörü Jason Kwon gibi öne çıkan isimlerin AI güvenliği savunucuları hakkında yaptıkları açıklamalar, çevrimiçi ortamda büyük bir gürültü yarattı. İki ayrı olayda, bu liderler, AI güvenliği savunucularının görünüşteki erdemlerinin arkasında kişisel çıkarlar ya da milyarderlerin etkisi olduğunu iddia ettiler.

AI güvenliği grupları, TechCrunch ile yaptıkları görüşmelerde, Sacks ve OpenAI’nin iddialarının, Silicon Valley’nin eleştirilerini korkutma çabalarının en son örneği olduğunu belirttiler. Ancak bu, ilk kez yaşanan bir durum değil. 2024 yılında bazı girişim sermayesi firmaları, Kaliforniya’daki bir AI güvenliği yasasının, SB 1047, startup kurucularını hapse atacağına dair söylentiler yaymıştı. Brookings Kurumu bu söylentileri, yasa hakkında bir dizi ‘yanlış temsil’ olarak nitelendirmişti, ancak Kaliforniya Valisi Gavin Newsom yasanın veto edilmesine karar verdi.

Sacks ve OpenAI’nin eleştirileri korkutma amacı taşıyıp taşımadığı belirsiz olsa da, bu durum birçok AI güvenliği savunucusunu yeterince korkutmuş durumda. TechCrunch’a ulaşan birçok kar amacı gütmeyen lider, gruplarını olası misillemelerden korumak amacıyla anonim olarak konuşmayı tercih etti.

Tartışma, Silicon Valley’nin AI’yi sorumlu bir şekilde inşa etme ile büyük bir tüketici ürünü olarak geliştirme arasındaki artan gerginliği vurguluyor. Bu konu, meslektaşlarım Kirsten Korosec, Anthony Ha ve benim bu haftaki Equity podcast’inde ele aldığımız bir tema. Ayrıca, Kaliforniya’da chatbotları düzenlemek amacıyla kabul edilen yeni bir AI güvenliği yasasına ve OpenAI’nin ChatGPT’deki erotik içeriklere yaklaşımına da değiniyoruz.

Geçtiğimiz Salı, Sacks, Anthropic‘in AI’nin işsizlik, siber saldırılar ve topluma yönelik felaketler konusundaki endişelerini yalnızca korku yaymak için dile getirdiğini iddia eden bir yazı paylaştı. Anthropic, Kaliforniya’nın Senate Bill 53 (SB 53) adlı yasa tasarısını destekleyen tek büyük AI laboratuvarı olarak öne çıkıyor ve bu yasa, büyük AI şirketleri için güvenlik raporlama gereklilikleri getiriyor.

Sacks, bu açıklamaları, Anthropic’in kurucu ortağı Jack Clark‘ın AI ile ilgili korkularını dile getirdiği bir makaleye yanıt olarak yaptı. Clark, bu makaleyi Berkeley’deki Curve AI güvenlik konferansı‘nda bir konuşma olarak sundu. Dinleyiciler arasında, bu durum bir teknoloji uzmanının ürünleriyle ilgili kaygılarını içten bir biçimde paylaştığı hissini uyandırdı; ancak Sacks bunu farklı gördü.

Sacks, Anthropic’in bir ‘sofistike düzenleyici ele geçirme stratejisi’ izlediğini belirtirken, bu stratejinin federal hükümetle düşmanlık yaratmayı içermemesi gerektiğini de vurguladı. Ayrıca, Anthropic’in ‘Trump yönetiminin düşmanı’ olarak sürekli konumlandığını belirtti.

Techcrunch etkinliği

San Francisco | 27-29 Ekim 2025

Aynı hafta, OpenAI’nin strateji direktörü Jason Kwon, AI güvenliği kar amacı gütmeyen kuruluşlara, örneğin Encode gibi kuruluşlara, neden mahkeme celbi gönderdiklerini açıklayan bir yazı paylaştı. Kwon, Elon Musk’ın OpenAI’ye dava açmasının ardından, bazı kuruluşların OpenAI’nin yeniden yapılandırılmasına karşı ses yükseltmesini şüpheli bulduklarını ifade etti.

Kwon, “Bu durum, onları finanse edenlerin kim olduğunu ve herhangi bir koordinasyon olup olmadığını sorgulatıyor,” dedi.

Geçtiğimiz hafta NBC News, OpenAI’nin, Musk ve Meta CEO’su Mark Zuckerberg gibi iki büyük rakibine dair iletişimlerini talep eden geniş kapsamlı celpler gönderdiğini bildirdi. OpenAI ayrıca Encode’dan SB 53’ü destekleme konusundaki iletişimlerini de istedi.

AI güvenliği liderlerinden biri, OpenAI’nin hükümet işlerinden sorumlu ekibi ile araştırma organizasyonu arasında artan bir bölünme olduğunu belirtti. OpenAI’nin güvenlik araştırmacıları sık sık AI sistemlerinin risklerini açıklayan raporlar yayımlarken, politika birimi SB 53’e karşı lobi yapıyor. OpenAI’nin misyon uyumundan sorumlu başkanı Joshua Achiam, bu hafta OpenAI’nin kar amacı gütmeyen kuruluşlara celp göndermesi hakkında bir yazı paylaştı.

Achiam, “Bu durum kariyerim açısından muhtemelen büyük bir risk taşıyor; ama bu pek de iyi görünmüyor,” dedi.

AI güvenliği kar amacı gütmeyen kuruluşu Alliance for Secure AI‘nin CEO’su Brendan Steinhauser, OpenAI’nin eleştirmenlerini bir Musk liderliğindeki komployla ilişkilendirme çabalarının yanlış olduğunu belirtti. Steinhauser, AI güvenliği topluluğunun çoğunun OpenAI’nin güvenlik uygulamalarına karşı oldukça eleştirel olduğunu vurguladı.

Steinhauser, “OpenAI’nin amacı, eleştirileri susturmak, korkutmak ve diğer kar amacı gütmeyen kuruluşları da benzer şekilde etkilemek,” dedi. “Sacks, AI güvenliği hareketinin büyümesinden rahatsız ve insanların bu şirketleri hesap vermeye zorlamak istemesinden endişeli.”

Beyaz Saray’ın kıdemli AI politika danışmanı Sriram Krishnan, bu hafta sosyal medya üzerinden AI güvenliği savunucularının gerçek dünya ile bağlantısının kopuk olduğunu belirtti ve AI güvenliği kuruluşlarının, AI’yi kullanan, satan ve benimseyen kişilerle iletişim kurmaları gerektiğini ifade etti.

Son Pew araştırmasına göre, Amerikalıların yaklaşık yarısı AI konusunda daha fazla endişe duyuyor; ancak bu endişelerin ne olduğunu kesin olarak belirtmek zor. Başka bir araştırma, Amerikalı seçmenlerin, AI’nin yol açabileceği iş kayıpları ve derin sahtekarlıklara daha fazla önem verdiklerini ortaya koyuyor.

AI güvenliği konusundaki endişeleri gidermek, AI endüstrisinin hızlı büyümesi pahasına olabilir; bu da Silicon Valley’deki birçok kişi için kaygı verici bir durum. AI yatırımlarının Amerika ekonomisinin büyük bir kısmını desteklemesiyle, aşırı düzenlemeden korkmak anlaşılabilir.

Ancak yıllarca süren düzensiz AI ilerlemesinin ardından, AI güvenliği hareketinin 2026’ya doğru gerçek bir ivme kazandığı görülüyor. Silicon Valley’nin güvenlik odaklı gruplara karşı verdiği mücadele, hareketin etkili olduğunu gösteren bir işaret olabilir.

[embedded content]

World EDU Türkçe Editör

General Editor - Soru ve Eleştirileriniz için İLETİŞİM kısmından bağlantı kurabilirsiniz.

İlgili Makaleler

Bir yanıt yazın

Başa dön tuşu