Scott Wiener’ın Büyük Teknolojiye Karşı AI Tehlikelerini Açıklama Mücadelesi

California Eyalet Senatörü Scott Wiener, yapay zekanın (AI) tehlikelerini ele alma çabalarında yalnız değil. 2024 yılında, Silikon Vadisi, AI güvenliği konusundaki tartışmalı yasa tasarısı SB 1047’ye karşı sert bir kampanya başlatmıştı. Bu yasa, teknoloji şirketlerini AI sistemlerinin potansiyel zararlarından sorumlu tutmayı amaçlıyordu. Ancak teknoloji liderleri, bu durumun Amerika’nın AI patlamasını engelleyeceğinden endişe ediyordu. Nihayetinde, Vali Gavin Newsom bu tasarıyı veto etti, benzer kaygıları dile getirerek, popüler bir AI hacker evi de “SB 1047 Veto Partisi” düzenledi.
Şimdi ise, Wiener yeni bir AI güvenliği yasası ile geri döndü: SB 53. Bu tasarı, Vali Newsom’un imzasını bekliyor ve bu sefer daha fazla destek bulmuş gibi görünüyor; en azından Silikon Vadisi ile çatışma halinde değil.
Bu ayın başlarında Anthropic, SB 53’ü açıkça destekledi. Meta sözcüsü Jim Cullinan, bu düzenlemenin yenilik ile güvenlik arasında bir denge sağladığını belirterek, “SB 53 bu yönde bir adım” dedi.
Eski Beyaz Saray AI politika danışmanı Dean Ball, SB 53’ün “makul seslerin zaferi” olduğunu belirterek, Vali Newsom’un bu yasayı imzalaması için yüksek bir ihtimal olduğunu düşünüyor.
Eğer yasalaşırsa, SB 53, OpenAI, Anthropic, xAI ve Google gibi AI devlerine, en yetenekli AI modelleri için güvenlik raporları yayınlama zorunluluğu getirecek. Günümüzde bu şirketlerin, AI sistemlerini nasıl test ettiklerini açıklama yükümlülüğü bulunmuyor. Bazı AI laboratuvarları gönüllü olarak güvenlik raporları yayımlasa da, bu durum her zaman tutarlı olmuyor.
SB 53, 500 milyon dolardan fazla gelir elde eden önde gelen AI laboratuvarlarının, en iyi AI modelleri için güvenlik raporları yayınlamasını gerektiriyor. SB 1047’de olduğu gibi, bu yasa, insan ölümlerine, siber saldırılara ve kimyasal silahlara katkıda bulunabilecek en kötü AI risklerine odaklanıyor.
Ayrıca, SB 53, AI laboratuvarlarında çalışanların güvenlik endişelerini hükümet yetkililerine bildirmeleri için koruma yolları oluşturuyor ve büyük teknoloji şirketlerinin ötesinde AI araştırma kaynakları sağlamak amacıyla CalCompute adında devlet işletmesi bir bulut bilişim kümesi kuruyor.
SB 53’ün, SB 1047’den daha popüler olmasının bir nedeni, daha az sert olması. SB 1047, AI şirketlerini AI modellerinin neden olduğu herhangi bir zarar için sorumlu tutmayı amaçlarken, SB 53 daha çok kendi bildirim ve şeffaflık gereksinimlerine odaklanıyor. Ayrıca, SB 53 yalnızca dünyanın en büyük teknoloji şirketlerine yönelik uygulanıyor.
Buna rağmen, teknoloji endüstrisinin birçok temsilcisi, AI düzenlemesinin federal hükümete bırakılması gerektiğini düşünüyor. Örneğin, OpenAI, AI laboratuvarlarının yalnızca federal standartlara uyması gerektiğini belirten bir mektup yazdı. Bu durum, bir eyalet valisine söylenmesi oldukça ilginç.
Senatör Wiener, bu endişeleri yanıtlıyor: Federal hükümete güvenmediğini vurgulayarak, eyaletlerin harekete geçmesi gerektiğini savunuyor. Ayrıca, Trump yönetimini teknoloji endüstrisi tarafından ele geçirildiğine inanıyor.
Wiener, California’nın AI güvenliği konusunda ulusa liderlik etmesinin kritik olduğunu, ancak yeniliği boğmadan bunu başarması gerektiğini ifade ediyor.
Son olarak, SB 53’ün hedeflediği en büyük AI riskleri arasında ölüm, büyük siber saldırılar ve biyolojik silahların yaratılması yer alıyor. Wiener, bu konunun sektör uzmanları tarafından gündeme getirildiğini belirtiyor.
Bütün bu gelişmeler, yapay zekanın geleceği hakkında önemli bir tartışma başlatıyor. Wiener, “Bu olağanüstü güçlü yeni teknolojinin insanlığa fayda sağlaması için riskleri azaltmalıyız,” diyor.







