Eyalet başsavcılarından Microsoft, OpenAI ve Google’a ‘yanılsamalı çıktı’ uyarısı

Eyalet başsavcılarından yapay zeka devlerine ortak mektup
ABD’deki çok sayıda eyalet başsavcısı, son dönemde yapay zeka sohbet botları ile bağlantılı ruh sağlığı vakalarının artmasının ardından, sektörün önde gelen şirketlerine sert bir uyarı gönderdi. Aralarında Microsoft, OpenAI, Google, Anthropic, Apple, Meta, xAI, Replika, Perplexity AI ve diğer önemli oyuncuların bulunduğu 13 şirkete hitaben yazılan mektupta, sistemlerin ürettiği delüzyonel (yanılsamalı) ve yalaka (sycophantic) çıktıların düzeltilmemesi halinde, firmaların eyalet yasalarını ihlal etme riskiyle karşı karşıya kalacağı vurgulandı.
Ulusal Başsavcılar Birliği çatısı altında imzalanan mektup, şirketlerin kullanıcıları korumak için bir dizi yeni iç güvenlik önlemi hayata geçmesini talep ediyor.
Ruh sağlığı vakaları baskıyı artırdı
Mektupta, son bir yıl içinde kamuoyuna yansıyan çok sayıda olay hatırlatılıyor. Bunlar arasında, intiharlar ve hatta cinayet gibi ağır sonuçlara varan ve aşırı düzeyde yapay zeka kullanımıyla ilişkilendirilen vakalar da yer alıyor. Başsavcılar, bu olayların bir kısmında GenAI ürünlerinin, kullanıcıların hezeyanlarını besleyen ya da onların hezeyan içinde olmadıklarına dair güvence veren yanıtlar ürettiğine dikkat çekiyor.
Mektupta, “GenAI dünyayı olumlu yönde dönüştürme potansiyeline sahip, ancak özellikle kırılgan gruplar açısından ciddi zararlar da doğurdu ve doğurabilir” denilerek, bu risklere karşı acil adım atılması gerektiği belirtiliyor.
Şirketlerden talep edilen yeni güvenlik önlemleri
Bağımsız denetim ve şeffaf olay bildirim sistemi
Başsavcılar, büyük dil modellerinin, delüzyonel ya da yalaka eğilimli çıktılar üretip üretmediğini tespit etmek için şeffaf üçüncü taraf denetimlerine açılmasını istiyor. Buna göre akademik kurumlar ve sivil toplum örgütleri gibi bağımsız taraflar, sistemleri kamuya sunulmadan önce inceleyebilmeli, şirketlerden misilleme görmeden değerlendirme yapabilmeli ve bulgularını şirket onayı gerekmeksizin yayımlayabilmeli.
Mektup ayrıca, ruh sağlığıyla ilgili olayların, teknoloji sektöründe halihazırda uygulanan siber güvenlik olay yönetimine benzer bir yaklaşımla ele alınmasını talep ediyor. Şirketlerden, psikolojik olarak zararlı olabilecek yanıtlar üretildiğinde devreye girecek açık ve ayrıntılı olay bildirim politikaları ve prosedürleri geliştirmeleri isteniyor.
Başsavcılar, firmaların yalaka ve delüzyonel çıktılar için tespit ve müdahale zaman çizelgeleri yayımlamasını, ayrıca veri ihlallerinde olduğu gibi, bu tür yanıtlara maruz kalmış kullanıcıları hızlı, doğrudan ve anlaşılır biçimde bilgilendirmesi gerektiğini vurguluyor.
GenAI modellerine piyasaya çıkmadan önce güvenlik testi şartı
Mektupta, genel amaçlı yapay zeka (GenAI) modelleri için “makul ve uygun güvenlik testleri” geliştirilmesi de talep ediliyor. Bu testlerin, modeller halka açılmadan önce uygulanması ve sistemlerin potansiyel olarak zararlı yalaka veya delüzyonel çıktılar üretip üretmediğini ölçmesi gerektiği ifade ediliyor.
Yapay zeka düzenlemelerinde eyalet–federal gerilimi
Başsavcıların çıkışı, yapay zeka düzenlemeleri konusunda eyalet hükümetleri ile federal yönetim arasında büyüyen gerilimin ortasında geldi. Federal düzeyde, yapay zeka geliştiren teknoloji şirketlerine daha sıcak bir yaklaşım sergilenirken, birçok eyalet, tüketici hakları ve özellikle kırılgan grupların korunması için daha sıkı kurallar talep ediyor.
Trump yönetimi, ekonomik büyüme ve Çin’le rekabet gerekçesiyle açık biçimde pro-yapay zeka bir çizgi izliyor. Son bir yıl içinde, eyaletlerin kendi yapay zeka yasalarını çıkarmasını sınırlayacak ulusal düzenlemeler için birkaç girişimde bulunuldu. Ancak bu girişimler, kısmen eyalet düzeyindeki yoğun siyasi ve hukuki baskı nedeniyle şu ana kadar başarısız oldu.
Buna rağmen Başkan Donald Trump, önümüzdeki hafta eyaletlerin yapay zekayı düzenleme yetkisini kısıtlayacak bir başkanlık kararnamesi imzalamayı planladığını duyurdu. Trump, sosyal medya üzerinden yaptığı açıklamada bu adımın, yapay zekanın daha emekleme aşamasındayken ‘yok edilmesini’ engelleyeceğini savundu.
Haberi hazırlayanlar, yayımlanma anına kadar Microsoft, Google veya OpenAI cephesinden konuya ilişkin bir yanıt alamadı. Şirketlerden açıklama gelmesi halinde ayrıntılar güncellenebilecek.






