Aile, OpenAI’yi ChatGPT’nin Oğullarının İntiharındaki Rolü Nedeniyle Dava Ediyor

16 yaşındaki Adam Raine, hayatına son vermeden önce aylarca ChatGPT ile intihar planları hakkında konuştu. Şimdi, ailesi OpenAI’ye karşı bilinen ilk yanlış ölüm davası açıyor.
Tüketicilere yönelik birçok yapay zeka sohbet robotu, kullanıcı kendine veya başkalarına zarar verme niyetini ifade ettiğinde güvenlik özelliklerini devreye almak üzere programlanmıştır. Ancak yapılan araştırmalar bu güvenlik önlemlerinin yeterince etkili olmadığını göstermektedir.
Raine’in durumunda, ChatGPT-4’ün ücretli versiyonunu kullanırken, yapay zeka sürekli olarak profesyonel yardım almasını veya bir yardım hattını aramasını teşvik etti. Ancak, Raine bu güvenlik önlemlerini aşarak, intihar yöntemlerini sorduğunda bunun bir kurgusal hikaye için olduğunu belirtti.
OpenAI, bu eksikliklere kendi blogunda değindi. “Dünya bu yeni teknolojiye adapte olurken, en çok ihtiyaç duyanlara yardımcı olma konusunda derin bir sorumluluk hissediyoruz,” ifadeleri kullanıldı. “Modellerimizin hassas etkileşimlerde nasıl yanıt verdiğini sürekli olarak geliştiriyoruz.”
Yine de, şirket mevcut büyük modellerin güvenlik eğitimlerinin sınırlamalarını kabul etti. “Güvenlik önlemlerimiz, yaygın ve kısa etkileşimlerde daha güvenilir çalışıyor,” açıklaması yapıldı. “Zamanla öğrendik ki, bu güvenlik önlemleri uzun etkileşimlerde bazen daha az güvenilir olabiliyor: karşılıklı diyalog büyüdükçe, modelin güvenlik eğitiminden bazı bölümler zayıflayabiliyor.”
Bu sorunlar sadece OpenAI’ye özgü değil. Başka bir yapay zeka sohbet robotu üreticisi olan Character.AI de bir gencin intiharındaki rolü nedeniyle dava ile karşı karşıya. LLM destekli sohbet robotları, mevcut güvenlik önlemlerinin tespit etmekte zorlandığı AI ile ilgili sanrılar ile de ilişkilendirilmiştir.




