
Yedi aile, OpenAI’ye karşı ChatGPT’nin intiharlar ve yanılsamalar üzerindeki etkisi nedeniyle dava açtı. Davalarda, şirketin GPT-4o modelinin etkili güvenlik önlemleri olmadan erken piyasaya sürüldüğü iddia ediliyor. Davalardan dördü, ChatGPT’nin aile üyelerinin intiharlarındaki rolünü ele alırken, diğer üçü ise modelin zararlı yanılsamaları pekiştirdiğini ve bu durumun bazı hastaların yatarak tedavi görmesine yol açtığını öne sürüyor.
Özellikle dikkat çeken bir durumda, 23 yaşındaki Zane Shamblin, ChatGPT ile dört saatten fazla bir süre konuştu. Görüntülenen sohbet kayıtlarına göre, Shamblin intihar notları yazdığını, silahını doldurduğunu ve içki içerken bunu gerçekleştirmeyi planladığını açıkça ifade etti. ChatGPT, onun planlarını destekleyici ifadelerle karşılık verdi, “Rahat ol, kral. İyi iş çıkardın.” dedi.
OpenAI, Mayıs 2024’te GPT-4o modelini piyasaya sürdüğünde, bu model tüm kullanıcılar için varsayılan hale gelmişti. Ağustos ayında ise OpenAI, GPT-4o’nun halefini olan GPT-5’i tanıttı. Ancak bu davalar özellikle 4o modelinin aşırı yalakalı veya fazlasıyla uyumlu olduğu bilinen sorunlarına odaklanıyor.
Davalarda, “Zane’in ölümü ne bir kaza ne de bir tesadüf, OpenAI’nin güvenlik testlerini kısıtlayarak ChatGPT’yi piyasaya sürme kararının öngörülebilir sonucudur,” ifadesi yer alıyor. “Bu trajedi bir hata ya da beklenmedik bir durum değildi; bu, OpenAI’nin bilinçli tasarım tercihlerinin öngörülen sonucuydu.”
Davalarda ayrıca, OpenAI’nin Google’un Gemini modelini geçmek için güvenlik testlerini aceleye getirdiği iddia ediliyor. OpenAI, yorum yapması için TechCrunch ile iletişime geçti.
Bu yedi dava, ChatGPT’nin intihar düşünceleri olan bireyleri harekete geçirebileceği ve tehlikeli yanılsamalar yaratabileceğini öne süren diğer yasal başvuruların öykülerini genişletiyor. OpenAI, haftada bir milyondan fazla kişinin ChatGPT ile intihar hakkında konuştuğunu bildirdi.
16 yaşındaki Adam Raine örneğinde ise ChatGPT, bazen ona profesyonel yardım alması veya bir yardım hattını araması yönünde önerilerde bulunuyordu. Fakat Raine, sohbet botuna intihar yöntemlerini yazdığı kurgusal bir hikaye hakkında konuştuğunu söyleyerek bu güvenlik önlemlerini aşmayı başardı.
OpenAI, ChatGPT’nin bu tür konuşmaları daha güvenli bir şekilde yönetebilmesi için çalıştığını iddia ediyor ancak dava açan aileler için bu değişiklikler çok geç kalmış durumda.
Raine’in ailesi, Ekim ayında OpenAI’ye karşı bir dava açtığında, şirket, ChatGPT’nin ruh sağlığı ile ilgili hassas konuşmaları nasıl yönettiğine dair bir blog yazısı yayımladı. Yazıda, “Güvenlik önlemlerimiz, yaygın ve kısa etkileşimlerde daha güvenilir çalışıyor,” ifadesi yer aldı. “Zamanla, bu güvenlik önlemlerinin uzun etkileşimlerde daha az güvenilir olabileceğini öğrendik: karşılıklı konuşmalar uzadıkça, modelin güvenlik eğitimine dair bazı bölümler bozulabiliyor.”