Yapay zeka tarafından oluşturulan yanıtlar, kodlama Soru-Cevap sitesi Yığın Taşması

'de geçici olarak yasaklandı

Kodlayıcılar ve programcılar için soru-cevap sitesi Stack Overflow, kullanıcıların AI sohbet robotu ChatGPT tarafından oluşturulan yanıtları paylaşmasını geçici olarak yasakladı .

Sitenin modları, yasağın geçici olduğunu ve nihai bir kararın, topluluğuyla istişare edildikten sonra gelecekte bir süre sonra verileceğini söyledi. Ancak, modların açıkladığı gibi, ChatGPT, kullanıcıların yanıtlar oluşturmasını ve siteyi ilk bakışta doğru görünen ancak yakından incelendiğinde genellikle yanlış olan yanıtlarla doldurmasını çok kolaylaştırır.

"Birincil sorun […] ChatGPT'nin ürettiği yanıtların yüksek oranda yanlış olması."

Modlar, "Birincil sorun, ChatGPT'nin ürettiği yanıtların yüksek oranda yanlış olmasına rağmen, genellikle iyi gibi görünüyorlar ve yanıtların üretilmesi çok kolay," diye yazdı modlar (vurgu onlarınki). "Bu nedenle, azaltmak için bu gönderilerin hacmine ihtiyacımız var […] Bu nedenle, şimdilik, burada Stack Overflow'ta gönderiler oluşturmak için ChatGPT kullanımına izin verilmiyor. Bu geçici politika yayınlandıktan sonra bir kullanıcının ChatGPT kullandığına inanılırsa, gönderiler başka türlü kabul edilebilir olsa bile, kullanıcıların bu tür içerikleri göndermeye devam etmelerini engellemek için yaptırımlar uygulanacaktır.”

ChatGPT, OpenAI tarafından oluşturulan ve otomatik tamamlama metin oluşturucusu GPT-3.5'e dayanan deneysel bir sohbet robotudur. Bot için bir web demosu geçen hafta yayınlandı ve o zamandan beri web'deki kullanıcılar tarafından coşkuyla benimsendi. Botun arayüzü, insanları soru sormaya teşvik eder ve karşılığında çeşitli sorgularda etkileyici ve akıcı sonuçlar sunar; şiirler, şarkılar ve TV senaryoları oluşturmaktan önemsiz soruları yanıtlamaya ve kod satırları yazmaya ve hata ayıklamaya kadar.

Ancak birçok kullanıcı ChatGPT'nin yeteneklerinden etkilenirken, diğerleri onun makul ancak yanlış yanıtlar verme konusundaki ısrarlı eğilimini fark etti. Örneğin, bottan tanınmış bir kişinin biyografisini yazmasını isteyin ve yanlış biyografik verileri tam bir güvenle ekleyebilir. Belirli bir işlev için yazılımın nasıl programlanacağını açıklamasını isteyin ve benzer şekilde inandırıcı ancak nihayetinde yanlış kod üretebilir.

ChatGPT gibi AI metin modelleri, metindeki istatistiksel düzenlilikleri arayarak öğrenir

Bu, aksi takdirde büyük dil modelleri veya LLM'ler olarak bilinen AI metin oluşturma modellerinin iyi bilinen birkaç başarısızlığından biridir. Bu sistemler, web'den kazınmış devasa metin yığınlarındaki kalıpları analiz ederek eğitilir. Bu verilerde istatistiksel düzenlilikler ararlar ve bunları herhangi bir cümlede hangi kelimelerin gelmesi gerektiğini tahmin etmek için kullanırlar. Ancak bu, dünyadaki belirli sistemlerin nasıl çalıştığına dair sabit kodlanmış kurallara sahip olmadıkları anlamına gelir ve bu da onların "akıcı saçmalık" üretme eğilimlerine yol açar.

Bu sistemlerin büyük ölçeği göz önüne alındığında, çıktılarının yüzde kaçının yanlış olduğunu kesin olarak söylemek imkansızdır. Ancak Stack Overflow durumunda, şirket şimdilik kullanıcıları yanıltma riskinin çok yüksek olduğuna karar verdi.

Yığın Taşması'nın kararı özellikle dikkat çekicidir, çünkü AI topluluğundaki uzmanlar şu anda bu büyük dil modellerinin oluşturduğu potansiyel tehdidi tartışmaktadır. Örneğin, Facebook-parent Meta'nın yapay zeka baş bilimcisi Yann LeCun, örneğin, LLM'lerin kesinlikle yanlış bilgi gibi kötü çıktılar üretebilse de, bu metnin gerçek paylaşımını daha kolay hale getirmediğini ve bunun zarara neden olduğunu savundu . Ancak diğerleri , bu sistemlerin uygun ölçekte ve ucuza metin üretme yeteneğinin, metnin daha sonra paylaşılma riskini zorunlu olarak artırdığını söylüyor.

Bugüne kadar, LLM'lerin gerçek dünyada zararlı etkilerine dair çok az kanıt vardı. Ancak Stack Overflow'taki bu son olaylar, bu sistemlerin ölçeğinin gerçekten de yeni zorluklar yarattığı argümanını destekliyor. Sitenin modları, ChatGPT yasağını duyururken aynı şeyi söylüyor ve "bu [AI tarafından üretilen] yanıtların hacmi (binlerce) ve yanıtların genellikle en azından biraz konu uzmanlığına sahip biri tarafından ayrıntılı bir şekilde okunmasını gerektirdiği gerçeğine" dikkat çekiyor. Yanıtın gerçekten kötü olduğunu belirlemek, gönüllü temelli kaliteli küratörlük altyapımızı etkili bir şekilde batırdı.

Endişe, bu modelin, gerçek kullanıcıların seslerini makul ancak yanlış verilerle boğan bir AI içeriği seli ile diğer platformlarda tekrarlanabilmesidir. Bunun web'deki farklı alanlarda tam olarak nasıl gerçekleşebileceği, platformun tam doğasına ve moderasyon yeteneklerine bağlı olacaktır. Bu sorunların gelecekte iyileştirilmiş istenmeyen e-posta filtreleri gibi araçlar kullanılarak azaltılıp azaltılamayacağı görülecektir.

"Korkutucu kısım, ne kadar kendinden emin bir şekilde yanlış olduğuydu."

Bu arada, sitenin kendi tartışma panolarında ve Hacker News gibi ilgili forumlarda Stack Overflow'un politika duyurusuna verilen yanıtlar, kullanıcıların Stack Overflow'un modlarının yapay zeka tarafından üretilen yanıtları ilk etapta tanımlamasının zor olabileceği uyarısını eklemesiyle, büyük ölçüde destekleyici oldu. .

Pek çok kullanıcı, botu kullanarak kendi deneyimlerini anlattı ve Hacker News'teki bir kişi , kodlama sorunlarıyla ilgili sorulara verilen yanıtların genellikle doğrudan çok yanlış olduğunu bulduğunu söyledi. Kullanıcı, "Korkutucu kısım, ne kadar kendinden emin bir şekilde yanlış olduğuydu" dedi. "Metin çok iyi görünüyordu ama içinde büyük hatalar vardı."

Diğerleri , yapay zeka denetleme sorununu ChatGPT'nin kendisine yöneltti ve bottan yasağı lehinde ve aleyhinde argümanlar üretmesini istedi. Bir yanıtta bot, Stack Overflow'un kendi modlarıyla tamamen aynı sonuca vardı: "Genel olarak, Stack Overflow'ta yapay zeka tarafından oluşturulan yanıtlara izin verilip verilmeyeceği, topluluk tarafından dikkatle değerlendirilmesi gereken karmaşık bir karardır."

Exit mobile version