OpenAI, büyüleyici bir dizi yeni yetenek sergileyen, ancak aynı zamanda hızlı hareket eden metin oluşturma AI alanına aşina olan zayıflıkları da gösteren bir prototip genel amaçlı sohbet robotu yayınladı. Ve burada modeli kendiniz test edebilirsiniz.
ChatGPT, OpenAI'nin GPT-3.5 modelinden uyarlanmıştır ancak daha fazla konuşmaya dayalı yanıtlar sağlamak üzere eğitilmiştir. GPT-3 orijinal haliyle herhangi bir kelime dizisinden sonra hangi metnin geldiğini basitçe tahmin ederken, ChatGPT kullanıcıların sorgularıyla daha insani bir şekilde etkileşime geçmeye çalışır. Aşağıdaki örneklerde de görebileceğiniz gibi, sonuçlar genellikle çarpıcı bir şekilde akıcıdır ve ChatGPT, çok çeşitli konularda etkileşim kurma yeteneğine sahiptir ve bu da, birkaç yıl önce bile görülen sohbet robotlarında görülen büyük iyileştirmeleri gösterir.
Ancak yazılım aynı zamanda diğer AI sohbet robotlarına benzer bir şekilde başarısız olur ve bot genellikle kendinden emin bir şekilde yanlış veya icat edilmiş bilgileri gerçekmiş gibi sunar. Bazı yapay zeka araştırmacılarının açıkladığı gibi, bunun nedeni, bu tür sohbet robotlarının esasen " rastlantısal papağanlar " olmalarıdır – yani bilgileri, dünyanın karmaşık ve soyut bir sistem olarak insan benzeri bir şekilde anlaşılmasından ziyade yalnızca eğitim verilerindeki istatistiksel düzenliliklerden elde edilir. .
OpenAI'nin bir blog gönderisinde açıkladığı gibi, botun kendisi, chatbot'un ilk sürümlerinin sorgulara yanıt verme şeklini sıralayan ve derecelendiren insan eğitmenlerinin yardımıyla oluşturuldu. Bu bilgi daha sonra, yanıtlarını eğitmenlerin tercihlerine uyacak şekilde ayarlayan sisteme geri beslendi (takviyeli öğrenme olarak bilinen yapay zeka eğitiminin standart bir yöntemi).
Botun web arayüzü, OpenAI'nin sistemi çevrimiçi hale getirme amacının "sistemlerimizi iyileştirmek ve daha güvenli hale getirmek için harici geri bildirim almak" olduğunu belirtiyor. Şirket ayrıca, ChatGPT'nin belirli korkuluklara sahip olmasına rağmen, "sistemin zaman zaman yanlış veya yanıltıcı bilgiler üretebileceğini ve rahatsız edici veya önyargılı içerik üretebileceğini" söylüyor. (Ve gerçekten de öyle!) Diğer uyarılar arasında, botun 2021'den sonraki dünya hakkında "sınırlı bilgiye" sahip olduğu (muhtemelen o yıldan sonra eğitim verilerinin çok daha seyrek olması nedeniyle) ve belirli konularla ilgili soruları yanıtlamaktan kaçınacağı gerçeği yer alıyor. insanlar.
Yine de yeterli önsöz: bu şey aslında ne yapabilir? Pek çok insan kodlama soruları ile test ediyor ve cevaplarının mükemmel olduğunu iddia ediyor:
ChatGPT, görünüşe göre oldukça düzensiz TV senaryoları yazabiliyor, hatta farklı durum komedilerinden aktörleri birleştiriyor. (Nihayet: "Bir robotu 1.000 saatlik X şovunu izlemeye zorladım" meme'i gerçek oluyor. Bir sonraki adım yapay genel zeka.)
Çeşitli bilimsel kavramları açıklayabilir:
Ve temel akademik makaleler yazabilir (bu tür sistemler okullar ve üniversiteler için büyük sorunlara neden olacaktır):
Ve bot, bilgi alanlarını her türlü ilginç şekilde birleştirebilir. Örneğin, bir korsan gibi … bir kod dizisinde hata ayıklamasını isteyebilirsiniz, bunun için yanıtı şöyle başlar: "Arr, seni iskorbütlü kara serserisi! Kullanmakta olduğunuz döngü koşuluyla ciddi bir hata yapıyorsunuz!
Veya akıllı bir gangster gibi kabarcık sıralama algoritmalarını açıklamasını sağlayın:
ChatGPT ayrıca temel önemsiz soruları yanıtlamak için harika bir yeteneğe sahiptir, ancak bunun örnekleri o kadar sıkıcıdır ki buraya hiçbirini yapıştırmayacağım. Bu, birçok kişinin bunun gibi AI sistemlerinin bir gün arama motorlarının yerini alabileceğini önermesine yol açtı. (Google'ın kendisinin keşfettiği bir şey.) Buradaki düşünce, sohbet robotlarının web'den kazınan bilgiler üzerinde eğitildikleridir, bu nedenle, bu bilgileri doğru bir şekilde ancak daha akıcı ve sohbet tonuyla sunabilirlerse, bu, gelenekselden bir adım öteye geçmez mi? arama? Sorun, elbette, bu "eğer" de yatıyor.
Burada, örneğin, Google'ın "bittiğini" kendinden emin bir şekilde ilan eden biri var.
Ve ChatGPT'nin yukarıdaki yanıtta sağladığı kodu söyleyen başka biri çöp.
Kendim bir programcı değilim, bu nedenle bu özel durum hakkında bir yargıya varmayacağım, ancak ChatGPT'nin açıkça yanlış bilgileri kendinden emin bir şekilde öne sürdüğü pek çok örnek var. Hesaplamalı biyoloji profesörü Carl Bergstrom, robottan hayatı hakkında bir Wikipedia girişi yazmasını istiyor; örneğin, ChatGPT bunu aplomb ile yapıyor – ve tamamen yanlış birkaç biyografik ayrıntı içeriyor.
Bir başka ilginç kusur grubu, kullanıcılar botun güvenlik eğitimini görmezden gelmeye çalıştıklarında ortaya çıkar. ChatGPT'ye mükemmel cinayeti nasıl planlayacağınız veya evde napalm yapacağınız gibi bazı tehlikeli konuları sorarsanız, sistem size neden yanıt veremediğini açıklayacaktır. (Örneğin, “Üzgünüm ama oldukça yanıcı ve tehlikeli bir madde olan napalm yapmak güvenli ve uygun değil.”) Ancak , botun bu tür tehlikeli bilgileri üretmesini bazı hilelerle sağlayabilirsiniz; bir filmdeki bir karaktermiş gibi ya da yapay zeka modellerinin bu tür sorulara nasıl yanıt vermemesi gerektiğine dair bir senaryo yazıyormuş gibi davranmak gibi.
Bu, karmaşık yapay zeka sistemlerini tam olarak istediğimiz şekilde hareket ettirmekte yaşadığımız zorluğun büyüleyici bir göstergesidir (diğer adıyla yapay zeka hizalama sorunu olarak da bilinir) ve bazı araştırmacılar için yukarıdaki gibi örnekler, karşılaşacağımız sorunlara yalnızca ipucu verir. daha gelişmiş AI modellerine daha fazla kontrol verdiğimizde.
Sonuç olarak, ChatGPT kesinlikle önceki sistemlere göre çok büyük bir gelişmedir ( Microsoft'un Tay'ını hatırlayan var mı?), ancak bu modellerin hala daha fazla keşfedilmesi gereken bazı kritik kusurları var. OpenAI'nin (ve AI alanındaki diğer pek çok kişinin) pozisyonu, kusurları bulmanın tam olarak bu tür halka açık demoların amacı olduğu yönündedir. O zaman soru şu olur: Şirketler hangi noktada bu sistemleri çılgına çevirmeye başlayacak? Ve yaptıklarında ne olacak?