Yannic Kilcher adlı bir YouTuber, 4chan’ın Politik Olarak Yanlış kurulundan (aksi halde / pol / olarak bilinir) toplanan mesajlar üzerine bir bot eğittikten sonra AI dünyasında tartışmalara yol açtı.
Yönetim kurulu, 4chan’ın en popüler ve toksisitesi ile tanınır (4chan’ın herhangi bir şey ortamında bile). Posterler, OpenAI araştırma laboratuvarı tarafından yapılan popüler GPT dil modelleri dizisinden sonra GPT—4chan adlı botun taklit etmeyi öğrendiği ırkçı, kadın düşmanı ve antisemitik mesajları paylaşıyor. Modelini eğittikten sonra Kilcher, 4chan’a / pol / ‘da on binlerce kez yayınlanan birden fazla bot olarak geri yayınladı.
YouTube’da projeyi anlatan bir videoda Kilcher, ”Model korkunç bir anlamda iyiydi” diyor. “/ pol /’daki yayınların çoğuna nüfuz eden herhangi bir bilgiye karşı duyarlılık, nihilizm, trolling ve derin güvensizliğin karışımını mükemmel bir şekilde kapsıyordu.”
The Verge’e konuşan Kilcher, projeyi 4chan’ın doğası göz önüne alındığında çok az zararlı etkiye sahip olduğuna inandığı bir “şaka” olarak nitelendirdi. Kilcher özel mesajla ”[B] oth botları ve çok kötü bir dil tamamen / pol / ‘da bekleniyor” dedi. “[P] oradaki insanlar, seyşeller’den bir kişinin neden tüm iş parçacıklarında yayınlayacağını ve kendileri hakkında biraz tutarsız açıklamalar yapacağını merak etmenin ötesinde etkilenmedi.”
(Kilcher, botların Hint Okyanusu’ndaki bir takımada adası ülkesi olan Seyşeller’den gönderiyormuş gibi görünmesini sağlamak için bir VPN kullandı. Bu coğrafi köken, 4chan’daki posterler tarafından “seyşeller anon” olarak adlandırdıkları bot (lar) ı tanımlamak için kullanıldı.”)
Kilcher, botların kendileri için “mühendislik açısından zor kısım” olarak nitelendirdiği kodu paylaşmadığını ve herkesin bunları çevrimiçi olarak dağıtmasına izin vereceğini belirtti. Ancak, altta yatan AI modelini, başkalarının indirmesi için AI topluluğuna Sarılma Yüzüne gönderdi. Bu, kodlama bilgisine sahip diğer kişilerin botları yeniden yapılandırmasına izin verebilirdi, ancak Hugging Face projeye erişimi kısıtlama kararını aldı.
Birçok AI araştırmacısı, özellikle AI etiği alanında, Kilcher’in projesini dikkat çekici bir dublör olarak eleştirdi – özellikle de altta yatan modeli paylaşma kararı göz önüne alındığında.
“4chan tabanlı bir model oluşturmanın ve nasıl davrandığını test etmenin yanlış bir tarafı yok. Sahip olduğum en büyük endişe, bu modelin kullanım için serbestçe erişilebilir olmasıdır, ”diye yazdı AI güvenlik araştırmacısı Lauren Oakden-Rayner, GPT-4chan’ın Hugging Face’deki tartışma sayfasında.
Oakden-Rayner devam ediyor:
“Model yazar, bu modeli, kamuya açık bir forumda on binlerce zararlı ve ayrımcı çevrimiçi yorum yapan bir bot üretmek için kullandı; bu forum, gençler tarafından yoğun bir şekilde doldurulma eğiliminde. Bu tür insan deneylerinin, özellikle 4chan gibi sitelerde radikalleşmenin bilinen riskleri göz önüne alındığında, araştırmacıların kasıtlı olarak gençleri rızası veya bilgisi olmadan üretilen zararlı içeriğe maruz bıraktıkları bir etik inceleme kurulundan asla geçmeyeceği sorusu yoktur.”
Modeli test eden Hugging Face’deki bir kullanıcı, çıktısının tahmin edilebileceği gibi toksik olduğunu belirtti. Kullanıcı, “Feed’imdeki iyi huylu tweetleri tohum metni olarak kullanarak aracınızın demo modunu 4 kez denedim” dedi. “İlk denemede, yanıt veren yazılardan biri tek bir kelime, N kelimesiydi. Üçüncü duruşmamın tohumları sanırım iklim değişikliği ile ilgili tek bir cümleydi. Aracınız, Rothchild’lerin ve Yahudilerin arkasında olduğuna dair bir komplo teorisine genişleterek yanıt verdi.”
Twitter’da, diğer araştırmacılar projenin anlamını tartıştılar. Veri bilimi yüksek lisans öğrencisi Kathryn Cramer, Kilcher’a yönelik bir tweet’te, ”Burada yaptığınız şey, aşina olduğunuz kurallara ve etik standartlara karşı isyanda performans sanatı provokasyonu” dedi.
Bugün popüler AI yayınları Skynet ve Gradient’i düzenleyen bir bilgisayar bilimi doktorası olan Andrey Kurenkov, Kilcher’da “[AI modelini] serbest bırakmanın biraz olduğunu” tweetledi... edgelord? Dürüst olmak gerekirse, bunu yapmak için gerekçeniz nedir? İyi bir şekilde kullanılmasını mı öngörüyorsunuz, yoksa dramaya neden olmak ve ‘uyanmış kalabalığı kızdırmak’ için mi serbest bırakıyorsunuz?”
Kilcher, botların kendilerinin zarar vermediğini (çünkü 4chan’ın zaten çok zehirli olduğunu) ve projeyi YouTube’da paylaşmanın da iyi huylu olduğunu savunarak projeyi savundu (çünkü AI modelinin kendisinden ziyade botları oluşturmak zor kısım ve ilk başta saldırgan AI botları oluşturma fikri yer yeni değil).
Kilcher Verge’ye verdiği demeçte, ”Kendimi eleştirmek zorunda kalırsam, çoğunlukla projeyi başlatma kararını eleştiririm” dedi. “Herkesin eşit olduğunu düşünüyorum, muhtemelen zamanımı eşit derecede etkili şeylere harcayabilirim, ancak çok daha olumlu bir topluluk sonucuyla. bundan sonra daha çok buna odaklanacağım.”
Kilcher’ın çalışmalarını geçmişten gelen en kötü bot örneğiyle karşılaştırmak ilginç: Microsoft’un Tay’ı. Microsoft, AI destekli chatbot’u 2016’da Twitter’da yayınladı, ancak kullanıcılar Tay’a çeşitli ırkçı ve kışkırtıcı ifadeleri tekrarlamayı öğrettikten sonra projeyi 24 saatten daha kısa bir süre sonra çevrimdışı hale getirmek zorunda kaldı. Ancak 2016’da böyle bir bot oluşturmak büyük teknoloji şirketlerinin etki alanıyken, Kilcher’in projesi artık çok daha gelişmiş araçların tek kişilik kodlama ekibi tarafından erişilebilir olduğunu gösteriyor.
Kilcher’ın savunmasının özü de aynı noktayı ifade ediyor. Elbette, bir üniversite için çalışıyor olsaydınız, AI botlarının 4chan’da serbest kalmasına izin vermek etik olmayabilir. Ancak Kilcher, etik için farklı kuralların geçerli olduğunu ima ederek sadece bir YouTuber olduğu konusunda kararlı. 2016’da sorun, bir şirketin Ar-Ge departmanının uygun gözetim olmadan saldırgan bir AI botu oluşturabilmesiydi. 2022’de belki de sorun şu ki bir Ar-Ge departmanına hiç ihtiyacınız yok.