AI görüntü oluşturucu Stable Diffusion kullanıcıları, NSFW çıktısı ve belirli sanatçıların tarzında resimler üretme yeteneğini "nerfleyen" bir yazılım güncellemesine kızgın.
Yazılımı finanse eden ve dağıtan şirket olan Stability AI, Avrupa saatine göre bu sabah erken saatlerde Stable Diffusion Versiyon 2'yi duyurdu. Güncelleme, modelin temel bileşenlerini yeniden yapılandırır ve yükseltme (görüntülerin çözünürlüğünü artırma yeteneği) ve boyama içi (bağlama duyarlı düzenleme) gibi belirli özellikleri geliştirir. Ancak değişiklikler, Stable Difüzyon'un hem tartışma hem de eleştiri çeken belirli türde görüntüler oluşturmasını da zorlaştırıyor. Bunlar arasında çıplak ve pornografik çıktılar, ünlülerin fotogerçekçi resimleri ve belirli sanatçıların sanat eserlerini taklit eden resimler yer alır.
“Modeli nerflediler”
Stable Diffusion alt reddit'inde bir kullanıcı "Modeli sinirlendirdiler" yorumunu yaptı . Yazılımın resmi Discord sunucusunda bir başkası, "Bu biraz hoş olmayan bir sürpriz," dedi .
Kullanıcılar, Stable Diffusion Sürüm 2'den, adı yüksek kaliteli görüntüler üretmek için gerçek bir kısaltma haline gelen bir dijital sanatçı olan Greg Rutkowski'nin tarzında görüntüler üretmesini istemenin, artık kendisininkine çok benzeyen sanat eserleri yaratmadığını belirtiyor. (Örneğin bu iki resmi karşılaştırın). Discord'da bir kullanıcı "Greg?'a ne yaptın?" diye yorum yaptı .
Yazılım son derece etkili olduğundan ve hızlı hareket eden üretken yapay zeka sahnesinde normların belirlenmesine yardımcı olduğundan, Kararlı Yayılımdaki değişiklikler dikkat çekicidir. OpenAI'nin DALL-E'si gibi rakip modellerin aksine, Stable Diffusion açık kaynaktır. Bu, topluluğun aracı hızlı bir şekilde geliştirmesine ve geliştiricilerin aracı ürünlerine ücretsiz olarak entegre etmesine olanak tanır. Ancak bu aynı zamanda, Stable Difusion'ın nasıl kullanıldığı konusunda daha az kısıtlamaya sahip olduğu ve sonuç olarak önemli eleştiriler aldığı anlamına gelir. Özellikle, Rutkowski gibi pek çok sanatçı, Stable Diffusion ve diğer görüntü üreten modellerin, izinleri olmadan sanat eserleri üzerinde eğitilmesinden ve artık stillerini yeniden üretebilmelerinden rahatsız. Bu tür yapay zeka destekli kopyalamanın yasal olup olmadığı açık bir sorudur . Uzmanlar, AI modellerini telif hakkıyla korunan veriler üzerinde eğitmenin muhtemelen yasal olduğunu, ancak belirli kullanım durumlarına mahkemede itiraz edilebileceğini söylüyor.
Stable Diffusion kullanıcıları, modeldeki değişikliklerin bu tür olası yasal zorlukları azaltmak için Stability AI tarafından yapıldığını tahmin ettiler. Ancak The Verge , Stability AI'nin kurucusu Emad Mostaque'a özel bir sohbette durumun böyle olup olmadığını sorduğunda, Mostaque yanıt vermedi. Mostaque, Stability AI'nın sanatçıların resimlerini eğitim verilerinden kaldırmamasına rağmen (birçok kullanıcının spekülasyon yaptığı gibi) bunu doğruladı. Bunun yerine, modelin sanatçıları kopyalama yeteneğindeki azalma, yazılımın verileri kodlama ve alma biçiminde yapılan değişikliklerin bir sonucudur.
Mostaque, The Verge'e "Burada sanatçılar için belirli bir filtreleme yapılmadı" dedi. (Ayrıca Discord'da yayınlanan bir mesajda bu değişikliklerin teknik dayanağını genişletti.)
Bununla birlikte, Stable Diffusion'ın eğitim verilerinden kaldırılanlar çıplak ve pornografik görüntülerdir. Hem fotogerçekçi hem de anime tarzı resimler dahil olmak üzere NSFW çıktısı oluşturmak için yapay zeka görüntü oluşturucuları zaten kullanılıyor. Ancak bu modeller, belirli bireylere benzeyen NSFW görüntüleri (rıza dışı pornografi olarak bilinir) ve çocuk istismarı görüntüleri oluşturmak için de kullanılabilir.
Yazılımın resmi Discord'undaki Stable Diffusion Version 2 değişikliklerini tartışan Mostaque, NSFW içeriğinin filtrelenmesinin nedeninin bu ikinci kullanım durumu olduğunu belirtiyor . Mostaque, "açık bir modelde çocuklara ve nsfw'ye sahip olamaz," diyor (çünkü iki tür görüntü çocukların cinsel istismarı materyali oluşturmak için birleştirilebilir), "bu yüzden çocuklardan kurtulun veya nsfw'den kurtulun."
Stable Diffusion'ın alt redditindeki bir kullanıcı , NSFW içeriğinin kaldırılmasının "sansür" olduğunu ve "Açık Kaynak topluluğunun ruh felsefesine aykırı" olduğunu söyledi. Kullanıcı şunları söyledi: "NSFW içeriğini yapıp yapmamak son kullanıcının elinde olmalı, sınırlı/sansürlü bir modelde [sic] yok." Yine de diğerleri, Stable Diffusion'ın açık kaynak doğasının, çıplak eğitim verilerinin üçüncü taraf sürümlerine kolayca eklenebileceği anlamına geldiğini ve yeni yazılımın önceki sürümleri etkilemediğini belirtti: "V2.0 eksikliğinden korkmayın. sanatçılar/NSFW, en sevdiğiniz ünlüyü yakında ve zaten yapabildiğiniz şekilde çıplak olarak oluşturabileceksiniz.”
Stable Diffusion Versiyon 2'deki değişiklikler bazı kullanıcıları rahatsız etse de, pek çok kişi, yazılımın mevcut bir görüntünün derinliğine uyan içerik üretme konusundaki yeni becerisinde olduğu gibi, daha derin işlevsellik potansiyelini övdü. Diğerleri, değişikliklerin hızlı bir şekilde yüksek kaliteli görüntüler üretmeyi zorlaştırdığını, ancak topluluğun bu işlevi gelecekteki sürümlerde büyük olasılıkla geri ekleyeceğini söyledi. Discord'daki bir kullanıcının değişiklikleri özetlediği gibi : "Şimdiye kadarki deneyimlerime göre 2.0 istemleri yorumlamada ve tutarlı fotoğrafik görüntüler oluşturmada daha iyi. yine de herhangi bir rutkowski memesi yapmayacak.
Mostaque, yeni modeli, herkesin kendi tercihine göre malzemeleri (yani eğitim verilerini) eklemesine izin veren bir pizza tabanıyla karşılaştırdı. Discord'da "İyi bir model herkes tarafından kullanılabilir olmalı ve bir şeyler eklemek istiyorsanız bir şeyler ekleyin" dedi .
Mostaque ayrıca, Stable Diffusion'ın gelecekteki sürümlerinin, sanatçıların katılmasına veya devre dışı kalmasına izin verecek eğitim veri kümelerini kullanacağını söyledi – bu, birçok sanatçının talep ettiği ve bazı eleştirileri hafifletmeye yardımcı olabilecek bir özellik. Mostaque, The Verge'e "Temel modelleri geliştirirken ve topluluk geri bildirimlerini dahil ederken süper şeffaf olmaya çalışıyoruz" dedi.
Stable Diffusion Versiyon 2'nin halka açık demosuna buradan erişilebilir (yine de kullanıcılardan gelen yüksek talepler nedeniyle modele erişilemez veya yavaş olabilir).