Twitter’ın Eski Güvenlik Şefi, Merkezi Olmayan Sosyal Platformların Karşılaştığı Zorlukları Anlatıyor

Sosyal Medya Logoları

Yoel Roth, Twitter’ın eski Güven ve Güvenlik Şefi olarak, merkeziyetsiz sosyal ağların geleceği hakkında endişelerini paylaşıyor. Şu anda Match şirketinde görev yapan Roth, açık sosyal webin sahte bilgi, spam ve çocuk cinsel istismarı materyali (CSAM) gibi yasadışı içeriklerle mücadele etme yeteneği konusunda kaygılarını dile getirdi.

Roth, son bir röportajında, fediverse olarak bilinen açık sosyal webin, Mastodon, Threads, Pixelfed gibi uygulamaların yanı sıra Bluesky gibi diğer açık platformlar için yeterli moderasyon araçlarına sahip olmadığını belirtti. Twitter’daki Güven ve Güvenlik ile ilgili önemli anıları da hatırlatan Roth, Trump’ın platformdan yasaklanması ve Rus bot çiftliklerinin yaydığı yanlış bilgilere dair yaşananları aktardı.

Revolution.social podcast’inde Roth, açık sosyal webde daha demokratik olarak yönetilen çevrimiçi topluluklar oluşturma çabalarının, moderasyon araçları açısından en az kaynağa sahip olan çabalar olduğunu vurguladı. “Mastodon ve diğer ActivityPub protokolüne dayanan hizmetler, topluluk tabanlı kontrol konusunda en fazla çaba gösterirken, topluluklarına politikalarını yönetmeleri için en az teknik araçlar sağlıyor,” dedi.

Roth, ayrıca açık sosyal webin şeffaflık ve karar alma meşruiyeti açısından büyük bir gerileme yaşadığını ifade etti. Twitter’ın Trump’ı yasaklama kararının zamanında gerekçelerinin açıklandığını belirten Roth, günümüzde sosyal medya sağlayıcılarının kötü niyetli kullanıcıları engelleme konusunda o kadar endişeli olduklarını, bu nedenle kendilerini açıklamadıklarını söyledi.

Birçok açık sosyal platformda kullanıcılar, yasaklanan paylaşımları hakkında bildirim almazken, bu paylaşımlar aniden kayboluyor ve diğer kullanıcılara o paylaşımların var olduğu hakkında hiçbir bilgi verilmediğinin altını çizdi.

“Startupları ya da yeni yazılım parçalarını tüm özelliklere sahip olmamalarından dolayı suçlamıyorum, fakat eğer projenin amacı yönetişimde demokratik meşruiyeti artırmaksa ve biz geri adım atmışsak, bu gerçekten işe yaradı mı?” diye sorguladı Roth.

Moderasyonun Ekonomisi

Moderasyonun ekonomisi hakkında da sorunlara değinen Roth, federatif yaklaşımın henüz sürdürülebilir olmadığını belirtti. IFTAS (Bağımsız Federatif Güven ve Güvenlik), fediverse için moderasyon araçları geliştirmeye çalışmış, ancak maddi kaynakları tükendiği için birçok projesini kapatmak zorunda kalmıştı.

“Bunu iki yıl önce görmüştük. Bu alanda çalışan herkes büyük ölçüde gönüllü olarak çaba gösteriyor ve bu süreç sınırlı bir süreyle sınırlı. İnsanların aileleri var ve faturalarını ödemeleri gerekiyor,” dedi Roth. Bluesky ise moderatörler istihdam ederek kendi uygulamasının moderasyonunu sağlarken, kullanıcıların kendi moderasyon tercihlerini özelleştirmelerine olanak tanıyor.

“Bunu ölçekli olarak yapıyorlar. Elbette geliştirilmesi gereken alanlar var. Ama temelde doğru adımlar atıyorlar,” diyen Roth, hizmetin daha da merkeziyetsizleşmesi durumunda bireyleri koruma sorumluluğunun topluluk ihtiyaçlarıyla nasıl dengeleneceği konusunda sorular ortaya çıkacağını belirtti.

Gizlilikte Sınırı Çizmek

Fediverse’in karşılaştığı bir diğer sorun ise gizliliği önceliklendirme kararının moderasyon çabalarını engelleyebilmesidir. Twitter, ihtiyaç duymadığı kişisel verileri sakmamaya çalışırken, kullanıcıların IP adresleri gibi bilgileri topluyordu. Fediverse yöneticileri ise gerekli günlükleri toplamayabilir veya bunları kullanıcı gizliliği ihlali olarak gördükleri için incelemeyebilir.

Roth, Twitter’daki günlerinden bazı örnekler vererek, kullanıcıların, kendileriyle aynı fikirde olmayanlara “bot” yanıtı vermeye başladığını belirtti. Roth, bu tür mesajları incelemek için bir uyarı ayarladığını ve “bot” iddialarını manuel olarak gözden geçirdiğini, ancak kimsenin doğru çıkmadığını ifade etti.

Yapay Zekanın Rolü

Bunun yanı sıra Roth, yapay zekanın bu alanı nasıl değiştirdiğine dair güncel tartışmalara da değindi. Stanford Üniversitesi’nden yapılan bir araştırmaya atıfta bulunarak, büyük dil modellerinin (LLM’ler) uygun şekilde ayarlandığında insanlardan daha ikna edici olabileceğini belirtti. Bu nedenle, yalnızca içerik analizine dayanan bir çözümün yeterli olmadığını vurguladı.

Roth, firmaların diğer davranışsal sinyalleri takip etmeleri gerektiğini, örneğin bir varlığın birden fazla hesap yaratması, otomasyon kullanarak paylaşım yapması veya farklı zaman dilimlerine denk gelen alışılmadık saatlerde paylaşım yapması gibi sinyalleri göz önünde bulundurması gerektiğini önerdi.

“Bu, gerçekten ikna edici içerikte bile mevcut olan davranışsal sinyallerdir ve burada başlamanız gerekiyor,” dedi Roth. “Eğer içerikle başlıyorsanız, önde gelen yapay zeka modelleriyle bir silahlanma yarışına girmiş olursunuz ve zaten kaybetmişsiniz demektir.”

Exit mobile version