Meta’nın, kaynaklarının çoğunu üretken yapay zekaya ayırdığı için Sorumlu Yapay Zeka (RAI) ekibini dağıttığı bildirildi. The Information, gördüğü dahili bir gönderiye atıfta bulunarak bugün haberi verdi.
Rapora göre, çoğu RAI üyesi şirketin üretken yapay zeka ürün ekibine geçerken, diğerleri Meta’nın yapay zeka altyapısı üzerinde çalışacak. Şirket düzenli olarak yapay zekayı sorumlu bir şekilde geliştirmek istediğini söylüyor ve hatta şirketin hesap verebilirlik, şeffaflık, güvenlik, gizlilik ve daha fazlası dahil olmak üzere “sorumlu yapay zeka sütunlarını” listelediği söze ayrılmış bir sayfası var.
Bilgi‘nin raporu, Meta’yı temsil eden Jon Carvill’in şirketin “güvenli ve sorumlu yapay zeka gelişimine öncelik vermeye ve yatırım yapmaya devam edeceğini” söylediğini aktarıyor. Şirketin ekibi bölmesine rağmen, bu üyelerin “sorumlu yapay zeka geliştirme ve kullanımına yönelik ilgili çapraz Meta çabalarını desteklemeye devam edeceğini” de sözlerine ekledi.
Meta, basın saatine kadar yorum talebine yanıt vermedi.
Ekip bu yılın başlarında bir yeniden yapılanma gördü. Business Insider, RAI’yi “bir ekibin kabuğu” haline getiren işten çıkarmaları içerdiğini yazdı. Bu rapor, 2019’dan beri var olan RAI ekibinin çok az özerkliğe sahip olduğunu ve girişimlerinin uygulanmadan önce uzun paydaş müzakerelerinden geçmesi gerektiğini söyleyerek devam etti.
RAI, platformlarında moderasyon sorunları gibi şeyleri önlemeye yönelik olarak, şirketin modellerinin yeterince çeşitli bilgilerle eğitilip eğitilmediği de dahil olmak üzere yapay zeka eğitim yaklaşımlarıyla ilgili sorunları belirlemek için oluşturuldu. Meta’nın sosyal platformlarındaki otomatik sistemler, yanlış bir tutuklamaya neden olan bir Facebook çeviri sorunu, belirli istemler verildiğinde önyargılı görüntülerle sonuçlanan WhatsApp AI çıkartma oluşturma ve Instagram’ın algoritmalar insanların çocuk cinsel istismarı materyallerini bulmasına yardımcı oluyor.