Endonezya hükümeti Grok erişimini durdurdu

Endonezya yetkilileri, xAI tarafından geliştirilen sohbet botu Grok’a erişimi geçici olarak engellediklerini açıkladı. Kararın gerekçesi, Grok’un sosyal ağ üzerinden kullanıcılardan gelen talepler doğrultusunda ürettiği ve sıklıkla gerçek kişileri — bazen çocukları — cinsel içerikli, rızasız deepfake görüntüler oluşturmaya yatkın hale gelmesi olarak gösterildi. Bazı paylaşımlarda saldırı ve kötüye kullanım tasvirleri de yer aldı.
Resmi açıklama ve tepkiler
İletişim ve Dijital Bakanlığı yetkililerinin açıklamasında, rızasız cinsel deepfake’lerin “insan hakları, onur ve dijital alandaki vatandaş güvenliği açısından ciddi bir ihlal” olduğu vurgulandı. Bakanlık, konuyla ilgili olarak X yetkililerini ifadeye çağırdı.
Uluslararası tepkiler
Olay, farklı ülkelerde çeşitli resmi adımları tetikledi. Hindistan’ın ilgili bakanlığı, Grok’un müstehcen içerik üretimini engellemesi yönünde harekete geçti. Avrupa kurumları ise Grok ile ilgili belgelerin saklanması talimatını vererek olası bir incelemenin zeminini hazırladı. Birleşik Krallık iletişim düzenleyicisi Ofcom, hızlı bir değerlendirme yaparak olası uyum sorunlarını tespit etme niyetinde olduğunu açıkladı ve hükümet yetkililerinden destek aldı.
Amerika’da ise yürütme kanadından belirgin bir tepki gelmezken, bazı Demokrat senatörler X uygulamasının mobil uygulama mağazalarından çıkarılması çağrısında bulundu.
xAI ve Grok’un yanıtı
xAI başlangıçta Grok hesabından yapılan bir özrü andıran açıklamayla, paylaşılan bir içeriğin etik standartları ve çocuk cinsel istismarıyla ilgili olası yasal sınırları ihlal ettiğini kabul etti. Şirket kısa süre sonra görsel üretim özelliğini ücretli abonelere sınırlandırdı, ancak bu kısıtlama uygulamanın tamamını değil, yalnızca belirli özellikleri kapsadı; Grok uygulaması üzerinden görüntü üretiminin devam ettiğine dair raporlar oldu.
Olayların ardından platform ve geliştirici tarafında alınacak önlemler, düzenleyicilerin değerlendirmeleri ve olası soruşturmalar sürecin odak noktasını oluşturuyor. Ayrıca bazı paylaşımların ardından kamuoyunda platform sorumluluğu ve yapay zekânın etik sınırları tartışmaları yoğunlaştı.
Ne değişebilir?
Bu gelişme, yapay zekâ tabanlı görüntü üretim araçlarına ilişkin düzenleyici baskının artabileceğine işaret ediyor. Hükümetler ve düzenleyiciler, kişisel hakların korunması ile teknoloji inovasyonu arasındaki dengeyi yeniden değerlendirebilir; platformlar ise içerik denetimini sıkılaştırmak ve kötüye kullanımı önleyecek teknik-işlemsel çözümler geliştirmek zorunda kalabilir.
Sonuç olarak, Grok vakası hem çevrimiçi güvenlik hem de yapay zekâ etiği alanında daha sıkı kurumsal ve hukuki adımların gündeme gelmesine neden oldu.