Apple'ın çocuklara yönelik cinsel istismar görüntülerini engellemeye yönelik tartışmalı planı
Apple, çocuklara yönelik cinsel istismar materyali (CSAM) bularak çocuk istismarını önlemeye yardımcı olmak amacıyla iOS cihazlarında yapmayı planladığı değişiklikleri açıkladığında, planının bazı bölümleri tepkilere neden oldu.
İlk olarak, iOS 15, watchOS 8, iPadOS 15 ve macOS Monterey'de Arama uygulaması ve Siri sesli asistanı için bir güncelleme yayınlıyor. Bir kullanıcı çocukların cinsel istismarıyla ilgili konuları aradığında, Apple kullanıcıyı CSAM'yi bildirmek veya bu tür içeriğe ilgi duyma konusunda yardım almak için kaynaklara yönlendirecektir.
Ancak eleştiri toplayan, Apple'ın diğer iki CSAM planı. Bir güncelleme, Mesajlar'a bir ebeveyn kontrolü seçeneği ekleyerek 12 yaşında veya daha küçük bir çocuk müstehcen resimler görüntüler veya gönderirse ebeveynlere bir uyarı gönderir ve 18 yaşından küçük herhangi bir kullanıcı için resimleri gizler.
Apple'ın CSAM koruma planları hakkındaki en son haberleri takip etmek için, yeni bir gelişme olduğunda güncelleyeceğimiz hikaye akışımızı takip edin. Bir başlangıç noktasına ihtiyacınız varsa, buradaki açıklayıcımıza göz atın .