Teknoloji

Apple'ın çocuklara yönelik cinsel istismar görüntülerini engellemeye yönelik tartışmalı planı

Apple, çocuklara yönelik cinsel istismar materyali (CSAM) bularak çocuk istismarını önlemeye yardımcı olmak amacıyla iOS cihazlarında yapmayı planladığı değişiklikleri açıkladığında, planının bazı bölümleri tepkilere neden oldu.

İlk olarak, iOS 15, watchOS 8, iPadOS 15 ve macOS Monterey'de Arama uygulaması ve Siri sesli asistanı için bir güncelleme yayınlıyor. Bir kullanıcı çocukların cinsel istismarıyla ilgili konuları aradığında, Apple kullanıcıyı CSAM'yi bildirmek veya bu tür içeriğe ilgi duyma konusunda yardım almak için kaynaklara yönlendirecektir.

Ancak eleştiri toplayan, Apple'ın diğer iki CSAM planı. Bir güncelleme, Mesajlar'a bir ebeveyn kontrolü seçeneği ekleyerek 12 yaşında veya daha küçük bir çocuk müstehcen resimler görüntüler veya gönderirse ebeveynlere bir uyarı gönderir ve 18 yaşından küçük herhangi bir kullanıcı için resimleri gizler.

İlgili Makaleler

Apple'ın CSAM koruma planları hakkındaki en son haberleri takip etmek için, yeni bir gelişme olduğunda güncelleyeceğimiz hikaye akışımızı takip edin. Bir başlangıç noktasına ihtiyacınız varsa, buradaki açıklayıcımıza göz atın .

World EDU Türkçe Editör

General Editor - Soru ve Eleştirileriniz için İLETİŞİM kısmından bağlantı kurabilirsiniz.

İlgili Makaleler

Bir yanıt yazın

Başa dön tuşu