World EDU Türkçe | Akademi, Teknoloji, Haber, Yorum & Analiz

Teknoloji

Apple'ın çocuklara yönelik cinsel istismar görüntülerini engellemeye yönelik tartışmalı planı

Apple, çocuklara yönelik cinsel istismar materyali (CSAM) bularak çocuk istismarını önlemeye yardımcı olmak amacıyla iOS cihazlarında yapmayı planladığı değişiklikleri açıkladığında, planının bazı bölümleri tepkilere neden oldu.

İlk olarak, iOS 15, watchOS 8, iPadOS 15 ve macOS Monterey'de Arama uygulaması ve Siri sesli asistanı için bir güncelleme yayınlıyor. Bir kullanıcı çocukların cinsel istismarıyla ilgili konuları aradığında, Apple kullanıcıyı CSAM'yi bildirmek veya bu tür içeriğe ilgi duyma konusunda yardım almak için kaynaklara yönlendirecektir.

Ancak eleştiri toplayan, Apple'ın diğer iki CSAM planı. Bir güncelleme, Mesajlar'a bir ebeveyn kontrolü seçeneği ekleyerek 12 yaşında veya daha küçük bir çocuk müstehcen resimler görüntüler veya gönderirse ebeveynlere bir uyarı gönderir ve 18 yaşından küçük herhangi bir kullanıcı için resimleri gizler.

Apple'ın CSAM koruma planları hakkındaki en son haberleri takip etmek için, yeni bir gelişme olduğunda güncelleyeceğimiz hikaye akışımızı takip edin. Bir başlangıç noktasına ihtiyacınız varsa, buradaki açıklayıcımıza göz atın .

Click to comment

You must be logged in to post a comment Login

Leave a Reply

World.edu Global Eğitim Ağı'nın Türkçe yayın yapan özel sayfasıdır.

İçerik Koruması

turkce.world.edu web sayfasında yer alan tüm materyallerin her hakkı saklıdır. Bilimsel uğraşılar istisna olmak üzere izinsiz yayınlanması uygun değildir.

DMCA.com Protection Status
VDS Satın Al

Yazarımız Olun!

World.edu Türkçe sayfasında yazılarınızın yayınlanmasını istiyorsanız yazarlık/editörlük başvurunuzu İletişim sayfasından bizlere iletebilirsiniz.




Copyright © 2021-2022 World Edu Türkçe | Haber, Yorum, Teknoloji, Analiz | İçeriklerimizin iktibası atıf ve bağlantı (URL) göstermek şartıyla mümkündür.Themetf

To Top