Ana Sayfa Dünya 6 Ağustos 2021 1 Görüntüleme

Apple, iCloud’a yüklenen fotoğrafları tarayacak!

Çocuk istismarını engellemek ismine geliştirilen bu sistem, Apple’ın yazılımla iCloud hesaplarını tarayarak incelemesine odaklanıyor. Şayet bulut sistemde bulunan imgeler çocuk istismarı imajlarından oluşan bilgi tabanında bir eşleşme bulunursa isimli makamlara bildirilecek.

SİSTEM ŞİMDİDEN ELEŞTİRİLMEYE BAŞLANDI

Apple’ın uygulamaya dahil ettiği yeni sistem, rastgele bir iPhone’da çocuk istismarına ait manzara bulursa, direkt kolluk kuvvetlerine bu durumu bildirecek. Apple bu sayede, çocuk istismarının kısmen de olsa önüne geçmek istiyor. Öte yandan Apple’ın “CSAM” ismini verdiği güvenlik sistemi, tenkit oklarını da çekmeyi başardı. Çünkü bu sistemle birlikte sırf çocuk istismarını önlemekle kalmayacağı birebir vakitte şahısların saklı fotoğraflarına ulaşabileceği düşünülüyor.

Apple’ın yıl sonuna yanlışsız kullanıma sunacağı CSAM sistemi, ABD Ulusal Kayıp ve İstismara Uğramış Çocuklar Merkezi başta olmak üzere çeşitli çocuk güvenliği kuruluşları tarafından derlenmiş bir bilgi tabanını içerecek. Apple buna ek olarak kurulan sistem ile çocuklarına yabancılardan uygunsuz içerikler gelirse bu durumu ebeveynlere bildirecek.

Çocukların anlatamadığı kimi durumlar olduğunda ebeveynlerin haberinin olması ismine geliştirilen sistemde Siri ve yerleşik arama uygulamaları da çocuk istismarı konusunda çok daha bilgili ve yanlışsız yönlendirme yapabilecek. Bu yeni periyot ise iOS 15 ile iPhone’lara gelecek. iPadOS 15 ve WatchOS 8 ile MacOS Monterey ile başka aygıtlara da gelecek. Bu sayede çocuklara gelen uygunsuz fotoğraflar gizlenebilecek.

Milliyet

hack forum hacker sitesi hack forum forum bahis onwin fethiye escort gaziantep escort gaziantep escort bursa escort meritking meritking meritking meritking giriş izmit escort adana escort slot siteleri casibomcu.bet deneme bonusu veren siteler deneme bonusu veren siteler Tarafbet izmir escort istanbul escort marmaris escort hack forum hack forum hack forum hack forum