Apple’dan iPhone’la için çocuk istismarına karşı yeni sistem
ABD’li teknoloji devi Apple, iPhone’larda çocuk istismarına karşı hassas görselleri yapay zeka ile tarayacak yeni bir sistem geliştirdiğini açıkladı
Özel yazışmalara CSAM ile tarama yapılacak
Apple, internet sitesinden yaptığı duyuruda, yeni tarama sistemi sayesinde çocuk istismarının önlenmesi için önemli bir adım atıldığına işaret etti.
ABD’li şirket, çocuk istismarına karşı aldıkları üç aşamalı önlemlerin ilk aşamasında, mesajlaşma uygulamasında, yapay zeka teknolojileri sayesinde özel yazışmalar şirket tarafından görülmeden yalnızca CSAM (Child Sexual Abuse Material) olarak anılan hassas içerik taraması yapılacağını belirtti.
Güvenlik güçlerinin uyarılmasını sağlayacak
Söz konusu sistem, çocuk istismarı ile ilgili şüpheli görselleri, gerçek kişilerin incelemesine sunarak gerektiğinde güvenlik güçlerinin uyarılmasını sağlayacak.
Şirket, ikinci aşamada iOS ve iPadOS üzerinden iCloud fotoğraflarını tarayarak hassas içeriğin yayılmasını önceleyecek. Son aşamada ise Siri ve arama fonksiyonları aileleri ve çocukları güvensiz durumlara karşı uyaracak.
Sistem kötü niyetle kullanılabilir
Apple’ın yeni tarama sistemi genel olarak takdirle karşılanırken bazı güvenlik uzmanları, sistemin kötü niyetle kullanılabileceğinden endişe ediyor.
Apple’ın planlarını şirketten bir gün önce Twitter hesabında açıklayan Johns Hopkins Üniversitesi şifreleme uzmanı Matthew Green, masum insanlara Apple’ın algoritmasına takılacak görseller gönderilerek komplo kurulabileceği konusunda uyarıda bulundu.
iOS 15, iPadOS 15, watchOS 8 ve macOS Monterey modellerinde kullanıma girecek
“Uçtan uca şifreleme” ile mesajların gönderici ve alıcı dışında kimsenin ulaşmasına izin vermeyen ilk şirketlerden biri olan Apple, kriptolu verilerin gözetlenebilmesine izin vermesi için bir süredir yönetimlerden ve güvenlik güçlerinden talepler alıyordu.
Apple’ın söz konusu tarama sistemi yılın son çeyreğinde iOS 15, iPadOS 15, watchOS 8 ve macOS Monterey güncellemeleri ile kullanıma girecek.