habernediyor.com

Çocuk istismarı yazılım ile tespit edilecek

BİLİM-TEKNOLOJİ

ABD merkezli teknoloji devi Apple, iPhone’larda çocuk istismarına karşı hassas görselleri yapay zeka ile tarayacak yeni bir sistem geliştirdiğini duyurdu.

Apple, resmi internet adresi üzerinden gerçekleştirdiği duyuruda, yeni tarama sistemi sayesinde çocuk istismarının engellenmesi için önemli bir adım atıldığının altını çizdi.

ABD'li firma, çocuk istismarına karşı aldıkları üç aşamalı önlemlerin ilk aşamasında, mesajlaşma uygulamasında, yapay zeka teknolojileri kullanılarak özel yazışmalara firma tarafından görülmeden yalnızca CSAM (Child Sexual Abuse Material) olarak adlandırılan hassas içerik taraması yapılacağını kaydetti.

Bahse konu sistem, çocuk istismarına ilişkin şüpheli görselleri, gerçek kişilerin incelemesine sunarak gerektiğinde güvenlik kuvvetlerinin uyarılmasını sağlayacak.

Firma, ikinci aşamada iPadOS ve iOS üzerinden iCloud fotoğraflarını tarayarak hassas içeriğin yayılmasını önleyecek. Son aşamada ise Siri ve arama fonksiyonları ebeveynleri ve çocukları güvensiz durumlara karşı uyaracak.​​​​​

"Kötü niyetle kullanılabilir"

Apple'ın yeni tarama sistemi genel anlamda takdirle karşılanırken bazı güvenlik uzmanları, sistemin art niyetle kullanılabileceğinden endişe ediyor.

Apple’ın planlarını firmadan bir gün evvel Twitter hesabı üzerinden açıklayan Johns Hopkins Üniversitesi şifreleme uzmanı Matthew Green, masum insanlara Apple’ın yeni sistemine takılacak görseller gönderilerek komplo kurulabileceği hususunda uyarıda bulundu.

'Uçtan uca şifreleme' yöntemi ile mesajların alıcı ve gönderici haricinde kimsenin ulaşmasına müsaade etmeyen ilk firmalardan biri olan Apple, kriptolu verilerin gözetlenebilmesine müsaade etmesi için bir süredir güvenlik güçlerinden ve yönetimlerden talepler alıyordu.

Apple'ın bahse konu tarama sistemi yılın son çeyreğinde iOS 15, watchOS 8, iPadOS 15 ve macOS Monterey güncellemeleri ile kullanıma girecek.

Sıradaki Haber
Sitemizden en iyi şekilde faydalanmanız için çerezler kullanılmaktadır.