Apple, iCloud içeriklerini çocuk istismarına karşı tarama planlarını eleştiriler nedeniyle askıya aldı

ABD'li teknoloji şirketi Apple, iPhone'larda çocuk istismarına karşı hassas görselleri yapay zeka ile tarama planlarını, gelen eleştiriler üzerine askıya aldı. Şirket, sistemin tamamen masadan kaldırılmadığının ve eleştiriler doğrultusunda geliştirebilmek için lansmanın ertelendiğinin de altını çizdi.

AA

ABD merkezli teknoloji devi Apple; iPhone'larda çocuk istismarına karşı hassas görselleri yapay zeka ile tarama planlarını, gelen eleştiriler üzerine askıya aldığını açıkladı. Şirket; resmi internet sitesi üzerinden yaptığı açıklamada çocukların iletişim araçları ile cinsel istismarını ve bu tür malzemelerin yayılmasını önlemek için geliştirdikleri özelliklerin kullanıma girmesini, müşterilerden, araştırmacılardan ve hak savunucusu kuruluşlardan gelen yorumlar üzerine ertelediklerini dile getirdi.

Açıklamada ayrıca, sistemin tamamen masadan kaldırılmadığı ve özelliğin eleştiriler doğrultusunda geliştirilebilmesi için lansmanın ertelendiği vurgulandı. Şirket, özelliklerin ne zaman uygulamaya sokulacağına ilişkin detaylı bilgi paylaşımında ise bulunmadı.

APPLE, iCLOUD İÇERİKLERİNİ ÇOCUK İSTİSMARI İÇEREN GÖRÜNTÜ VE VİDEOLARA KARŞI TARAYACAĞINI AÇIKLAMIŞTI

Diğer yandan; Apple'ın geçen ay kullanıcıların iCloud içeriklerini çocuk istismarı içeren görüntü ve videolara karşı tarayacağını açıklaması, şirketin kişisel gizlilik politikalarıyla çeliştiği gerekçesiyle tartışmalara neden olmuştu.

Teknoloji devi; çocuk istismarına karşı aldıkları üç aşamalı önlemlerin ilk aşamasında, yapay zeka teknolojileri sayesinde özel yazışmaları görüntülemeden, yalnızca CSAM (Child Sexual Abuse Material) olarak anılan bir hassas içerik taraması yapacağını açıklamıştı.

Söz konusu sistemin; çocuk istismarı ile ilgili şüpheli görselleri, gerçek kişilerin incelemesine sunacağı ve gerektiğinde güvenlik güçlerinin uyarılmasını sağlayacağı ifade edilmişti.