Apple çocuk istismarına karşı telefonları tarama planını askıya aldı

ABD’li teknoloji şirketi Apple, iPhone’larda çocuk istismarına karşı hassas görselleri yapay zeka ile tarama planlarını, gelen tenkitler üzerine askıya aldı.

Apple, internet sitesinden yaptığı açıklamada, çocukların irtibat araçları ile cinsel istismarını ve bu tıp materyallerin yayılmasını önlemek için geliştirdikleri özelliklerin kullanıma girmesini, müşterilerden, araştırmacılardan ve hak savunucusu kuruluşlardan gelen yorumlar üzerine ertelediklerini belirtti.

Açıklamada, sistemin büsbütün masadan kaldırılmadığı, lakin tenkitler doğrultusunda geliştirebilmek için lansmanın ertelendiği vurgulandı. Lakin özelliklerin ne vakit devreye girebileceğine ait bilgi paylaşılmadı.

‘Kişisel zımnilik politikası’ tartışmalarına neden olmuştu

Apple’ın geçen ay kullanıcıların iCloud içeriklerini çocuk istismarı içeren imaj ve görüntülere karşı tarayacağını açıklaması, şirketin ferdî kapalılık siyasetleriyle çeliştiği için tartışmalara neden olmuştu.

Apple çocuk istismarına karşı aldıkları üç etaplı tedbirlerin birinci basamağında, yapay zeka teknolojileri sayesinde özel yazışmaları görüntülemeden, sırf CSAM (Child Sexual Abuse Material) olarak anılan hassas içerik taraması yapacağını açıklamıştı.

Kelam konusu sistem, çocuk istismarı ile ilgili kuşkulu görselleri, gerçek bireylerin incelemesine sunarak gerektiğinde güvenlik güçlerinin uyarılmasını sağlayacaktı.

İlginizi Çekebilir;  İnanılır gibi değil! 67 yaşında anne oldu

Bir cevap yazın

E-posta hesabınız yayımlanmayacak.