Apple ABD’de çocuk istismarını tespit etmek için iPhone’ları tarayacak. En büyük endişe, hükümetlerin bu kapıyı başka amaçlar için de çalabilme ihtimali.
Mustafa Orhun Çetin
Apple yıllardır kullanıcılarının veri güvenliğini koruması ve uçtan uca şifreleme teknolojisi nedeniyle destekçilerinden tam not alıyordu. Şirket son duyurusuyla bu olumlu düşünceyi kırmışa benziyor. İşi Black Mirror’daki gibi hacker’lara bırakmak istemeyen Apple -Dizinin Shut Up And Dance bölümünde çocuk pornografisine düşkün insanların hacker’lar tarafından ele geçirilen görüntülerle şantaja maruz kaldıklarını görmüştük- çocuk istismarının önüne geçmek ve açığa çıkarmak adına iPhone’larda bulunan fotoğrafları tarayacağını açıkladığında kullanıcılar ikiye bölündü. Kimileri bu güncelleme ile Apple’ın yıllardır sahip olduğu veri güvenliğinde geriye dönüş olduğunu düşünürken kimileri ise çocuk istismarını önlemede önemli bir yaptırım adımı olacağını düşünüyor.
DİJİTAL PARMAK İZİ
Düşünceler ve senaryolar havada çarpışırken Apple ise sistemi nasıl işleteceğini açıkladı bile. Telefondaki fotoğraflar, bilinen çocuk istismarı görüntülerinin veri tabanıyla karşılaştırılacak. Her bir görselin kendine has bir kodu yani dijital parmak izi olduğu için de bir eşleşme olması durumunda sonuca hızlı ve kolayca ulaşılabilecek. Apple çalışanları eşleşen görüntüleri inceleyip gerçekten de çocuk istismarına ait bir görsel olduğunu doğruladıklarında hesabı kapatarak bilgileri Ulusal Kayıp ve İstismara Uğramış Çocuk Merkezi (NCMEC) ile paylaşacak. Gerisi ise ABD yasaları ve kolluk kuvvetlerinin çalışmasına bırakılacak. ABD yasalarına göre şirketler sunucularındaki çocuk istismarına ait görüntüleri NCMEC’e bildirmek zorunda. Yani zaten yıllardır bu yasa Google, Facebook, Microsoft gibi bütün verilerimizi emanet ettiğimiz şirketler tarafından uygulanırken Apple’ın bu duyurusu neden kişisel verilerin gizliliği üzerine tartışmalara neden oluyor? Bunun cevabı da sistemin uygulanma şeklinde yatıyor. Bu görseller diğer şirketlerdeki gibi sunuculara yüklenmese dahi telefon, tablet ya da bilgisayardayken taranacak. Her görsel bu amaç için tasarlanan ‘neuralMatch’ isimli araç tarafından iCloud’a yüklenmeden önce taranıp veri tabanlarıyla karşılaştırılacak.
MESAJLAR DA TARANACAK
Şirket ayrıca çocuk güvenliği kapsamında şifreli mesajlaşma sistemini de cinsellik içerikli materyalleri yakalamak için taramayı planlıyor. 13 yaşından küçük çocuklarının telefonlarını kaydeden ebeveynler de mesajlaşma uygulamasındaki cinsel içerikler yakalandığında uyarılacak. Amaç göz önüne alındığında belki de kötü bir uygulama gibi gözükmeyebilir. Ama güvenlik uzmanlarını kaygılandıran hükümetin bu uygulama ile cihazlarda başka amaçlarla da arama yapmak için baskı kurma ihtimali. Bu endişeyi artıran ise taranan görüntülerin merkezin sisteminde kayıtlı olmadığında bir anlam ifade etmemesi. Yani bir ebeveyn olarak çocuğunuzun fotoğraflarınızı çektiğinizde sistem sizi çocuk istismarcısı olarak tanımlamıyor. Sistemin bu ‘belirlenmemiş şeyleri görmeme’ özelliği, sadece ona verilen kodları görmesi ise hükümet tarafından belirlenen ‘kodlar’ için de kullanılabilme durumunu ortaya çıkarıyor. Şirket, değişikliklerin bir arka kapı anlamına gelmediğini, kullanıcıların gizliliğini bozmadığını bilakis gizliliği koruyan ve dikkatlice düşünülmüş yenilikler olduklarını söylüyor. Özelliğin yıl içinde iPhone, Mac ve saatler için işletim sistemi güncellemesinin bir parçası olarak verilmesi bekleniyor.
Eylül 2021’de Inbusiness dergisinde yayınlanmıştır. Dergi kapsamında yayınlanan diğer içerikler için bu linki ziyaret edebilirsiniz.