Teknoloji

Apple Kullanıcıları Nasıl İzlemeyi Planlıyor?

Apple, kullanıcıları izlemek ve cihazlarında çocuk pornografisi depolayanları belirlemek için yeni CSAM Algılama sistemini kullanmayı planlıyor.

Ağustos 2021’in başlarında Apple , çocuk istismarı görüntülerini içeren fotoğrafları tanımlamak için yeni sistemini tanıttı . Apple’ın amacı – çocuk pornografisinin yayılmasıyla mücadele – tartışmasız iyi niyetli görünse de, duyuru hemen ateş aldı.

Apple, uzun süredir, kullanıcı gizliliğine önem veren bir cihaz üreticisi olarak kendi imajını geliştirmiştir. iOS 15 ve iPadOS 15 için beklenen yeni özellikler şimdiden bu itibara ciddi bir darbe vurdu ancak şirket geri adım atmıyor. İşte olanlar ve ortalama iPhone ve iPad kullanıcılarını nasıl etkileyeceği.

CSAM Algılama Nedir?

Apple’ın planları şirketin web sitesinde özetleniyor . Şirket, CSAM olarak da bilinen “çocuk cinsel istismarı materyali” için kullanıcıların cihazlarını arayan CSAM Detection adlı bir sistem geliştirdi.

“Çocuk pornografisi” CSAM ile eş anlamlı olsa da, Amerika Birleşik Devletleri’nde kayıp ve sömürülen çocukların bulunmasına ve kurtarılmasına yardımcı olan Ulusal Kayıp ve İstismara Uğramış Çocuklar Merkezi ( NCMEC ), “CSAM”ı daha uygun bir terim olarak görmektedir. NCMEC, Apple ve diğer teknoloji firmalarına bilinen CSAM görüntüleri hakkında bilgi sağlar.

Apple, Apple mobil cihazlarında ebeveyn denetimlerini genişleten diğer bazı özelliklerle birlikte CSAM Algılama özelliğini kullanıma sundu. Örneğin, birisi çocuklarına Apple Mesajlar’da müstehcen bir fotoğraf gönderirse ebeveynler bir bildirim alır.

Birkaç teknolojinin aynı anda ortaya çıkması bazı karışıklıklarla sonuçlandı ve birçok insan Apple’ın artık tüm kullanıcıları her zaman izleyeceği hissine kapıldı. Konu bu değil.

CSAM Algılama kullanıma sunma zaman çizelgesi

CSAM Detection, bu sonbaharda mevcut tüm iPhone ve iPad (iPhone 6S, beşinci nesil iPad ve sonrası) kullanıcılarına sunulacak olan iOS 15 ve iPadOS 15 mobil işletim sistemlerinin bir parçası olacak. İşlev, teorik olarak dünyanın her yerinde Apple mobil cihazlarında mevcut olacak olsa da, sistem şimdilik sadece Amerika Birleşik Devletleri’nde tam olarak çalışacak.

CSAM Algılama nasıl çalışacak?

CSAM Algılama, yalnızca bir akıllı telefon veya tabletten Apple sunucularına fotoğraf yükleyen iCloud hizmetinin bir parçası olan iCloud Fotoğrafları ile birlikte çalışır. Ayrıca, bunları kullanıcının diğer cihazlarında erişilebilir hale getirir.

Bir kullanıcı ayarlarda fotoğraf senkronizasyonunu devre dışı bırakırsa, CSAM Algılama çalışmayı durdurur. Bu, fotoğrafların yalnızca buluttaki suç veritabanlarındakilerle karşılaştırılacağı anlamına mı geliyor? Tam olarak değil. Sistem kasıtlı olarak karmaşıktır; Apple, gerekli bir gizlilik düzeyini garanti etmeye çalışıyor.

Apple’ın açıkladığı gibi , CSAM Algılama, NCMEC veya diğer benzer kuruluşların veritabanlarındaki fotoğraflarla eşleşip eşleşmediklerini belirlemek için bir cihazdaki fotoğrafları tarayarak çalışır.

CSAM Algılamanın nasıl çalıştığına dair basitleştirilmiş diyagram. Kaynak

Algılama yöntemi, içeriklerine göre fotoğraflar için özünde dijital tanımlayıcılar veya karmalar oluşturan NeuralHash teknolojisini kullanır. Bir karma, bilinen çocuk istismarı görüntülerinin veritabanındaki biriyle eşleşirse, görüntü ve karma değeri Apple’ın sunucularına yüklenir. Apple, resmi resmi olarak kaydetmeden önce başka bir kontrol gerçekleştirir.

Sistemin başka bir bileşeni olan özel küme kesişimi adı verilen şifreleme teknolojisi , CSAM Algılama taramasının sonuçlarını, Apple’ın yalnızca bir dizi kriter karşılandığında şifresini çözebileceği şekilde şifreler. Teoride bu, sistemin kötüye kullanılmasını önlemelidir – yani bir şirket çalışanının sistemi kötüye kullanmasını veya devlet kurumlarının talebi üzerine görüntüleri teslim etmesini önlemelidir.

Apple’ın yazılım mühendisliği kıdemli başkan yardımcısı Craig Federighi, Wall Street Journal ile 13 Ağustos’ta yaptığı bir röportajda , özel set kesişim protokolü için ana korumayı dile getirdi : Apple’ı uyarmak için 30 fotoğrafın NCMEC veritabanındaki görüntülerle eşleşmesi gerekiyor. Aşağıdaki şemada gösterildiği gibi, özel küme kesişim sistemi, bu eşiğe ulaşılana kadar veri kümesinin (CSAM Algılamanın çalışması ve fotoğrafların çalışmasıyla ilgili bilgiler) şifresinin çözülmesine izin vermeyecektir. Apple’a göre, bir görüntüyü işaretleme eşiği çok yüksek olduğundan, yanlış bir eşleşme pek olası değildir – “trilyonda bir ihtimal”.

CSAM Algılama sisteminin önemli bir özelliği: verilerin şifresini çözmek için çok sayıda fotoğrafın eşleşmesi gerekir. Kaynak

Sistem uyarıldığında ne olur? Bir Apple çalışanı verileri manuel olarak kontrol eder, çocuk pornografisinin varlığını doğrular ve yetkilileri bilgilendirir. Şimdilik sistem yalnızca Amerika Birleşik Devletleri’nde tam olarak çalışacak, bu nedenle bildirim ABD Adalet Bakanlığı tarafından desteklenen NCMEC’e gidecek.

CSAM Algılama ile ilgili sorunlar

Apple’ın eylemlerine yönelik olası eleştiriler iki kategoriye ayrılıyor: şirketin yaklaşımını sorgulamak ve protokolün güvenlik açıklarını incelemek. Şu anda, genel şikayetlerde bir eksiklik olmamasına rağmen, Apple’ın teknik bir hata yaptığına dair çok az somut kanıt var (bir konuyu aşağıda daha ayrıntılı olarak tartışacağız).

Örneğin, Electronic Frontier Foundation bu sorunları çok ayrıntılı olarak açıklamıştır . EFF’ye göre, kullanıcı tarafına görüntü tarama ekleyerek Apple, esasen kullanıcıların cihazlarına bir arka kapı yerleştiriyor. EFF, konsepti 2019’dan beri eleştiriyor .

Bu neden kötü bir şey? Pekala, verilerin tamamen şifrelendiği (Apple’ın iddia ettiği gibi) ve ardından bu içerik hakkında dışarıdakilere rapor vermeye başlayan bir cihaza sahip olmayı düşünün. Şu anda hedef çocuk pornografisi, bu da “Yanlış bir şey yapmıyorsan endişelenecek bir şey yok” gibi ortak bir nakaratlara yol açıyor ama böyle bir mekanizma olduğu sürece, olmayacağını bilemeyiz. diğer içeriklere uygulanabilir.

Sonuç olarak, bu eleştiri teknolojik olmaktan çok politiktir. Sorun, güvenlik ve mahremiyeti dengeleyen bir sosyal sözleşmenin yokluğunda yatmaktadır. Bürokratlardan, cihaz üreticilerinden ve yazılım geliştiricilerinden insan hakları aktivistlerine ve sıradan kullanıcılara kadar hepimiz bu dengeyi şimdi tanımlamaya çalışıyoruz.

Kolluk kuvvetleri, yaygın şifrelemenin kanıt toplamayı ve suçluları yakalamayı zorlaştırdığından şikayet ediyor ve bu anlaşılabilir bir durum. Kitlesel dijital gözetimle ilgili endişeler de açıktır. Apple’ın politikaları ve eylemleri hakkındaki görüşler de dahil olmak üzere görüşler bir düzine kuruş.

CSAM Algılamanın uygulanmasıyla ilgili olası sorunlar

Etik kaygıları aştığımızda, bazı engebeli teknolojik yollara çarpıyoruz. Herhangi bir program kodu yeni güvenlik açıkları üretir. Hükümetlerin neler yapabileceğini boşverin; ya bir siber suçlu CSAM Detection’ın güvenlik açıklarından yararlanırsa? Veri şifreleme söz konusu olduğunda, endişe doğal ve geçerlidir: Bilgi korumasını zayıflatırsanız, yalnızca iyi niyetle olsa bile, o zaman herkes bu zayıflığı başka amaçlar için kullanabilir.

CSAM Algılama kodunun bağımsız denetimi yeni başladı ve çok uzun zaman alabilir. Ancak, zaten birkaç şey öğrendik.

İlk olarak, fotoğrafları bir “model” ile karşılaştırmayı mümkün kılan kod, 14.3 sürümünden bu yana iOS’ta (ve macOS’ta) mevcuttur . Kodun CSAM Algılamanın bir parçası olması tamamen mümkündür. Görüntüleri eşleştirmek için bir arama algoritması denemeye yönelik yardımcı programlar zaten bazı çarpışmalar buldu . Örneğin, Apple’ın NeuralHash algoritmasına göre, aşağıdaki iki görüntü aynı karmaya sahiptir:

Apple’ın NeuralHash algoritmasına göre bu iki fotoğraf eşleşiyor. Kaynak

Yasadışı fotoğrafların karmalarından oluşan veritabanını çıkarmak mümkünse, bir uyarıyı tetikleyen “masum” görüntüler oluşturmak mümkündür; bu, Apple’ın CSAM Tespitini sürdürülemez hale getirmek için yeterince yanlış uyarı alabileceği anlamına gelir. Büyük olasılıkla Apple’ın algılamayı ayırmasının nedeni budur ve algoritmanın bir kısmı yalnızca sunucu tarafında çalışır.

Ayrıca Apple’ın özel küme kesişim protokolünün bu analizi de var. Şikayet, esasen, uyarı eşiğine ulaşmadan önce bile, PSI sisteminin Apple’ın sunucularına oldukça fazla bilgi aktarmasıdır. Makale, kolluk kuvvetlerinin Apple’dan veri talep ettiği bir senaryoyu anlatıyor ve yanlış uyarıların bile polisin ziyaretine yol açabileceğini öne sürüyor.

Şimdilik, yukarıdakiler, CSAM Algılamanın harici bir incelemesinin yalnızca ilk testleridir. Başarıları, büyük ölçüde, CSAM Detection’ın çalışmalarına – ve özellikle kaynak koduna – şeffaflık sağlayan ünlü gizli şirkete bağlı olacaktır.

Ortalama bir kullanıcı için CSAM Algılaması ne anlama gelir?

Modern cihazlar o kadar karmaşıktır ki, gerçekte ne kadar güvenli olduklarını, yani üreticinin vaatlerini ne ölçüde tuttuklarını belirlemek kolay değildir. Çoğumuzun yapabileceği tek şey, itibarına dayalı olarak şirkete güvenmek veya güvenmemektir.

Ancak şu önemli noktayı hatırlamak önemlidir: CSAM Algılama, yalnızca kullanıcılar fotoğrafları iCloud’a yüklediğinde çalışır. Apple’ın kararı kasıtlıydı ve teknolojiye yönelik bazı itirazları bekliyordu. Fotoğrafları buluta yüklemezseniz, hiçbir yere hiçbir şey gönderilmez.

2016’da FBI’ın Apple’dan San Bernardino, California’daki toplu bir tetikçiye ait bir iPhone 5C’nin kilidini açmak için yardım istediğinde, Apple ve FBI arasındaki kötü şöhretli çatışmayı hatırlayabilirsiniz. FBI, Apple’ın FBI’ın telefonun parola korumasını aşmasını sağlayacak bir yazılım yazmasını istedi.

Şirket, uymanın yalnızca saldırganın telefonunun değil, aynı zamanda herhangi birinin telefonunun da kilidinin açılmasıyla sonuçlanabileceğini kabul etti. FBI geri adım attı ve yazılımın açıklarından yararlanarak cihazı dışarıdan yardım alarak hackledi ve Apple müşterilerinin hakları için savaşan bir şirket olarak itibarını sürdürdü.

Ancak hikaye o kadar basit değil. Apple, verilerin bir kopyasını iCloud’dan teslim etti. Aslında şirket , buluta yüklenen hemen hemen tüm kullanıcı verilerine erişebilir . Anahtar zinciri parolaları ve ödeme bilgileri gibi bazıları uçtan uca şifreleme kullanılarak saklanır, ancak çoğu bilgi yalnızca onaylanmamış erişime, yani şirketin sunucularının hacklenmesine karşı korunmak için şifrelenir. Bu, şirketin verilerin şifresini çözebileceği anlamına gelir.

Çıkarımlar, CSAM Tespiti hikayesindeki belki de en ilginç olay örgüsünü oluşturuyor. Örneğin şirket, iCloud Fotoğrafları’ndaki tüm görüntüleri tarayabilir (Facebook, Google ve diğer birçok bulut hizmeti sağlayıcısının yaptığı gibi). Apple, kitlesel kullanıcı gözetimi suçlamalarını püskürtmesine yardımcı olacak daha zarif bir mekanizma yarattı, ancak bunun yerine, kullanıcıların cihazlarını taramak için daha da fazla eleştiri aldı.

Bunlar da hoşunuza gidebilir...