Appleov CSAM sistem je prevaren, ali kompanija ima dvije mjere zaštite

Ažuriranje: Apple je spomenuo drugu inspekciju servera, a kompanija za profesionalnu kompjutersku viziju navela je mogućnost šta bi to moglo biti opisano u donjem dijelu „Kako bi druga inspekcija mogla funkcionirati“.
Nakon što su programeri obrnuli inžinjering njegove dijelove, rana verzija Apple CSAM sistema je efektivno prevarena da označi nevinu sliku.Međutim, Apple je naveo da ima dodatne mjere zaštite kako bi spriječio da se to dogodi u stvarnom životu.
Najnoviji razvoj dogodio se nakon što je NeuralHash algoritam objavljen na web stranici za programere otvorenog koda GitHub, svako može eksperimentirati s njim…
Svi CSAM sistemi funkcionišu tako što uvoze bazu podataka poznatih materijala o seksualnom zlostavljanju dece iz organizacija kao što je Nacionalni centar za nestalu i eksploatisanu decu (NCMEC).Baza podataka se pruža u obliku heševa ili digitalnih otisaka prstiju sa slika.
Iako većina tehnoloških divova skenira fotografije postavljene u oblaku, Apple koristi NeuralHash algoritam na iPhoneu korisnika da generiše heš vrijednost pohranjene fotografije, a zatim je uspoređuje sa preuzetom kopijom CSAM hash vrijednosti.
Jučer je programer tvrdio da je obrnutim inženjeringom Apple-ov algoritam i pustio kod na GitHub – ovu tvrdnju je efektivno potvrdio Apple.
U roku od nekoliko sati nakon što je GitHib pušten, istraživači su uspješno koristili algoritam za kreiranje namjernog lažnog pozitivnog rezultata – dvije potpuno različite slike koje su generirale istu vrijednost hash-a.Ovo se zove sudar.
Za takve sisteme uvijek postoji rizik od kolizije, jer je heš naravno uvelike pojednostavljen prikaz slike, ali je iznenađujuće da neko može tako brzo generirati sliku.
Namjerni sudar ovdje je samo dokaz koncepta.Programeri nemaju pristup CSAM hash bazi podataka, što bi zahtijevalo kreiranje lažnih pozitivnih rezultata u sistemu u realnom vremenu, ali to dokazuje da su kolizijski napadi u principu relativno laki.
Apple je zapravo potvrdio da je algoritam osnova njegovog vlastitog sistema, ali je matičnoj ploči rekao da ovo nije konačna verzija.Kompanija je takođe izjavila da to nikada nije nameravala da zadrži u tajnosti.
Apple je rekao Motherboardu u e-poruci da je verzija koju je analizirao korisnik na GitHubu generička verzija, a ne konačna verzija koja se koristi za iCloud Photo CSAM detekciju.Apple je rekao da je također otkrio algoritam.
“NeuralHash algoritam [...] je dio potpisanog koda operativnog sistema [i] istraživači sigurnosti mogu provjeriti da li je njegovo ponašanje u skladu s opisom”, napisao je Appleov dokument.
Kompanija je dalje rekla da postoje još dva koraka: pokretanje sekundarnog (tajnog) sistema uparivanja na sopstvenom serveru i ručni pregled.
Apple je također naveo da nakon što korisnici prijeđu prag od 30 utakmica, drugi nejavni algoritam koji radi na Appleovim serverima će provjeriti rezultate.
“Ovaj neovisni hash je odabran da odbaci mogućnost da se pogrešni NeuralHash podudara s šifriranom CSAM bazom podataka na uređaju zbog suprotstavljenih smetnji ne-CSAM slika i premašuje prag podudaranja.”
Brad Dwyer iz Roboflowa pronašao je način da lako razlikuje dvije slike objavljene kao dokaz koncepta za napad sudara.
Zanima me kako ove slike izgledaju u CLIP-u sličnog, ali drugačijeg ekstraktora neuronskih karakteristika OpenAI.CLIP radi slično kao NeuralHash;uzima sliku i koristi neuronsku mrežu da generiše skup vektora karakteristika koji se mapiraju na sadržaj slike.
Ali mreža OpenAI je drugačija.To je opći model koji može mapirati slike i tekst.To znači da ga možemo koristiti za izdvajanje informacija o slici koje su razumljive ljudima.
Prošao sam dvije gornje slike sudara kroz CLIP da vidim da li je i ona prevarena.Kratak odgovor je: ne.To znači da bi Apple trebao biti u mogućnosti primijeniti drugu mrežu ekstraktora karakteristika (kao što je CLIP) na otkrivene CSAM slike kako bi utvrdio jesu li stvarne ili lažne.Mnogo je teže generirati slike koje obmanjuju dvije mreže u isto vrijeme.
Konačno, kao što je ranije spomenuto, slike se ručno pregledavaju kako bi se potvrdilo da su CSAM.
Istraživač sigurnosti je rekao da je jedini pravi rizik to što bi svako ko želi iznervirati Apple mogao dati lažne pozitivne rezultate ljudskim recenzentima.
“Apple je zapravo dizajnirao ovaj sistem, tako da hash funkciju ne treba čuvati u tajnosti, jer jedina stvar koju možete učiniti s 'ne-CSAM kao CSAM' je da gnjavite Appleov tim za odgovor s nekim neželjenim slikama dok ne implementiraju filtere za eliminaciju analiza To smeće u cjevovodu je lažno pozitivno,” rekao je Nicholas Weaver, viši istraživač na Institutu za međunarodne računarske nauke na Univerzitetu Kalifornije, Berkeley, za Motherboard u online chatu.
Privatnost je pitanje koje sve više brine u današnjem svijetu.Pratite sve izvještaje koji se odnose na privatnost, sigurnost itd. u našim smjernicama.
Ben Lovejoy je britanski tehnički pisac i urednik za EU za 9to5Mac.Poznat je po svojim kolumnama i dnevničkim člancima, istražujući svoje iskustvo s Apple proizvodima tokom vremena kako bi dobio sveobuhvatnije kritike.Piše i romane, postoje dva tehnička trilera, nekoliko kratkih naučnofantastičnih filmova i rom-com!


Vrijeme objave: 20.08.2021