Apple potvrdio: uvode sustav koji će provjeravati fotografije prije pohrane u iCloud, razlog je seksualno zlostavljanje djece

Stručnjaci za sigurnost izražavaju zabrinutost oko privatnosti i sigurnosti korisnika

(FILES) In this file photo taken on September 19, 2019 the new iPhone 11 are displayed  inside the newly renovated Apple Store at Fifth Avenue in New York City. - Apple on August 5, 2021 said that iPhones and iPads will soon start detecting images containing child sexual abuse and reporting them as they are uploaded to the iCloud. The software tweak to Apple's operating systems will monitor pictures, allowing Apple to report findings to the National Center for Missing and Exploited Children, according to a statement by the Silicon Valley-based tech giant. (Photo by Johannes EISELE / AFP)
FOTO: AFP

Apple je jučer objavio da će implementirati sustav koji provjerava fotografije na iPhone uređajima u SAD-u prije nego se učitaju u njihovu uslugu pohrane iCloud, kako bi se osiguralo da slike ne prikazuju prizore seksualnog zlostavljanja djece, javlja Reuters.

Otkrivanje slika o zlostavljanju djece potaknuti će pregledavanje od strane ljudi i prijavu takvog korisnika policiji, kažu iz Apple-a. Sustav je osmišljen da smanji lažno pozitivne rezultate na jedan na trilijun.

Appleov novi sustav nastoji odgovoriti na zahtjeve organa za provedbu zakona kako bi se spriječilo seksualno zlostavljanje djece, uz istovremeno poštivanje privatnosti i sigurnosne prakse koja je temeljno načelo tvrtke. Neki zagovornici privatnosti izrazili su bojazan da bi sustav mogao otvoriti vrata praćenju političkog govora ili drugog sadržaja na iPhoneu.

Drugi provjeravaju fotografije u bazi podataka

Većina drugih velikih dobavljača tehnologije, uključujući Google, Alphabet, Facebook i Microsoft već provjeravaju slike u bazi podataka slika seksualnog zlostavljanja djece.

“S toliko korisnika Appleovih proizvoda, ove nove sigurnosne mjere čine spasonosni potencijal za djecu koja su zavedena na internetu i čije se užasne slike šire u materijalima za seksualno zlostavljanje djece” kazao je John Clark, izvršni direktor američkog Nacionalnog centra za nestalu i eksploatiranu djecu. “Realnost je da privatnost i zaštita djece mogu koegzistirati.”

Evo kako Appleov sustav funkcionira. Stručnjaci za provođenje zakona vode bazu podataka o poznatim slikama seksualnog zlostavljanja djece i prevode te slike u “hasheve”, numeričke kodove koji pozitivno identificiraju sliku ali se ne mogu koristiti za njezinu rekonstrukciju.

Tehnologija pod nazivom NeuralHash

Apple je tu bazu podataka implementirao tehnologijom pod nazivom NeuralHash, dizajniranom za hvatanje editiranih slika sličnih izvorniku. Ta će baza podataka biti pohranjena na iPhoneu. Kada korisnik prenese sliku na Appleovu uslugu pohrane icloud, iPhone će stvoriti hash slike za prijenos i usporediti je s bazom podataka.

Fotografije koje su pohranjene samo na telefonu ne provjeravaju se, rekli su iz Applea, a pregled od strane ljudi prije prijave računa policiji ima cilj osigurati da postoje sve podudarnosti prije suspenzije računa.

Apple je rekao da se svi koji smatraju da im je račun nepravedno suspendiran mogu žaliti. Appleov sustav se razlikuje od drugih jer provjerava fotografije pohranjene na telefonima prije njihova učitavanja, umjesto nakon što stignu na servere.

Kritike sigurnosnih stručnjaka

Neki stručnjaci za sigurnost na Twitteru izražavaju zabrinutost oko privatnosti i sigurnosti jer bi se sustav mogao zloupotrebljavati za općenito skeniranje telefona.

“Apple je poslao jasan signal. Po njihovom mišljenju, sigurno je izgraditi sustave koji skeniraju telefone korisnika sa zabranjenim sadržajem”. upozorava Matthew Green, stručnjak za sigurnost sa Sveučilišta John Hopkins. “Ovo će razbiti branu i vlade će to zahtijevati od svih.”

Potez Applea je šokantan za korisnike koji su se oslanjali na vodeću ulogu tvrtke u sigurnosti i privatnosti, pišu stručnjaci za privatnost. Na kraju, čak i pomno osmišljen i uzak opseg “backdoor” još uvijek je “backdoor”, smatraju.