UPDATE - Apple heeft zijn omstreden plan om telefoons te gaan scannen op kinderporno, voorlopig uitgesteld. Het bedrijf wil na, alle ophef hierover, eerst meer onderzoek gaan doen naar de techniek en de consequenties, en ook in gesprek gaan met externe privacy-organisaties. Dit maakte Apple afgelopen vrijdag bekend. 

Het nieuws dat Apple iPhones op kinderporno gaat scannen, heeft wereldwijd voor veel ophef geleid. Ook binnen Apple zijn er veel medewerkers die hun zorgen hebben geuit over mogelijk misbruik onder druk van autoritaire regimes die hun burgers willen controleren. Apple zelf reageert ook.

Vorige week meldden we dat Apple kinderporno gaat scannen op iPhones in de VS. Deze nieuwe functie zet ook vraagtekens bij Apple’s privacy-slogan “What happens on your je iPhone, stays on your iPhone.”. Apple software-topman Craig Federighi erkent in een video-interview met de Wallstreet Journal dat de communicatie niet helder was.

Slogan what happens on your iPhone
Ook medewerkers van Apple vragen zich af of deze slogan nog geloofwaardig is

"Nieuwe functie is juist beter voor je privacy”
Apple gaat niet actief op zoek naar bepaalde foto’s op je iPhone. Alleen bij het uploaden van foto’s naar iCloud gaat Apple controleren of de digitale vingerafdruk of neural hash van die foto’s ook voorkomt in een nieuwe database in iOS met vingerafdrukken van eerdere foto’s met kindermisbruik. Juist door deze puur technische vergelijking hoeft Apple niet eens naar je foto’s te kijken. Eigen naaktfoto’s en foto’s van je kind in het bad gaan daarom dan ook geen CSAM (Child Sex Abuse Material)-melding geven naar Apple. Volgens Federighi controleren andere techbedrijven al veel langer in de cloud je foto’s en wil Apple deze controle alleen op een veel meer privacyvriendelijke manier gaan doen.

Privacy. Thats iPhone 1
Volgens Apple is de gekozen oplossing juist beter voor je privacy

Extra maatregelen tegen misbruik
Extra controles zijn ingebouwd om misbruik door Apple of één bepaald land te voorkomen. Het systeem werkt alleen met digitale vingerafdrukken die afkomstig zijn van meerdere meldpunten voor kinderveiligheid. Pas bij circa 30 bekende beelden met kinderpornografie krijgt Apple een signaal en kunnen controleurs van Apple alleen de gedetecteerde foto’s in een lage resolutie zien, zodat zij kunnen besluiten of het nodig is om de autoriteiten te informeren. Er is ook geen geautomatiseerde rapportage naar autoriteiten en Apple geeft aan dat zij niet gaan voldoen aan verzoeken om andere foto’s te delen.

Voorlopig alleen in VS
De nieuwe functie komt in iOS 15 voorlopig alleen beschikbaar in de VS. Later volgen er meer landen. Of Nederland en andere Europese landen daarbij zullen zijn, is nog maar de vraag. Peter Krager, specialist in privacyrecht vertelde onlangs aan BNR dat de huidige Europese AVG-privacywetgeving juist niet toestaat dat een bedrijf de foto’s eerst zelf controleert.

Nut tegenover privacy risico in toekomst
De hamvraag is hoe zinvol deze nieuwe functie straks is. Door alle ophef over deze nieuwe functie zullen de meeste kindermisbruikers het immers wel uit hun hoofd laten om hun foto’s in iCloud en andere clouddiensten op te slaan.
Tot nu toe was alles in iCloud en iMessage end-to-end versleuteld. De gelijktijdige aankondiging van het lokaal herkennen van sexueel getinte afbeeldingen in de iMessage-app van minderjarigen heeft de onrust mede aangewakkerd. Beide technieken kunnen immers onder druk ook voor andere zaken ingezet worden. Apple zegt nu wel heel stoer dat ze daar nooit aan zullen toegeven, maar aan de andere kant zijn er nu al voorbeelden waarbij Apple onder druk van een land nieuws- en VPN-apps uit de appstore heeft gehaald. En om actief te mogen blijven in China, heeft Apple er zelfs al mee ingestemd om een Chinees bedrijf toegang te geven tot de iCloud-servers in China. Aan de andere kant heeft Apple in China weinig speelruimte, omdat het voor hen de een na de grootste markt is en de meeste Apple-producten in China gemaakt worden.