In augustus 2021 maakte Apple zijn plannen bekend om iPhones te scannen op afbeeldingen van seksueel misbruik van kinderen. De verhuizing kreeg applaus van kinderbeschermingsgroepen, maar leidde tot bezorgdheid bij privacy- en beveiligingsexperts dat de functie zou kunnen worden misbruikt.

Apple was aanvankelijk van plan om de scantechnologie voor materiaal voor seksueel misbruik van kinderen (CSAM) in iOS 15 op te nemen; het heeft in plaats daarvan de uitrol van de functie voor onbepaalde tijd uitgesteld om feedback te vragen voordat deze volledig wordt vrijgegeven.

Dus waarom werd de CSAM-detectiefunctie een onderwerp van verhit debat en waarom stelde Apple de uitrol ervan uit?

Wat doet de fotoscanfunctie van Apple?

Apple heeft aangekondigd de functie voor het scannen van foto's te implementeren in de hoop seksueel misbruik van kinderen tegen te gaan. Alle foto's op de apparaten van Apple-gebruikers worden gescand op pedofiele inhoud met behulp van het "NueralHash"-algoritme dat door Apple is gemaakt.

Bovendien zouden alle Apple-apparaten die door kinderen worden gebruikt een veiligheidsfunctie hebben die automatisch wordt foto's van volwassenen vervagen als ze door een kind worden ontvangen, en de gebruiker zou twee keer worden gewaarschuwd als ze probeerden te openen hen.

Afgezien van het minimaliseren van de blootstelling aan inhoud voor volwassenen, als ouders de apparaten van hun kinderen registreren voor: extra veiligheid, de ouders worden op de hoogte gesteld als het kind expliciete inhoud van iemand ontvangt online.

Lees verder: Wat u moet weten over de kinderbeveiliging van Apple

Wat betreft volwassenen die Siri gebruiken om te zoeken naar iets dat kinderen seksualiseert, Siri zal die zoektocht niet doen en in plaats daarvan andere alternatieven voorstellen.

Gegevens van elk apparaat met 10 of meer foto's die door de algoritmen als verdacht worden beschouwd, worden gedecodeerd en onderworpen aan menselijke beoordeling.

Als die foto's of andere foto's op het apparaat overeenkomen met iets uit de database die wordt geleverd door Nationaal Centrum voor Vermiste en Uitgebuite Kinderen, wordt het gemeld aan de autoriteiten en wordt het account van de gebruiker opgeschort.

Belangrijkste zorgen over de functie voor het scannen van foto's

De CSAM-detectiefunctie zou live zijn gegaan met de lancering van iOS 15 in september 2021, maar in het gezicht van wijdverbreide verontwaardiging, besloot Apple meer tijd te nemen om feedback te verzamelen en hierin verbeteringen aan te brengen functie. Hier is Volledige verklaring van Apple op de vertraging:

"Vorige maand hebben we plannen aangekondigd voor functies die bedoeld zijn om kinderen te beschermen tegen roofdieren die gebruik communicatiemiddelen om ze te rekruteren en te exploiteren, en beperk de verspreiding van seksueel misbruik van kinderen Materiaal.

Op basis van feedback van klanten, belangengroepen, onderzoekers en anderen hebben we besloten om extra tijd te nemen de komende maanden om input te verzamelen en verbeteringen aan te brengen voordat deze uiterst belangrijke kinderveiligheid wordt vrijgegeven Kenmerken".

Bijna de helft van de zorgen met betrekking tot de fotoscanfunctie van Apple draait om privacy; de rest van de argumenten omvatten de waarschijnlijke onnauwkeurigheid van algoritmen en mogelijk misbruik van het systeem of de mazen ervan.

Laten we het opsplitsen in vier delen.

Potentieel misbruik

Wetende dat materiaal dat overeenkomt met kinderpornografie of bekende afbeeldingen van seksueel misbruik van kinderen een apparaat op de "verdachte" lijst zal krijgen, kan dit cybercriminelen in beweging zetten.

Ze kunnen een persoon opzettelijk bombarderen met ongepaste inhoud via iMessage, WhatsApp of andere middelen en het account van die persoon laten opschorten.

Apple heeft verzekerd dat gebruikers in beroep kunnen gaan als hun accounts zijn opgeschort vanwege een misverstand.

Misbruik van insiders

Hoewel ontworpen voor een goed doel, kan deze functie voor bepaalde mensen een totale ramp worden als hun apparaten worden in het systeem geregistreerd, met of zonder hun medeweten, door familieleden die geïnteresseerd zijn in het volgen van hun communicatie.

Zelfs als dat niet gebeurt, heeft Apple een achterdeur gemaakt om de gegevens van gebruikers aan het eind van de dag toegankelijk te maken. Nu is het een kwestie van motivatie en vastberadenheid voor mensen om toegang te krijgen tot de persoonlijke informatie van anderen.

Verwant: Wat is een achterdeur en wat doet het?

Het maakt niet alleen een grote inbreuk op de privacy mogelijk, maar maakt ook de weg vrij voor misbruik, giftige of controlerende familieleden, voogden, vrienden, geliefden, verzorgers en exen om iemands persoonlijke ruimte verder binnen te dringen of hun vrijheid.

Enerzijds is het bedoeld om seksueel misbruik van kinderen tegen te gaan; aan de andere kant kan het worden gebruikt om andere vormen van misbruik in stand te houden.

Overheidstoezicht

Apple heeft zichzelf altijd aangeprezen als een meer privacybewust merk dan zijn concurrenten. Maar nu kan het een glibberig pad betreden om te moeten voldoen aan de nooit eindigende eisen van transparantie in gebruikersgegevens door overheden.

Het systeem dat het heeft gemaakt om pedofiele inhoud te detecteren, kan worden gebruikt om elke vorm van inhoud op telefoons te detecteren. Dat betekent dat overheden met een sektementaliteit gebruikers op een persoonlijker niveau kunnen monitoren als ze het in handen krijgen.

Beklemmend of niet, overheidsbemoeienis in uw dagelijkse en persoonlijke leven kan zenuwslopend zijn en is een inbreuk op uw privacy. Het idee dat je je alleen zorgen hoeft te maken over dergelijke invasies als je iets verkeerd hebt gedaan, is een gebrekkig denken en ziet de eerder genoemde gladde helling niet.

Vals alarm

Een van de grootste zorgen bij het gebruik van algoritmen om afbeeldingen met de database te matchen, zijn valse alarmen. Hashing-algoritmen kunnen ten onrechte twee foto's als overeenkomsten identificeren, zelfs als ze niet hetzelfde zijn. Deze fouten, 'botsingen' genoemd, zijn vooral alarmerend in de context van inhoud van seksueel misbruik van kinderen.

Onderzoekers vonden verschillende botsingen in "NeuralHash" nadat Apple had aangekondigd dat het het algoritme zou gebruiken voor het scannen van afbeeldingen. Apple beantwoordde vragen over valse alarmen door erop te wijzen dat het resultaat aan het einde door een mens zal worden beoordeeld, zodat mensen zich er geen zorgen over hoeven te maken.

Is de CSAM-pauze van Apple permanent?

Er zijn veel voor- en nadelen van de door Apple voorgestelde functie. Elk van hen is echt en houdt gewicht. Het is nog steeds onduidelijk welke specifieke veranderingen Apple zou kunnen aanbrengen in de CSAM-scanfunctie om zijn critici tevreden te stellen.

Het zou het scannen kunnen beperken tot gedeelde iCloud-albums in plaats van de apparaten van de gebruikers erbij te betrekken. Het is zeer onwaarschijnlijk dat Apple deze plannen helemaal laat vallen, aangezien het bedrijf doorgaans niet geneigd is toe te geven aan zijn plannen.

Het is echter duidelijk uit de wijdverbreide terugslag en het feit dat Apple zijn plannen tegenhoudt, dat bedrijven zouden de onderzoeksgemeenschap vanaf het begin moeten betrekken, vooral voor een niet-geteste technologie.

DeelTweetenE-mail
Internetveiligheid: 50+ tips om uw kinderen online veilig te houden

Kinderen zijn een belangrijk doelwit voor online roofdieren en cyberpestkoppen. Deze handige tips kunnen ouders leren hoe ze online veilig kunnen blijven.

Lees volgende

Gerelateerde onderwerpen
  • Veiligheid
  • iPhone
  • Smartphone-privacy
  • appel
  • Onlineprivacy
  • Toezicht
Over de auteur
Fawad Ali (19 artikelen gepubliceerd)

Fawad is een IT- en communicatie-ingenieur, aspirant-ondernemer en schrijver. Hij betrad de arena van het schrijven van inhoud in 2017 en heeft sindsdien gewerkt met twee digitale marketingbureaus en tal van B2B- en B2C-klanten. Hij schrijft over beveiliging en technologie bij MUO, met als doel het publiek te onderwijzen, te entertainen en te betrekken.

Meer van Fawad Ali

Abonneer op onze nieuwsbrief

Word lid van onze nieuwsbrief voor technische tips, recensies, gratis e-boeken en exclusieve deals!

Klik hier om je te abonneren