Apple heeft onlangs nieuwe kinderbeveiligingen aangekondigd die dit najaar komen met de introductie van iOS 15, iPadOS 15 en macOS Monterey.
We zullen deze uitgebreide kinderveiligheidsfuncties en de technologie erachter hieronder nader bekijken.
Scannen van materiaal voor seksueel misbruik van kinderen
De meest opvallende verandering is dat Apple nieuwe technologie gaat gebruiken om afbeeldingen van kindermishandeling te detecteren die zijn opgeslagen in iCloud-foto's.
Deze afbeeldingen staan bekend als materiaal voor seksueel misbruik van kinderen, of CSAM, en Apple zal exemplaren hiervan rapporteren aan het National Center for Missing and Exploited Children. Het NCMEC is een meldpunt voor CSAM en werkt samen met wetshandhavingsinstanties.
Apple's CSAM-scanning zal bij de lancering beperkt zijn tot de Verenigde Staten.
Apple zegt dat het systeem cryptografie gebruikt en is ontworpen met het oog op privacy. Afbeeldingen worden op het apparaat gescand voordat ze worden geüpload naar iCloud-foto's.
Volgens Apple hoef je je geen zorgen te maken dat Apple-medewerkers je echte foto's zien. In plaats daarvan voorziet de NCMEC Apple van afbeeldingshashes van CSAM-afbeeldingen. Een hash neemt een afbeelding en retourneert een lange, unieke reeks letters en cijfers.
Apple neemt die hashes en transformeert de gegevens in een onleesbare set hashes die veilig op een apparaat is opgeslagen.
Verwant: Hoe iOS 15 uw iPhone-privacy beter dan ooit tevoren beschermt
Voordat de afbeelding wordt gesynchroniseerd met iCloud-foto's, wordt deze vergeleken met de CSAM-afbeeldingen. Met een speciale cryptografische technologie – private set intersectie – bepaalt het systeem of er een match is zonder een resultaat te onthullen.
Als er een overeenkomst is, maakt een apparaat een cryptografische veiligheidsvoucher die de overeenkomst codeert, samen met meer versleutelde gegevens over de afbeelding. Die voucher wordt met de afbeelding geüpload naar iCloud-foto's.
Tenzij een iCloud-foto-account een bepaalde drempel van CSAM-inhoud overschrijdt, zorgt het systeem ervoor dat de veiligheidsvouchers niet door Apple kunnen worden gelezen. Dat is te danken aan een cryptografische technologie die geheim delen wordt genoemd.
Volgens Apple biedt de onbekende drempel een hoge mate van nauwkeurigheid en zorgt het voor minder dan een kans van één op een biljoen dat een account onjuist wordt gemarkeerd.
Wanneer de drempel wordt overschreden, stelt de technologie Apple in staat om de vouchers en bijpassende CSAM-afbeeldingen te interpreteren. Apple zal vervolgens elk rapport handmatig bekijken om een overeenkomst te bevestigen. Indien bevestigd, zal Apple het account van een gebruiker uitschakelen en vervolgens een rapport naar de NCMEC sturen.
Er komt een beroepsprocedure voor herstel als een gebruiker van mening is dat zijn account ten onrechte is gemarkeerd door de technologie.
Als je privacyproblemen hebt met het nieuwe systeem, heeft Apple bevestigd dat er geen foto's worden gescand met behulp van de cryptografietechnologie als je iCloud-foto's uitschakelt. Dat doe je door naar Instellingen > [Uw naam] > iCloud > Foto's.
Er zijn een paar nadelen bij het uitschakelen van iCloud-foto's. Alle foto's en video's worden op uw apparaat opgeslagen. Dat kan problemen veroorzaken als je veel afbeeldingen en video's hebt en een oudere iPhone met beperkte opslagruimte.
Foto's en video's die op het apparaat zijn gemaakt, zijn ook niet toegankelijk op andere Apple-apparaten die het iCloud-account gebruiken.
Verwant: Toegang krijgen tot iCloud-foto's
Apple legt meer uit over de technologie die wordt gebruikt bij de CSAM-detectie in een witboek PDF. Je kunt ook een lezen Veelgestelde vragen over Apple met aanvullende informatie over het systeem.
In de FAQ merkt Apple op dat het CSAM-detectiesysteem niet kan worden gebruikt om iets anders dan CSAM te detecteren. Het bedrijf zegt ook dat in de Verenigde Staten en veel andere landen het bezit van de CSAM-afbeeldingen een misdrijf is en dat Apple verplicht is de autoriteiten te informeren.
Het bedrijf zegt ook dat het elke eis van de overheid om een niet-CSAM-afbeelding aan de hashlijst toe te voegen, zal weigeren. Het verklaart ook waarom niet-CSAM-afbeeldingen niet door een derde partij aan het systeem konden worden toegevoegd.
Vanwege menselijke beoordeling en het feit dat de gebruikte hashes afkomstig zijn van bekende en bestaande CSAM-afbeeldingen, zegt Apple dat: het systeem is ontworpen om nauwkeurig te zijn en te voorkomen dat problemen met andere afbeeldingen of onschuldige gebruikers worden gemeld aan de NCMEC.
Aanvullend communicatieveiligheidsprotocol in berichten
Een andere nieuwe functie zijn de veiligheidsprotocollen in de Berichten-app. Dit biedt tools die kinderen en hun ouders waarschuwen bij het verzenden of ontvangen van berichten met seksueel expliciete foto's.
Wanneer een van deze berichten wordt ontvangen, wordt de foto onscherp en wordt het kind ook gewaarschuwd. Ze kunnen nuttige bronnen zien en krijgen te horen dat het goed is als ze de afbeelding niet bekijken.
De functie is alleen voor accounts die als families zijn ingesteld in iCloud. Ouders of voogden moeten zich aanmelden om de functie voor communicatiebeveiliging in te schakelen. Ze kunnen er ook voor kiezen om een melding te krijgen wanneer een kind van 12 jaar of jonger een seksueel expliciete afbeelding verzendt of ontvangt.
Voor kinderen van 13 t/m 17 jaar worden de ouders niet verwittigd. Maar het kind wordt gewaarschuwd en gevraagd of het een seksueel expliciete afbeelding wil bekijken of delen.
Verwant: Hoe iOS 15 intelligentie gebruikt om je iPhone slimmer dan ooit te maken
Berichten gebruikt machine learning op het apparaat om te bepalen of een bijlage of afbeelding seksueel expliciet is. Apple krijgt geen toegang tot de berichten of de afbeeldingsinhoud.
De functie werkt voor zowel gewone sms- als iMessage-berichten en is niet gekoppeld aan de CSAM-scanfunctie die we hierboven hebben beschreven.
Uitgebreide veiligheidsrichtlijnen in Siri en zoeken
Ten slotte zal Apple de richtlijnen voor zowel Siri- als de zoekfuncties uitbreiden om kinderen en ouders te helpen online veilig te blijven en hulp te krijgen in onveilige situaties. Apple wees op een voorbeeld waarbij gebruikers die Siri vragen hoe ze CSAM of kinderuitbuiting kunnen melden, informatie krijgen over hoe ze een melding bij de autoriteiten kunnen indienen.
Updates komen naar Siri en Zoeken voor wanneer iemand zoekopdrachten uitvoert met betrekking tot CSAM. Een interventie zal gebruikers uitleggen dat interesse in het onderwerp schadelijk en problematisch is. Ze zullen ook middelen en partners tonen om hulp te krijgen bij het probleem.
Meer veranderingen komen met de nieuwste software van Apple
De drie nieuwe functies van Apple zijn ontwikkeld in samenwerking met veiligheidsexperts en zijn ontworpen om kinderen online veilig te houden. Hoewel de functies in sommige op privacy gerichte kringen tot bezorgdheid kunnen leiden, heeft Apple zich uitgesproken over de technologie en hoe deze privacyproblemen in evenwicht zal brengen met de bescherming van kinderen.
Je hebt al gehoord over de belangrijkste wijzigingen in iOS 15, maar hier zijn alle verborgen wijzigingen die Apple heeft weggelaten uit WWDC.
Lees volgende
- iPhone
- Mac
- appel
- Smartphone-privacy
- Ouderschap en technologie
Brent, geboren en getogen in het zonnige westen van Texas, studeerde af aan de Texas Tech University met een BA in journalistiek. Hij schrijft al meer dan 5 jaar over technologie en geniet van alles wat met Apple, accessoires en beveiliging te maken heeft.
Abonneer op onze nieuwsbrief
Word lid van onze nieuwsbrief voor technische tips, recensies, gratis e-boeken en exclusieve deals!
Klik hier om je te abonneren