Apple heeft plannen aangekondigd om uw iCloud-inhoud in augustus 2021 te scannen op materiaal met seksueel misbruik van kinderen (CSAM) om kinderen te beschermen tegen misbruik door roofdieren.
Het bedrijf was van plan een nieuwe CSAM-detectiefunctie in iCloud Photos te lanceren die naar dergelijke inhoud zou scannen en overeenkomende afbeeldingen aan Apple zou rapporteren met behoud van de privacy van de gebruiker.
De nieuwe functie kreeg echter gemengde reacties. Meer dan een jaar na de eerste aankondiging laat Apple officieel zijn plan vallen om iCloud-foto's te scannen op CSAM.
Apple laat zijn plan vallen om iCloud te scannen op kindermisbruik
Volgens een rapport van BEDRADE, loopt Apple weg van zijn plan om uw iCloud te scannen op kindermisbruik. De tool scant foto's die op iCloud zijn opgeslagen om die te vinden die overeenkomen met bekende CSAM-afbeeldingen zoals geïdentificeerd door kinderveiligheidsorganisaties. Het zou die afbeeldingen dan kunnen rapporteren omdat het bezit van CSAM-afbeeldingen in de meeste rechtsgebieden, inclusief de VS, illegaal is.
Waarom Apple zijn plan om iCloud-foto's te scannen heeft geannuleerd
Na de eerste aankondiging in 2021 kreeg Apple te maken met terugslag van klanten, groepen en individuen die wereldwijd pleitten voor digitale privacy en veiligheid. iPhones bieden doorgaans meer beveiliging dan Android-apparaten, en velen zagen dit als een stap terug. Hoewel het een overwinning was voor kinderveiligheidsorganisaties, schreven meer dan 90 beleidsgroepen later diezelfde maand een open brief aan Apple, waarin ze het bedrijf vertelden het plan te annuleren.
De brief betoogde dat terwijl de tool van plan is kinderen beschermen tegen misbruik, kan het worden gebruikt om de vrijheid van meningsuiting te censureren en de privacy en veiligheid van gebruikers in gevaar te brengen. Vanwege toenemende druk heeft Apple zijn lanceringsplannen stopgezet om feedback te verzamelen en de nodige aanpassingen aan de functie aan te brengen. Feedback was echter niet in het voordeel van Apple's plan om iCloud-foto's te scannen, dus het bedrijf laat de plannen officieel voorgoed vallen.
In een verklaring aan WIRED zei het bedrijf:
"We hebben... besloten om niet verder te gaan met onze eerder voorgestelde CSAM-detectietool voor iCloud-foto's. Kinderen kunnen worden beschermd zonder dat bedrijven persoonlijke gegevens doorzoeken, en we zullen blijven samenwerken met overheden, kinderadvocaten en andere bedrijven om jongeren te helpen beschermen, hun recht op privacy te behouden en het internet veiliger te maken voor kinderen en voor ons alle."
Het nieuwe plan van Apple om kinderen te beschermen
Apple heroriënteert zijn inspanningen om functies voor communicatieveiligheid te verbeteren die in augustus 2021 zijn aangekondigd en in december van hetzelfde jaar zijn gelanceerd.
Communicatie Veiligheid is optioneel en kan door ouders en voogden worden gebruikt om kinderen te beschermen tegen het verzenden en ontvangen van seksueel expliciete afbeeldingen in iMessage. De functie vervaagt dergelijke foto's automatisch en het kind wordt gewaarschuwd voor de gevaren. Het waarschuwt ook iedereen als ze proberen te zoeken naar CSAM op Apple-apparaten.
Nu plannen om een CSAM-detectietool te lanceren zijn geannuleerd, kijkt het bedrijf ernaar uit om de functie verder te verbeteren en uit te breiden naar meer communicatie-apps.