12 i går s Logga ut Logga in Skaffa Premium!

Apples kontroversiella foto-scanning går att stänga av
Om man inaktiverar iCloud-lagring av bilder

Apples kontroversiella foto-scanning går att stänga av
Foto: Wille Wilhelmsson

Häromdagen presenterade Apple lite nya funktioner vars syfte var att skydda barn från övergrepp. En av dessa funktioner kommer bland annat att leta igenom iPhone-användarens bilder och söka efter kända bilder som avbildar sexuella övergrepp mot barn.

Den så kallade "CSAM detection"-funktionen (Child Sexual Abuse Material) har fått motta en hel del kritik från integritets- och säkerhets-experter. Detta då en sådan funktion även skulle kunna användas för att hitta andra typer av bilder på användares telefoner.

Funktionen är dock beroende av Apples molnlagringstjänst iCloud vilket gör att om en användaren inaktiverar bildlagring på iCloud kommer funktionen inte att fungera. Funktionen kommer heller inte att kunna hitta misstänkta bilder i iCloud-backuper om iCloud Photos är inaktiverat på användares telefoner skriver Mac Rumours.

"CSAM detection"-funktionen kommer att lanseras för amerikanska användaren i samband med att iOS 15 släpps senare i höst. Det ska observeras att det inte handlar om någon artificiell intelligens som letar efter olika motiv som kan tänkas avbilda sexuella övergrepp på barn. Istället använder sig funktionen av så kallade hash-summor som registrerats för tidigare kända bilder som visar övergrepp mot barn.

Skulle du vilja ändra dina iCloud-inställningar så hittas Apple support-sida för det här.

Mac, Övrigt, apple, csam, integritet, övergrepp, icloud, barnporr Tack till alla som tipsat
17.1° 0 Wille Wilhelmsson Wille Wilhelmsson
sön. 8 aug 2021, 14:30
17.1°
0

Apples kontroversiella foto-scanning går att stänga av

Om man inaktiverar iCloud-lagring av bilder