13 i dag 37 i går s Logga ut Logga in Skaffa Premium!
iOS 15.2 kan skanna efter närliggande AirTags Funktionen som skyddar barn på iMessage är också tillbaka
iOS 15.2 kan skanna efter närliggande AirTags
Foto: MacRumors

I senaste betan för kommande iOS 15.2 (beta 2) kommer några funktioner som försenades och några helt nya. Med kontakter för kontoåterställning kan användare enkelt återställa sitt Apple ID-lösen­ord så att de aldrig tappar åtkomsten till sitt konto. Med funktionen Digitalt arv kan användare utse personer som får åtkomst till Apple-kontot efter användares bortgång. Det blir också lättare att identifiera AirTags i närheten, som kan användas för att spåra personer utan deras vetskap, i Hitta-appen finns nu en knapp som skannar efter närliggande AirTags.

Apple TV-appen på iPadOS får också en sidopanel för enklare navigering inom appen. Göm min mailadress finns även som alternativ direkt i Mail-appen när användare skickar mail.

Sist men inte minst verkar Apple till slut aktivera funktionen som ska skydda barn på iMessage genom att varna när de tar emot eller skickar bilder som innehåller nakenhet. Inte att förvirra med funktionen för Apples iCloud Bilder som letar efter bilder i en känd databas på Apples servrar. Identifiering av olämpliga meddelanden sker endast direkt på användarens enhet.

Mobil, iOS, AirTags, beta, iPhone Via 9to5mac.com
iOS 15.2 får App Privacy Report Se vad appar begär åtkomst till ofta Apple presenterade funktionen App Privacy Report för iOS 15 under WWDC i juni, men blev som många andra funktioner försenade. Det ser dock ut som att funktionen äntligen är färdig med iOS 15.2, som Apple släppte i beta i onsdags. Apple beskriver funktionen så här: En funktion i Inställningar låter dig se hur ofta appar har fått åtkomst till din plats, foton, kamera, mikrofon och kontakter under de senaste sju dagarna. Den visar också vilka appar som har kontaktat andra parter och hur nyligen de har kontaktat dem. Med iOS 14.5 introducerade Apple en funktion som tvingade appar att fråga om tillåtelse för att spåra användare mellan andra appar och webbsidor. Tumnagel
51.9°
0
Apple väntar med funktion för att hitta övergrepp på barn Var kanske inte så smart ändå Ett tag nu har det känts som att Apple bara har gjort rätt saker, framförallt på integritetssidan. Men när man förslog en ändring för en månad sedan där användares bilder skulle genomsökas efter bilder på övergrepp på barn så var långt ifrån alla nöjda. Tanken var att användarnas bilder skulle kollas på deras enheter och skulle en bild innehålla dumheter så skulle det flaggas och myndigheter kontaktas. Att övergrepp på barn är en vidrig sak kan vi ju komma överens om, men Apple har tidigare varit väldigt hårda på att bakvägar in på deras användares enheter inte ska finnas, om det så än handlar om terrorism. Anledningen har då varit att om man öppnar för en sak i ett land så kommer man snabbt tvingas öppna för diktaturer för saker som diktaturer anser vara opassande. Överlag verkade förslaget för snabbt genomfört och det hela kändes lite som att man godkänt utan allt för kritiskt tänkande. Nu har Apple i alla fall beslutat att man ska skjuta upp det hela. "Last month we announced plans for features intended to help protect children from predators who use communication tools to recruit and exploit them, and limit the spread of Child Sexual Abuse Material. Based on feedback from customers, advocacy groups, researchers and others, we have decided to take additional time over the coming months to collect input and make improvements before releasing these critically important child safety features.” Om, när och i vilken form detta kommer att lanseras återstår alltså att se. Tumnagel
44.4°
0
Apple tar fram funktioner för att skydda barn mot övergrepp Ska bland annat börja söka igenom användares bilder Apple har tagit fram lite nya funktioner vars syfte är att skydda barn från övergrepp och förhindra att det sprids bilder på sexuella övergrepp på barn genom Apples hård- och mjukvara. Apple har bland annat utvecklat ett system som ska varna barn och föräldrar till dessa om barnen tar emot eller försöker sända bilder av sexuell karaktär via iMessages. Dessutom kommer Apples system att börja leta igenom bilder som laddats upp till iCloud för att hitta bilder som kan anses avbilda övergrepp på barn. En annan funktion kommer även att varna barn och föräldrar om barnen försöker söka efter något som kan klassas som CSAM (Child Sexual Abuse Material) via Siri eller Apples sökfunktioner. De nya funktionerna kommer att rulla ut för användare i USA i samband med att Apple släpper iOS 15, watchOS 8 och macOS Monterey senare i år. Det kommande systemet har redan fått motta en del kritik då säkerhetsforskare och andra anser att det kan komma att missbrukas i framtiden. Forskare är bland annat oroliga för att stater och andra intressen kan börja kräva att Apple börjar leta efter bilder och annat material som kanske inte har med övergrepp på barn att göra. Detta anser kritikerna riskerar att kränka användares integritet och digitala säkerhet. Här nedan hittas infografik på hur Apples system ska avgöra om bilder på användares iPhones ska klassas som CSAM-material. Tumnagel
27.4°
0
39.9° 0 Hugo Engström Hugo Engström
ons. 10 nov 2021, 20:00
iOS 15.2 kan skanna efter närliggande AirTags Funktionen som skyddar barn på iMessage är också tillbaka
39.9°
0