m

Apple testar ny funktion som döljer nakenbilder
I meddelanden som skickas till barn

Apple har börjat testa en funktion som döljer nakenbilder i meddelanden som skickas till barn via Messages i iOS 15.2 rapporterar MacRumours. Funktionen kallas för Communication Safety och liknar en funktion som Apple presenterade tidigare i år. Då drog man dock tillbaka funktionen i samband med att en annan funktion som skulle upptäcka bilder på sexuella övergrepp på barn fick hård kritik. Båda funktionerna var en del av Apples så kallade Child Safety-program men skiljde sig tekniskt åt från varandra. Funktionen som nu testas scannar bilder i meddelanden som mottagaren får och döljer bilder som anses visa nakna människor. Funktionen som upptäcker bilder på sexuella övergrepp scannade av bildarkivet i användarens iCloud-bibliotek och letade efter bilder som tidigare rapporterats till en så kallad CSAM-databas (Child Sexual Abuse Material). En skillnad på Communication Safety-funktionen som Apple nu testar och den som presenterades tidigare i år är att den nya funktionen inte automatiskt rapporterar att ett barn mottagit nakenbilder till föräldrar. Barnet kan dock själv välja att meddela sin vårdnadshavare om att någon försökt skicka sådana bilder via Messages. Den nya Communication Safety-funktionen i iOS 15.2 är som sagt fortfarande en beta-funktion. Huruvida den senare kommer att inkluderas i den skarpa versionen av iOS 15.2 som släpps publikt återstår att se. Tumnagel
52.0°
+
Wille Wilhelmsson
0

Apple väntar med funktion för att hitta övergrepp på barn
Var kanske inte så smart ändå

Ett tag nu har det känts som att Apple bara har gjort rätt saker, framförallt på integritetssidan. Men när man förslog en ändring för en månad sedan där användares bilder skulle genomsökas efter bilder på övergrepp på barn så var långt ifrån alla nöjda. Tanken var att användarnas bilder skulle kollas på deras enheter och skulle en bild innehålla dumheter så skulle det flaggas och myndigheter kontaktas. Att övergrepp på barn är en vidrig sak kan vi ju komma överens om, men Apple har tidigare varit väldigt hårda på att bakvägar in på deras användares enheter inte ska finnas, om det så än handlar om terrorism. Anledningen har då varit att om man öppnar för en sak i ett land så kommer man snabbt tvingas öppna för diktaturer för saker som diktaturer anser vara opassande. Överlag verkade förslaget för snabbt genomfört och det hela kändes lite som att man godkänt utan allt för kritiskt tänkande. Nu har Apple i alla fall beslutat att man ska skjuta upp det hela. "Last month we announced plans for features intended to help protect children from predators who use communication tools to recruit and exploit them, and limit the spread of Child Sexual Abuse Material. Based on feedback from customers, advocacy groups, researchers and others, we have decided to take additional time over the coming months to collect input and make improvements before releasing these critically important child safety features.” Om, när och i vilken form detta kommer att lanseras återstår alltså att se. Tumnagel
44.4°
+
Roger Åberg
0

Craig Federighi försvarar CSAM-detektering i ny intervju
Funktionerna "missförstådda" enligt Apple-chefen

I en ny intervju med Joanna Stern från Wall Street Journal berättar Apples mjukvaruchef Craig Federighi om hur de nya funktionerna för att detektera bilder på sexuellt övergrepp mot barn enligt Apple fortfarande skyddar användares integritet. CSAM-detekteringen (en databas över känt barnpornografiskt innehåll) som sker på bilder som finns uppladdade i tjänsten iCloud-bilder använder kryptografiska hashvärden för att jämföra dessa med databasen. Detta sker alltså endast när bilder laddas upp på iCloud. Om en bild matchar med databasen flaggas det och granskas av en människa från Apple. För att minska antalet felaktiga flaggningar ska tröskelvärdet för när detta sker vara runt 30 matchningar. Federighi tillägger även att när en människa får granska bilderna är det bara de bilder som flaggats som blir synliga, inte samtliga bilder på användarens konto. När Federighi får frågan huruvida detta kan öppna en bakdörr till regeringar runt om i världen avvisar han påståendet snabbt. Apple ska enligt Federighi byggt systemet med flera nivåer av granskning så det inte ska kunna missbrukas. Detta har dock inte dokumenterats särskilt väl av Apple, så det är just nu oklart hur exakt detta kommer fungera. Samma databas kommer att användas globalt. Samtidigt fortsätter de negativa reaktionerna, som menar att detta är något Apple aldrig borde börjat med då det öppnar upp dörrarna för detektering av andra sorters innehåll. Tumnagel
22.1°
+
Hugo Engström
0

Apples kontroversiella foto-scanning går att stänga av
Om man inaktiverar iCloud-lagring av bilder

Häromdagen presenterade Apple lite nya funktioner vars syfte var att skydda barn från övergrepp. En av dessa funktioner kommer bland annat att leta igenom iPhone-användarens bilder och söka efter kända bilder som avbildar sexuella övergrepp mot barn. Den så kallade "CSAM detection"-funktionen (Child Sexual Abuse Material) har fått motta en hel del kritik från integritets- och säkerhets-experter. Detta då en sådan funktion även skulle kunna användas för att hitta andra typer av bilder på användares telefoner. Funktionen är dock beroende av Apples molnlagringstjänst iCloud vilket gör att om en användaren inaktiverar bildlagring på iCloud kommer funktionen inte att fungera. Funktionen kommer heller inte att kunna hitta misstänkta bilder i iCloud-backuper om iCloud Photos är inaktiverat på användares telefoner skriver Mac Rumours. "CSAM detection"-funktionen kommer att lanseras för amerikanska användaren i samband med att iOS 15 släpps senare i höst. Det ska observeras att det inte handlar om någon artificiell intelligens som letar efter olika motiv som kan tänkas avbilda sexuella övergrepp på barn. Istället använder sig funktionen av så kallade hash-summor som registrerats för tidigare kända bilder som visar övergrepp mot barn. Skulle du vilja ändra dina iCloud-inställningar så hittas Apple support-sida för det här. Tumnagel
17.1°
+
Wille Wilhelmsson
0

Apple tar fram funktioner för att skydda barn mot övergrepp
Ska bland annat börja söka igenom användares bilder

Apple har tagit fram lite nya funktioner vars syfte är att skydda barn från övergrepp och förhindra att det sprids bilder på sexuella övergrepp på barn genom Apples hård- och mjukvara. Apple har bland annat utvecklat ett system som ska varna barn och föräldrar till dessa om barnen tar emot eller försöker sända bilder av sexuell karaktär via iMessages. Dessutom kommer Apples system att börja leta igenom bilder som laddats upp till iCloud för att hitta bilder som kan anses avbilda övergrepp på barn. En annan funktion kommer även att varna barn och föräldrar om barnen försöker söka efter något som kan klassas som CSAM (Child Sexual Abuse Material) via Siri eller Apples sökfunktioner. De nya funktionerna kommer att rulla ut för användare i USA i samband med att Apple släpper iOS 15, watchOS 8 och macOS Monterey senare i år. Det kommande systemet har redan fått motta en del kritik då säkerhetsforskare och andra anser att det kan komma att missbrukas i framtiden. Forskare är bland annat oroliga för att stater och andra intressen kan börja kräva att Apple börjar leta efter bilder och annat material som kanske inte har med övergrepp på barn att göra. Detta anser kritikerna riskerar att kränka användares integritet och digitala säkerhet. Här nedan hittas infografik på hur Apples system ska avgöra om bilder på användares iPhones ska klassas som CSAM-material. Tumnagel
27.4°
+
Wille Wilhelmsson
0
2019

Forskare har lyckats skapa flytande metall som går att töja
Skynet var dock först

I helgen avverkade jag två stycken filmklassiker - Terminator 1 och 2. I den andra filmen får vi lära känna T1000 - en robot som består av flytande metall som kan ändra form till det den har fysisk kontakt med. Lika ballt 1991 när filmen släpptes som idag. Och overkligt såklart, eller? Kanske inte för nu har nämligen forskare vid Beihang University i Kina lyckats ta fram flytande magnetisk metall som kan töjas och formas. Den kan tyvärr inte anta olika former än, men snart är vi där och T2 blev helt plötsligt en dokumentär. Läs mer på länken. Bonusklipp nedan. Tumnagel
41.1°
+
Bobby Green
0
2013

Priset för Samsung Galaxy S4: 6295 spänn
Hos Tre och Telia i alla fall

Både Tre och Telia har öppnat upp förhandsbokningen av Galaxy S4 och priset utan abonnemang är 6295 kronor. Telia har satt 26/4 som leveransdatum och Tre skriver "Beräknad leveranstid: 6-7 veckor". Detta gäller alltså för versionen med 16 GB minne. Som jämförelse kostar en iPhone 5 6195 kronor, en Galaxy S3 5395 kronor och en Optimus G 4895 kronor. Samtliga priser från Tre.se. Tumnagel
30.9°
+
Roger Åberg
0
2012

Android Bra spel på Play: Music Samurai
Kul övningar för huggsuget finger

Music Samurai är ett roligt rytmiskt actionspel där du skall hantera din katana med taktsäkert finger. Spelet säger sig vara inspirerat av TV-serier som "Afro Samurai" och "Samurai Champloo" och handlar om en samuraj vars risskål blivit stulen och hans jakt genom byar och städer där du till musik får hugga lite med din katana. [gratis] | [7kr] Tumnagel
36.9°
+
Christian Bengtsson
0
Slut på artiklar...