m
Innehåller annonslänkar
Dagens deal, utvald av Feber!
Jämför priser
Razer BlackWidow tangentbord kostar nu bara 999 kr (tidigare 1449 kr)
Artiklar i kategorin Pryl / Artificiell intelligens

Microsofts AI börjar bli ruggigt bra på att känna igen saker
Ska nu vara lika bra på det som vi människor

Microsoft har vidareutvecklat sin artificiella intelligens för datorsyn och säger nu att denna ska vara lika bra som människor på att känna igen vad den "ser". Som synes på en del exempel som visas i videoklippet ovan kan AI:n nu inte bara känna igen vad som visas på en bild utan även mer i detalj beskriva vad som finns på bilden. Microsoft använder den här tekniken bland annat i appen Seeing AI som vi skrivit om några gånger tidigare, en app som riktar sig till synskadade som med hjälp av sin mobil kan få en uppfattning om vad som finns omkring dem. Tekniken kan även användas för att informera synskadade om vad bilder på nätet visar när beskrivande text om det saknas. Microsoft kommer nu att börja erbjuda sin datorsyns-AI som en del av molnplattformen Azures "Cognitive Services". Det innebär att utvecklare som använde Azure kan få tillgång till den kraftfulla AI:n och använda denna i olika appar de skapar, något som givetvis underlättar då det krävs enorma utvecklingsresurser för att kunna åstadkomma något sådant här på egen hand. Tumnagel
46.2°
+
Wille Wilhelmsson
0

Hur normal är du?
EU-finansierad AI kanska kan ge dig svaret på det

Skulle du vilja ta reda på hur "normal" du är i förhållande till resten av befolkningen så finns det nu en artificiell intelligens som säger sig kunna bedöma det. Tjänsten "How normal am I?" är en del av det EU-finansierade projektet SHERPA (Shaping the Ethical Dimensions of Smart Information Systems) som bland annat undersöker hur artificiella intelligenser kan påverka etik och mänskliga rättigheter. Tjänsten använder sig av ansiktsigenkänning och vågar du slå på datorns kamera och låta AI:n utvärdera dig så kan du få upplysningar om hur gammal AI:n tror du är, hur attraktiv du är, vilket kön du har, vilket BMI du har samt om hur gammal du kan tänkas bli. Efter genomgången sammanställs resultaten från de olika testerna och man får en procentsats på hur "normal" man anses vara. Personligen har jag alltid trott att jag varit en 9 -10:a i skönhetssammanhang men så är tydligen inte fallet enligt AI:n som gav min utseende nesliga 5,2 i betyg, se bild nedan. Vill du testa "How normal am I?" själv så hoppa vidare på länken nedan och aktivera därefter kameran på datorn. I användarvillkoren som måste godkännas innan man sätter igång uppges att tjänsten inte sparar något av det som datorns kamera filmar. Här nedanför hittas även en informationsfilm som beskriver EU:s SHERPA-projekt lite närmare. Tumnagel
38.1°
+
Wille Wilhelmsson
0

Microsoft får exklusiv rätt att använda GPT-3 från OpenAI
Oklart vad de ska använda det till

Microsoft meddelade igår att de har fått exklusiv licens för att använda OpenAI:s AI-baserade språkmodell GPT-3 för kommersiella applikationer. OpenAI grundades av bland andra Elon Musk för fyra år sedan och har sedan dess utvecklat lite olika AI-projekt där språkmodellen GPT (Generative Pre-trained Transformer) är den som fått mest uppmärksamhet. GPT använder sig av så kallat "deep learning" (djupinlärning) för att producera texter som nu för tiden är så pass bra att de kan misstas för att ha skrivits av en människa. Exakt vad Microsoft har för planer för GPT-3 är inget man avslöjat men man verkar se en stor potential i det hela. I ett blogginlägg skriver Microsofts CTO Kevin Scott: "The scope of commercial and creative potential that can be unlocked through the GPT-3 model is profound, with genuinely novel capabilities – most of which we haven’t even imagined yet. Directly aiding human creativity and ingenuity in areas like writing and composition, describing and summarizing large blocks of long-form data (including code), converting natural language to another language – the possibilities are limited only by the ideas and scenarios that we bring to the table." GTP-3 kommer fortsatt gå att använda för icke kommersiellt bruk av forskare, entreprenörer och andra men när det gäller kommersiella applikationer ser det ut som om dessa rättigheter nu är exklusiva för Microsoft. I det första videoklippet nedan beskrivs vad GPT-3 är, lite om hur den utvecklades och vad den kan användas till. I det andra videoklippet visas exempel på applikationer som använder sig av GPT-3. I tweeten längst ner kan ni kolla in hur GPT-3 översätter en beskrivning av Googles hemsida och genererar koden som behövs för att skapa den. Tumnagel
38.0°
+
Wille Wilhelmsson
0

Munskydd har lett till problem för ansiktsigenkänning
Svårt att designa algoritmer som fungerar med munskydd

CNET rapporterar att tjänster som förlitar sig på ansiktsigenkänning för upplåsning av mobiler och annat har fått det svårare att identifiera människor efter det att en stor del av världen börjat använda munskydd. Det här är ett problem som uppmärksammades redan i början av pandemin men en del företag sa sig då ha modifierat sina algoritmer för ansiktsigenkänning så att dessa skulle fungera ändå. Huruvida det faktist stämmer går antagligen att diskutera. CNET har tagit del av en ny undersökning som undersökt hur effektiva 41 olika algoritmer för ansiktsigenkänning är när användaren bär munskydd. Enligt den undersökningen så hade samtliga algoritmer en felprocent på mellan 3 - 50 procent när användaren bar munskydd. I ett av exemplen som nämns så gick en av algoritmerna från att ha en felprocent på 0,6% till 34,5% efter det att man simulerat att användarna bar munskydd. Det fanns dock en del algoritmer som "bara" hade en felprocent på 3 procent när man testade hur väl dessa fungerade när användare bar munskydd, något som visar att det går att designa någorlunda effektiva algoritmer för ansiktsigenkänning där användaren bär munskydd. Undersökningen som CNET tagit del av genomfördes av NIST (National Institute of Standards and Technology). De testade de 41 algoritmerna med 6 miljoner ansiktsbilder vilka försetts med digitala munskydd under testet. Tumnagel
43.8°
+
Wille Wilhelmsson
0

AI spöar skiten ur stridspilot
Vi kanske inte behöver piloter i framtidens luftstrider

Det amerikanska flygvapnet har låtit en artificiell intelligens strida mot en mänsklig stridspilot i simulerade luftstrider i en tävling som anordnats av amerikanska militärens forskningsgren DARPA (Defense Advanced Research Project Agency). Tävlingen gick under namnet "AlphaDogfight" och där lät man först fem stycken artificiella intelligenser tävla mot varandra i simulerade luftstrider. Den vinnande AI:n från företaget Heron Systems fick därefter möta den mänskliga stridspiloten "Banger" i en slags final. Det hela slutade med att Herons AI spöade Banger i samtliga av de fem simulerade luftstriderna som genomfördes mellan de båda. Den vinnande AI:n ska ha tränats upp i över 4 miljarder simulerade luftstrider vilka motsvarade cirka 12 års flygtid. Här ovan hittas ett lite kortare sammandrag från "AlphaDogfight" och här nedan kan ni kolla in reprisen på den över två timmar långa live-sändningen från tävlingen. Tumnagel
40.1°
+
Wille Wilhelmsson
0

AI spelar Wimbledon
Lite FMV-stil men rätt så tufft ändå!

Den pågående globala pandemin har satt stopp för årets Wimbledon-turnering vilket har gjort att några forskare från Stanford University har valt att simulera turneringen med artificiell intelligens. Denna AI fick studera videoklipp på olika tennisspelare och utifrån det bygga modeller som kunde förutse hur tennisspelare så som Novak Djokovic eller Roger Federer spelar i vissa situationer. Exempelvis kunde denna AI räkna ut att Djokovic föredrar att spela bollen på motståndarens svagare sida och att Federer spelar närmare baslinjen än Rafael Nadal. Förutom det så kan detta system även generera simulerade tennismatcher och ett exempel på det kan du se i klippet ovan. Det hela ser lite ut som ett FMW-spel från förr när man tittar lite närmare på det men det kanske man inte behöver göra. Tumnagel
38.5°
+
Frode Wikesjö
0

Cartoonizer är en AI som gör om dig till seriefigur
Eller animerad film

Cartoonizer är en tjänst som med hjälp av artificiell intelligens gör det den matas med lite mera likt en serietidning. Det kan handla om bilder, som i fallet ovan, eller om små korta filmsnuttar, som den som syns här nedanför. Resultatet, åtminstone när det gäller filmscener, är rätt så imponerande att döma av scenen från Avengers här nedanför som körts genom Cartoonizer. Tjänsten bygger på data och teknik från forskningsrapporten "Learning to Cartoonize Using White-box Cartoon Representations" som publicerats av University of Tokyo. Tanken är att verktyg som dessa kanske skulle kunna användas för att till exempel snabbt kunna skapa prototyper till animerade filmer, spel och annat. Tumnagel
29.4°
+
Wille Wilhelmsson
0

Artificiell intelligens kan minska risken för drunkningsolyckor
Coral Manta håller koll på vad som händer i swimmingpoolen

Coral Manta från företaget Coral Detection System är ett tillbehör till swimmingpooler vars syfte är att hålla lite koll på dem som badar i denna och upptäcka om någon kanske håller på att drunkna i badet. Systemet använder sig av kameror och AI-tekniken datorsyn för att avgöra om någon som befinner sig i badet kanske kräver tillsyn för att undvika ett drunkningstillbud. Tanken är inte att systemet ska fungera som en bad- eller barnvakt utan ska snarare ses som ett komplement till detta. Skulle Coral Mantas AI bedöma att någon som befinner sig i poolen behöver hjälp så skickas ett meddelande om detta till den tillhörande appen. Coral Manta är avsett för mindre swimmingpooler av den typen en del har i sina hem eller trädgårdar och i videoklippet nedan kan ni kolla in hur det hela fungerar. Coral Manta laddar sitt batteri via solenergi och kostar cirka 2500 dollar. Det finns även en version som inte laddas upp av solen som heter Coral Shell och den kostar cirka 1700 dollar. Tumnagel
41.3°
+
Wille Wilhelmsson
0

Microsoft ska inte sälja ansiktsigenkänning-tech till polisen
Gör som Google, IBM och Amazon

I en intervju med Washinton Post uppgav Microsofts ordförande Brad Smith att företaget inte kommer att sälja teknik eller system för ansiktsigenkänning till polisiära myndigheter. Det innebär att Microsoft sällar sig till raden företag som inte vill att deras AI-teknik för ansiktsigenkänning ska användas av polisiära myndigheter runt om i världen. Tidigare i veckan meddelade Amazon att man skulle pausa försäljningen av system för ansiktsigenkänning till polis. Google meddelade redan 2018 att man inte planerade att sälja ansiktsigenkännings-teknik till någon och den här veckan meddelade IBM att man helt kommer att sluta sälja, utveckla och forska inom området. Utav de fyra företagen är det bara Amazon som tidigare har försett amerikansk polis med teknik för ansiktsigenkänning. Det återstår att se om företaget återupptar den försäljningen av detta när pausen av försäljningen avslutas om ett år. Tumnagel
44.8°
+
Wille Wilhelmsson
0

VidPress använder AI för att skapa nyhetsklipp
Baidus artificiella intelligens kan göra tusen videoklipp om dagen

Googles kinesiska motsvarighet Baidu har utvecklat en artificiell intelligens som på egen hand kan producera kortare nyhetsklipp där det enda som krävs som input är en webbadress till ämnet som nyhetsklippet ska handla om. Baidu kallar systemet för VidPress och efter det att AI:n fått tillgång till en URL dammsuger den nätet på texter, bilder och andra videoklipp om det aktuella ämnet. Därefter sätter AI:n ihop det hela till ett nyhetsklipp där texter, bilder och videoklipp synkas med varandra så att det ska kännas som ett naturligt nyhetsinslag för tittaren. Enligt Baidu kan VidPress göra runt tusen nyhetsklipp om dagen. Det tar cirka 9 minuter för AI:n att göra ett 2,5 minuter långt videoklipp, något som det vanligtvis tar cirka en kvart att göra för de människor som arbetar professionellt med att producera nyhetsinslag enligt Baidu. Här nedan kan ni kolla in ett flödesschema som visar hur VidPress AI arbetar för att skapa ett färdigt nyhetsinslag med bara en URL som input. Ni kan kolla in ett exempel på ett nyhetsinslag som VidPress gjort på Baidus egna videotjänst här. Tumnagel
27.5°
+
Wille Wilhelmsson
0

Kina har fått ännu en AI som läser upp nyheter
Xin Xiaowei är världens första 3D-modellerade AI-nyhetsankare

De senaste åren har tv-kanaler runt om i världen gjort försök med olika typer av virtuella nyhetsankare och i Kina har ännu en sådan nu visats upp. Det är den statliga nyhetsbyrån Xinhua som tillsammans med sökmotorn Sogou utvecklat det virtuella nyhetsankaret Xin Xiaowe vilket ska vara modellerat efter Xinhuas egen nyhetspresentatör Zhao Wanwei. Enligt Sogou ska Xin Xiaowe vara världens första 3D-modellerade AI-nyhetsuppläsare. I den inbäddade tweeten nedan kan ni kolla in hur det ser ut när Xin Xiaowe läser upp nyheter för Xinhua. Det ser väl inte helt overkligt ut men det krävs nog en hel del ytterligare arbete för att någon ska kunna missta Xin Xiaowe för en mänsklig nyhetsuppläsare. Tumnagel
27.1°
+
Wille Wilhelmsson
0

Artificiell intelligens hittar på nya ord
I used my bungshot to win a game of driftjack

Maskinlärings-algoritmer går att använda till mycket och på tjänsten "This Word Does Not Exist" används det maskinlärning för att hitta på nya ord, ord som inte finns. Förutom att hitta på själva ordet så tar algoritmen även fram en betydelse för ordet som den skulle sett ut om ordet funnits i en traditionell ordbok. Har man inte så mycket för sig så går det med lätthet att kasta iväg några minuter av sitt liv genom att bara och sitta och reloada sidan för att få sig nya ord serverade. För den väldigt intresserade går det även att ladda hem källkoden vilken baseras på OpenAI:s artificiella intelligens GPT-2 vilken vi har skrivit tidigare om några gånger. GPT utvecklades ursprungligen för att skriva så kallade fake news på egen hand, något som den till slut blev så bra på så att OpenAI var lite oroliga för att den skulle börja missbrukas om man släppte ut den i frihet. Tumnagel
40.1°
+
Wille Wilhelmsson
0

Sony släpper bildsensor med inbyggd AI
IMX500 kommer att dyka upp i framtidens kameror

Sony presenterade idag två nya smarta bildsensorer som ska vara de första i världen som har inbyggd funktionalitet för att hantera olika typer av algoritmer avsedda för artificiell intelligens. Det handlar om bildsensorn IMX500 som har en upplösning på 12,3 megapixlar samt IMX501 som består av själva sensorn förpackad i en färdig produkt. Med hjälp av den inbyggda AI-funktionaliteten kan sensorn till exempel sköta saker som ansiktsigenkänning och andra AI-funktioner helt på egen hand utan att det krävs externa chip för detta. Sony skriver i en pressrelease om möjligheterna att använda sensorn för att analyseras videoströmmar i realtid: "When a video is recorded using a conventional image sensor, it is necessary to send data for each individual output image frame for AI processing, resulting in increased data transmission and making it difficult to deliver real-time performance. The new sensor products from Sony perform ISP processing and high-speed AI processing (3.1 milliseconds processing for MobileNet V1*2) on the logic chip, completing the entire process in a single video frame. This design makes it possible to deliver high-precision, real-time tracking of objects while recording video." Sony har redan börjat sälja IMX500 för 10.000 yen, motsvarande cirka 920 kronor, och siktar på att börja sälja IMX501 i juni för 20.000 yen, motsvarande cirka 1850 kronor. Sony tror att de första produkterna som kommer att börja använda deras nya bildsensorer kommer att dyka upp på marknaden någon gång under första kvartalet nästa år. Här nedanför hittas två bilder från Sony som visar lite användningsområden där man tror att bildsensorn kan användas när det kommer till olika typer av övervakningskameror. Tumnagel
38.9°
+
Wille Wilhelmsson
0

Artificiella intelligenser kan inte ta patent på uppfinningar
Åtminstone inte i USA och Storbritannien

Förra året skrev vi lite om debatten om huruvida artificiella intelligenser skulle kunna ta patent på saker de "uppfunnit" och nu har den frågan avgjorts i åtminstone USA. Det amerikanska patentverket USPTO har nu besluta att AI:s inte får listas som upphovsmän till patent. Istället ska personen eller personerna som skapat, eller lärt upp, AI:n, anses vara upphovsmän till eventuella uppfinningar AI:s hittar på. Bakgrunden till det hela är den artificiella intelligensen DABUS förra året skapade två lite enklare patentbara lösningar, en matbehållare och en slags ficklampa för nödsituationer, vars patent DABUS skapare Stephen Thaler ville skulle tillfalla AI:n. Thaler och andra ansåg att DABUS borde stå som uppfinnare till de båda produkterna då Thaler själv inte hade någon expertis inom de aktuella produkt-områdena. Den brittiske juridik- och hälsoprofessorn Ryan Abbott från brittiska University of Surrey ansåg att AI:n skulle beviljas patenten Han sa i en intervju med Wall Street Journal förra året: "If I teach my Ph.D. student that and they go on to make a final complex idea, that doesn’t make me an inventor on their patent, so it shouldn’t with a machine." Brittiska myndigheter beslutade redan förra året att AI:s inte kan ta patent på uppfinningar och nu är alltså den frågan även avgjord i USA. Tumnagel
40.0°
+
Wille Wilhelmsson
0

Nu kan alla göra deepfakes
AI-teknik gör att i stort sett alla kan låtsas att vara någon annan

I slutet av 2017 började AI-utvecklare använda algoritmer för att fejka framträdanden av kändisar, porrstjärnor och annat. Det handlade om en teknik som fick namnet "deepfakes" där man kunde ersätta en persons ansikte, till exempel sitt eget, med en kändis eller någon annan persons. Utvecklingen av deepfakes-teknik tog fart på allvar 2018 och idag finns det deepfake-algoritmer som gör det möjligt för i stort sett vem som helst att skapa ett deepfakes-klipp. I videoklippet ovan går "Two Minute Papers" igenom hur deepfakes fungerar och hur tekniken har utvecklats på bara några år. Tumnagel
32.4°
+
Wille Wilhelmsson
0

DeepMinds nya AI är bättre än dig på Atari-spel
Agent57 spöar typ alla i 57 av Ataris klassiska spel

Googles AI-företag DeepMind har tagit fram en ny artificiell intelligens som man har tränat upp på att bli världsbäst på några av Ataris klassiska arkadspel. DeepMind kallar sin nya AI för "Agent 57" och den bygger vidare på AI:s som DeepMind tidigare utvecklat för att dominera i andra spel. Bland annat har man använt teknik man har lärt sig från AI:n DQN (Deep-Q Network) som är en hejare på att spela Montezumas Revenge för att utvecka Agent 57. DeepMind har även integrerat teknik från sin NVG-AI (Never Give Up) som tidigare bland annat använts för att spela spel som till exempel Pitfall. Ni kan kolla in när Agent57 lirar Alien här ovanför och på YouTube hittas en samling videos där AI:n spelar samtliga spel i Atari57-samlingen. Tumnagel
38.2°
+
Wille Wilhelmsson
0

Intel tar fram chip som fungerar som en näsa
Kan lukta sig till farliga ämnen

Forskare på Intel och Cornell University har tagit fram ett chip som med hjälp av artificiell intelligens har lärt sig känna igen olika lukter. Av människans olika sinnen ska lukt vara en av de svårare för en AI att lära sig men nu har forskarna lärt upp Intels Loihi-chip att känna skillnad på tio olika lukter från lite olika farliga kemikalier. Det handlar om grejer som till exempel aceton, ammoniak och metan som den elektroniska näsan nu kan känna av. I tester har man kunnat se att dessa lukter identifierades även om det fanns starka dofter av andra saker i testmiljön. Intel presenterade sitt självlärande så kallade neuromorfiska chip Loihi 2017 och har sedan dess försökt hitta lite olika applikationer där man kan använda det. Neuromorfiska chip försöker efterlikna processer som sker i människans neurala system och passar därför utmärkt för att, som i det här fallet, särskilja olika lukter. Intels forskare förklarar detta lite närmare: "Whether you’re smelling a grapefruit, a rose or a noxious gas, networks of neurons in your brain create sensations specific to the object. Similarly, your senses of sight and sound, your recall of memory, your emotions, your decision-making each have individual neural networks that compute in particular ways." När Intel först presenterade Loihi 2017 hade chippet 130 miljoner artificiella "synapser", kopplingar mellan chippets artificiella "neuroner", men förra året hade man som målsättning att öka detta till över en miljard "synapser". Man sa då att Loihi skulle bli ungefär lika "smart" som en mus efter uppgraderingen. Tumnagel
41.2°
+
Wille Wilhelmsson
0

Currux Vision Smart City AI kan se när olyckor sker i realtid
AI-system kan ersätta trafikövervakare

Det amerikanska företaget Currux Vision har utvecklat ett AI-baserat kamerasystem som ska kunna övervaka trafik och hålla koll på när det sker olyckor där. Currux Vision Smart City AI är tänkt att implementeras i så kallade smarta städer och kan antagligen på sikt ersätta mänskliga trafikövervakare. I ett test i Texas med Currux Vision Smart City AI så ska man ha uppnått nästan 100 procent träffsäkerhet att identifiera trafikolyckor på de vägarna som systemet övervakade. Skulle en olycka vara framme så kan systemet automatiskt tillkalla räddningstjänst vilket kanske kan korta utryckningstiden något för dem. I klippet ovan hittas en reklamfilm för Currux Vision Smart City AI och här nedan hittas ett lite långsammare klipp där systemet pysslar med att räkna bilar i en korsning. Tumnagel
37.7°
+
Wille Wilhelmsson
0

Veo är en AI-kamera som filmar fotbollsmatcher
När man inte har råd med proffs som gör det

Det danska företaget Veo har utvecklat en kamera som man hoppas ska vara intressant för fotbollsklubbar som vill filma sina matcher utan att lägga en förmögenhet på detta. Med hjälp av artificiell intelligens har Veo utvecklat ett system som gör att kameran kan filma matcherna genom att följa fotbollen på planen. Det gör att det inte krävs någon kameraman vilket gör att kameran kanske passar fint till klubbar som inte har ekonomi att anlita en kameraman varje gång det ska spelas match. Med hjälp av artificiell intelligens kan kamerans tillhörande tjänst även tagga och namnge spelarna som syns i bild. Kameran kan filma i 4K-upplösning i 180 grader över planen med en hastighet på 30fps. I dagsläget ska över 3500 klubbar från över 60 länder använda Veos kameror när de spelar in sina matcher och träningspass. En Veo-kamera kostar cirka 1200 euro och då inkluderas ett 12-månaders abonnemang på Veos tillhörande Elite-tjänst, ett abonnemang som vanligtvis kostar 55 euro i månaden. Det finns tre olika abonnemang till kameran; "Basic", "Elite" samt "Elite+" och dessa kostar 29 euro/månad, 55 euro/månad och 79 euro/månad. Här nedanför hittas ett instagram-inlägg med ett exempel på hur en film från kameran kan se ut samt en informationsvideo om Veo-kameran. Visa det här inlägget på Instagram Seeing it is one thing, doing it is another ???? @veo_video Ett inlägg delat av 433 (@433) 26 Mar 2019 kl. 5:26 PDT Tumnagel
44.2°
+
Wille Wilhelmsson
0

Nu kommer kroppskameror med ansiktsigenkänning
Kan identifiera människor i realtid

Från USA kommer uppgifter om att företaget Wolfcom har börjat testa en så kallas kroppskamera som är försedd med teknik som scannar ansikten i realtid. Det innebär med andra ord att användaren av kameran i realtid kan identifiera människor som kameran filmar eller fotograferar. I dagsläget verkar Wolfcom bara rikta sin kamera Halo till polisiära myndigheter. Tanken är att poliser som använder Wolfcom Halo ska kunna matcha bilder från kameran mot sitt register på efterlysta. På så sätt kan poliserna omgående få reda på om en person de konfronterar är efterlyst för något brott. Identifiering via ansiktsigenkänning är fortsatt ett rätt kontroversiellt område i västländer då det kan anses som integritetskränkande. I Kina har man som bekant inga problem med det och där har poliser använt olika typer av kroppskameror med ansiktsigenkänning i över två år. Axon, USA:s största tillverkare av kroppskameror, meddelade förra året att man inte skulle implementera teknik för ansiktsigenkänning i sina kameror just på grund av att de ansågs integritetskränkande. Japanska NEC har kroppskameror med ansiktsigenkänning men säljer inte dessa på den amerikanska marknaden. Här i Sverige beslutade Datainspektionen i slutet av förra året att den svenska polisen inte fick använda ansiktsigenkänning på Skavsta flygplats, något som jag antar innebär att det inte heller är aktuellt med kroppskameror med ansiktsigenkänning för den svenska polisen. Åtminstone inte för tillfället. Tumnagel
35.0°
+
Wille Wilhelmsson
0

Munskydd inte längre något problem för ansiktsigenkänning
Förbättrad AI kan se vem du är ändå

I samband med att allt fler har börjat använda munskydd i områden som drabbats hårt av det nya coronaviruset Covid-19 har det upptäckt att system för ansiktsigenkänning ofta inte fungerar särskilt bra för att identifiera personer med munskydd. Detta verkar dock ha varit ett problem som det kinesiska företaget Hanwang Technology kunnat åtgärda snabbt. Kinesiska South China Morning Post har lagt upp en video som visar hur Hanwangs förbättrade system för ansiktsigenkänning ska kunna identifiera personer även om de använder munskydd. Systemet ska även ha justerats för att kunna skicka varningar om det upptäcker personer som inte använder munskydd och vilka dessa personer i så fall är. Hanwang håller även på att vidareutveckla systemet så att det även ska kunna ta en någorlunda tillförlitlig temperatur på personer som passerar systemet. Enligt SCMP ska redan Hanwangs förbättrade system börjat användas i en del kontorsbyggnader i Kinas huvudstad Beijing. Tumnagel
28.1°
+
Wille Wilhelmsson
0

Artificiell intelligens gör dig osynlig framför webbkameran
Raderar människor från videoflöden i realtid

Artificiell intelligens har i allt större utsträckning börjat användas för att manipulera bilder och videoklipp sen den typen av AI-teknik blivit mera tillgänglig. Vi har tidigare bland annat fått se en lång rad exempel på så kallade "deepfakes", videoklipp där någons ansikte ersätts med en annans person. Här kan ni kolla in ett liknande exempel där man istället för att byta ut en persons ansikte raderar hela personen från videoklippet. Den artificiella intelligensen som demonstreras i videoklippet nedan är utvecklad av Jason Mayes som till vardags arbetar på Google. Med hjälp av Googles AI-ramverk TensorFlow så har Mayes tagit fram ett verktyg som kan radera människor från webbkamera-flöden i realtid vilket kanske kan vara intressant om man av någon anledning skulle vilja leka osynlighets-leken. Mayes har lagt ut hela sitt experiment som öppen källkod på GitHub. Där kan man förutom att inspektera koden till AI:n även testa att leka osynlig med sin egen webbkamera om man skulle känna för det. Tumnagel
43.5°
+
Wille Wilhelmsson
0

Googles AI slutar könsbestämma människor
Nu blir alla människor på foton "personer"

Google har beslutat sig för att sluta kategorisera människor som förekommer på bilder i olika kön rapporterar Business Insider vilka har tagit del av mail som beskriver förändringarna i Googles Cloud Vision AI. Det innebär att människor på bilder som analyseras med Vision AI inte längre kommer att benämnas som män eller kvinnor utan från och med nu kommer att kategoriseras som en "person". Det här är förändringar som Google gör då man anser att det är svårt att könsbestämma en person enbart utifrån ett fotografi. Förutom det så tycker Google att könsbestämning bryter mot deras egna etiska regler för artificiella intelligenser då det kan leda till att de artificiella intelligenserna blir både fördomsfulla och partiska. Att göra binära könsbestämningar som "man" och "kvinna" leder givetvis även till problem då det finns en del människor som varken betraktar sig som män eller kvinnor, något som en artificiell intelligens på inga som helst sätt skulle kunna avgöra enbart genom att analysera ett fotografi. Tumnagel
18.4°
+
Wille Wilhelmsson
0

JPEG undersöker om AI kan komprimera bildfiler
Kommer AI-algoritm stå bakom framtidens bildkomprimering?

Standardorganisationen JPEG (Joint Photographic Experts Group) har sedan förra året börjat undersöka hur eller om man kan använda artificiell intelligens för att skapa effektivare sätt att komprimera bilder och videofiler i framtiden rapporterar The Next Web. I projektet "JPEG AI" arbetar en grupp inom JPEG-kommittén med att undersöka olika bild-codecs som baserats på neurala nätverk. Till sin hjälp har man tagit IEEE (Institute of Electrical and Electronics Engineers) som kommer att hjälpa till med att samla in olika forskningsrapporter i ämnet, rapporter som kommer att presenteras på International Conference of Image Processing (ICIP) i Förenade Arabemiratens huvudstad Abu Dhabi i oktober. I en rapport från förra året skriver JPEG om JPEG AI: "In the last few years, several efficient learning-based image coding solutions have been proposed, mainly with improved neural network models. These advances exploit the availability of large image datasets and special hardware, such as the highly parallelizable graphic processing units (GPUs). Recognizing that this area has received many contributions recently and is considered critical for the future of a rich multimedia ecosystem, JPEG has created the JPEG AI AhG group to study promising learning-based image codecs with a precise and well-defined quality evaluation methodology." JPEG tog fram specifikationerna till den första komprimeringstandarden med samma namn 1992 och bildformatet JPEG/JPG har sedan dess blivit ett av världens mest använda bildformat, om inte det mest använda. Tumnagel
40.4°
+
Wille Wilhelmsson
0

Nya Zeelands polis börjar använda artificiella intelligensen Ella
AI-polis ska hjälpa till på polishögkvarteret

Hos polisen på Nya Zeeland har nu den artificiella intelligensen Ella börjat arbeta och "hon" ska initialt vara behjälplig med vissa uppgifter i receptionen på landets polishögkvarter i huvudstaden Wellington. Ella är utvecklad av de båda Nya Zeeländska företagen Intela AI och Soul Machines vilka har gett "Ella" liv genom ett animerat ansikte som rör sig i takt till det som Ella säger. Tanken är att Ella ska kunna ta emot besökare på poliskontoret i Wellington, meddela personen som söks att deras besök har anlänt samt ge besökaren vägvisning om var denna person finns. Den nya zeeländska polisen planerar att testa Ella under tre månaders tid. Därefter ska man utvärdera det hela för att se hur den artificiell intelligensen har bidragit till verksamheten och om detta är något man ska satsa på inför framtiden. Tumnagel
36.9°
+
Wille Wilhelmsson
0

ARM visar upp AI-chip som inte behöver molnet
För snabbare och säkrare artificiell intelligens i IoT-grejer

ARM har presenterat två nya chip för så kallad "Edge AI", chip som hanterar beräkningar för artificiella intelligenser utan någon koppling till molnet. Fördelen med AI-chip som gör beräkningar lokalt är att dessa gör detta betydligt mycket snabbare och även säkrare då datan som hanteras inte behöver förflyttas. De båda chippen som ARM nu presenterat är AI-processorn Cortex-M55 samt chipet Ethos-U55 vilket är en neural processor-enhet som kan kombineras med Cortex-M55 för mer komplexa AI-uppgifter. De båda chippen är primärt utvecklade för det smarta hemmet och andra IoT-grejer och är inte avsedda för mobiler och datorer, något som många andra Edge AI-chip på marknaden utvecklats för. Bland annat är det något som både Google pysslar med via sitt Coral och även Apple genom AI-företaget Xnor.ai som man köpte upp tidigare i år. I dagsläget kan ARM:s Cortex ARM-plattform klara av enklare AI-uppgifter med Edge AI, till exempel vibrationsdetektion och lyssna efter nyckelord. Med Cortex-M55 kommer plattformen även att klara av lite mer avancerade uppgifter som till exempel att känna igen olika objekt och skulle man även slänga in Ethos-U55 i grytan så skulle det kunna handla om uppgifter som röstigenkänning och tolkning av rörelser till system som styrs med gester. ARM har som vanligt inga planer på att tillverka sina chip själva utan de är framtagna som en referensdesign. Själva tillverkningen av chippen lämnas till ARM:s partners och underleverantörer så att dessa kan optimera chippen för sina respektive maskiner och applikationer. Någon gång under 2021 tros de första av AI-chippen med ARM:s senaste design dyka upp på marknaden. Tumnagel
39.5°
+
Wille Wilhelmsson
0

SOS Alarm börjar använda AI för att hitta hjärtstopp
Artificiell intelligens börjar lyssna på 112-samtal

Sveriges Radio rapporterar att SOS Alarm blir det senaste företaget att börja använda artificiell intelligens i sin verksamhet, något man bland annat gör för att kunna prioritera insatser man sätter in för dem som ringer det svenska larmnumret 112. SOS Alarms artificiella intelligens är utvecklad för att kunna lyssna och upptäcka olika ord och andra tecken på att den som ringer till 112 kan ha drabbats av hjärtstopp. Skulle så vara fallet meddelar AI:n larmoperatören detta som då kan börja ställa kontrollfrågor som ska kunna fastställa om den som ringer in drabbats av ett hjärtstopp. Tekniken bakom SOS Alarm AI är utvecklad av det danska företaget Corti. Enligt en tidigare utvärdering av systemet kunde larmoperatörer korrekt bedöma om den som ringde in drabbats av hjärtstopp i 84 procent av fallen med AI:ns hjälp, en siffra som sjönk till 72 procent när AI:n inte fanns tillgänglig. Tumnagel
46.3°
+
Wille Wilhelmsson
0

Airbnbs AI kan avgöra om deras användare är psykopater
Vill undvika opålitliga hyresgäster

Rumsuthyrningstjänsten Airbnb har utvecklat ett system där man bland annat använder artificiell intelligens för att säkerställa att deras användare inte är helt opålitliga eller pysslat med andra konstigheter när de ska hyra eller hyra ut bostäder på Airbnbs tjänst. Airbnbs system kontrollerar bland annat sina användare mot vad de gjort för inlägg i sociala medier såväl som deras brottsregister i de fallen det är möjligt. Baserat på information som detta ska Airbnbs artificiella intelligens kunna avgöra om användaren till exempel har psykopatiska drag eller andra personlighetsdrag som kanske gör att systemet flaggar personen som icke önskvärd kund. AI:n som Airbnb använder ska vara utvecklad av företaget Trooly som Airbnb köpte upp 2017. Huruvida en artificiell intelligens med någorlunda säkerhet kan avgöra om en person är psykopat enbart baserat på deras aktivitet på nätet finns det inga klara bevis för och är än så länge omtvistat. Tumnagel
33.0°
+
Wille Wilhelmsson
0

Finland vill lära EU-medborgarna grunderna i AI
Så att vi hänger med USA och Asien i AI-racet

Finland har för tillfället den roterande ordförandeposten i EU och ett av deras mål under den här perioden är att lära EU-medborgarna grunderna om artificiell intelligens. Tanken bakom det hela är att EU:s medborgare ska bli lite mer intresserade av AI och att USA:s och Asiens försprång på AI-marknaden inte växer sig större än vad det redan är. Därför siktar nu Finland på att översätta den AI-utbildning som Helsingfors Universitet erbjudit gratis sedan 2018 till alla EU-språk. Finlands målsättning är att cirka en procent av EU:s cirka 512 miljoner medborgare ska lära sig mer om AI. AI-kursen som gjordes tillgänglig gratis förra året har redan tagits av cirka 220.000 personer. Den finns redan tillgänglig på svenska och skulle du själv vilja lära dig grunderna i artificiell intelligens så kan du hoppa vidare till "Elements of AI" på länken nedan. Tumnagel
57.4°
+
Wille Wilhelmsson
0

Nvidia har en AI som kan göra 3D-modeller av stillbilder
Första artificiella intelligensen som fixar det

Nvidia fortsätter att experimentera med artificiella intelligenser och nu har man presenterat en ny sådan som ska kunna göra 3D-modeller genom att studera en enda bild. Det finns sedan tidigare verktyg som kan göra 3D-modeller från videoklipp eller flera stillbilder men enligt Nvidia ska deras nya AI-verktyg vara det första som kan åstadkomma detta baserat på en enda bild. Jun Gao är en av forskarna bakom Nvidias nya AI-verktyg och han säger: "This is essentially the first time ever that you can take just about any 2D image and predict relevant 3D properties." Nvidia kallar sitt nya AI-verktyg för DIB-R vilket står för "Differentiable Interpolation-Based Renderer". Man har tränat upp den artificiella intelligensen genom att låta den studera tidigare bilder som använts för att skapa 3D-modeller, faktiska 3D-modeller och foton på specifika objekt ur olika vinklar. Enligt Nvidia kan man träna upp DIB-R på att generera 3D-modeller av en särskild sort, till exempel fåglar, på cirka två dagar om man använder Nvidias V100 GPU, en GPU speciellt framtagen för att hantera artificiella intelligenser. Därefter ska DIB-R kunna generera 3D-modeller från en enda 2D-bild på under 100 millisekunder. Då det handlar om att göra 3D-modeller i nästan realtid så skulle till exempel stillbilder från en robot kunna användas för att roboten enklare skulle förstå hur objektet faktiskt ser ut i 3D om den till exempel skulle vilja plocka upp detta. På liknande sätt skulle stillbilder från kameror på självkörande bilar kunna användas för att ge bilen en uppfattning om hur objekt bilen möter ser ut i 3D och anpassa körningen efter det. Tumnagel
40.9°
+
Wille Wilhelmsson
0