LIVE 14:30 Volvo presenterar ny elbil!
m
Artiklar i kategorin Pryl / Artificiell intelligens

JPEG undersöker om AI kan komprimera bildfiler
Kommer AI-algoritm stå bakom framtidens bildkomprimering?

Standardorganisationen JPEG (Joint Photographic Experts Group) har sedan förra året börjat undersöka hur eller om man kan använda artificiell intelligens för att skapa effektivare sätt att komprimera bilder och videofiler i framtiden rapporterar The Next Web. I projektet "JPEG AI" arbetar en grupp inom JPEG-kommittén med att undersöka olika bild-codecs som baserats på neurala nätverk. Till sin hjälp har man tagit IEEE (Institute of Electrical and Electronics Engineers) som kommer att hjälpa till med att samla in olika forskningsrapporter i ämnet, rapporter som kommer att presenteras på International Conference of Image Processing (ICIP) i Förenade Arabemiratens huvudstad Abu Dhabi i oktober. I en rapport från förra året skriver JPEG om JPEG AI: "In the last few years, several efficient learning-based image coding solutions have been proposed, mainly with improved neural network models. These advances exploit the availability of large image datasets and special hardware, such as the highly parallelizable graphic processing units (GPUs). Recognizing that this area has received many contributions recently and is considered critical for the future of a rich multimedia ecosystem, JPEG has created the JPEG AI AhG group to study promising learning-based image codecs with a precise and well-defined quality evaluation methodology." JPEG tog fram specifikationerna till den första komprimeringstandarden med samma namn 1992 och bildformatet JPEG/JPG har sedan dess blivit ett av världens mest använda bildformat, om inte det mest använda. Tumnagel
40.4°
+
Wille Wilhelmsson
0

Nya Zeelands polis börjar använda artificiella intelligensen Ella
AI-polis ska hjälpa till på polishögkvarteret

Hos polisen på Nya Zeeland har nu den artificiella intelligensen Ella börjat arbeta och "hon" ska initialt vara behjälplig med vissa uppgifter i receptionen på landets polishögkvarter i huvudstaden Wellington. Ella är utvecklad av de båda Nya Zeeländska företagen Intela AI och Soul Machines vilka har gett "Ella" liv genom ett animerat ansikte som rör sig i takt till det som Ella säger. Tanken är att Ella ska kunna ta emot besökare på poliskontoret i Wellington, meddela personen som söks att deras besök har anlänt samt ge besökaren vägvisning om var denna person finns. Den nya zeeländska polisen planerar att testa Ella under tre månaders tid. Därefter ska man utvärdera det hela för att se hur den artificiell intelligensen har bidragit till verksamheten och om detta är något man ska satsa på inför framtiden. Tumnagel
36.9°
+
Wille Wilhelmsson
0

ARM visar upp AI-chip som inte behöver molnet
För snabbare och säkrare artificiell intelligens i IoT-grejer

ARM har presenterat två nya chip för så kallad "Edge AI", chip som hanterar beräkningar för artificiella intelligenser utan någon koppling till molnet. Fördelen med AI-chip som gör beräkningar lokalt är att dessa gör detta betydligt mycket snabbare och även säkrare då datan som hanteras inte behöver förflyttas. De båda chippen som ARM nu presenterat är AI-processorn Cortex-M55 samt chipet Ethos-U55 vilket är en neural processor-enhet som kan kombineras med Cortex-M55 för mer komplexa AI-uppgifter. De båda chippen är primärt utvecklade för det smarta hemmet och andra IoT-grejer och är inte avsedda för mobiler och datorer, något som många andra Edge AI-chip på marknaden utvecklats för. Bland annat är det något som både Google pysslar med via sitt Coral och även Apple genom AI-företaget Xnor.ai som man köpte upp tidigare i år. I dagsläget kan ARM:s Cortex ARM-plattform klara av enklare AI-uppgifter med Edge AI, till exempel vibrationsdetektion och lyssna efter nyckelord. Med Cortex-M55 kommer plattformen även att klara av lite mer avancerade uppgifter som till exempel att känna igen olika objekt och skulle man även slänga in Ethos-U55 i grytan så skulle det kunna handla om uppgifter som röstigenkänning och tolkning av rörelser till system som styrs med gester. ARM har som vanligt inga planer på att tillverka sina chip själva utan de är framtagna som en referensdesign. Själva tillverkningen av chippen lämnas till ARM:s partners och underleverantörer så att dessa kan optimera chippen för sina respektive maskiner och applikationer. Någon gång under 2021 tros de första av AI-chippen med ARM:s senaste design dyka upp på marknaden. Tumnagel
39.5°
+
Wille Wilhelmsson
0

SOS Alarm börjar använda AI för att hitta hjärtstopp
Artificiell intelligens börjar lyssna på 112-samtal

Sveriges Radio rapporterar att SOS Alarm blir det senaste företaget att börja använda artificiell intelligens i sin verksamhet, något man bland annat gör för att kunna prioritera insatser man sätter in för dem som ringer det svenska larmnumret 112. SOS Alarms artificiella intelligens är utvecklad för att kunna lyssna och upptäcka olika ord och andra tecken på att den som ringer till 112 kan ha drabbats av hjärtstopp. Skulle så vara fallet meddelar AI:n larmoperatören detta som då kan börja ställa kontrollfrågor som ska kunna fastställa om den som ringer in drabbats av ett hjärtstopp. Tekniken bakom SOS Alarm AI är utvecklad av det danska företaget Corti. Enligt en tidigare utvärdering av systemet kunde larmoperatörer korrekt bedöma om den som ringde in drabbats av hjärtstopp i 84 procent av fallen med AI:ns hjälp, en siffra som sjönk till 72 procent när AI:n inte fanns tillgänglig. Tumnagel
46.3°
+
Wille Wilhelmsson
0

Airbnbs AI kan avgöra om deras användare är psykopater
Vill undvika opålitliga hyresgäster

Rumsuthyrningstjänsten Airbnb har utvecklat ett system där man bland annat använder artificiell intelligens för att säkerställa att deras användare inte är helt opålitliga eller pysslat med andra konstigheter när de ska hyra eller hyra ut bostäder på Airbnbs tjänst. Airbnbs system kontrollerar bland annat sina användare mot vad de gjort för inlägg i sociala medier såväl som deras brottsregister i de fallen det är möjligt. Baserat på information som detta ska Airbnbs artificiella intelligens kunna avgöra om användaren till exempel har psykopatiska drag eller andra personlighetsdrag som kanske gör att systemet flaggar personen som icke önskvärd kund. AI:n som Airbnb använder ska vara utvecklad av företaget Trooly som Airbnb köpte upp 2017. Huruvida en artificiell intelligens med någorlunda säkerhet kan avgöra om en person är psykopat enbart baserat på deras aktivitet på nätet finns det inga klara bevis för och är än så länge omtvistat. Tumnagel
33.0°
+
Wille Wilhelmsson
0

Finland vill lära EU-medborgarna grunderna i AI
Så att vi hänger med USA och Asien i AI-racet

Finland har för tillfället den roterande ordförandeposten i EU och ett av deras mål under den här perioden är att lära EU-medborgarna grunderna om artificiell intelligens. Tanken bakom det hela är att EU:s medborgare ska bli lite mer intresserade av AI och att USA:s och Asiens försprång på AI-marknaden inte växer sig större än vad det redan är. Därför siktar nu Finland på att översätta den AI-utbildning som Helsingfors Universitet erbjudit gratis sedan 2018 till alla EU-språk. Finlands målsättning är att cirka en procent av EU:s cirka 512 miljoner medborgare ska lära sig mer om AI. AI-kursen som gjordes tillgänglig gratis förra året har redan tagits av cirka 220.000 personer. Den finns redan tillgänglig på svenska och skulle du själv vilja lära dig grunderna i artificiell intelligens så kan du hoppa vidare till "Elements of AI" på länken nedan. Tumnagel
57.4°
+
Wille Wilhelmsson
0

Nvidia har en AI som kan göra 3D-modeller av stillbilder
Första artificiella intelligensen som fixar det

Nvidia fortsätter att experimentera med artificiella intelligenser och nu har man presenterat en ny sådan som ska kunna göra 3D-modeller genom att studera en enda bild. Det finns sedan tidigare verktyg som kan göra 3D-modeller från videoklipp eller flera stillbilder men enligt Nvidia ska deras nya AI-verktyg vara det första som kan åstadkomma detta baserat på en enda bild. Jun Gao är en av forskarna bakom Nvidias nya AI-verktyg och han säger: "This is essentially the first time ever that you can take just about any 2D image and predict relevant 3D properties." Nvidia kallar sitt nya AI-verktyg för DIB-R vilket står för "Differentiable Interpolation-Based Renderer". Man har tränat upp den artificiella intelligensen genom att låta den studera tidigare bilder som använts för att skapa 3D-modeller, faktiska 3D-modeller och foton på specifika objekt ur olika vinklar. Enligt Nvidia kan man träna upp DIB-R på att generera 3D-modeller av en särskild sort, till exempel fåglar, på cirka två dagar om man använder Nvidias V100 GPU, en GPU speciellt framtagen för att hantera artificiella intelligenser. Därefter ska DIB-R kunna generera 3D-modeller från en enda 2D-bild på under 100 millisekunder. Då det handlar om att göra 3D-modeller i nästan realtid så skulle till exempel stillbilder från en robot kunna användas för att roboten enklare skulle förstå hur objektet faktiskt ser ut i 3D om den till exempel skulle vilja plocka upp detta. På liknande sätt skulle stillbilder från kameror på självkörande bilar kunna användas för att ge bilen en uppfattning om hur objekt bilen möter ser ut i 3D och anpassa körningen efter det. Tumnagel
40.9°
+
Wille Wilhelmsson
0

Amazon släpper synthen AWS DeepComposer
Som ska användas för att lära sig om artificiell intelligens

Amazon har släppt ännu ett verktyg för att lära ut maskinlärning och den här gången handlar det om att skapa musik som tar hjälp av artificiell intelligens. Det handlar om en liten synthesizer med 32 tangenter som själv ska kunna skapa en låt baserat på det användaren knappar in på tangenterna. Det ska gå att välja mellan att skapa musik inom olika genrer, till exempel pop eller rock, så väl som att skapa en egen genre baserad på musik som man låter DeepComposer lära sig. AWS DeepComposer kostar 99 dollar och blir Amazons tredje verktyg för att lära ut och låta användare experimentera med artificiell intelligens. Sedan tidigare har Amazon även släppt AWS DeepLens och AWS DeepRacer med vilka man kan testa andra former av artificiell intelligens. Här nedanför kan ni kolla in gårdagens presentation av DeepComposer på Amazons re:Invent-konferens i Las Vegas. Ni kan skippa lite försnack genom att hoppa fem minuter rakt in i klippet. Tumnagel
35.7°
+
Wille Wilhelmsson
0

Artificiell intelligens ska fånga rattsurfare i Australien
Kamera ser om någon använder mobilen bakom ratten

I den australiensiska delstaten New South Wales har polisen börjat använda kameror som med hjälp av artificiell intelligens kan upptäcka om bilister använder sina mobiltelefoner bakom ratten. Precis som i flera andra länder är det förbjudet att prata eller använda sin telefon när man kör bil i Australien. Med hjälp av de nya kamerorna hoppas polisen i New South Wales att minska antalet förekomster av så kallad rattsurfning. Bilderna som flaggas i systemet kommer att granskas av en människa och anser denna att någon använt sin mobil på ett otillåtet sätt bakom ratten så kan bilisten bötfällas. Skulle en bilist bli påkommen med att använda mobilen bakom ratten så blir det varning första gången och därefter handlar det om böter på minst 344 australiensiska dollar, motsvarande cirka 2200 svenska kronor. Tumnagel
49.4°
+
Wille Wilhelmsson
0

Världsmästare i Go lägger av
Lee Sedol har insett att han aldrig kommer att vinna över AI:s

Sydkoreanen Lee Sedol är en av världens bästa Go-spelare men han meddelar nu att han lägger av att spela Go professionellt. Anledningen till det verkar i mångt och mycket vara att han flera gånger blev besegrad av den artificiella intelligensen AlphaGo för tre år sedan, en AI som utvecklats av Googles AI-företag DeepMind. Det verkar som om Sedol lägger av efter att ha insett att han aldrig kommer att kunna bli bäst i världen på Go igen när han nu måste tävla mot artificiella intelligenser för att bli det. Till den sydkoreanska nyhetsbyrån Yonhap säger Lee: "With the debut of AI in Go games, Ix27ve realized that Ix27m not at the top even if I become the number one through frantic efforts. Even if I become the number one, there is an entity that cannot be defeated." Nästa månad kommer Lee Sedol att fira sin pensionering genom att spela en sista match i Go mot den artificiella intelligensen HanDol som utvecklats av det sydkoreanska företaget NHN Entertainment. Här ovanför hittas ett klipp från när Lee Sedol 2016 lirade Go mot AlphaGo. Tumnagel
28.9°
+
Wille Wilhelmsson
0

Kvinnor är artigare mot smarta assistenter än män
Brukar du säga tack till smarta assistenter?

Den amerikanska tankesmedjan Pew Research Center har gjort en stor undersökning om vad amerikaner tycker om smarta assistenter och hur de använder dessa. Man har bland annat undersökt hur artiga användarna är mot sina smarta assistenter. Enligt undersökningen så uppgav 54 procent av de som deltog i undersökningen att de brukade säga "please" till sina smarta assistenter när de tilltalade dessa. I undersökningen framkommer även att det var vanligare att kvinnor gjorde detta än män. 62 procent av kvinnorna brukade säga "please" till assistenterna medan motsvarande siffra för män var 45 procent. Personligen använder jag inte svenskans motsvarighet till "please" när jag pratar med smarta assistenter men däremot brukar jag tacka dem om de gör det jag vill eller svarar på det jag frågar. Brukar du säga tack till Siri, Google Assistant, Alexa, Cortana, Bixby eller någon annan smart assistent när de besvarar din fråga? Svara gärna på vår enkät nedan. Tumnagel
37.3°
+
Wille Wilhelmsson
0

Artificiell intelligens gjorde reklamfilm för Nike
Genom att studera Nikes tidigare reklamfilmer

Något som fortfarande skiljer oss människor från maskiner är att vi kan hitta på nya ideér och vara kreativa på ett helt annat sätt än vad robotar och andra maskiner än så länge har möjlighet att göra. Frågan är dock hur länge till det kommer att vara så. Jean-Baptiste Le Divelec arbetar som copywriter och han har testat att låta ett neuralt nätverk ta fram en reklamfilm för Nike baserad på ett 15-tal reklamfilmer som Nike släppt de senaste 10 åren. Le Divelec säger själv om sitt projekt som han kallar för "AI and Kennedy": "To be creative is to be human, and AI is after all, still a “bot”. I’ve always been fascinated by neural networks and deep learning, so with some friends I fed a neural network a decade’s worth of Nike commercials to see if it could write something original and inspiring. The result — which I named “AI and Kennedy” — is a schizophrenic journey of motivation bordering on the unintelligible. But between these absurd lines, I observed, with a chill, a touch of genius. Maybe the claim that an AI can do it, isn’t so crazy after all." Ni hittar reklamfilmen som "AI and Kennedy" spottade ur sig ovan. Nike har inte själva varit inblandade i det här projektet utan fick fungera som exempel för reklamfilmsproduktion med AI då Le Divelec anser att Nike är "one of the most iconic brand in the world". Tumnagel
32.5°
+
Wille Wilhelmsson
0

Artificiell intelligens lär sig vilka bilister som är rövhål i trafiken
Och anpassar sin körning efter detta

Forskare på MIT CSAIL har utvecklat en ny artificiell intelligens som kan observera hur andra, mänskliga, bilister framför sina fordon i trafiken. Baserat på det ska AI:n även kunna anpassa hur en självkörande bil hanterar vissa trafiksituationer. Hade alla bilar varit självkörande hade det här givetvis inte varit problem då maskiner inte är lika irrationella som oss människor. Maskiner agerar heller aldrig, än så länge i alla fall, på känslor och tar ej heller några chanser/risker i trafiken. Detta gör det svårt för självkörande bilar att förutse hur mänskliga chaufförer agerar i vissa situationer och därför fick MIT:s senaste AI studera hur en lång rad människor framförde bilar och kunde sedan klassificera chaufförerna som "själviska" eller "osjälviska". Klassificeringen kunde AI:n sedan använda när den självkörande bilen till exempel hamnade i trafiksituationer där två filer gick ihop. Genom att förutspå om bilisten i den sammangående filen var självisk eller osjälvisk, se illustration nedan, så kunde AI:n sedan hantera detta på lämpligt sätt. Enligt MIT kunde det själlvkörande fordonet hantera filsammanslagning 25 procent bättre när AI:n som identifierade ogina bilister var påslagen. MIT:s AI för att identifiera olika bilisters körsätt är än så länge inte redo för att tas i drift i trafik. MIT planerar att jobba vidare med AI:n och härnäst har man tänkt att träna upp den på att identifiera hur gångtrafikanter, cyklister och autonoma fordon tar sig fram i trafiken. Tumnagel
46.2°
+
Wille Wilhelmsson
0

AI för nyheter som tidigare ansågs vara för farlig är nu släppt
OpenAI:s artificiella intelligens skriver fake news

I början av året meddelade utvecklare på AI-organisationen OpenAI att man hade tagit fram en artificiell intelligens som man ansåg vara skrämmande bra på att skriva så kallade "fake news". Organisationen ansåg till och med att den var så duktig på att skiva hittepå-nyheter att man valde att inte ens släppa den publikt för att den inte skulle missbrukas i lömska sammanhang. Nu har dock OpenAI släppt loss AI:n som man kallar för GPT-2 så att alla kan avgöra hur "skrämmande" bra den faktiskt är på att skriva fake news. GPT-2 har tränats upp genom att studera 40GB med data som samlats in från 8 miljoner webbsajter och med hjälp av detta kan den skriva nyheter som människor eventuellt kan uppfatta som faktiska nyheter. Det går att testa GPT-2 förmåga att skriva nyheter på engelska själv på sajten "Talk to Transformer" där man kan välja ett ämne eller börja skriva in en mening och sedan låta AI:n generera en nyhet av detta. Resultatet brukar oftast påminna om en nyhetstext men så vidare "farlig" eller "skrämmande" ska nog den här AI:n inte anses vara tills vidare. Ni hittar ett exempel som jag skrev in själv på "Talk to Transformer" här nedanför och hoppar ni vidare till Gizmodo har de testat att genera en lång rad nyheter där vissa är trovärdigare än andra. Vill ni testa själva så hoppa vidare på länken nedan. Tumnagel
30.3°
+
Wille Wilhelmsson
0

AI får datorspelskaraktärer att röra sig mer naturligt
Ännu något vi inte behöver människor till

Artificiell intelligens går att använda till mycket och nu har några forskare på University of Edinburgh och Adobe Research utvecklat ett AI-system som får karaktärer i datorspel att röra sig mer naturligt. Vanligtvis spelar man in karaktärers rörelser i datorspel med hjälp av kroppsskådespelare i en studio vilket anses vara mer effektivt än att animera dessa. Det kommer dock alltid att uppstå situationer i dagens komplexa datorspel där det inte finns någon vettig kroppsrörelse att lägga in på spelkaraktären och det är där AI-systemet kommer in. Forskarna har utvecklat ett djuplärnings-system som man kallar för Neural State Machine vilket själv kan räkna ut hur en lämplig animering av en karaktärs rörelse i ett spel skulle kunna se ut. Systemet fungerar på liknande sätt som de AI-system som kan spela in så kallade deepfakes-videos, videoklipp där, oftast, någons ansikte byts ut mot ett annat. Sådana system är upptränade på att manipulera ansiktsbilder och på liknande sätt är Neural State Machine utvecklat för att manipulera animationerna som syns på skärmen när en karaktär i datorspel förflyttar sig. Som synes i videon ovan så verkar det hela fungera rätt bra. Forskarna bakom Neural State Machine kommer att presentera sitt arbete lite mera ingående på ACM Siggraph Asia i Melbourne nästa månad. Här nedan hittas ett gäng med fails från olika datorspel där animationer och annat inte alltid kanske blivit som spelutvecklana hade tänkt sig att de skulle bli. Tumnagel
43.6°
+
Wille Wilhelmsson
0

Nvidias artificiella intelligens fixar glada bilder på ditt husdjur
GANimal ser till att hunden alltid ser glad ut

Nvidia har utvecklat ännu en artificiell intelligens avsedd för att manipulera fotografier. Deras senaste AI kan ta ett ansiktsuttryck från ett djur och morfa in detta på ett annat, något ni kan se några exempel på nedan och ovan. Nvidia kallar sin AI för GANimal och den använder sig av ett så kallat GAN (Generative adversarial network) för att få de båda bilderna att funka så bra så möjligt tillsammans. Ett GAN använder sig av två neurala nätverk som tävlar mot varandra i ett slags nollsummespel att ta fram det resultat som den tror ser bäst ut efter de givna förutsättningarna. Ming-Yu Lin är forskningschef på Nvidias datorsyns-division och han säger om GANimal: "Most GAN-based image translation networks are trained to solve a single task. For example, translate horses to zebras. In this case, we train a network to jointly solve many translation tasks, where each task is about translating a random source animal to a random target animal. Eventually, the network learns to generalize to translate known animals to previously unseen animals." Skulle du vilja testa GANimal med bilder på ditt eget husdjur eller någon annans så kan du hoppa vidare hit och testa det. Tumnagel
35.7°
+
Wille Wilhelmsson
0

Google har en AI som kan känna igen dofter
Molekylernas struktur kan avslöja vad något luktar

AI-forskare på Google Brain uppger att de har utvecklat en artificiell intelligens som ska kunna avgöra vad något luktar genom att analysera molekylers uppbyggnad. Till skillnad från färger, som forskare enkelt kan identifiera med hjälp av våglängden på ljuset, finns det inget enkelt sätt för en maskin att avgöra vad något luktar, något som det nu kanske kan bli ändring på. Googles forskare har arbetat med ett dataset där cirka 5000 molekylers doft har kategoriserats av professionella parfymutvecklare. Två tredjedelar av dessa matades in i Googles lukt-AI och baserat på deras strukturer kunde sedan AI:n avgöra vad den sista tredjedelens molekyler luktade utan att ha lärt sig detta från början. Man uppger att AI:n kan ha problem med att beskriva vissa dofter. Detta kan dels bero på att parfymtillverkarna kan ha kategoriserat dessa under olika etiketter med samma eller liknande betydelse, till exempel "woody" och "earthy". Det kan även bero på att vissa molekyler har samma antal atomer och bindningar mellan dessa fast de är arrangerade som varandras spegelbilder. De robotar vi har idag saknar luktsinnen men med AI:s som den Google Brain nu har utvecklat kanske det inte är helt omöjligt att robotar börjar uppmana oss att stänga dörren till toaletten när vi lämnar den i framtiden. Tumnagel
42.1°
+
Wille Wilhelmsson
0

OpenAI:s robothand löser Rubiks kub
Imponerande!

Den Elon Musk-grundade AI-organisationen OpenAI fortsätter att experimentera med artificiella intelligenser och nu har man tagit fram en AI som hjälper en robothand att lösa Rubiks kub. För att låta en otränad robothand lära sig hur man löser Rubiks kub så har OpenAI använt sig av neurala nätverk som tävlar mot varandra i ett slags nollsummespel för att hitta den bästa och snabbaste lösningen för att lösa Rubiks kub. Och som synes i videoklippet nedan verkar det här ha fungerat riktigt bra. Syftet med det här experimentet visar även hur man kan använda artificiella intelligenser att lära sig hur man utför en uppgift fysiskt med hjälp av neurala nätverk. OpenAI har tidigare använt samma teknik för att lära upp artificiella intelligenser att spöa skiten ur mänskliga Dota 2-spelare. Då har man dock haft fördelen att man kunna simulera åratal av Dota-spelande där de artificiella intelligenserna lärt upp sig. När det handlar om att lära ut fysiska uppgifter till robotar så måste dessa genomföras i realtid vilket gör att det hela kan ta betydligt mycket längre tid. För att komma runt det här problemet har Open AI utvecklat en ny metod som The Verge beskriver så här: "That’s why OpenAI is trying to pioneer new methods of robotic training using simulated environments in place of the real world, something the robotics industry has only barely experimented with. That way, the software can practice extensively at an accelerated pace across many different computers simultaneously, with the hope that it retains that knowledge when it begins controlling a real robot." Tanken bakom det här experimentet är att robotar i framtiden ska kunna fungera lite mer som oss människor och lära sig grejer lite mera intuitivt, det som vanligtvis kallas för AGI, Artificial General Intelligence. Tills vi är där kommer det dock att dröja många år. Tumnagel
42.5°
+
Wille Wilhelmsson
0

Kolla in när artificiella intelligenser leker kurragömma
Går det att gömma sig från en AI?

Tycker ni att det är lite väl mycket hokus pokus när det snackas om artificiella intelligenser så kommer här ett illustrativt exempel på hur artificiella intelligenser, så kallade agenter, blir bättre på att leka kurragömma ju fler gånger de gör detta. I exemplet får vi se ett gäng med agenter som ska gömma sig för ett annat gäng i en simulation av flera omgångar kurragömma. Som synes så blir både agenterna som ska gömma sig och de ska leta upp de gömda bättre på sina respektive uppgifter i takt med att även motståndarna utvecklar sina egna färdigheter. Det här experimentet är utvecklat av AI-organisationen OpenAI som grundades av Elon Musk för tre år sedan. De säger bland annat det här om sina kurragömma-AI:s: "We’ve observed agents discovering progressively more complex tool use while playing a simple game of hide-and-seek. Through training in our new simulated hide-and-seek environment, agents build a series of six distinct strategies and counterstrategies, some of which we did not know our environment supported. The self-supervised emergent complexity in this simple environment further suggests that multi-agent co-adaptation may one day produce extremely complex and intelligent behavior." Rent generellt kan man väl säga att agenterna utvecklas ungefär som när vi människor lär oss grejer, det vill säga att de observerar hur andra gör och lär sig från sina tidigare misstag. Ungefär det som är tanken om hur AI:s ska fungera den dagen vi utvecklar AGI (Artificial General Intelligence), AI:s som ska kunna tränas upp att utföra vilka uppgifter som helst, precis som en människa. Där är vi dock inte ännu. Tumnagel
45.3°
+
Wille Wilhelmsson
0

Hat-forum används för att träna upp artificiella intelligenser
Så att de kan hitta rasism och hat i andra forum

Forskare från Intel och University of California har använt några av nätets värsta forum för näthat för att träna upp artificiella intelligenser så att dessa kan identifiera rasism, näthat och andra vidrigheter på nätet rapporterar The Next Web. Det ska handla om vissa forum på diskussionsforumet Gab och en del subredditar på Reddit som forskarna har använt för att ge sina artificiella intelligenser en uppsjö av näthat att träna upp sig på. I sin rapport skriver forskarna bland annat: "To retrieve high-quality conversational data that would likely include hate speech, we referenced the list of the whiniest most low-key toxic subreddits… r/DankMemes, r/Imgoingtohellforthis, r/KotakuInAction, r/MensRights, r/MetaCanada, r/MGTOW, r/PussyPass, r/PussyPassDenied, r/The_Donald, and r/TumblrInAction." I sitt arbete så analyserade forskarna 22.000 inlägg från olika subreddits och 33.000 inlägg från Gab och man skriver att det såg lite olika ut hur näthatet såg ut rent specifikt, något som ni kan se närmare i diagrammet här nedanför: "The Gab dataset and the Reddit dataset have similar popular hate keywords, but the distributions are very different. All the statistics shown above indicate that the characteristics of the data collected from these two sources are very different, thus the challenges of doing detection or generative intervention tasks on the dataset from these sources will also be different." I dagsläget verkar AI:n man utvecklat vara hyggligt bra på att hitta näthat i olika forum men att den aktivt ska gå in och börja radera och moderera hatfyllda diskussioner på nätet har den inte kapacitet att göra ännu. Tumnagel
38.5°
+
Wille Wilhelmsson
0

Artificiell intelligens ska ta över McDonalds drive-ins
McDonalds köper upp röstföretaget Apprente

McDonalds har köpt upp startupföretaget Apprente vilket ser ut att vara ytterligare ett led i att göra sig av med mänsklig personal på sina restauranger. Apprente har utvecklat system för röstteknologi som kan lyssna och tyda tal på flera olika språk. McDonalds har redan testat Apprentes system på några av sina drive-in-luckor och planerar nu att utöka det till fler restauranger. Det innebär antagligen att McDonalds på sikt kan komma att minska antalet anställda på sina restauranger, något som man kanske även kan komma att göra efter att de beställnings-automater som McDonalds tidigare lansera på en del av sina restauranger blir en allt vanligare syn när man ska beställa mat på McDonalds. McDonalds drar nu även igång en renodlad teknikdivision som kommer att ha sin bas i Silicon Valley. Det kommer att kallas för McD Tech Labs och där kommer Apprente ingå. Antagligen kommer även de båda tech-företagen Dynamic Yield och Plexure som McDonalds tidigare köpt upp ingå i McDonalds nya restaurangtech-företag. Tumnagel
39.7°
+
Wille Wilhelmsson
0

Intel presenterar nya AI-chip
Ska ge Google, Nividia och Amazon en match

Intel har visat upp två nya processorer som är baserade på deras Nervana Neural Network Processor (NNP), en satsning på artificiell intelligens som drog igång när Intel köpte det israeliska företaget Nervana Systems 2016. De två nya processorerna kallas för Spring Hill (Intel Nervana NNP-I) och Spring Crest (Intel Nervana NNP-T). Intel Spring Crest är framtagen för djuplärning medan Spring Hill är specialiserad för det som i datorvärlden kallas för "inference", system som använder tillgänglig data för att komma fram till nya slutsatser. Intel Spring Crest ska inte, till skillnad från flera andra "AI-processorer, vara utvecklad för att fungera tillsammans med specifika AI-plattformar utan sägs kunna lira tillsammans med AI-plattformar som till exempel Baidus PaddlePaddle, Facebooks PyTorch och Googles TensorFlow. Intels nya processor kommer att konkurrera med till exempel Googles Tensor Processing Unit (TPU), Amazons AWS Inferentia samt NVDIA NVDLA på den glödheta AI-marknaden. Tumnagel
39.1°
+
Wille Wilhelmsson
0

Exodräkt använder AI för att springa och gå
Underlättar för dem som har problem med det

Forskare på Harvard University har de senaste åren arbetat med att ta fram ett slags mjukt exoskelett som man nu har skrivit lite mer om i tidskriften Science. Exoskettet, eller exodräkten är nog en bättre beskrivning, kallas för "Soft Exosuit" och utvecklades initialt inom USA:s så kallade "Warrior Web"-program av den militära forskningsmyndigheten DARPA. Nu verkar men dock sikta på att använda exodräkten även inom det civila och i framtiden kanske dräkten kan underlätta att gå och springa för dem som har problem med det. Till skillnad från andra liknande hjälpmedel så ska dräktens inbyggda AI kunna känna av om användaren går eller springer och anpassas efter olika gång- och löpstilar som används. I tester kunde man se att den metaboliska belastningen på en människa som använde Soft Exosuit minskade med 9 procent vid gång och 4 procent vid löpning. I ett uttalande säger : "While the metabolic reductions we found are modest, our study demonstrates that it is possible to have a portable wearable robot assist more than just a single activity, helping to pave the way for these systems to become ubiquitous in our lives." Tumnagel
40.5°
+
Wille Wilhelmsson
0

AI-företag använder människor istället för AI
För att höja värdet på företaget?

Artificiell intelligens är antagligen det hetaste företag kan pyssla med nu för tiden och det kommer antagligen så att förbli inom en överskådlig framtid. Det är många, båda gamla och nystartade, företag som hoppat på AI-trenden men det verkar som om en del företag kanske lovar lite för mycket när de snackar om sina AI-produkter. Wall Street Journal har undersökt AI-branschen och bland annat kollat in det indiska företaget Engineer.ai, ett företag som utlovar sina kunder att deras AI kan göra utveckling av appar mycket billigare och snabbare med hjälp av AI. När WSJ undersökte dessa påståenden så visade det sig att AI inte hade så mycket med själva apputvecklingen att göra. Apparna som företaget utvecklar görs till stor del av mänskliga utvecklare i Indien och på andra platser. När WSJ ställde frågan till Engineer.ai om vad de faktiskt använde AI till så uppgav företaget att det användes för att uppskatta hur lång tid ett projekt skulle ta och hur många utvecklare det skulle krävas, något som är rätt långt ifrån en AI som gör appar på egen hand. Varför uppger då Engineer.ai, och en del andra företag, att de använder AI i större utsträckning än vad man faktiskt gör i sin verksamhet? Den främsta orsaken till detta verkar vara att företagen vill dra till sig investerare och kapital för att bygga upp sin verksamhet och, kanske, i framtiden kunna utveckla den typen av AI som man redan säger sig använda. Engineer.ai har stämts av en av sina före detta anställda som hävdar att företaget uppger att de använder AI i större utsträckning än vad man faktiskt gör i sin verksamhet för att dra till sig investerare. Enligt den anställde så ska företagets grundare Sachin Dev Duggal sagt till investerare att man till 80 procent var klara med en AI som skulle kunna göra appar helt på egen hand när arbetet med detta i stort sett bara hade påbörjats. Tumnagel
32.2°
+
Wille Wilhelmsson
0

Nu kommer det kläder som lurar artificiella intelligenser
Övervakningssystem tror klänning är en motorcykel

På säkerhetskonferensen DefCon har designern och utvecklaren Kate Rose presenterat en klänning som kan användas för att förvirra system som automatiskt läser av registreringsskyltar på bilar och andra fordon. Tanken bakom det hela är att visa hur pass dåliga dagens automatiska övervakningssystem är och att det kanske kan ge oss en tankeställare om vi faktiskt ska förlitas oss så mycket på system som dessa. Som synes på bilden nedan så tror ALPR-systemet (automatic license plate reader) att Rose klänning är flera olika motorcyklar och kommer att registreras som detta i system som snappar upp bilder när någon som bär klänningen går förbi. Rose säger själv om sin klänning: "It’s a highly invasive mass surveillance system that invades every part of our lives, collecting thousands of plates a minute. But if it’s able to be fooled by fabric, then maybe we shouldn’t have a system that hangs things of great importance on it. If a phone is discovered to have a vulnerability, we don’t throw our phones away. This is like that, disclosing a vulnerability. I was shocked it was so easy, and I would call on people who think these systems are critical to find better ways to do that verification." Texten på registreringsskyltarna som syns på klänningen är hämtade från de fjärde tillägget i USA:s konstitution som förbjuder oskäliga visiteringar och gripanden. Tumnagel
50.1°
+
Wille Wilhelmsson
0

Nu kan Amazons AI Rekognition se om du är rädd
Artificiell intelligens håller koll på dina känslor

2016 presenterade Amazon sin artificiella intelligens Rekognition och sedan dess har man arbetat på att få denna att bli bättre på ansiktsigenkänning, både på människor och på djur. Rekognition har sedan tidigare kunnat utläsa vissa känslor en persons ansikte visar och nu kan AI:n även känna igen rädsla i en människa ansikte. Sedan tidigare kan Rekognition avgöra om en persons ansikte visar de sju känslorna glad, ledsen, arg, överraskad, äcklad, lugn och förvirrad. Även detekteringen av dessa känslor har blivit bättre med den senaste uppdateringen av Rekognition skriver Amazon i ett inlägg. Förutom dessa uppdateringar ska Rekognition nu även vara bättre på att avgöra vilken ålder en person har baserat på deras ansikte. Rekognition går sedan tidigare att använda både på stillbilder, filmat material och livesändningar. I klippet här nedanför kan ni kolla in ett kort inslag som Forbes spelade in om Amazons AI Rekognition förra året. Tumnagel
36.0°
+
Wille Wilhelmsson
0

Google DeepMind spårar djur i Serengeti
Artificiell intelligens håller koll på djurlivet på savannen

Googles AI-företag Deep Mind har utvecklat en artificiell intelligens som man använder för att upptäcka och räkna djur på fotografier som fotats på savannen Serengeti i Tanzania. DeepMinds AI ska ha analyserat miljontals bilder som fotograferats av rörelsestyrda kameror i Serengeti National Park de senaste nio åren och kunnat märka upp vilka olika djur och eventuellt människor som syns på dessa. Enligt DeepMind så kan deras AI göra det på en fjärdedel av tiden som det tog när människor analyserade bilderna. Att använda AI för att ha koll på djuren är bara en liten del av det som krävs för att bevara Serengetis djurliv men med hjälp av AI kan de som tar olika beslut om insatser på savannen antagligen få ett bättre underlag snabbare för att fatta korrekta beslut. Tumnagel
40.8°
+
Wille Wilhelmsson
0

Sony har en artificiell intelligens som kan spela trummor
Ytterligare något vi inte behöver människor till

Sony använder artificiell intelligens på flera olika områden i sin verksamhet och Sonys forskninglaboratorium Sony DSL har tidigare experimenterat en del med att låta AI:s skriva egen musik. I sitt senaste AI-projekt så har Sony DSL tagit fram en artificiell intelligens som kan spela trummor i takt till musiken som spelas. För att träna upp den artificiella intelligensen har Sony låtit AI:n lära upp sig genom att lyssna på trumsekvenser från 665 låtar från olika genrer. Därefter kunde AI:n på egen hand lägga trumljud på existerande musik så att trummorna följde det som förövrigt spelades i låten. Här nedan kan ni lyssna på originalet av en låt man kallar för "Miss you" och nedanför hittas samma låt där man lagt på trumljud skapade av den artificiella intelligensen. Your browser does not support the audio element. Your browser does not support the audio element. Skulle ni vilja lyssna på fler exempel dör Sonys trum-AI medverkar så hoppa vidare på länken nedan. Tumnagel
36.6°
+
Wille Wilhelmsson
0

Ska artificiella intelligenser kunna ta patent på grejer?
Nu försöker de i alla fall att göra det

Patentmyndigheter runt om i världen brukar vanligtvis bara bevilja patent till fysiska personer för att undvika de komplicerade juridiska processer som skulle kunna uppstå om man lät företag stå som upphovsmän för patenten. Men hur är det med saker artificiella intelligenser uppfinner? Det försöker nu några brittiska forskare att reda ut då de har skickat in patentansökningar på två uppfinningar som en AI ska ha tagit fram. Det handlar dels om en matbehållare som designats som en fraktal, något som gör att de ska bli enkla att koppla ihop med varandra och lätta för robotar att greppa (se bild nedan). Den andra uppfinningen är en lampa som blinkar i samma takt som hjärnaktivitet som uppstår när man får en idé, något man säger ska göra lampan svårare att ignorera. Experter som BBC har pratat med säger att det här är en fråga som bör lösas inför framtiden då det antagligen blir vanligare att AI:s hittar på egna grejer som kan vara värda att ta patent på. Juridikprofessorn Ryan Abbot som är en av forskarna som ligger bakom försöket säger till BBC: "These days, you commonly have AIs writing books and taking pictures - but if you donx27t have a traditional author, you cannot get copyright protection in the US.So with patents, a patent office might say, x27If you donx27t have someone who traditionally meets human-inventorship criteria, there is nothing you can get a patent on.In which case, if AI is going to be how wex27re inventing things in the future, the whole intellectual property system will fail to work." För att AI:s ska kunna beviljas patent måste antagligen en del länder göra undantag i eller skriva om sina lagar om immaterialrätt. Det tror experterna kanske kan bli aktuellt någon gång i mitten av 2020-talet då de artificiella intelligenserna antagligen har blivit lite smartare än vad de är idag. Tumnagel
24.7°
+
Wille Wilhelmsson
0

Google DeepMind har AI som kan upptäcka akut njursvikt
48 timmar innan läkare vanligtvis gör det

Googles AI-företag DeepMind har mest gjort sig kända för att utveckla AI:s som spöar människor i diverse spel men nu har man presenterat en AI som kanske även kan göra lite nytta. I en nyligen publicerad forskningsrapport beskriver DeepMind en av sina senaste artificiella intelligenser vilken man har tränat upp att upptäcka om patienter lider av akut njursvikt. Det är ett allvarligt tillstånd som kan leda till döden och som läkare initialt kan ha svårt att diagnosticera. Enligt DeepMind kan deras AI upptäcka om en patient lider av njursvikt som kräver dialys hela 48 timmar innan en läkare vanligtvis kan ställa diagnosen, något som med stor sannolikhet kan komma att rädda liv i framtiden. Dominic King som är en av grundarna till DeepMind säger i en intervju: "We’ve been really excited for the potential of using AI to support clinicians moving care from reactive to proactive and preventative." Enligt en undersökning från University of Pittsburgh School of Medicine så dör cirka två miljoner människor varje år efter att ha drabbats av akut njursvikt, något man kan drabbas av vid vätskebrist, förstorad prostata, sten i urinblåsan eller tumörer. Tumnagel
48.4°
+
Wille Wilhelmsson
0