m

Google har en AI som designar nya AI-chip
Gör det betydligt mycket snabbare än människor

Google har släppt en ny rapport där man beskriver hur man utvecklar maskinlärningsteknik som kan designa nya chip för artificiell intelligens. Enligt Google är deras AI lika bra eller bättre på att designa AI-chip som deras mänskliga chip-utvecklare. AI:n kan också göra detta betydligt mycket snabbare än människor. Utvecklingsarbetet med att ta fram ett AI-chip som skulle tagit ett mänskligt team flera månader att göra kan Googles AI nu göra på några timmar. Google uppger att deras "Chip-AI" bland annat varit med och utvecklat nästa generations av Googles AI-processor TPU (Tensor Processing Unit), ett chip som används i många av Googles AI-inriktade projekt. Det spekuleras om att AI:s som dessa skulle kunna användas för att upphäva den så kallade Moores Lag, ett uttryck från 1970-talet som säger att antalet transistorer på ett chip fördubblas vartannat år. Det betyder inte att AI:n kanske skulle kunna lösa de rent fysiska begränsningarna som det innebär att få in mer transistorer på varje chip. Istället skulle AI:n kanske hitta vägar att förbättra ett chips prestanda på sätt som inte människor hittills upptäckt. Tumnagel
41.7°
+
Wille Wilhelmsson
0

Vissa macOS Monterey-funktioner kräver M1
Bland annat nya text-till-tal-funktionen för svenska

MacRumours rapporterar att vissa av de nya funktioner som kommer i Apples kommande operativsystem macOS Monterey bara kommer att fungera på Mac-datorer som kör Apples egna Apple Silicon M1-chip. Det innebär med andra ord att dessa funktioner inte kommer att vara tillgängliga för macOS-användare som kör Intel-baserade Mac-datorer. Här nedan följer en lista på de funktioner i macOS Monterey som inte kommer att bli tillgängliga för Intel-baserade Mac-datorer: * Portrait Mode blurred backgrounds in FaceTime videos * Live Text for copying and pasting, looking up, or translating text within photos * An interactive 3D globe of Earth in the Maps app * More detailed maps in cities like San Francisco, Los Angeles, New York, and London in the Maps app * Text-to-speech in more languages, including Swedish, Danish, Norwegian, and Finnish * On-device keyboard dictation that performs all processing completely offline * Unlimited keyboard dictation (previously limited to 60 seconds per instance) Apple har själva inte uppgett varför en del av macOS Monterey funktioner bara kommer att fungera på Apple Silicon-baserade Mac-datorer. Det tros dock bero på att Intel-baserade ;ac-datorer saknar den så kallade "neural engine" som finns på Apples M1-chip, den del av hårdvaran som används för maskinlärning. Funktionerna som bara kommer till M1-datorer tros förlita sig på neural engine och då Intel-baserade datorerna saknar denna så kommer dessa funktioner inte att fungera där. Tumnagel
34.7°
+
Wille Wilhelmsson
0

Intel fixar en fotorealistisk version av GTA V
Ser väldigt verklighetstroget ut

Intel Labs har utvecklar en maskinlärningsalgoritm som kan göra spel och andra digitala produktioner mer verklighetstrogna, i vissa fall så verklighetstrogna att det är svårt att se att det faktiskt handlar om något digitalt. Intel Labs kallar det hela för "Enhancing Photorealism Enhancement" och man har låtit en maskinlärningsalgoritm använda olika datasets med riktiga bilder som man sytt in i spel och annat. I videon ovan kan ni till exempel kolla in hur delar av spelet Grand Theft Auto V skulle kunna se ut efter att ha fått sin en släng av Intels maskinlärnings-slev. Det ska påpekas att det som syns i videon ovan handlar om ett demo och det lär antagligen dröja ett tag innan framtida versioner av GTA och andra spel uppnår den här graden av realism. Tumnagel
59.4°
+
Wille Wilhelmsson
0

Amazon släpper mjukvaran till DeepRacer som öppen källkod
Vill att fler ska utveckla den lilla självkörande bilen

2018 presenterade Amazon den lilla självkörande bilen AWS DeepRacer vilken man tagit fram som ett kul sätt för att lära ut maskinlärning för de som är var intresserade av det. Nu meddelar Amazon att man släpper mjukvaran till bilen som öppen källkod vilket innebär att utvecklare utanför Amazon kan programmera om bilarna och ge de nya egenskaper. Amazon skriver i ett blogginlägg om att man nu gör mjukvaran till AWS DeepRacer tillgänglig för fler utvecklare som öppen källkod: "With the open sourcing of the AWS DeepRacer device code you can quickly and easily change the default behavior of your currently track-obsessed race car. Want to block other cars from overtaking it by deploying countermeasures? Want to deploy your own custom algorithm to make the car go faster from point A to B? You just need to dream it and code it." AWS DeepRacer är bygg i skala 1/18 och går att köpa som byggsats eller färdigbyggd för cirka 300 dollar. Bilarna har även använts för tävlingar i det som Amazon kallar för AWS DeepRacer League och ett klipp från det kan ni kolla in här nedanför. Vill ni skippa försnacket kan ni hoppa direkt till sjunde minuten i klippet. Tumnagel
39.7°
+
Wille Wilhelmsson
0

Snart blir det enklare att sälja Magic-kort på eBay
Appen kommer att känna igen kortet du vill sälja

Att sälja olika typer av samlar- och spelkort på auktionssajten eBay är populärt och snart kommer det gå lite snabbare för säljare att lägga ut sina kort till försäljning. eBay skriver i ett pressmeddelande att deras app snart kommer att förses med så kallad datorsyn, en maskinlärningsfunktion som med hjälp av mobilens kamera kan se vilket kort det är som användare vill sälja. När appen har känt igen vilket kort det handlar om fylls uppgifter om detta in automatiskt i annonsen, något som enligt eBay kommer att göra att användaren kan lägga upp försäljningserbjudanden på halva tiden jämfört med vad det tar nu. Initialt kommer eBays app bara att ha stöd för kortspelet Magic the Gathering men detta kommer att utökas med Pokémon- samt Yu-Gi-Oh-kort maj och andra typer av kort längre fram. eBay skriver att det läggs upp annonser för olika typer av kort 119 gånger i minuten och att det säljs 90 kort i minuten på deras tjänst, något som borde innebära att många användare kommer att välkomna eBay-appens nya funktionalitet. Tumnagel
39.6°
+
Wille Wilhelmsson
0

ARM presenerar ARMv9
Första större uppdateringen av ARM-arkitekturen på ett årtionde

ARM har presenterat en ny arkitektur för sin plattform vilket är den första större uppdateringen av denna på tio år. ARM-baserade chip hittas nu för tiden i både mobiltelefoner och laptops och tanken är att de kommande 300 miljarderna ARM-chip kommer att vara baserade på ARMv9-arkitektur. Bland nyheterna i ARMv9 hittas flera säkerhetsfunktioner samt den senaste versionen av deras Scalable Vector Extensions-teknik, något som bland annat kommer att göra chippen mer kompetenta på att processa 5G, maskinlärning samt VR och AR lokalt. ARM skriver själva om ARMv9: "The launch of the Armv9 architecture signals a new era for our company; a globally-pervasive platform driving secure AI-driven computing that will enable our ecosystem of more than 1,000 partners well into the 2030s. Armv9 will be at the forefront of the next 300 billion Arm-based chips; driven by the demand for increasingly specialized, secure and high performance processing built on the economics, design freedom and accessibility of general-purpose compute." När det kan dyka upp maskiner på marknaden med ARMv9-chip finns det än så länge inga uppgifter om. Här nedanför hittas ett inslag där ARM:s vd Simon Segars snackar lite mer om ARMv9 samt ett lite längre inslag där ARM:s chefsarkitekt Richard Grisenthwaite presenterar plattformen närmare. Tumnagel
41.5°
+
Wille Wilhelmsson
0

Appen Eyescanner ska kunna se om någon är drogpåverkad
Svenskutvecklad app analyserar användarens ögon

Det svenska startup-företaget Eyescanner har utveckalt en app som man säger ska kunna bedöma om någon är påverkad av droger. Företaget säger själva att man har som mål att deras app ska bli lika tillförlitlig som de drogtester som idag baseras på urin- eller salivprov skriver Ny Teknik. Eyescanners app fungerar genom att mobilens kamera filmar ögonen hos personer som misstänks vara drogpåverkade. Sedan analyserar maskinlärnings-algoritmer det inspelade materialet och jämför med exempel på drogpåverkade ögon som finns i Eyescanners databas. Eyescanner ska kunna hitta personer som är påverkade av olika typer av droger och Jenny Johansson, en av företagets två grundare, säger till Ny Teknik: "Olika narkotiska substanser påverkar ögats reaktions- och rörelsemönster på olika sätt. En person som är påverkad av opiater får exempelvis små pupiller medan en person som är påverkad av cannabis får stora. När en ljuskälla riktas mot pupillen så ska den omedelbart dra ihop sig. När någon tar droger fördröjs ofta sammandragningen vilket är en indikation på drogpåverkan." Eyescanner har än så länge genomgått en mindre pilotstudie och ska snart testas i en forskningsstudie tillsammans med Sahlgrenska universitetssjukhuset, Rise, Qamcom Research & Technology samt Trafikverket. Appen är primärt tänkt att användas av olika polismyndigheter och företag. När den släpps, vad den kommer att kosta och om den kommer att vara allmänt tillgänglig finns det än så länge inga uppgifter om. Tumnagel
30.9°
+
Wille Wilhelmsson
0

Forskare utvecklar system för att hitta fejkade profilbilder
Kan se skillnader i reflektioner i ögonen

Forskare på amerikanska University at Buffalo har utvecklat ett system som ska kunna se skillnad på riktiga profilbilder och sådana som genererats med hjälp av maskinlärnings-tekniken GAN (Generative Adversarial Networks). Detta är något som man har lyckats göra med hjälp av att mäta reflektionen ögonens hornhinnor på bilderna som analyseras av systemet. På en äkta profilbild ska reflektioner i ögonen vara någorlunda liknande varandra då de oftast tittar på samma sak. På GAN-genererade bilder så kan dock reflektionerna skilja sig åt då inte GAN-algoritmen verkar ha tagit med detta i sina beräkningar, något som ni kan se exempel på bilden här ovanför. Bilderna som forskarna testat sitt system på är genererade av en GAN-algoritm som används för att generera hittepå-profilbilder till databasen "This Person Does Not Exist" vilken vi skrivit lite om tidigare. Det ska observeras att det finns givetvis inget som hindrar någon som vill fejka en profilbild med GAN att i efterhand korrigera reflektionerna på hornhinnan så att dessa ser mer autentiska ut. Systemet som forskarna utvecklat fungerar i dagsläget även bara på stillbilder där båda ögonen är synliga. Tumnagel
40.5°
+
Wille Wilhelmsson
0

Facebook vill skapa avatarer som är mer verklighetstrogna
Mark Zuckerberg snackar lite om framtidens virtuella verklighet

Facebook-grundarne Mark Zuckerberg har tagit sig ett snack med The Information om hur han ser på framtiden för virtual reality för Facebook och deras dotterföretag Oculus. I The Informations podcast säger Zuckerberg bland annat att företaget siktar på att utveckla avatarer som är mer verklighetstrogna i framtiden. Facebook och Oculus har utvecklat avatarer i flera generationer och kommer att presentera ytterligare en ny version senare i år uppger Zuckerberg. Om framtidens avatarer säger han: "When I think about where you’re at with VR today, you go into the experience — there are some pretty good games and different experiences. But I’d love to get to the point where you have realistic avatars of yourself, where you can make real authentic eye contact with someone and have real expressions that get reflected on your avatar." Facebooks målsättning är att utveckla avatarer som är lika avancerade som de människoliknande skapelserna som går att skapa med Unreal Engines nyligen presenterade verktyg "MetaHuman Creator", ett verktyg som vi skrev om förra månaden. Till skillnad från Unreal Engine så vill dock Zuckerberg generera avatarer som dessa via maskinlärning. För att Zuckerbergs vision om att skapa avatarer som både ser ut och agerar som människor så kommer det dock krävas en hel del nya sensorer i VR-headset och andra VR-tillbehör. För att inte tala om den datorkraft som kommer att krävas för att få alla dessa avatarer, deras ansiktsuttryck och andra rörelser att genereras i realtid. Det innebär sannolikt att avatarer som ser ut som de i MetaHuman-demon här nedanför antagligen inte kommer att dyka upp i våra VR-världar i brådrasket. Men någon gång i framtiden är det nog inte alls omöjligt att så kommer att bli fallet. Tumnagel
28.2°
+
Wille Wilhelmsson
0

Twitter börjar blockera dem som sprider lögner om covid-19
Efter fem varningar blockeras användaren för gott

Twitter meddelade igår att man har infört ett nytt system för att komma till rätta med en del om den desinformation om covid-19 som sprids via deras tjänst. Det nya varningssystemet innebär att användare som anses sprida desinformation om covid-19 eller något annat coronarelaterat kommer att börja varnas. Vid andra och tredje varningen kommer användarens konto att blockeras i 12-timmar, vid fjärde varningen i sju dagar och skulle användaren bryta ytterligare en gång mot Twitters covid-19-regler så blockeras användarens konto för alltid. Twitter kommer att använda både mänskliga moderatorer och maskinlärning för att hitta tweets som kan anses sprida meddelanden om covid-19 som inte stämmer överens med sanningen. I ett blogginlägg skriver Twitter att man sedan i december raderat cirka 8400 tweets relaterade till desinformation om covid-19. Tumnagel
53.9°
+
Wille Wilhelmsson
0

Volvo Cars, Ericsson och andra öppnar AI-labb i Göteborg
Edge Lab ska bland annat pyssla med teknik för självkörande bilar

AI Sweden meddelar att man nu kommer att starta upp AI-laboratoriet Edge Lab i Göteborg tillsammans med Zenseact, Hewlett Packard Enterprise, Ericsson och Volvo Cars. Tanken bakom Edge Lab är att forskningen där ska bli världsledande inom decentraliserat lärande och Edge (maskinlärning). Man hoppas kunna bidra till forskning inom områden som till exempel självkörande bilar såväl som inom vårdsektorn och tillverkningsindustrin. Daniel Gillblad, Co-Director på AI Sweden, säger om Edge Lab: "Edge Lab kommer att möjliggöra för utvecklare, studenter, forskare, användare från industrin, akademin och den offentliga sektorn att samarbeta i konkreta projekt och möta verkliga behov. Detta ger svenska aktörer en unik chans att placera sig i förarsätet inom ett av AI:s stora framtidsområden. Nu uppmanar vi fler aktörer att delta i och bidra till denna nya AI-resa, för att stärka sin verksamhet och gemensamt utveckla Sverige." Initialt kommer HPE, Volvo Cars och Zenseact investera 30 miljoner kronor i Edge Lab under 2021. Tumnagel
45.5°
+
Wille Wilhelmsson
0
2020

Robot är en hejare på bordshockey
Med hjälp av maskinlärning från Google

Här är en robot som med hjälp av bland annat maskinlärning har lärt sig att spela bordshockey. Detta är något den verkar kunna göra förhållandevis bra men huruvida den hade kunnat vinna en match mot ett mänskligt bordshockey-proffs återstår att se. Det har tagit utvecklaren Andrew Khorkin ett och ett halvt åt att utvecklar sin "TableHockeyRobot" som använder en HD-kamera för att följa vad som sker på "isen". Robotens sex spelare styrs i sin tur av en konstruktion som förflyttar spelarna med hjälp av kolvar. Robotens hjärna är en Arduino Mega vars mjukvara har lärt sig att hålla koll på spelarna och pucken genom Googles maskinlärnings-plattform Tensor Flow. På länken nedan hittas lite fler klipp på bordshockey-roboten och på via-länken nere till höger kan ni läsa vad Gizmodo skriver om roboten. Tumnagel
40.7°
+
Wille Wilhelmsson
0

Artificiell intelligens hittar på nya ord
I used my bungshot to win a game of driftjack

Maskinlärings-algoritmer går att använda till mycket och på tjänsten "This Word Does Not Exist" används det maskinlärning för att hitta på nya ord, ord som inte finns. Förutom att hitta på själva ordet så tar algoritmen även fram en betydelse för ordet som den skulle sett ut om ordet funnits i en traditionell ordbok. Har man inte så mycket för sig så går det med lätthet att kasta iväg några minuter av sitt liv genom att bara och sitta och reloada sidan för att få sig nya ord serverade. För den väldigt intresserade går det även att ladda hem källkoden vilken baseras på OpenAI:s artificiella intelligens GPT-2 vilken vi har skrivit tidigare om några gånger. GPT utvecklades ursprungligen för att skriva så kallade fake news på egen hand, något som den till slut blev så bra på så att OpenAI var lite oroliga för att den skulle börja missbrukas om man släppte ut den i frihet. Tumnagel
40.1°
+
Wille Wilhelmsson
0

Conan Barbaren med Conan O’Brien
Söndagstrams

YouTube-användaren Vinnie The Kielbasa King lekte lite med maskinlärning och fick till det här klippet där han slängde in Conan O’Brien i Conan Barbaren istället för Arnold Schwarzenegger. Tumnagel
39.2°
+
Frode Wikesjö
0

Nu kan man kopiera in fysiska objekt i digitala dokument
Klipp och klistra med augmented reality

Här kan ni kolla in ett ballt demo där en utvecklare tagit fram en app som kan kopiera in fysiska objekt som finns i verkligheten i digitala dokument på användarens dator. Som synes i den inbäddade tweeten nedan så är det bara att peka mobiltelefonen mot det användaren vill inkludera i sitt dokument, ta ett foto på detta och sedan klistra in det aktuella dokumentet. Det hela fungerar genom att en maskinlärnings-algoritm tar bort bakgrunden från det som fotograferas och sedan känner en annan algoritm av var på datorns skärm telefonen pekas och klistrar in detta där. Enligt utvecklaren tar det cirka 2,5 sekunder att kopiera ett objekt och sedan ytterligare cirka 4 sekunder för att klistra in detta i dokumentet på datorn. Det hela verkar än så länge inte vara redo för marknaden men utvecklaren Cyril Diagne har släppt hela koden till "ar-cutpaste" på GitHub. Denna hittas på länken nedan om ni skulle vilja kika lite närmare på den. Tumnagel
52.0°
+
Wille Wilhelmsson
0

Discord testar ny brusreducerande röstchatt
I samarbete med Krisp

Discord meddelade under gårdagen att de håller på att testa ett nytt brusreducerande verktyg som ska plocka bort bakgrundsljud när man pratar via tjänsten. Via ett samarbete med Krisp testar Discord detta nu via en beta för datoranvändare. Krisp använder sig av maskinlärning för att identifiera bakgrundsljud så som ljud från mekaniska tangentbord eller barnskrik och sedan dämpa det i chattkanalen. Have a vacuum running in the background; slam a door; ruffle a bag of chips; keep using your really loud keyboard your friends complain about. They won’t be able to hear it. Om man var orolig att maskinlärning lyssnar på vad som händer i ditt hem så klargjorde Discord att de inte skickar någon data vidare från deras servrar. No voice, user, video or any data is ever sent or shared outside of Discord. Kan själv prova denna inställning nu och du hittar den under Röst & Video -> Avancerat -> Brusreducering eller under ett pågående samtal. Funktionen ska komma till telefoner vid ett senare tillfälle. Tumnagel
47.3°
+
Frode Wikesjö
0

Google släpper TensorFlow för kvantdatorer
AI-ramverk anpassas för att kunna användas med kvantdatorer

Google släpper nu något man kallar för TensorFlow Quantum (TFQ) vilket är en open source-plattform för att utveckla maskinlärnings-applikationer till framtidens kvantdatorer. TFQ bygger vidare på Googles TensorFlow, ramverket för AI-applikationer som Google släppte som open source 2015. TensorFlow består av ett antal verktyg för att förenkla utvecklingen av neurala nätverk som används inom artificiell intelligens. Det inkluderas även verktyg som gör att utvecklare inte behöver utveckla nya maskinlärnings-applikationer från scratch när sådana ska tas fram. Med TensorFlow Quantum överför Google liknande funktionalitet för när det ska utvecklas maskinlärnings-applikationer på kvantdatorer. Med TensorFlow Quantum behöver användaren inte bry sig om vilken typ av hårvara appen som utvecklas rullar på. Plattformen gör det även möjligt att debugga sin kvantdator-kod på traditionella datorer innan koden körs på kvantdatorer. Förhoppningen med TFQ är bland annat att utvecklare ska kunna hitta nya kvantdator-algoritmer som i framtiden kan återanvändas på andra områden inom kvantdator-beräkningar. I dagsläget riktar sig TFQ till forskare inom kvantdatorer men Googles förhoppning är att det hela ska leta sig ut till kommersiella aktörer så småningom. Ni hittar Googles blogginlägg om TFQ på länken nedan och skulle ni vilja ladda ner det hela så hittas det som open source på Github här. Tumnagel
39.8°
+
Wille Wilhelmsson
0
2019

Amazon släpper synthen AWS DeepComposer
Som ska användas för att lära sig om artificiell intelligens

Amazon har släppt ännu ett verktyg för att lära ut maskinlärning och den här gången handlar det om att skapa musik som tar hjälp av artificiell intelligens. Det handlar om en liten synthesizer med 32 tangenter som själv ska kunna skapa en låt baserat på det användaren knappar in på tangenterna. Det ska gå att välja mellan att skapa musik inom olika genrer, till exempel pop eller rock, så väl som att skapa en egen genre baserad på musik som man låter DeepComposer lära sig. AWS DeepComposer kostar 99 dollar och blir Amazons tredje verktyg för att lära ut och låta användare experimentera med artificiell intelligens. Sedan tidigare har Amazon även släppt AWS DeepLens och AWS DeepRacer med vilka man kan testa andra former av artificiell intelligens. Här nedanför kan ni kolla in gårdagens presentation av DeepComposer på Amazons re:Invent-konferens i Las Vegas. Ni kan skippa lite försnack genom att hoppa fem minuter rakt in i klippet. Tumnagel
35.7°
+
Wille Wilhelmsson
0

Xbox Live inför chattfilter för textmeddelanden
Ska även fixa det för röstmeddelanden framöver

Igår introducerade Microsoft en ny funktion till Xbox Live vilken låter användare filtrera bort chatt-meddelande baserat på deras innehåll. Det ger Xbox-användare en lång rad möjligheter att ställa in vilken typ av meddelanden man vill få från sina Xbox-kontakter och andra man lirar med på Xbox Live. Meddelanden går att filtrera både på vänskapsnivå och dess innehåll. När det handlar om textmeddelanden på Xbox Live kan dessa ställas in i nivåerna "Friendly", "Medium", "Mature" samt "Unfiltered" vilka ni kan kolla in närmare i videon här ovanför. Det kanske mest, åtminstone rent tekniskt, spännande är att Microsoft ska försöka att implementera liknande filter även i röstchattar på Xbox Live. Microsoft skriver: "Ultimately our vision is to supplement our existing efforts and leverage our company efforts in AI and machine learning technology to provide filtration across all types of content on Xbox Live, delivering control to each and every individual player. Your feedback is more important than ever as we continue to evolve this experience and make Xbox a safe, welcome and inclusive place to game." Det innebär att Microsoft i realtid kommer att släppa loss artificiella intelligenser som ska hålla koll på vad som sägs i tusentals, kanske hundratusentals, simultana chatt-konversationer med hjälp av maskinlärning. Det handlar med andra ord om ett jätteprojekt och det finns inte några uppgifter om när vi kan få se ett smakprov på detta från Microsoft. Tumnagel
38.0°
+
Wille Wilhelmsson
0

AdBlock Radio blockerar reklam i podcast och radio
Vila dina öron lite

Ända sedan internet blev kommersiellt har det pågått ett krig i det tysta mellan företag som vill visa annonser på olika webbsidor och användare, som med hjälp av olika appar, försökt att blockera dessa. Nu verkar den tekniken även dyka upp för podcasts och radiosändningar skriver Vice. Tjänsten AdBlock Radio säger sig använda maskinlärning för att identifiera annonser i radiosändningar och podcasts på ett liknande sätt som Shazam lär sig vad som spelas ur högtalarna. Upptäcker AdBlock Radio att det börjar spelas upp en annons i programmet man lyssnar på så byter programmet automatiskt till en annan radiostation eller sänker volymen medan reklamen spelas upp. Vill man så går det även att ställa in så att AdBlock Radio blockerar mellansnack på musikkanaler om man till exempel bara är intresserad av lyssna på musiken som spelas. AdBlock Radio släpps som open source vilket gör att andra kan bygga in tekniken i sina appar och de som tror sig kunna förbättra funktionaliteten i appen kan göra det. Ni kan hoppa vidare på länken nedan om ni vill testa det hela. Tumnagel
51.9°
+
Wille Wilhelmsson
0

Facebook experimenterar med robotar
För att bättre förstå artificiell intelligens

Facebook AI Research har publicerat ett blogginlägg där man berättar lite mer om hur man experimenterar med robotar för att lära sig mer om hur man ska utveckla framtidens artificiella intelligenser. I dagsläget verkar det inte som om Facebook har några planer att utveckla egna robotar utan man använder dessa istället för att lära sig mer om hur AI fungerar. Till skillnad från när man simulerar olika AI:s i datorer tusentals gånger i sekunden så händer allt av en robots AI i realtid vilket kan vara en fördel. När man simulerar AI i datorer kan detta vara extremt datakrävande medan en robots AI direkt kan visa vad som fungerar och inte fungerar. Genom de här experimenten hoppas Facebook på att hitta ett billigare sätt att utveckla olika maskinlärningsmodeller för artificiell intelligens. I sitt blogginlägg går Facebook specifikt igenom tre olika projekt inom AI som man arbetar om. Ett handlar om att få en sexbent robot att gå obehindrat från punkt a till b, ett handlar om att få en robot att lära sig saker snabbare och det tredje är en robot som med hjälp av beröring ska få till exempel en boll i rullning. Det handlar inte om banbrytande robotikforskning, liknande saker som de ovan har andra redan åstadkommit som The Verge skriver. Dock visar det väl kanske att Facebooks framtidsplaner kanske inkluderar betydligt mycket mer än sociala medier, chattar och virtual reality. Tumnagel
35.6°
+
Wille Wilhelmsson
0

Google I/O Google Assistant blir snabbare och bättre
Kan snart köpa biobiljetter själv

Google berättade under gårdagens keynote på Google I/O att man har jobbat intensivt med att förbättra och göra sin smarta assistent Google Assistant snabbare. För att snabba upp Google Assistant har Google komprimerat datamodeller för maskinlärning från 100GB till bara 0,5GB. Detta gör att dessa framöver kommer att gå att köra lokalt på mobilen istället för att ta omvägen via molnet vilket ska ha gjort det hela "supersnabbt" enligt Google. Här ovanför kan ni kolla in en demo där en användare kolla igenom sina bilder på Googles fototjänst Google Photos med hjälp av Google Assistant. Google har även förbättrat sin automatiska telefonpratare Duplex så att denna kan bege sig ut på webben och utföra uppgifter helt utan användarens inblandning. Initialt kommer man att testa detta med funktioner som gör att Duplex kan hyra bilar och boka biobiljetter helt själv. Ni kan se ett exempel på detta i klippet här nedanför. Förutom detta så kommer Google Assistant nu bli ännu bättre på att lära känna sin användare. Detta innebär att om man tidigare till exempel har sökt efter mycket recept på pasta och indisk mat så kommer assistenten antagligen föreslå detta om användaren frågar vad den ska äta till middag ikväll. De nya uppdateringarna till "nya" Google Assistant som Google kallade det kommer att börja rulla ut till Pixel-telefoner någon gång senare i år. När vi andra kan få ta del av nyheterna framgår inte,. Tumnagel
40.9°
+
Wille Wilhelmsson
0

Artificiell intelligens skapar fotomodeller
Ännu något som vi inte behöver människor till

Utvecklingen av artificiella intelligenser som kan manipulera bilder och videoklipp har gått framåt med stormsteg de senaste åren och här kan ni ta en titt på vad det japanska företaget DataGrid använder AI till. DataGrid har utvecklat en artificiell intelligens som med hjälp av maskinlärning kan skapa nya "fotomodeller" på löpande band. Personerna ni ser i animationen ovan och i klippet nedan finns inte i verkligheten utan den har AI:n skapat genom att studera en lång rad verkliga fotomodeller. Precis som de flesta andra AI:s som pysslar med liknande manipulation av bilder så använder sig DataGrids AI av ett så kallat GAN (Generative Adversarial Networks) där man låter två neurala nätverk "tävla" mot varandra om att skapa det bästa resultatet som sedan AI:n presenterar för användaren. Teknik som denna skulle i framtiden eventuellt kunna användas för att dra ner kostnaden för klädföretag när de ska fotografera sina nya kollektioner. Tumnagel
46.9°
+
Wille Wilhelmsson
0

Apple plockar AI-expert från Google
Ian Goodfellow ligger bland annat bakom GAN

CNBC rapporterar att AI-experten Ian Goodfellow sedan förra månaden är chef för maskinlärning inom Apples så kallade "Special Projects Group". Goodfellow arbetade tidigare på Google med att utveckla artificiella intelligenser. Före det har han bland annat arbetat för robotföretaget Willow Garage som vi skrivit om några gånger tidigare och han har även arbetat för organisationen OpenAI som Elon Musk kickade igång 2016. I AI-kretsar är Goodfellow främst känd för att ha myntat och utvecklat begreppet "Generative Adversarial Network" (GAN). Det är en AI-teknik där man låter två neurala nätverk battla mot varandra för att åstadkomma det bästa resultatet i ett så kallat nollsummespel. Det är en teknik som bland annat har använts för att framställa alla så kallade "deepfakes" som vi sett många exempel på de senaste åren. Här ovan kan ni lyssna på när en annan AI-expert, Andrew Ng som grundade Google Brain, intervjuar Ian Goodfellow 2017. Tumnagel
37.4°
+
Wille Wilhelmsson
0

Googles TossingBot är en robot som kan kasta saker
Kanske börjar jobba på ett lager i framtiden

De senaste två åren har Google och deras moderföretag Alphabet dragit ner på sin utveckling av robotar efter det att man 2017 sålde Boston Dynamics till SoftBank och förra året lade ner Shaft Robotics. Man har dock inte slutat helt med att utveckla robotteknik och här kan ni kolla in TossingBot vilket är en robot som är utvecklad för att kasta saker. Google har utvecklat TossingBot tillsammans med de amerikanska universiteten Princeton, Columbia samt MIT som hjälpt till med maskininlärning för att få roboten att förstå delar av sin omvärld. Roboten har med hjälp av maskinlärning lärt sig hur olika föremål ska greppas och kastas på bästa sätt beroende på vilken form objektet har. Roboten har även tränats upp för att kunna kasta grejer i rätt lådor så att grejerna hamnar på rätt plats. Robotar som TossingBot skulle till exempel kunna användas på olika typer av varulager där man till exempel ska plocka ihop en beställning från Amazon eller någon liknade ehandelstjänst. I klippet ovan kan ni höra en av utvecklarna av TossingBot beskriva den lite närmare och i klippet nedan går man in lite mera på detalj hur man lärt upp roboten. Tumnagel
37.7°
+
Wille Wilhelmsson
0

Googles DeepMind kan förutspå hur vinden ska blåsa
Bra när man ska planera elförsörjningen

Googles AI-företag DeepMind har de senaste åren utvecklat artificiella intelligenser som kan spela både Go och Starcraft men nu har man utvecklat en AI som kanske kan utföra lite nyttigare uppgifter. Företagets senaste artificiella intelligens använder sig av maskinlärning för att läsa av vindmönster och kan på det sättet ge tillförlitliga prognoser på hur vinden kommer att blåsa de kommande 36 timmarna. Google har använt AI:n på sina egna vindturbiner och kan tack vare den optimera hur mycket el deras vindkraftverk kommer att leverera ett helt dygn i förväg. Enligt Google så har värdet på den energi som produceras av deras vindkraftverk ökat med 20 procent sedan man började använda maskinlärning för att förutspå framtida vindmönster. I klippet ovan kan ni kolla in Google Wind vilket var ett aprilskämt som Google körde 2017. DeepMind är inte riktigt där ännu men med tanke på all mystik som omger artificiell intelligens kanske det är något vi kan få se i framtiden från Google och DeepMind. Tumnagel
43.3°
+
Wille Wilhelmsson
0
2018

Robot börjar testas inom förlossningsvården
Kommer det att effektivisera barnafödandet?

Forskare på MIT CSAIL har utvecklat ett maskinlärningsprogram till Aldebaran Robotics robot NAO som är tänkt att användas på förlossningskliniker. Med programmet kommer roboten kunna schemalägga var havande mammor ska placeras på förlossningskliniken och vem eller vilka som ska ta hand om de blivande mammorna under förlossningen. Programmet har lärts upp genom att studera hur läkare och sköterskor fördelar rummen och personalen på en förlossningsklinik och har sedan baserat på det börjat fatta egna beslut. Roboten fungerar dock bara som ett hjälpmedel och det är alltid en läkare eller en sköterska som har sista ordet om var den havande kvinnan ska placeras. Under testerna med schemaläggnings-roboten så höll läkarna och sköterskorna med roboten i 90 procent av fallen. Tumnagel
37.4°
+
Wille Wilhelmsson
0

AI-skapade porträttbilder börjar se riktigt bra ut
Syns det att dessa porträtt är fejkade?

Nvidia har publicerat en ny forskningsrapport där de snackar lite mer om sitt arbete med att framställa porträttbilder på personer som inte finns med hjälp av artificiell intelligens. Det var bara runt fyra år sedan sådana system kunde skapa de lite suddiga bilderna i gråskala som synes till vänster ovan. Arbetet med maskinlärning och artificiell intelligens går dock snabbt och så här fyra år senare kan ett liknande system generera de två bilderna som syns till höger ovan. En annan rätt ball grej Nvidia har gjort är att utveckla AI:n så att denna kan två porträttbilder och mixa ihop dem för att skapa ett nytt porträtt på en person som inte finns. På bilden nedan kan ni högst upp se porträtt på fem personer och där under hur dessa porträtt skulle se ut om de mixades samman med de tre "porträttfiltren" till vänster i bild. Tumnagel
48.1°
+
Wille Wilhelmsson
0

Qualcomm presenterar Snapdragon 855
5G, 5G, 5G!

Under andra dagen på Snapdragon Tech Summit 2018 så presenterade Qualcomm sin kommande flaggskeppsprodukt Snapdragon 855, en plattform som kommer att driva många av morgondagens mobiler. Den antagligen största grejen med Snapdragon 855 är att det finns inbyggt stöd för 5G vilket antagligen inom kort kommer att ses som ett krav på kommande mobiltelefoner i high end-segmentet. Snapdragon 855 är baserad på 7nm-arkitektur och försedd med den nya CPU:n Kryo 485 med 8 kärnor och hastigheter på upp till 2,84Ghz samt GPU:n Adreno 640. Vidare tar Hexagon 690 hand om AI samt maskinlärning och Spectra 380 ISP (image signal processor) tar hand om mycket gällande bild- och videohantering, typ HDR10+ och bokeh, på telefonerna. Det finns även inbyggt stöd för Wi-fi 6 (IEEE 802.11ax) samt fingeravtrycksläsaren 3D Sonic Sensor som kan läsa fingeravtryck genom mobilskärmar. Enligt Qualcomm själva så har de nya komponenterna och den nya arkitekturen i Snapdragon 855 gjort plattformen i genomsnitt 45 procent snabbare än Snapdragon 845 och 20 procent snabbare när det gäller grafikhantering än föregångaren. Tumnagel
43.9°
+
Wille Wilhelmsson
0

Amazon släpper självkörande bil
Säg hej till lilla AWS DeepRacer

Amazon har lite överraskande släppt en självkörande modellbil i skala 1/18 som man planerar att dra igång en racingliga för nästa år. Amazon kallar sina bilar för AWS DeepRacer och tanken är att användarna ska kunna justera olika av bilens självkörande egenskaper om de känner för det. Amazon skriver i ett blogginlägg: "AWS DeepRacer includes a fully-configured cloud environment that you can use to train your Reinforcement Learning models. It takes advantage of the new Reinforcement Learning feature in Amazon SageMaker and also includes a 3D simulation environment powered by AWS RoboMaker. You can train an autonomous driving model against a collection of predefined race tracks included with the simulator and then evaluate them virtually or download them to a AWS DeepRacer car and verify performance in the real world." Nästa år kommer Amazon även att kicka igång "AWS DeepRacer League" där användare kommer att kunna tävla mot varandra med sina tweakade AWS DeepRacer. Amazon kallar detta för världen första globala autonoma racingliga. AWS DeepRacer släpps i mars nästa år och kommer då att kosta cirka 400 dollar. Förbeställer man en nu så går den loss på cirka 250 dollar. Här nedan hittas lite klipp från presentationen av AWS DeepRacer. Tumnagel
38.2°
+
Wille Wilhelmsson
0
Nästa sida