m
Artiklar som innehåller siggraph

Adobe visar upp Project Glasswing
Digital skärm som fixar augmented reality helt på egen hand

Adobe har visat upp en prototyp av något man kallar för Project Glasswing på grafikmässan SIGGRAPH 2019 vilket är en slags skärm som kombinerar fysiska objekt med digitala effekter vilket resulterar i en slags augmented reality-upplevelse. Som synes i videoklippet här nedanför kan man använda Project Glasswing för att visa upp ytterligare information med hjälp av ett pekgränssnitt för en utvald produkt. Vidare skulle man kunna använda det hela för att visa upp extra information eller digitala upplevelser på till exempel museum, butiker eller i hotell säger Adobe. Adobe ser inte Glasswing som en hårdavaruprodukt man själva planerar att börja bygga eller sälja utan det ska istället vara ett sätt att visa upp hur en del av Adobes programvaror går att använda tillsammans med "AR-skärmar" som Glasswing. Adobe uppger även att man samarbetar med partners som antagligen kommer att utveckla hårdvara liknande den vi kan se i klippet nedan. Tumnagel
37.9°
+
Wille Wilhelmsson
0

Arque är en artificiell svans
För alla som känner att livet skulle vara goare med svans

Här kan ni kolla in den artificiella svansen Arque som utvecklats av några forskare på japanska Keio University Graduate School of Media Design. Under mässan SIGGRAPH 2019 så visade man Arque lite närmare och demonstrerade hur den skulle kunna användas. Svansen är försedd med fyra "muskler" som kan få svansen att röra sig i olika riktningar för att ge användaren bättre balans. Utvecklarna säger själva om sin artificiella svans: "For most vertebrate animals, [the] tail plays an important role for their body, providing variant functions to expand their mobility. In this work, Arque, we propose an artificial biomimicry-inspired anthropomorphic tail to allow us to alter our body momentum for assistive and haptic feedback applications." Proteser liknande Arque skulle i teorin kunna användas för rehabilitering av personer som behöver hjälp med balansen, som hjälpmedel vid tunga lyft och eller som ett stöd för att till exempel äldre inte ska trilla omkull. Eller så kan man använda den på maskerader med dinosaurietema. Arque befinner sig än så länge på prototyp-stadiet och går inte att köpa. Tumnagel
31.9°
+
Wille Wilhelmsson
0

Googles AI fixar förvrängda ansikten i vidvinkelbilder
Så att det ser lite vettigare ut ut

Vidvinkelkameror börjar bli någorlunda standard på dagens lite bättre mobiltelefoner vilket antagligen kommer att leda till att vi kommer att se mindre selfie-sticks på våra semestrar i år. Det är givetvis en fördel men en nackdel med mobilernas vidvinkelbilder är att de stretchar ut fotografiets ytterkanter. Det kan leda till att människors ansikten ibland kan uppfattas som lite tjockare än vad de faktiskt är i verkligheten. För att råda bot på det så har de tre Google och MIT-forskarna YiChang Shih, Wei-Sheng Lai och Chia-Kai Liang utvecklat en artificiell intelligens som kan fixa till vidvinkel-tjockisar i efterhand. Ni kan se ett exempel på en före-efter-bild ovan och nedan hittas ett videoklipp där man beskriver AI:n lite närmare. Det går redan idag att fixa förvrängda vidvinkelbilder i till exempel Photoshop men det är kanske inte alltid normalanvändaren fixar det. Med AI-filter som det här skulle detta kunna fixas automatiskt redan när bilden fotograferas. Huruvida teknik liknande denna kommer att leta sig in i Googles framtida telefoner finns det inga uppgifter om men det skulle förvåna mig om inte så blir fallet. Tumnagel
43.4°
+
Wille Wilhelmsson
0

Nu ännu enklare att framställa deepfakes med tal
Skriv bara in vad personen i videon ska säga

Adobe Research har tillsammans med forskare från de framstående universiteten Stanford University, Max Planck Institute for Informatics samt Princeton University utvecklat mjukvara som enkelt kan skapa så kallade deepfakes-klipp. Med hjälp av artificiell intelligens har forskarna lyckats skapa ett program där det bara är att skriva in vad personen på klippet ska säga i ett videoklipp. Därefter gör AI:n lite av de magiska grejerna de brukar pyssla med och vips så har man ett videoklipp där någon säger precis vad man tidigare har angett den ska säga. Ni kan kolla in en rad exempel där man använder sin AI för att få personer att säga olika saker i videoklippet nedan där man även går igenom hur man har gått tillväga för att skapa AI:n. I dagsläget har inte Adobe eller universiteten implementerat den här tekniken i någon kommersiell tillgänglig mjukvara men det är antagligen bara en tidsfråga innan sådan dyker upp, antingen från Adobe eller någon annan som utvecklar liknande prylar. Tumnagel
34.2°
+
Wille Wilhelmsson
0

Fusion ger dig ett par extra armar
Som din polare kan styra

Här är ytterligare en rätt ball uppfinning från årets SIGGRAPH-mässa som utvecklarna kallar för Fusion. Fusion är en slags ryggsäck där man fäst två armar som ger användaren dubbelt så många armar att arbeta med. Fusion har lite olika lägen varav ett låter en person se armarna via en kamera och därefter fjärrstyra dessa med hjälp av ett VR-headset. Med ett annat läge i Fusion kan användaren fästa robotarmarna på sina egna armar och därefter låta någon annan styra även dessa. I Fusions tredje och sista läge så rör sig armarna helt autonomt och det kanske kan vara intressant om man vill göra några oväntade moves på dansgolvet. Fusion är utvecklad av forskare på de båda japanska universiteten Keio University samt University of Tokyo. Det handlar än så länge om en prototyp och det är med andra ord osäkert om vi någonsin får se Fusion på marknaden. Men vi hoppas givetvis. Se bonus nedan. Tumnagel
38.2°
+
Wille Wilhelmsson
0

Kolla in motion capture i realtid med en iPhone X
Bebylon vann realtids-kategorin på SIGGRAPH

Förra veckan arrangerades CGI-mässan SIGGRAPH i Vancouver där det visades upp grejer som vi antagligen kommer att få se i framtida grafik som genererats av datorer. Det amerikanska företaget Kite & Lightning var på plats och visade upp sitt rätt så imponerande motion capture-projekt Bebylon. Det handlar om en "CGI-bebis" som i realtid följer en människas rörelser via en iPhone X samtidigt som det går att byta ut bebisens ansikte och annat medan det hela spelas in. Företaget skriver själva om Bebylon: "Kite & Lightning reveals how Xsens inertial mocap technology, used in tandem with an iPhone X, can be used for full body and facial performance capture – wirelessly and without the need for a mocap volume – with the results live-streamed via IKINEMA LiveAction to Unreal Engine in real time." Här ovan kan ni kolla in Kite & Lightnings presentation av Bebylon vilken man vann förstapris i kategorin "Real-time Live" på SIGGRAPH 2018 i Vancouver. Tumnagel
44.4°
+
Wille Wilhelmsson
0

Robotar lär sig hålla ögonkontakt
Hallå uncanny valley!

Den japanske robotuvecklaren och konstnären Takayuki Todo har tagit fram ännu skapelse och den här gången handlar det om ett litet robothuvud som han kallar för SEER (Simulative Emotional Expression Robot). SEER:s inbyggda kameror letar efter människor i sin närhet och när den får ögonkontakt med en människa så börjar roboten imitera människans ansiktsrörelser samtidigt som den behåller ögonkontakten med människan. SEER visades upp på den pågående SIGGRAPH-mässan i Vancouver, Kanada, och TechCrunch har kollat in det lilla robothuvudet: "Real humans are more expressive, naturally, but this little face with its creepily realistic eyes plunged deeply into the uncanny valley and nearly climbed the far side. It’s a bit creepy, but not in the way that some robots are — when you’re looked at by inadequately modeled faces, it just feels like bad VFX. In this case it was more the surprising amount of empathy you suddenly feel for this little machine." SEER är i dagsläget bara ett konstprojekt men som TechCrunch skriver så är det nog inte alls omöjligt att teknik som denna dyker upp i smarta assistenter, riktiga robotar och annat i framtiden. Tumnagel
40.7°
+
Wille Wilhelmsson
0

StarVR presenterar StarVR One
Se ännu mera i den virtuella verkligheten

Starbreeze och Acers VR-företag StarVR har visat upp deras kommande VR-headset StarVR One där synfältet (FOV) och annat har förbättrats från föregångaren som man presenterade 2015. I StarVR One kommer användaren att få ett FOV på 210 grader horisontellt och 130 grader vertikalt på VR-headsetets två AMOLED-skärmar som har en uppdateringsfrekvens på 90hz. Enligt TechCrunch så uppger StarVR att upplösningen på de båda skärmarna tillsammans blir en slags 5K-upplösning, en standard som än så länge inte riktigt finns. StarVR One har inbyggd eyetracking vars teknik svenska Tobii står bakom. Headsetet är kompatibelt med SteamVR:s motiontracking men det går även att köpa en XT-version av StarVR One om man skulle vilja bygga ett eget system för att följa hur användaren rör sig. TechCrunch har fått testa StarVR One och skriver i ett kort utlåtande: "Although this headset will be going to high-end commercial types, you can bet that the wide FOV and eye tracking in it will be standard in the next generation of consumer devices. Having tried most of the other headsets, I can say with certainty that I wouldn’t want to go back to some of them after having experienced this one." Starbreeze skriver i ett blogginlägg att man kommer att meddela vad StarVR One kommer att kosta och när det släpps någon gång i framtiden. Tumnagel
45.7°
+
Wille Wilhelmsson
0

Real Virtuality är typ ett holodeck
Ännu en VR-lösning

Här är en rätt ball VR-lösning från stiftelsen ArtAnim som de har döpt till "Real Virtuality" och som väl närmast kan liknas vid ett så kallat holodeck [wiki] som är en fiktiv hologramlösning som förekommer i TV-serien Star Trek. Som synes i videon ovan och nedan så får användarna en upplevelse av att befinna sig en gammal egyptisk gravkammare och där kan de utforska denna. Real Virtuality använder sig av ett avancerat motion capture-system för att hålla koll på var användarna befinner sig i rummet och vad de pysslar med. Något som kräver ett rum i skala 1:1 vilket gör att de flesta av oss antagligen inte kommer ha möjlighet att ha en sådan här lösning hemma i huset. Åtminstone inte än på ett tag. Tumnagel
41.4°
+
Wille Wilhelmsson
0

Microsoft gör enkelt kinect med en webbkamera
Fattigmanskinect?

Under årets SIGGRAPH-mässa som just nu pågår i kanadensiska Vancouver har Microsoft bland annat visat upp en teknik som gör att man med små modifikationer kan ta en vanlig 2D-kamera och få denna att fungera som ett enklare kinect. Som synes i videon kan en vanlig webbkamera, tillsammans med Microsofts programvara, känna av rörelser och även avgöra på vilket djup det filmade objektet befinner sig. För att demonstrera det hela så visar man i videon ovan upp bland annat när man lirar Fruit Ninja men även när man försöker sig på att navigera Bing Maps med händerna. Det visas även upp en modifierad mobilkamera som fungerar på liknande sätt. Tumnagel
46.9°
+
Wille Wilhelmsson
0

Fusion-io finns med under Siggraph 2011
Visar ioMemory i ett antal applikationer

Fusion-io, ett av de allra första första företagen som tog fram höghastighetslösningar med SSDs, tillkännagav under gårdagen att de kommer delta vid Siggraph 2011. De samarbetar nu med ett antal företag, inklusive Nvidia, Thinkbox Software och Autodesk, för att accelerera underhållningsindustrin med hjälp av SSDs. I Nvidias bås under Siggraph så visar Fusion-io hur ioMemory-teknologi kombinerat med ett Nvidia QuadroPlex 7000 klarar av att spela 12 Full HD-videor simultant från en enda arbetsstation. Allting visas upp på en videovägg som drivs av en HP Z800 arbetsstation, vilken innehåller hårdvaran ovan. Hos Autodesk så visar Fusion-io upp samma teknologi, ioMemory, och demonstrerar hur den kan accelerera Autodesk Composite-mjukvara, vilket inkluderar Autodesk 3ds Max, Autodesk Maya and Autodesk Softimage. ioMemory kommer också att integreras i Supermicro SuperServer 8046B-6RF hos Thinkbox Software. Det systemet kommer visa demonstrationer av Krakatoa, Thinkbox Softwares partikelrendering, manipulering och hanteringskit. Tumnagel
37.3°
+
Samuel Paulsson
0

Coola gränssnitt på SIGGRAPH
Ett hologram bland annat

Just nu pågår "Special Interest Group on Graphics and Interactive Techniques" (SIGGRAPH) i amerikanska New Orleans och det har bland annat visats upp en hel del spännande gränssnitts-lösningar. Här till höger kan ni bland annat spana in ett slags hologram-gränssnitt där användaren interagerat och navigerar i 3D. Det är utvecklat av japanen Hiroyuki Shinoda på universitetet i Tokyo. Så det ser väl till slut ut som om vi snart kan få lägga vantarna på en äkta "Star Wars"-hologram-maskin. Hoppa ni vidare på länken nedan kan ni även spana in fyra andra gränssnitts-tekniker. De verkar också mycket coola och jag antar att det bara att luta sig tillbaka och vänta på framtiden... Tumnagel
37.5°
+
Wille Wilhelmsson
0

Snabbtitt på XO-datorn
En videogenomgång

En titt på XO-datorn, (100-dollarsdatorn) från One Laptop Per child-projektet visades upp på Siggraph 2007-konferensen nyligen. Väl värt en titt om ni bara sett stillbilder tidigare. Tumnagel
36.9°
+
Anders Magnusson
0