m

AI får datorspelskaraktärer att röra sig mer naturligt
Ännu något vi inte behöver människor till

Artificiell intelligens går att använda till mycket och nu har några forskare på University of Edinburgh och Adobe Research utvecklat ett AI-system som får karaktärer i datorspel att röra sig mer naturligt. Vanligtvis spelar man in karaktärers rörelser i datorspel med hjälp av kroppsskådespelare i en studio vilket anses vara mer effektivt än att animera dessa. Det kommer dock alltid att uppstå situationer i dagens komplexa datorspel där det inte finns någon vettig kroppsrörelse att lägga in på spelkaraktären och det är där AI-systemet kommer in. Forskarna har utvecklat ett djuplärnings-system som man kallar för Neural State Machine vilket själv kan räkna ut hur en lämplig animering av en karaktärs rörelse i ett spel skulle kunna se ut. Systemet fungerar på liknande sätt som de AI-system som kan spela in så kallade deepfakes-videos, videoklipp där, oftast, någons ansikte byts ut mot ett annat. Sådana system är upptränade på att manipulera ansiktsbilder och på liknande sätt är Neural State Machine utvecklat för att manipulera animationerna som syns på skärmen när en karaktär i datorspel förflyttar sig. Som synes i videon ovan så verkar det hela fungera rätt bra. Forskarna bakom Neural State Machine kommer att presentera sitt arbete lite mera ingående på ACM Siggraph Asia i Melbourne nästa månad. Här nedan hittas ett gäng med fails från olika datorspel där animationer och annat inte alltid kanske blivit som spelutvecklana hade tänkt sig att de skulle bli. Tumnagel
43.6°
+
Wille Wilhelmsson
0

Adobe visar upp Project Glasswing
Digital skärm som fixar augmented reality helt på egen hand

Adobe har visat upp en prototyp av något man kallar för Project Glasswing på grafikmässan SIGGRAPH 2019 vilket är en slags skärm som kombinerar fysiska objekt med digitala effekter vilket resulterar i en slags augmented reality-upplevelse. Som synes i videoklippet här nedanför kan man använda Project Glasswing för att visa upp ytterligare information med hjälp av ett pekgränssnitt för en utvald produkt. Vidare skulle man kunna använda det hela för att visa upp extra information eller digitala upplevelser på till exempel museum, butiker eller i hotell säger Adobe. Adobe ser inte Glasswing som en hårdavaruprodukt man själva planerar att börja bygga eller sälja utan det ska istället vara ett sätt att visa upp hur en del av Adobes programvaror går att använda tillsammans med "AR-skärmar" som Glasswing. Adobe uppger även att man samarbetar med partners som antagligen kommer att utveckla hårdvara liknande den vi kan se i klippet nedan. Tumnagel
37.9°
+
Wille Wilhelmsson
0

Arque är en artificiell svans
För alla som känner att livet skulle vara goare med svans

Här kan ni kolla in den artificiella svansen Arque som utvecklats av några forskare på japanska Keio University Graduate School of Media Design. Under mässan SIGGRAPH 2019 så visade man Arque lite närmare och demonstrerade hur den skulle kunna användas. Svansen är försedd med fyra "muskler" som kan få svansen att röra sig i olika riktningar för att ge användaren bättre balans. Utvecklarna säger själva om sin artificiella svans: "For most vertebrate animals, [the] tail plays an important role for their body, providing variant functions to expand their mobility. In this work, Arque, we propose an artificial biomimicry-inspired anthropomorphic tail to allow us to alter our body momentum for assistive and haptic feedback applications." Proteser liknande Arque skulle i teorin kunna användas för rehabilitering av personer som behöver hjälp med balansen, som hjälpmedel vid tunga lyft och eller som ett stöd för att till exempel äldre inte ska trilla omkull. Eller så kan man använda den på maskerader med dinosaurietema. Arque befinner sig än så länge på prototyp-stadiet och går inte att köpa. Tumnagel
31.9°
+
Wille Wilhelmsson
0

Google har en AI som kan ljussätta bilder i efterhand
Kan göra fotograferingen trevligare på budgettelefoner

Forskare från Google och University of California har utvecklat en artificiell intelligens som kan lägga på ny ljussättning på ett redan existerande fotografi och få detta att se naturligt ut. Den artificiella intelligensen har tränats upp genom att studera ett dussintal människor när dessa utsattes för belysning från 307 olika riktningar. Med hjälp av det ska AI:n sedan kunna skapa bilder med ny ljussättning efter det att bilderna fotograferats. Det finns idag redan liknande funktioner i till exempel iPhones men denna är beroende av telefonens olika kameralinser. Med AI:s liknande den som Google och UC demonstrerade på grafikmässan SIGGRAPH 2019 skulle man kunna lägga till sådana här effekter i efterhand även på bilder som fotograferats med lite mindre avancerade telefoner än iPhone. Tumnagel
42.2°
+
Wille Wilhelmsson
0

Googles AI fixar förvrängda ansikten i vidvinkelbilder
Så att det ser lite vettigare ut ut

Vidvinkelkameror börjar bli någorlunda standard på dagens lite bättre mobiltelefoner vilket antagligen kommer att leda till att vi kommer att se mindre selfie-sticks på våra semestrar i år. Det är givetvis en fördel men en nackdel med mobilernas vidvinkelbilder är att de stretchar ut fotografiets ytterkanter. Det kan leda till att människors ansikten ibland kan uppfattas som lite tjockare än vad de faktiskt är i verkligheten. För att råda bot på det så har de tre Google och MIT-forskarna YiChang Shih, Wei-Sheng Lai och Chia-Kai Liang utvecklat en artificiell intelligens som kan fixa till vidvinkel-tjockisar i efterhand. Ni kan se ett exempel på en före-efter-bild ovan och nedan hittas ett videoklipp där man beskriver AI:n lite närmare. Det går redan idag att fixa förvrängda vidvinkelbilder i till exempel Photoshop men det är kanske inte alltid normalanvändaren fixar det. Med AI-filter som det här skulle detta kunna fixas automatiskt redan när bilden fotograferas. Huruvida teknik liknande denna kommer att leta sig in i Googles framtida telefoner finns det inga uppgifter om men det skulle förvåna mig om inte så blir fallet. Tumnagel
43.4°
+
Wille Wilhelmsson
0

Nu ännu enklare att framställa deepfakes med tal
Skriv bara in vad personen i videon ska säga

Adobe Research har tillsammans med forskare från de framstående universiteten Stanford University, Max Planck Institute for Informatics samt Princeton University utvecklat mjukvara som enkelt kan skapa så kallade deepfakes-klipp. Med hjälp av artificiell intelligens har forskarna lyckats skapa ett program där det bara är att skriva in vad personen på klippet ska säga i ett videoklipp. Därefter gör AI:n lite av de magiska grejerna de brukar pyssla med och vips så har man ett videoklipp där någon säger precis vad man tidigare har angett den ska säga. Ni kan kolla in en rad exempel där man använder sin AI för att få personer att säga olika saker i videoklippet nedan där man även går igenom hur man har gått tillväga för att skapa AI:n. I dagsläget har inte Adobe eller universiteten implementerat den här tekniken i någon kommersiell tillgänglig mjukvara men det är antagligen bara en tidsfråga innan sådan dyker upp, antingen från Adobe eller någon annan som utvecklar liknande prylar. Tumnagel
34.1°
+
Wille Wilhelmsson
0
2018

Fusion ger dig ett par extra armar
Som din polare kan styra

Här är ytterligare en rätt ball uppfinning från årets SIGGRAPH-mässa som utvecklarna kallar för Fusion. Fusion är en slags ryggsäck där man fäst två armar som ger användaren dubbelt så många armar att arbeta med. Fusion har lite olika lägen varav ett låter en person se armarna via en kamera och därefter fjärrstyra dessa med hjälp av ett VR-headset. Med ett annat läge i Fusion kan användaren fästa robotarmarna på sina egna armar och därefter låta någon annan styra även dessa. I Fusions tredje och sista läge så rör sig armarna helt autonomt och det kanske kan vara intressant om man vill göra några oväntade moves på dansgolvet. Fusion är utvecklad av forskare på de båda japanska universiteten Keio University samt University of Tokyo. Det handlar än så länge om en prototyp och det är med andra ord osäkert om vi någonsin får se Fusion på marknaden. Men vi hoppas givetvis. Se bonus nedan. Tumnagel
38.2°
+
Wille Wilhelmsson
0

Kolla in motion capture i realtid med en iPhone X
Bebylon vann realtids-kategorin på SIGGRAPH

Förra veckan arrangerades CGI-mässan SIGGRAPH i Vancouver där det visades upp grejer som vi antagligen kommer att få se i framtida grafik som genererats av datorer. Det amerikanska företaget Kite & Lightning var på plats och visade upp sitt rätt så imponerande motion capture-projekt Bebylon. Det handlar om en "CGI-bebis" som i realtid följer en människas rörelser via en iPhone X samtidigt som det går att byta ut bebisens ansikte och annat medan det hela spelas in. Företaget skriver själva om Bebylon: "Kite & Lightning reveals how Xsens inertial mocap technology, used in tandem with an iPhone X, can be used for full body and facial performance capture – wirelessly and without the need for a mocap volume – with the results live-streamed via IKINEMA LiveAction to Unreal Engine in real time." Här ovan kan ni kolla in Kite & Lightnings presentation av Bebylon vilken man vann förstapris i kategorin "Real-time Live" på SIGGRAPH 2018 i Vancouver. Tumnagel
44.4°
+
Wille Wilhelmsson
0

Robotar lär sig hålla ögonkontakt
Hallå uncanny valley!

Den japanske robotuvecklaren och konstnären Takayuki Todo har tagit fram ännu skapelse och den här gången handlar det om ett litet robothuvud som han kallar för SEER (Simulative Emotional Expression Robot). SEER:s inbyggda kameror letar efter människor i sin närhet och när den får ögonkontakt med en människa så börjar roboten imitera människans ansiktsrörelser samtidigt som den behåller ögonkontakten med människan. SEER visades upp på den pågående SIGGRAPH-mässan i Vancouver, Kanada, och TechCrunch har kollat in det lilla robothuvudet: "Real humans are more expressive, naturally, but this little face with its creepily realistic eyes plunged deeply into the uncanny valley and nearly climbed the far side. It’s a bit creepy, but not in the way that some robots are — when you’re looked at by inadequately modeled faces, it just feels like bad VFX. In this case it was more the surprising amount of empathy you suddenly feel for this little machine." SEER är i dagsläget bara ett konstprojekt men som TechCrunch skriver så är det nog inte alls omöjligt att teknik som denna dyker upp i smarta assistenter, riktiga robotar och annat i framtiden. Tumnagel
40.7°
+
Wille Wilhelmsson
0

StarVR presenterar StarVR One
Se ännu mera i den virtuella verkligheten

Starbreeze och Acers VR-företag StarVR har visat upp deras kommande VR-headset StarVR One där synfältet (FOV) och annat har förbättrats från föregångaren som man presenterade 2015. I StarVR One kommer användaren att få ett FOV på 210 grader horisontellt och 130 grader vertikalt på VR-headsetets två AMOLED-skärmar som har en uppdateringsfrekvens på 90hz. Enligt TechCrunch så uppger StarVR att upplösningen på de båda skärmarna tillsammans blir en slags 5K-upplösning, en standard som än så länge inte riktigt finns. StarVR One har inbyggd eyetracking vars teknik svenska Tobii står bakom. Headsetet är kompatibelt med SteamVR:s motiontracking men det går även att köpa en XT-version av StarVR One om man skulle vilja bygga ett eget system för att följa hur användaren rör sig. TechCrunch har fått testa StarVR One och skriver i ett kort utlåtande: "Although this headset will be going to high-end commercial types, you can bet that the wide FOV and eye tracking in it will be standard in the next generation of consumer devices. Having tried most of the other headsets, I can say with certainty that I wouldn’t want to go back to some of them after having experienced this one." Starbreeze skriver i ett blogginlägg att man kommer att meddela vad StarVR One kommer att kosta och när det släpps någon gång i framtiden. Tumnagel
45.7°
+
Wille Wilhelmsson
0

Epic och Porsche visar upp snygg film
Visar hur bra Unreal Engine är

På SIGGRAPH 2018 visade Epic, Nvidia och Porsche igår upp den här filmsnutten. Eller film, det är renderat i realtid på Nvidias kort. Riktigt imponerande! Epic har tidigare visat upp vad motorn kan göra med ett Star Wars-klipp som är larvigt vackert. Läs mer om det och 911:an här nedan. Tumnagel
39.7°
+
Roger Åberg
0
2015

Real Virtuality är typ ett holodeck
Ännu en VR-lösning

Här är en rätt ball VR-lösning från stiftelsen ArtAnim som de har döpt till "Real Virtuality" och som väl närmast kan liknas vid ett så kallat holodeck [wiki] som är en fiktiv hologramlösning som förekommer i TV-serien Star Trek. Som synes i videon ovan och nedan så får användarna en upplevelse av att befinna sig en gammal egyptisk gravkammare och där kan de utforska denna. Real Virtuality använder sig av ett avancerat motion capture-system för att hålla koll på var användarna befinner sig i rummet och vad de pysslar med. Något som kräver ett rum i skala 1:1 vilket gör att de flesta av oss antagligen inte kommer ha möjlighet att ha en sådan här lösning hemma i huset. Åtminstone inte än på ett tag. Tumnagel
41.4°
+
Wille Wilhelmsson
0
2014

Intel visar vad DirectX 12 gör för prestandan i spel
Demo med Surface Pro 3 ökade prestandan med 74 %

När Microsoft tillkännagav DirectX 12 så fick vi reda på att de kommer följa efter AMD och Mantle med att minska overhead för CPUn och låta grafikkortet göra mer av jobbet. Nu säger Intel att detta även kommer ge stora fördelar för enheter som måste hålla värmeutvecklingen nere som till exempel tablets. Att sänka utnyttjandet av processorn ger utrymme för öka kraften i grafiken och användare kommer kunna dra bättre nytta av både GPUn och CPUn. Intels Andrew Lauritzen demonstrerade under SIGGRAPH vilka förbättringar man kan få genom att använda en Surface Pro 3 och ett specialskrivet mjukvarudemo. Demot renderar en scen med 50 000 fullt dynamiska och unika asteroider och kan växla mellan DX11 och DX12 läge med en knapptryckning. Demot visar också strömförbrukningen av CPUn och GPUn i en graf längst ned till höger. När demot körs i DX11-läge så klarar Surface Pro 3 endast av att klämma ut 19 FPS och grafen visar att CPUn tar upp en stor del av strömförbrukningen. När man växlar till DX12-läge däremot så används grafiken mycket mer och frame rate går upp till hela 33 FPS. Med lite enkel matematik så kan man se att det blir en ökning med 74 % i prestanda. Lauritzen förklarar att många missuppfattat en del och säger att när processorn blir strömsnålare så kan detta användas för att öka prestandan i en applikation även om den inte körs till mestadels på processorn. Tumnagel
53.4°
+
Samuel Paulsson
0

Microsoft gör enkelt kinect med en webbkamera
Fattigmanskinect?

Under årets SIGGRAPH-mässa som just nu pågår i kanadensiska Vancouver har Microsoft bland annat visat upp en teknik som gör att man med små modifikationer kan ta en vanlig 2D-kamera och få denna att fungera som ett enklare kinect. Som synes i videon kan en vanlig webbkamera, tillsammans med Microsofts programvara, känna av rörelser och även avgöra på vilket djup det filmade objektet befinner sig. För att demonstrera det hela så visar man i videon ovan upp bland annat när man lirar Fruit Ninja men även när man försöker sig på att navigera Bing Maps med händerna. Det visas även upp en modifierad mobilkamera som fungerar på liknande sätt. Tumnagel
46.9°
+
Wille Wilhelmsson
0
2013

Nvidia visar Project Logan under SIGGRAPH
Kommer ersätta Tegra 4 och för med sig Kepler-arkitekturen

SIGGRAPHi Anaheim är i full gång och där visar nu Nvidia upp detaljer om grafiken som Project Logan bygger på, alltså uppföljaren till företagets Tegra 4 SoC. Project Logan kommer vara det första SoC:et med grafik baserat på Kepler-arkitekturen. Nvidia hävdar att det är en stor milstolpe på den mobila arenan då den första GeForce GPUn till PC lanserades 1999. Tack vare Kepler så kommer Project Logan att kunna ge samma visuella funktioner som en GPU till stationära datorer, inklusive tessellation och hårdvaruaccelererad fysik. Det kommer även finnas stöd för DirectX 11, OpenGL 4.4 odh OpenGL ES 3.0. Nvidia har också samtidigt tweakat Kepler till mobila applikationer genom att lägga till en "new low-power inter-unit interconnect and extensive new optimizations". Det gör att mobila Kepler dra mycket mindre ström än de som sitter i stationära datorer och Nvidia hävdar att de drar mindre än en tredjedel jämfört med grafikhårdvaran som sitter i senaste iPad när samma rendering utförs. De första exemplaren av Project Logan kom tillbaks från fabriken får några veckor sedan och som vi kan se i videon ovan så har det rätt bra prestanda. Nvidia visar bland annat en version av "Ira" demot som simulerar ett mänskligt ansikte. Företaget säger att strömförbrukningen för det här demot ligger på 2-3 W men det är oklart om det är enbart Project Logan chipet eller om det är hela plattformen. Project Logan är beräknad att gå in i massproduktion tidigt nästa år och ska släppas senare under samma år. Vi kommer säkert att få se en hel våg av produkter lanseras före eller under Computex nästa år, förutsatt att det inte blir några förseningar i tillverkningen. Tumnagel
43.4°
+
Samuel Paulsson
0

Nvidia visar ny metod för realistiska vatteneffekter
Utvecklad med PhysX

Nvidia har utvecklat ett nytt verktyg för animering som kan återskapa realistiska vatteneffekter. Det handlar om Position Based Fluids (PBF) och bygger på en beräkningsmetod mer känd som Smooth Particle Hydrodynamics (SPH). Utmaningen med existerande lösningar av metoden har varit att för att få tillräckligt hög realism krävs att man antingen beräknar med en hög frekvens eller att man har en hög partikeldensitet. Båda metoderna kräver väldigt hög beräkningsprestanda. Den nya metoden från Nvidia, som utvecklats av Miles Macklin och Matthias Müller-Fischer, försöker reducera mängden beräkningar genom att "formulating and solving a set of positional constraints that enforce constant density". Metoden erbjuder något liknande som man skulle få ut av moderna "smoothed particle hydro-dynamic" (SPH)-lösare, men har stabiliteten av den geometriska positionsbaserade dynamiska metoden. Det gör att man kan ta stora steg i tiden under beräkningen som lämpar sig för realtidsapplikationer. PhysX-uppsatsen om "Position Based Fluids" ska presenteras under SIGGRAPH (Special Interest Group on GRAPHics and Interactive Techniques) 2013. Efter att uppsatsen accepterades så har Miles Macklin nu sagt att han fortsatt bygga på metodens renderingskvalité och algt till funktioner som "spray" och "foam". Tumnagel
45.1°
+
Samuel Paulsson
0
2012
2011

Koncept HAPMAP - navigera utan att titta på kartan
En handhållen pryl leder dig rätt

HAPMAP visades på SIGGRAPHs E-tech event och tanken bakom projektet är att den som navigerar inte ska stirra ner i kartan utan kunna hålla ögonen på vägen istället. Systemet bygger på guidning via haptik, och i detta fall handlar det om att man håller en pryl i handen som dels vibrerar och dels rör sig för att guida dig åt rätt håll. I videon ser vi när folk med ögonbindel lyckas gå en snitslad bana genom att bara förlita sig på prylen de har i handen. Kan vara bra för de som är inte är seende eller på något annat vis behöver hjälp med sin navigering. Sen är det ju skönt att slippa stirra ned i en karta hela tiden för att kunna hitta, och istället bara strosa fram och låta sig själv bli guidad av en manick. Tumnagel
37.5°
+
Bobby Green
0

Perceptive Pixel visar upp världens största multi-touch-LCD
Mäter hela 82 tum

Perceptive Pixel visar på detta års upplaga av SIGGRAPH upp en helt ny multi-touch-skärm, som faktiskt är världens största med sina 82 tum. LCD-skärmen är 15 centimeter djup och visar material i 1080p och 120Hz. Multi-touchens respons ska ligga på under 1ms så det ska gå snabbt att jobba på den. Kanske blir något för väderpresentatörer i framtiden, och för att visa presentationer på möten med mera. Mer information efter hoppet. Tumnagel
37.8°
+
Bobby Green
0

Fusion-io finns med under Siggraph 2011
Visar ioMemory i ett antal applikationer

Fusion-io, ett av de allra första första företagen som tog fram höghastighetslösningar med SSDs, tillkännagav under gårdagen att de kommer delta vid Siggraph 2011. De samarbetar nu med ett antal företag, inklusive Nvidia, Thinkbox Software och Autodesk, för att accelerera underhållningsindustrin med hjälp av SSDs. I Nvidias bås under Siggraph så visar Fusion-io hur ioMemory-teknologi kombinerat med ett Nvidia QuadroPlex 7000 klarar av att spela 12 Full HD-videor simultant från en enda arbetsstation. Allting visas upp på en videovägg som drivs av en HP Z800 arbetsstation, vilken innehåller hårdvaran ovan. Hos Autodesk så visar Fusion-io upp samma teknologi, ioMemory, och demonstrerar hur den kan accelerera Autodesk Composite-mjukvara, vilket inkluderar Autodesk 3ds Max, Autodesk Maya and Autodesk Softimage. ioMemory kommer också att integreras i Supermicro SuperServer 8046B-6RF hos Thinkbox Software. Det systemet kommer visa demonstrationer av Krakatoa, Thinkbox Softwares partikelrendering, manipulering och hanteringskit. Tumnagel
37.3°
+
Samuel Paulsson
0
2009

Coola gränssnitt på SIGGRAPH
Ett hologram bland annat

Just nu pågår "Special Interest Group on Graphics and Interactive Techniques" (SIGGRAPH) i amerikanska New Orleans och det har bland annat visats upp en hel del spännande gränssnitts-lösningar. Här till höger kan ni bland annat spana in ett slags hologram-gränssnitt där användaren interagerat och navigerar i 3D. Det är utvecklat av japanen Hiroyuki Shinoda på universitetet i Tokyo. Så det ser väl till slut ut som om vi snart kan få lägga vantarna på en äkta "Star Wars"-hologram-maskin. Hoppa ni vidare på länken nedan kan ni även spana in fyra andra gränssnitts-tekniker. De verkar också mycket coola och jag antar att det bara att luta sig tillbaka och vänta på framtiden... Tumnagel
37.5°
+
Wille Wilhelmsson
0
2008

Khronos Group släpper OpenCL 1.0
I stort sett alla stora tillverkare har stöd

Khronos Group har tillkännagett den officiella lanseringen av den första OpenCL versionen och dess specifikationer vid SIGGRAPH som nu hålls i Singapore. OpenCL, som står för Open Computer Language, är ett gratis programmeringsspråk för parallell programmering, som fungerar till många olika plattformar som till exempel flerkärniga processorer, grafikprocessorer, Cell-baserade processorer och andra parallella processorenheter. Programmeringsspråket har även godkänts av i stort sett alla stora spelare på fältet, AMD, Apple, ARM, Broadcom, Intel, Nvidia, mfl. Både AMD och Nvidia har tillkännagett stöd för de nya specifikationerna. AMD planerar att komma med en förhandstitt på ett SDK med OpenCL under första halvan av nästa år och säger att en del kod redan körs i deras Stream SDK. Nvidia sade att fullt stöd för OpenCL 1.0 finns i och med att alla deras grafikprocessorer som kan köra CUDA även har stöd för de nya specifikationerna. Tumnagel
37.1°
+
Samuel Paulsson
0

Nvidia har också ray-tracing teknologi
Kör med dagens GPU:er

Intel har länge talat om ray-tracing och har nyligen kommit med lite uppdateringar i ämnet i och med larrabee. Vi kommer snart att kunna klara av att hantera ray-tracing i våra datorer men det är inte bara Intel som håller på med ämnet. Även Nvidia har gjort ett försök. Nvidia säger att ray-tracing är redan möjligt under deras nuvarande grafikprocessor-designer. De demonstrerade ray-tracing vid Siggraph med ett demo som kördes på vanliga grafikprocessorer. Hela demot körde ray-tracing i realtid genom att använda sig av CUDA. Nvidia sade att det är världens första fullt interaktiva GPU-baserade ray-tracer. Demot kördes på en maskin som jag skrev om förra veckan, Quadro Plex 2100 D4 som innehåller fyra Quadro grafikprocessorer, vardera med en gigabyte minne. Demot som kördes låg på 30 fps i en upplösning av 1920x1080 och hade en enorm mängd polygoner. De hade även ett annat demo som kördes i 2560x1600 men gav ingen information om hur många fps det kördes i. Tumnagel
37.1°
+
Samuel Paulsson
0

Unwrap Mosaics - manipulera bilder enklare
Ny teknik från Microsoft plattar ut ansikten

Unwrap Mosaics är en programvara från Microsoft som gör det betydligt enklare om man vill manipulera bilder på ansikten. Exempelvis kanske man vill lägga till en mustasch som i exemplet ovan. Tekniskt funkar det hela genom att programvaran slätar ut (plattar till) "3D-bilden" så att det blir lättare att editera de områdena på, till exempel, ansiktet man är intresserad av. Microsoft presenterade Unwrap Mosaic på SIGGRAPH-mässan i Los Angeles. Om det är tänkt att släppas en komersiell version av programmet framgår inte. Under "Läs mer" finns en kortare demonstrationsvideo. Tumnagel
37.0°
+
Wille Wilhelmsson
0

Intel kommer med mer information om Larrabee
Laddar upp för Siggraph

Nu när Siggraph närmar sig så är det inte så förvånande att se Intel börja prata allvar angående Larrabee. Intel har släppt en del nya bilder som antagligen kommer att fylla internet med ytterligare en våg av rykten. Enligt Intel kommer idén av Larrabee från behovet av att kunna programmera för CPUn och GPU multi-parallelism. Även fast Larrabee kommer ha stöd för nuvarande grafik API säger Intel att den kommer den ge möjligheten att utveckla nya. De hoppas på att spelutvecklar drar nytta utav x86-kodning för att komma upp med nya funktioner som inte kan köras på en GPU. Hur många kärnor kommer vi då att se i Larrabee. Intel säger fortfarande att det är hemligt men ryktet säger att det ligger någonstans mellan 8 till 48 kärnor. Intel säger att prestandan av Larrabee är väldigt skalbar och ska vara nästan linjär. Med nästan linjär menar Intel linjär med marginal av 10 %. Det ska bli intressant att se hur slutprodukten kommer att bli och vad den kommer att göra för våra spel. Tumnagel
37.0°
+
Samuel Paulsson
0
2007

Ändra bildstorlek utan att tappa information
Nytt program sköter urvalet

På Siggraph-mässan visar folk varje år upp de mest makalösa bildbehandlingslösningar. Den här metoden ser till att du kan ändra storlek på en bild utan att tappa viktig information. Programmet tar matematiskt hand om avmaskande och redigerande av en bild för att bibehålla viktiga områden. Det enda du behöver göra är att klicka och dra. Du kan även skydda valda områden och på samma sätt helt radera objekt från bilden. Man blir lätt lite imponerad av hur enkelt det ser ut att vara. Update: Seam Carving for Content-Aware Image Resizing heter metoden, och deras PDF går att kika på här (verkar var en slö länk). Tumnagel
37.0°
+
Anders Magnusson
0

Ändra bildstorlek på ett nytt sätt
Verkar riktigt fräckt

På en stor konferens som kallas Siggraph presenterades detta program som kan förminska bilder genom att ta bort de delar av en bild som innehåller minst kontrast och på så sätt behålla den information som är viktigast. Tumnagel
36.9°
+
Jens Lennartsson
0

OpenGL 3.0 på gång
DirectX10 får utmaning

Open GL 3.0 har officiellt tillkännagivits på Siggraph-konferensen nyligen. Där meddelade manen del information om hur den uppdaterade koden kommer att vara och säger att alla specifikationer ska vara klar i slutet av augusti. Och godkänns allt offentliggörs de slutgiltiga specifikationerna i slutet av september. Presentationen i PDF-form hittar du här. Många ser detta som en rejäl möjlighet att kunna se spel med DirectX 10-kvalitet i framtiden, oavsett vilket operativsystem du använder. Det ska bli klart spännande att se hur utvecklingen går vidare. Tumnagel
37.1°
+
Anders Magnusson
0

Snabbtitt på XO-datorn
En videogenomgång

En titt på XO-datorn, (100-dollarsdatorn) från One Laptop Per child-projektet visades upp på Siggraph 2007-konferensen nyligen. Väl värt en titt om ni bara sett stillbilder tidigare. Tumnagel
36.9°
+
Anders Magnusson
0
Nästa sida