m

Premiere Pro, Premiere Rush och Audition nu till Apple M1
Släppta i betaversioner

Adobe fortsätter att jobba på med stödet för Apple M1-processor och nu har de släppt Premiere Pro, Premiere Rush och Audition i betaversioner. För Premiere Pro gäller att man nu byggt om själva redigeringen och stöd finns för H.264, HEVC och ProRes, mer kommer med tiden. Den stora skillnaden är så klart inte några specifika funktioner, de är desamma som tidigare, utan prestanda. Numera så matchar en MacBook Pro 13 med M1 en MacBook Pro 16 med Intel vilket är imponerande. Jämfört med gamla MacBook Pro 13 med Intel är den nya versionen av Premiere Pro dubbelt så snabb på att exportera H.264. Något som är lite extra roligt är att Adobe börjar fylla sina mjukvaror med saker som bygger på maskininlärning och eftersom det finns en specifik del för detta i M1-chipet blir prestandaskillnaden enorm. Funktionen Scene Edit Detection tog 71 sekunder att göra på en MacBook Pro 16 och tar nu bara 17 sekunder på en MacBook Pro 13 med M1. Framtid! Betaversionerna finns att installera från Creative Cloud-appen. Tumnagel
41.3°
+
Roger Åberg
0

Låt en AI-driven kör sjunga julsånger för dig
Nytt påhitt från Google

David Li har i samarbete med Googles konst och kultur-team skapat Blob Opera. Det är en AI-driven operakvartett med blobar där du bestämmer i vilken tonart de ska ljuda fram olika klassiska julsånger. När du valt låt är det bara att dra igång och sen kan du leka loss med blobarna och få de att låta på olika vis. För att få till AI:n har man spelat in 16 timmar sång från de riktiga operasångarna Christian Joel, Fredrick Tong, Joanna Gamble och Olivia Doutney. De är dock inte de som sjunger utan en algoritm som skapar ljud efter hur den tror att opera låter. Bonusklipp nedan med den enda julsången du egentligen behöver. Tumnagel
41.9°
+
Bobby Green
0

Här är systemen som Apple jämfört M1 med!
Absolut inte det billigaste...

Under gårdagens presentation från Apple var det många 3x och 6x, men exakt vad man jämfört med var inte så tydligt. Jag har bara förutsatt att man jämfört med det sämsta man kunde för att få så bra siffror som möjligt. Apple brukar inte vara supertydliga med vad som står bakom sådana siffror, men de listar faktiskt allt på sin site. Vi lusläste. MacBook Air Apple säger att deras CPU är 3,5x snabbare än tidigare generation. Datorn man har jämfört med är en MacBook Air med 1.2GHz quad-core Intel Core i7, en maskin som ny kostar 20.500 kronor. Båda maskinerna hade 16 GB RAM. Testet man kodade ett 4K Apple ProRes RAW-klipp till Apple ProRes 422. Stöd för just detta lär finnas i chipet så om den då använde enbart CPU eller även tog hjälp av andra delar av chipet är lite oklart. I GPU-testet säger Apple att M1 är 5x snabbare och det är mot samma typ av maskin, alltså en MacBook Air med 1.2GHz quad-core Intel Core i7 med Intel Iris Plus Graphics. Här exporterade man ett Apple ProRes 422-klipp. Neural Engine, som används för maskininlärning, ska vara 9x snabbare. Även här är det en MacBook Air med 1.2GHz quad-core Intel Core i7 som man har kört Xcode 12.2 och Create ML 2.0. Batteritestet har utförts med Apple TV-appen där en film med 1080p-upplösning har spelats upp om och om igen. Ljusstyrkan var satt till åtta klick från botten. MacBook Pro 13" Här är CPUn i deras nya M1:a 2,8x snabbare och här har man jämfört med en MacBook Pro 1.7GHz quad-core Intel Core i7 som kostar ungefär 23.000 kronor. Testet som utfördes var ett "open source project built with prerelease Xcode 12.2 with Apple Clang 12.0.0, Ninja 1.10.0.git, and CMake 3.16.5". GPUn ska vara 5x snabbare. Här är testet lite luddigare. Apple skriver att man har använt "utvalda prestandatester av branschstandard". Man har testkört mot andra system med integrerad grafik. "Resultaten jämfördes med de mest högpresterande integrerade grafik­processorerna för bärbara datorer som fanns på marknaden då testerna utfördes. Med integrerad grafik­processor avses en grafik­processor som sitter på samma chip som huvudprocessorn och minnesstyrenheten och ingår i samma enhetliga minnessystem." Neural Engine ska vara upp till 11x snabbare och här är det återigen en MacBook Pro 1.7GHz quad-core Intel Core i7 som man har testat mot. Testet har utförts i Xcode 12.2 och Create ML 2.0. Batteritestet utfördes på samma sätt som på MacBook Air. Mac mini Mac minin ska på CPU vara 3x snabbare och här har man jämfört med 3,6 GHz fyrkärniga Intel Core i3, som kostar ungefär 10.000 kronor. Annars samma test som för MacBook Air. Maskininlärningen ska vara 15x snabbare och kördes mot samma system. GPUn, som ska vara 6x snabbare, är jämförd med 3,6 GHz fyrkärniga Intel Core i3 med Intel Iris UHD Graphics 630. Testet var att man körde ett tungt projekt i Final Cut Pro. För dig som vill tjöta lite mer om M1 så pratar Techbubbel om det i deras senaste avsnitt. Tumnagel
39.7°
+
Roger Åberg
0

Apple presenterade Mac mini med M1
Första stationära med chipet

Första stationära datorn med M1-chipet blev som väntat inte Mac Pro utan lilla Mac mini. Men det nya chipet hör liksom hemma i den lilla förpackningen. Och här är det nästan som att det händer mest mot tidigare versioner. CPUn ska vara upp till 3x så snabb som nuvarande Mac mini och grafiken ska vara upp till 6x snabbare. Maskinen ska också vara upp till 15x snabbare på maskininlärning vilket ju passar bra på en dator som man lätt kan stapla eller ställa i en hörna och tugga. Mac mini med M1 går att beställa i dag och kostar 8495 kronor med 256 GB SSD och 10.995 kronor med 512 GB SSD. De går att beställa i dag och i butik 17 november. Det går fortfarande att beställa en Mac mini med Intel-processor om man vill det. Tumnagel
47.8°
+
Roger Åberg
0

BerzeLiUs blir Sveriges största superdator för AI
Linköpings Universitet har köpt en Nvidia DGX SuperPOD

Linköpings Universitet (LiU) och Nationellt superdatorcentrum, NSC, har fått 300 miljoner kronor i donation av Knut och Alice Wallenbergs som man ska använda för att köpa in Sveriges snabbaste superdator för maskininlärning och artificiell intelligens. Superdatorn kommer att heta BerzeLiUs och är en så kallad Nvidia DGX SuperPOD, en nyckelfärdig superdator som kan levereras och installeras på några veckor skriver Linköpings Universitet i ett pressmeddelande. LiU:s nya superdator kommer att få en beräkningskapacitet på 300 petaflops och kunna lagra 1,5 petabyte. Jan-Ingvar Jönsson, rektor för Linköpings universitet, säger om BerzeLiUs: "Jag är oerhört glad och stolt att Linköpings universitet genom NSC blir värd för denna nya kraftfulla infrastruktur för AI. Detta borgar för att Sverige inte bara bibehåller, utan stärker sin position internationellt." BerzeLiUs kommer att bestå av 60 stycken NVIDIA DGX A100-system. Den brittiska superdatorn Cambridge-1 som syns på bilden ovan är också en Nvidia DGX SuperPOD. Den består av 80 stycken NVIDIA DGX A100-system och har en beräkningskapacitet på 400 petaflops. Tumnagel
49.5°
+
Wille Wilhelmsson
0

Google rullar ut vassare bildredigering i Photos på Android
Förbättrad med maskininlärning

I samband med gårdagens hårdvarufest levererade Google även lite nyheter på mjukvarufronten. Google berättade att de börjat rulla ut en uppdatering till Google Photos på Android som ger användaren en bättre upplevelse i fotoredigeraren. Med uppdateringen får Photos en ny flik i redigeringsmenyn där vi har möjligheten att låta AI sköta redigeringen, eller i alla fall rekommendera ändringar som justering av ljus, kontrast eller portätteffekter. Till en början kommer tre olika generella alternativ som Enhance, B&W Photo samt Color Pop, men fler alternativ kommer läggas till i framtiden. Google meddelar att Pixel-telefoner kommer få tillgång till nyheterna först, men förhoppningsvis kommer inte andra Android-användare behöva vänta allt för lång tid på alternativen. Utöver lite nya redigeringsalternativ har även redigeringsmenyn fått nytt gränssnitt som gör det lättare att hitta de olika reglagen som kan förbättra bilden. Nya Google Photos har börjat rulla ut till Andorid-användare världen över, men i vanlig ordning kan det dröja några dagar eller veckor innan den nya versionen trillar in på din telefon. Tumnagel
39.7°
+
André Stray
0

Här är OnePlus Nord
Flaggskeppsupplevelse för 4590 kronor

Efter veckor av teasers, officiell information och läckt information är Nord äntligen här i all sin prakt. Telefonen är en del av en sprillans ny mobilfamilj avsedd för folk som vill ha en härlig mobilupplevelse, men inte vill betala närmare 10.000 kronor för att få det. För att lyckas med detta har OnePlus petat in en imponerande mängd funktioner vi tidigare fått se i deras flaggskeppsserie i Nord. Nord är utrustad med platt 6,44 tum stor AMOLED-display med 1080p-upplösning och 90Hz i uppdateringsfrekvens samt snabb touch-feedback, vilket gör att luren ska kännas lika rapp som flaggskeppsserien. Under skärmen sitter det även en fingeravtrycksläsare. På insidan sitter det ett stycke Snapdragon 765G med inbyggt 5G-modem, 12GB ram och 256GB lagring. Batteriet ligger på 4115 mAh och enheten har givetvis stöd för Warp Charge 30T som kan ladda luren från 0-70 på 30 minuter. Precis som flaggskeppen kommer Nord med Optimized Charging som med hjälp av maskininlärning lär sig hur du laddar telefonen för att minska strömtillförseln när du laddar på nätterna. Givetvis skeppas enheten med Oxygen OS 10.5 som baseras på Android 10 och kommer med flådigheter som Dark Mode, Zen Mode och massvis med anpassningsmöjligheter. Kameran på Nord är snarlik med kameran på OnePlus 8. Huvudsensorn är en Sony IM586 på 48MP med f/1.75 och optisk bildstabilisering för stabila bilder och videor. Huvudsensorn ackompanjeras av en ultravidvinkelkamera på 8MP, en makrokamera på 2 MP och en djupsensor som assisterar vid portättplåtning. På framsidan sitter det två stycken selfiekameror. Ena är utrustad med en ordentlig 32MP-sensor och bredvid den sitter en vidvinkelkamera på 8MP som gör att du slipper använda selfiestick för att få med hela din vänskapskrets i en bild. På kameramjukvarufronten har det skett lite justeringar. Nightscape-läget som används för att ta fina bilder på kvällen fungerar nu med både huvudkameran på baksidan samt vidvinkelkameran. Kort och gott är egentligen skillnaderna mellan Nord och 8-serien egentligen rätt få. Nord har en lite klenare, men fullt kompetent, processor, har en platt skärm i stället för välvda skärmkanter och har en lite annorlunda kamera. Och sedan har Nord förstås två kameror i skärmen. OnePlus Nord kommer släppas 4 augusti och kommer finnas tillgänglig i två färger; Blue Marble och Grey Onyx. Om ni vill lägga vantarna på telefonen illa kvickt så kommer OnePlus köra en online pop-up-butik som inte bara kommer ge er telefonen före vanliga dödliga, utan i lådan följer det även med diverse trevliga tillbehör. Vanlig förbokning kommer givetvis finnas tillgänglig och Nord kommer gå att beställas från och med idag klockan 17:00 hos Webhallen, Netonnet, Dustin, Inet, Elgiganten, Telia och Telenor. Priserna på de olika versionerna hittar ni nedan: - OnePlus Nord Gray Onyx 8GB + 128GB – 4590 kronor - OnePlus Nord Blue Marble 8GB + 128GB – 4590 kronor - OnePlus Nord Gray Onyx 12GB + 256GB – 5590 kronor - OnePlus Nord Blue Marble 12GB + 256GB – 5590 kronor Vi använder för tillfället Nord till fullo och en ordentlig recension av enheten kommer 27 juli klockan 10.00. Vill ni läsa våra initiala intryck av telefonen så är det bara att klicka på Läs Mer här nere. Tumnagel
45.9°
+
André Stray
0

TV-tips Kolla in AI - hot eller möjlighet?
Miniserie om artificiell intelligens på SVT

SVT:s Dokument Utifrån har sänt en dokumentär i två delar där man undersöker användningen av artificiell intelligens i vårt samhälle och hur det kan komma att påverka våra framtida liv. SVT skriver själva om AI-serien: "Artificiell intelligens kommer att förändra våra liv, våra jobb och hela vår värld. Avancerade robotar och datorprogram som bygger på AI och maskininlärning kommer att ta över många av de jobb som idag sköts av människor. Med den nya tekniken kommer också nästan obegränsade möjligheter för övervakning och kontroll." Den första av de två delarna i serien har undertiteln "USA vs. Kina" och hittas på SVT Play här medan den andra delen fått undertiteln "Farhågor och förhoppningar" och den kan ni kolla in här. Tumnagel
42.0°
+
Wille Wilhelmsson
0
2019

Google visar upp Nest Mini
Smartare och går att hänga på väggen

Som väntat visade Google i dag upp nya Nest Mini. Utsidan känner vi igen från tidigare men baksidan är lite ny eftersom det går att hänga upp den på väggen. Men även insidan är uppdaterad. Högtalaren ska vara bättre med dubbelt så mycket bas, vilket i och för sig inte säger så mycket. Men bättre är alltid bättre. På insidan finns också ett chip som kan det där med maskininlärning. Det betyder i praktiken att väldigt mycket mer saker kan göras direkt på enheten och svaren därför kommer att komma snabbare än tidigare. Prislappen ligger som förut på 49 dollar vilket lär fortsätta vara 649 kronor i Sverige. Man kommer att kunna förboka i dag i 23 länder, om Sverige är ett av dessa länder återstår att se. I butik kommer den 22 oktober. Fyra färger kommer, dagens tre plus en blå. Tumnagel
40.1°
+
Roger Åberg
0

Computex ARM presenterar nästa års mobilprocessorer
Lär sitta i samtliga lurar förutom Huaweis

På hårdvarufesten Computex i Taiwan visas inte bara ny hårdvara som kommer sitta i våra datorer, utan det presenteras även hårdvara som kommer sitta i praktiskt taget alla mobiltelefoner nästa år. Mer specifikt har ARM levererat lite nyheter på processorfronten. ARMs nya tillskott går under namnet Cortex-A77 och Mali-G77 och i vanlig ordning är både vanliga processorn och grafikprocessorn snäppet mer kraftfulla jämfört med sina föregångare. Med A77 ska ARM ha sett en förbättring i IPC-prestanda (instructions per clock) på 20 procent jämfört med föregångaren och grafikprocessorn G77 ska ha 40 procent högre prestanda och vara 30 procent mer energieffektiv. G77 ska även vara betydligt bättre på maskininlärning än tidigare och ARM rapporterar om en förbättring på 60 procent. De kommande ARM-processorerna används bland annat av Qualcomm, Samsung och Apple och kommer med rätt stor sannolikhet medverka i processorkluster från dessa mobilmakare redan nästa vår. Huawei var tidigare med i listan ovan, men i och med företagets struliga relation med USA har ARM bestämt sig för att avbryta samarbetet med den kinesiska mobilmakaren för tillfället. Tumnagel
39.0°
+
André Stray
0

Salvador Dalí tar selfies med dig
Cool deep fake-installation!

I Florida finns det ett Salvador Dalí-museum som nu har fått ett riktigt tufft tillskott. Det har de fått i form av en stor skärm där Dalí interagerar med besökarna. Det har de lyckats med med hjälp av maskininlärning som manipulerat gamla klipp med den spanska konstnären. Dalís digitala ansikte har synkats med en skådespelare och denna kombination har skapat massvis med videomaterial som besökarna kan njuta av. En extra tuff grej är att installationen inte är statiskt utan, till exempel, i en situation där Dalí läser tidningen visas alltid den aktuella dagens framsida av New York Times på framsidan. En annan tuff grej är i situationen där Dalí tar en selfie så är det besökarna som står framför skärmen som kommer med på selfien. Tumnagel
45.6°
+
Frode Wikesjö
0

Apple plockar AI-expert från Google
Ian Goodfellow ligger bland annat bakom GAN

CNBC rapporterar att AI-experten Ian Goodfellow sedan förra månaden är chef för maskinlärning inom Apples så kallade "Special Projects Group". Goodfellow arbetade tidigare på Google med att utveckla artificiella intelligenser. Före det har han bland annat arbetat för robotföretaget Willow Garage som vi skrivit om några gånger tidigare och han har även arbetat för organisationen OpenAI som Elon Musk kickade igång 2016. I AI-kretsar är Goodfellow främst känd för att ha myntat och utvecklat begreppet "Generative Adversarial Network" (GAN). Det är en AI-teknik där man låter två neurala nätverk battla mot varandra för att åstadkomma det bästa resultatet i ett så kallat nollsummespel. Det är en teknik som bland annat har använts för att framställa alla så kallade "deepfakes" som vi sett många exempel på de senaste åren. Här ovan kan ni lyssna på när en annan AI-expert, Andrew Ng som grundade Google Brain, intervjuar Ian Goodfellow 2017. Tumnagel
37.4°
+
Wille Wilhelmsson
0

Googles TossingBot är en robot som kan kasta saker
Kanske börjar jobba på ett lager i framtiden

De senaste två åren har Google och deras moderföretag Alphabet dragit ner på sin utveckling av robotar efter det att man 2017 sålde Boston Dynamics till SoftBank och förra året lade ner Shaft Robotics. Man har dock inte slutat helt med att utveckla robotteknik och här kan ni kolla in TossingBot vilket är en robot som är utvecklad för att kasta saker. Google har utvecklat TossingBot tillsammans med de amerikanska universiteten Princeton, Columbia samt MIT som hjälpt till med maskininlärning för att få roboten att förstå delar av sin omvärld. Roboten har med hjälp av maskinlärning lärt sig hur olika föremål ska greppas och kastas på bästa sätt beroende på vilken form objektet har. Roboten har även tränats upp för att kunna kasta grejer i rätt lådor så att grejerna hamnar på rätt plats. Robotar som TossingBot skulle till exempel kunna användas på olika typer av varulager där man till exempel ska plocka ihop en beställning från Amazon eller någon liknade ehandelstjänst. I klippet ovan kan ni höra en av utvecklarna av TossingBot beskriva den lite närmare och i klippet nedan går man in lite mera på detalj hur man lärt upp roboten. Tumnagel
37.7°
+
Wille Wilhelmsson
0

Studenter använder maskininlärning för att kartlägga potthål
Kan leda till att de lagas snabbare

Studenter vid Loyola Marymount University har bestämt sig för att använda maskininlärning för att på ett bättre sätt första hur trafiken fungerar. De har med hjälp av Googles open-source-plattform TensorFlow analyserat saker som potthål i vägen och andra skador. Målet är att få till ett system som kan identifiera dessa saker snabbt med hjälp av kameror, vilket i sin tur skulle kunna bidra till att dessa blir uppmärksammade snabbare och då även lagade. Och som vi kan se i klippet behövs detta verkligen på sina ställen. Tumnagel
42.4°
+
Bobby Green
0

200 personer får gå från Apples bilprojekt
Några ska hjälpa till på annat håll

Apple har ju hållit på med ett bilprojekt som man kallar för Project Titan. Man ska inte ta fram en egen bil, men har lagt mycket tid och energi på autonom körning och liknande. Nu verkar det dock vara dags för förändringar efter som över 200 personer kommer att flyttas från projektet. – We have an incredibly talented team working on autonomous systems and associated technologies at Apple. As the team focuses their work on several key areas for 2019, some groups are being moved to projects in other parts of the company, where they will support machine learning and other initiatives, across all of Apple. We continue to believe there is a huge opportunity with autonomous systems, that Apple has unique capabilities to contribute, and that this is the most ambitious machine learning project ever, säger en talesperson från Apple till CNBC. Vi får hoppas att de där smartskallarna som håller på med maskininlärning flyttar till Siri-avdelningen. Tumnagel
38.4°
+
Roger Åberg
0
2018

Amazon bjuder på maskininlärnings-utbildningar
Lär dig samma saker som Amazons anställda gör

Ehandelsjätten Amazon är långt framme inom artificiell intelligens och nu har de släppt sitt eget utbildningsmaterial inom maskininlärning fritt för alla att använda. Det innebär att vem som helst kan studera de utbildningarna inom maskininlärning som Amazon erbjuder sina anställda som arbetar inom det området. Amazon beskriver kurserna om maskinlärning som man nu öppnar upp för allmänheten: "Each course starts with the fundamentals, and builds on those through real-world examples and labs, allowing developers to explore machine learning through some fun problems we have had to solve at Amazon. Coursework helps consolidate best practices, and demonstrates how to get started on a range of AWS machine learning services, including Amazon SageMaker, AWS DeepLens, Amazon Rekognition, Amazon Lex, Amazon Polly and Amazon Comprehend." Sammanlagt handlar det om utbildningsmaterial med 45 timmars video, dokumentation samt olika studieuppgifter inom maskininlärning. Amazon kommer även att erbjuda dem som klarar av utbildningarna att examineras inom dessa men det kommer att kosta 300 dollar. Här nedanför hittas exempel på kurser inom maskininlärning som Amazon nu börjar erbjuda gratis. Tumnagel
42.6°
+
Wille Wilhelmsson
0

Alexa lär sig prata som en nyhetsuppläsare
Få nyheterna upplästa som du är van vid

Amazon har börjat lära upp Alexa att prata lite annorlunda med hjälp av maskininlärning vilket har gjort att Alexa framöver bland annat kommer att kunna tala som en nyhetsuppläsare. I dagsläget använder sig Alexa av fonetiskt tal där man har delat upp röstsyntesen i olika talljud, fonem, som sedan satts samman till ord och fraser. Med Amazons senaste utveckling av Alexas tal använder man sig istället av maskinlärning och "neural text-to-speech"-teknik (NTTS) som snabbare kan generera uttrycksfullt tal än det fonetiska systemet. Här nedan kan ni lyssna på tre exempel där Alexa läser upp samma text fonetiskt, med hjälp av NTTS samt NTTS som anpassat för att låta som en nyhetsuppläsare. Fonetiskt tal: Neural text-to-speech (NTTS): Nyhetsuppläsare NTTS: Amazon har genomfört en undersökning där deltagarna ansåg att de hellre ville ha sina nyheter upplästa av "Nyhets-Alexa" än någon av de två andra datorgenererade rösterna. Vad tycker ni? Rösta gärna nedan. Tumnagel
38.3°
+
Wille Wilhelmsson
0

Artificiell intelligens gör skumma bilder av din text
Kan passera som abstrakt konst kanske?

Artificiella intelligenser som skapar egna bilder utifrån vad de tidigare lärt sig har vi sett några stycken genom åren och här är ytterligare ett sådant experiment. Det handlar om algoritm för maskininlärning som man kallar för AttnGAN (Attentional Generative Adversarial Network) vilken tar orden man skriver in och kombinerar dessa för att sedan skapa en lämplig bild av det hela. Jag har suttit och testat det här ett tag idag men ska inte påstå att de genererade bilderna resulterade i något särskilt vettigt. Tanken är att man ska skriva in ord och meningar på engelska men som synes nedan så blir väl resultatet ungefär lika skumt om man skriver in något på svenska. Testar ni och får något vettigt eller roligt resultat så posta gärna skärmdumpar i kommentarerna! Tumnagel
35.9°
+
Wille Wilhelmsson
0

Windows 10 börjar använda maskininlärning för uppdateringar
Ska lära sig när det passar bäst att uppdatera

Microsoft har nedskrivet i sin policy att mjukvaruuppdateringar till deras operativsystem alltid ska komma när det är som mest olägligt för användaren. Okej, troligtvis inte, men oftast känns det som det. Microsoft har nu meddelat att Windows 10-uppdateringar ska komma betydligt mer lägligt tack vare maskininlärning. Enligt Windows Insider-chefen Dona Sarkar ska det nya systemet uppdatera datorn när du inte använder den och det ska vara smart nog att veta när du bara tar en kort paus från datorpillandet, eller om du är borta från datorn en längre stund. Windows Insider-användare har börjat få möjlighet att testa denna nya smarta uppdaterings-funktion och troligtvis kommer vi vanliga dödliga få tillgång till den senare i höst. Tumnagel
41.5°
+
André Stray
0

Forskare gör fuktiga mejmejs med maskininlärning
Verkar rätt kompetent på meme-fronten

Ett par forskare på Stanford, Abel L. Peirson V och E. Meltem Tolunay, har med hjälp av maskininlärning tagit fram ett system som automatiskt kan generera memes av det fuktigaste laget. Gänget fick systemet att titta på 400.000 bilder med text av olika slag som skapats av riktiga människor och har lyckats generera memes som är svåra att urskilja från människoskapade. Räds icke meme-mästare! Peirsons och Tolunays meme-system kommer inte ta era "jobb" än på ett tag. Även om systemet kan leverera en passande text på en meme, så kan systemet ännu inte sätta ut ordentliga brytpunkter utan dessa måste för tillfället petas in manuellt. "We acknowledge that one of the greatest challenges in our project and other language modeling tasks is to capture humor, which varies across people and cultures. In fact, this constitutes a research area on its own, and accordingly new research ideas on this problem should be incorporated into the meme generation project in the future. " Hela deras rapport kan ni läsa via länken här nere till vänster. Tumnagel
36.5°
+
André Stray
0

WWDC De här tre kan forma vår framtid
Vi träffade tre stolta stipendiater

Varje år får ett gäng utvecklare stipendier från Apple för att åka till WWDC. I år fick tre svenskar chansen och det var tre stolta och sjukt peppade killar som vi mötte upp utan för konferensen. Hugo Falk är 14 år och är här på stipendie för andra gången(!). Han har tidigare bland annat gjort en fin app för att plugga glosor som vi har skrivit om tidigare här på Feber. Den skrev han ihop för att han hatade att plugga glosor och helt enkelt hade ett problem att lösa. När kompisarna också ville ha den la han upp den på App Store. Men programmerat har han gjort länge, han började redan när han var fem år gammal. – Jag har alltid velat plocka isär saker, förstå hur saker fungerar. Att spela har aldrig intresserat mig, jag programmerar hellre. Men jag tycker att det måste vara socialt, jag sitter hellre med familjen på altanen och programmerar än i en mörk källare. Därför är det också fantastiskt att få vara här, att träffa andra och kunna prata med de som faktiskt har gjort verktygen man programmerar i. Appen Learn it gjorde han "bara" för att han hade ett problem som behövde lösas. Men när man läser recensioner som den nedan förstår man att han även har löst andras problem på kuppen. Planerna framöver är stora och jag blir mycket förvånad om det här är det sista vi får höra om Hugo. Ludvig Christensson har gjort en riktigt spännande tech-demo där han byggt upp värld där miljoner grässtrån rör sig efter vinden och himlen spelar vackert. Det hela är snyggt och speciellt för att rulla på en iPad. Han ser sig själv som spelutvecklare, men det känns inte alls otroligt att hamnar hos Apple. – Första gången jag verkligen fick en aha-upplevelse av programmering var när jag gjort en värld med fiskar som simmade runt. Jag gav dem en gnutta AI så att de inte simmade på varandra och när det verkligen fungerade förstod jag vad den här världen kan öppna upp för möjligheter. Alla tre är kreativa på lite olika sett och det är fantastiskt att se tre olika typer av människor med olika mål, bakgrund och drivkraft men som ändå har så mycket gemensamt. Den tredje av killarna heter Axel Boberg och förutom att programmera fotograferar han. Två olika uttryckssätt må vara, men fortfarande två kreativa uttryckssätt. När de besökte Apple Park fick både Hugo och Axel träffa Tim Cook och här är Axels fantastiska selfie. – Jag har gjort en sak som känner igen noter. Genom maskininlärning har appen lärt sig hur den ska läsa in noter och målet är att man ska kunna fota ett notblad och så spelar den upp det som står på notbladet. Jag har fått mata in tre tusen noter i maskinen så det har inte varit helt enkelt. Axel läser till systemutvecklare på gymnasiet och den appen som han skickade in för att få stipendiet var en del av utbildningen. Han siktar på att få vara del av något större men har redan hunnit starta företag. – Min största aha-upplevelse var nog när jag fick känslan av att kan jag programmera så här mycket så kan jag göra vad som helst. Det blir liksom inte svårare än så här. Problemen och lösningarna blir kanske större men allt är möjligt att lösa. De tre ska hänga kvar resten av veckan och jag är dubbelt avis på dem. Dels för att de får stanna kvar och jag måste åka hem men framförallt för att de har ett underbart synsätt på framtiden. Ingenting är omöjligt. Och de har ju rätt. Tumnagel
52.5°
+
Roger Åberg
0

WWDC Vi har träffat utvecklarna av Pacemaker
Om vägen mellan plattformar

Pacemaker är en fantastisk app för iPad för oss som gillar att mixa musik men som kanske inte är DJs. För två år sedan vann man pris här på WWDC, men sedan dess har det hänt rätt mycket saker. – Vi tänkte göra en grej med Apple Watch där man kunde styra musiken från klockan men det fungerade bara med iPhone och inte med iPad, säger Jonas. Så vi började göra en iPhone-version också. Med tiden blev den lite väl annorlunda så vi har helt särat på dem. iPad-versionen får fortsätta vara som den är, fokus ligger nu helt på iPhone. Anledningen till det är så klart genomslagskraften, så många fler använder ju iPad än iPhone. Man märkte också att de som satt och gjorde mixar på iPad ville dela dem med andra och framförallt lyssna på dem på sin iPhone. iPhone-appen använder därför AI-funktioner som man skapade i iPad-versionen och kombinerar det med delningsfunktioner. Man kan använda Pacemaker för att mixa själv men man kan lika gärna bara lyssna på andra mixar. – Vi använder Spotify för att hämta musiken. Om någon lägger upp en mix så använder vi bara datan som mixar själva låtarna, själva musikfilerna hämtas alltid på nytt från ditt Spotifykonto. Tyvärr så är det inte alltid helt lätt för användarna att knyta sitt Spotify-konto till appen, ungefär en fjärdedel av de som har laddat ner appen har kopplat sitt Spotify Premium-konto. Vi har fyra miljoner nerladdningar av appen så det är fortfarande en hel del folk. Vi filosoferar en del om vad som var mest spännande på dagens keynote. Jag säger att det kändes mest som att det var nyheter som kommer att gagna användare med tiden, men Jonas håller inte med. Han ser personligen fram mot gruppsamtal i FaceTime. – Men det är mycket nytt som kommer att bli väldigt spännande. Maskininlärningssakerna till exempel, nu slipper man hålla på och harva med molntjänster utan kan istället göra det lokalt och göra det betydligt snabbare. Jag tror att det kommer att komma betydligt fler appar som har byggts runt maskininlärning nu. Själv hoppas jag mycket på att möjligheten att använda iOS-appar på macOS kommer att göra mac-upplevelsen rikare. – Det där är stort. Vi hade aldrig gjort en Mac-version av Pacemaker, tröskeln för det är alldeles för stor och marknaden för liten. Men blir det så här enkelt kommer vi lätt att göra en mac-version. Jag undrar varför man åker till WWDC. Som utvecklare måste man det säger Olof, man måste helt enkelt vara här. – Vi ska gå på en del sessions men framförallt har vi bokat mötestider med olika Apple-utvecklare. De som verkligen har gjort utvecklings-kiten är här så man kan få svar från dem om saker man undrar. Och så kan man få kontakter hos Apple vilket är oumbärligt när man fortsätter utveckla. Tumnagel
36.8°
+
Roger Åberg
0

Twitter använder AI för att beskära bilder
Snyggt!

Twitter har i en bloggpost berättat hur de använder maskininlärning och AI för att leverera bättre tumnaglar. Beskärda bilder är ju bra eftersom de inte tar upp så mycket plats, men om det viktiga försvinner är de helt usla. Man har tidigare jobbade med att hitta bilder, men nu letar man också efter det som människor troligen kommer att titta på i en bild. Några exempel kan ni se här ovan och fler på länken. Tumnagel
42.5°
+
Roger Åberg
0

Youtubers i Google Preferred kommer granskas hårdare
Mindre vilda västern

Youtubers som är med i Googles annonsprogram Preferred har haft rätt fria händer när det kommer till vad som ska visas i deras kanaler. I samband med Logan Pauls klavertramp verkar det dock som att Youtube kommer tänka om och ska börja granska Youtubers i Preferred hårdare än tidigare för att se till att liknande händelser inte sker i framtiden. Enligt en källa till Bloomberg ska Youtube använda både maskininlärning samt mänskliga moderatorer för att identifiera videor som inte borde vara med i Preferred-programmet. Tumnagel
50.0°
+
André Stray
0
2017

Artificiell intelligens fixar julrim
Om man är ute efter rätt så värdelösa rim

Om julrim inte riktigt är din grej men om du ändå vill ha rim på julklapparna du tänker ge bort så har företaget Iteam spikat ihop en Rimgenerator lagom till julafton. Rimgeneratorn ska använda sig av artificiell intelligens men baserat på de tester jag själv gjort så handlar det om en rätt så värdelös AI. Julrimmen från Rimgeneratorn är oftast osammanhängande och har ofta ingenting alls att göra med det man faktiskt vill ge bort i julklapp. Här ovan kan ni kolla in mitt rim på den motorsågen jag hade tänkt att ge till Bobby och nedan rimmet för årets julklapp elcykeln. Ska jag vara helt ärlig så känns det nästan som om en slumpgenerator skulle kunna gör ett lika bra arbete som Rimgeneratorn gör. Iteam håller till och med själva med om att Rimgeneratorn är förhållandevis värdelös och företagets VD Christian Landgren säger till Ny Teknik: "Det är många som tycker att rimgeneratorn är alldeles för dålig. Den är ganska ”shitty”. Om den skulle vara helt fantastisk skulle det nästan bli tråkigare. Om man jobbar med ai och machine learning (maskininlärning) måste man tillåta sig själv att vara lite explorativ." Tumnagel
35.1°
+
Wille Wilhelmsson
0

CGP Grey pratar om maskininlärning
Hur lär sig datorer saker egentligen?

CGP Grey har släppt en ny video och den här gången pratas det om det här med maskininlärning och hur det fungerar egentligen. Bonusvideo nedan med lite mer snack om maskininlärning. Tumnagel
43.0°
+
André Stray
0
Nästa sida