m
2020
2019

Google har en AI som kan känna igen dofter
Molekylernas struktur kan avslöja vad något luktar

AI-forskare på Google Brain uppger att de har utvecklat en artificiell intelligens som ska kunna avgöra vad något luktar genom att analysera molekylers uppbyggnad. Till skillnad från färger, som forskare enkelt kan identifiera med hjälp av våglängden på ljuset, finns det inget enkelt sätt för en maskin att avgöra vad något luktar, något som det nu kanske kan bli ändring på. Googles forskare har arbetat med ett dataset där cirka 5000 molekylers doft har kategoriserats av professionella parfymutvecklare. Två tredjedelar av dessa matades in i Googles lukt-AI och baserat på deras strukturer kunde sedan AI:n avgöra vad den sista tredjedelens molekyler luktade utan att ha lärt sig detta från början. Man uppger att AI:n kan ha problem med att beskriva vissa dofter. Detta kan dels bero på att parfymtillverkarna kan ha kategoriserat dessa under olika etiketter med samma eller liknande betydelse, till exempel "woody" och "earthy". Det kan även bero på att vissa molekyler har samma antal atomer och bindningar mellan dessa fast de är arrangerade som varandras spegelbilder. De robotar vi har idag saknar luktsinnen men med AI:s som den Google Brain nu har utvecklat kanske det inte är helt omöjligt att robotar börjar uppmana oss att stänga dörren till toaletten när vi lämnar den i framtiden. Tumnagel
42.1°
+
Wille Wilhelmsson
0

Apple plockar AI-expert från Google
Ian Goodfellow ligger bland annat bakom GAN

CNBC rapporterar att AI-experten Ian Goodfellow sedan förra månaden är chef för maskinlärning inom Apples så kallade "Special Projects Group". Goodfellow arbetade tidigare på Google med att utveckla artificiella intelligenser. Före det har han bland annat arbetat för robotföretaget Willow Garage som vi skrivit om några gånger tidigare och han har även arbetat för organisationen OpenAI som Elon Musk kickade igång 2016. I AI-kretsar är Goodfellow främst känd för att ha myntat och utvecklat begreppet "Generative Adversarial Network" (GAN). Det är en AI-teknik där man låter två neurala nätverk battla mot varandra för att åstadkomma det bästa resultatet i ett så kallat nollsummespel. Det är en teknik som bland annat har använts för att framställa alla så kallade "deepfakes" som vi sett många exempel på de senaste åren. Här ovan kan ni lyssna på när en annan AI-expert, Andrew Ng som grundade Google Brain, intervjuar Ian Goodfellow 2017. Tumnagel
37.4°
+
Wille Wilhelmsson
0
2018

Google använder AI för att skriva Wikipedia-artiklar
Ännu något vi slipper göra i framtiden?

En av Googles avdelningar där man utvecklar artificiell intelligens har tagit fram en AI som man säger kan skriva artiklar till Wikipedia som ska fungera förhållandevis bra att läsa för människor. Bottar har använts tidigare för att skriva artiklar på Wikipedia men då har det oftast handlat om rena faktauppställningar. Vad Google Brains AI försöker göra är att leta upp information om ett ämne på nätet och sedan sammanfatta denna så att det resulterar i en förhållandevis lättläst och informativ artikel på Wikipedia. Artiklarna som Googles AI genererar publiceras i dagsläget inte på Wikipedia utan än så länge handlar det hela bara om ett test. I exemplet nedan kan ni se den texten Googles AI genererade om Wings over Kansas, en webbsajt för hobbyflygare, till vänster medan flygsajtens riktiga wikipedia-text syns till höger. Brukar du skriva artiklar på Wikipedia? Svara gärna på vår enkät nedan. Tumnagel
37.4°
+
Wille Wilhelmsson
0
2017

Googles AI kan återskapa bilder från dåliga original
Let's Enhance!

Google Brain är en av Googles divisioner som pysslar med artificiell intelligens och nu har de tagit fram en AI som kan återskapa bilder från i stort sett bara några pixlar. Vi snackar med andra ord om sådant som vi många gånger sett i tv-serier där poliser och andra försöker återskapa bilder från pixliga övervakningsfilmer. I bilden ovan kan ni se originalbilden längst till höger, den 8x8 pixlar stora bilden som kördes genom Google Brains AI syns till vänster och i mitten syns resultatet som genererades av detta. För att åstadkomma detta använder sig Google Brain av två neurala nätverk där ett försöker jämföra den 8x8 pixlar stora bilden med andra bilder som finns i dess databas medan det andra neurala nätverket försöker att addera realistiska detaljer till 8x8-bilden. Detta tillsammans återskapar de bilderna som syns i mittenkolumnen ovan. Det är värt att notera att AI:n inte återskapar ursprungsbilden utan snarare gissar sig fram till något som man kallar för en "hallucination" inom bildbehandling. Det innebär att de bilderna AI:n skapar inte nödvändigtvis behöver visa något som liknar ursprungsbilden men i många fall verkar man komma ganska så nära. Bonusvideon Letx27s Enhance hittas nedan. Tumnagel
46.0°
+
Wille Wilhelmsson
0
2016

Google Translate snart lika bra som mänskliga översättare
Har utvecklat ett nytt system för översättningar

Det har nu gått tio år sedan Google lanserade sin översättningstjänst Google Translate och nu skriver man lite om framstegen man gjort gällande maskinöversättning sedan dess. Fram tills nu har Google använts sig av så kallad Frasbaserad maskininlärning för att översätta vilket innebär att man försöker översätta hela fraser istället för att översätta varje ord för sig. Nu har Google vidareutvecklat detta till något man kallar för Google Neural Machine Translation (GNMT). Det är system som istället för att översätta fraser och enskilda ord försöker översätta hela meningar så att dessa får en vettig översättning. Som synes i diagrammet ovan har GNMT förbättrat översättningarna från Google Translate en hel del om man jämför med den frasbaserade maskininlärningen (PBMT). Än så länge är inte GNMT lika skarp som en mänsklig översättare men för vissa översättningar, till exempel från engelska till spanska, verkar man inte vara långt ifrån. För att ta fram GNMT har Google använt sin egen öppna AI-programvara TensorFlow och sin egenutvecklad hårdvara Tensor Processing Units. Tumnagel
54.9°
+
Wille Wilhelmsson
0

Google ska undersöka om AI kan vara kreativ på riktigt
Kan datorer skapa unik konst?

Google har dragit igång ett projekt inom Google Brain, en av företagets avdelningar för artificiell intelligens, som ska undersöka huruvuda man kan få artificiell intelligens att vara kreativ på riktigt. Det vill säga om en AI ska kunna skapa något unikt och inte bara skapa konst baserat på vad den tidigare har lärt sig genom att studera annan konst. Tanken är att AI:n ska försöka skapa egen musik, bildkonst och film. Man kallar projektet för Magenta och man kommer att använda sig av Googles maskinlärnings-plattform TensorFlow som man släppte som open source förra året. Dagens mest avancerade AI-plattformar har problem med att kopiera konst som redan skapats så det är sannolikt ingen lätt uppgift de involverade i projekt Magenta har framför sig. Under helgens Moogfest smyglanserade Google Magenta och man spelade upp ett musikstycke som AI:n komponerat på egen hand vilket ni kan lyssna på ovan. Tumnagel
39.4°
+
Wille Wilhelmsson
0
2015
2014
2013
2011
Nästa sida