m

Taylor Swift sägs ha velat stämma Microsoft
För att de döpte sin rasistiska chatt-bot till Tay

Taylor Swift är en av världens mest framgångsrika artister och som sådan så bevakar hon och hennes team noggrant att ingen försöker utnyttja Swifts namn eller varumärken olovligen. Enligt en nyutgiven bok ska Swifts team bland annat ha hotat med att vidta juridiska åtgärder efter det att Microsoft döpte sin "tonåriga" chatt-bot till "Tay", ett namn som Swifts advokater ansåg var nära associerat med Taylor Swift. Det är Microsofts ordförande Brad Smith, som även är företagets chefsjurist, som i boken Tools and Weapons nämner Swifts hot om juridiska åtgärder mot Microsoft. Microsoft släppte lös chatt-boten Tay på Twitter 2016 och tanken var att den skulle försöka kommunicera som en tonåring och lära sig att kommunicera genom att studera vad andra twitter-användare skrev på tjänsten. Givet att det var Twitter vi snackade om så tog det mindre än 24 timmar innan en troll-armé hade förvandlat Tay från en oskyldig tonåring till en fullblodsrasist. Smith skriver i boken: "I was on vacation when I made the mistake of looking at my phone during dinner. An email had just arrived from a Beverly Hills lawyer who introduced himself by telling me, “We represent Taylor Swift, on whose behalf this is directed to you.”... He went on to state that “the name ‘Tay,’ as I’m sure you must know, is closely associated with our client.”... The lawyer went on to argue that the use of the name Tay created a false and misleading association between the popular singer and our chatbot, and that it violated federal and state laws." Smith skriver vidare att Microsofts varumärkesadvokater inte höll med Taylor Swifts juridiska team men då man inte var intresserade av att inleda en juridiskt tvist över en failad chatt-bot så bytte man namn på botten till Zo när man återlanserade den i slutet av 2016. Tumnagel
10.5°
+
Wille Wilhelmsson
0
2018

Microsoft fixar smartare chattbottar
Vet när det är dags att avbryta konversationen

Microsoft har gjort sin kinesiska chatbott "XiaoIce" lite smartare och den ska nu vara bättre på att veta när den kan avbryta en konversation för att inflika viktig information. Det gör att konversationen mellan människa och botten ska flyta på bättre och kännas mer naturlig. I dagsläget så klarar många chattbottar och smarta assistenter av att hålla en någorlunda flytande diskussion. Dock så behöver bottarna ofta lyssna klart på vad människan har att säga innan de tar till orda. Detta ska nu Microsoft ha förbättrat på XiaoIce så att denna kan avbryta en människa om den känner att den har något viktigt att inflika. Microsoft ska nu försöka implementera det man har lärt sig under utvecklingen av XiaoIce i andra av sina chattbottar, till exempel "Zo" i USA och "Rhinna" i Japan. Det är väl inte helt omöjligt att vi även kommer att få se liknande teknik i Microsofts smarta assistent Cortana i framtiden. Tumnagel
38.0°
+
Wille Wilhelmsson
0
2017

Kinesiskt internetföretag stängde ner opatriotiska chatbottar
En av dem gillade inte kommunist-partiet

Financial Times rapporterar att den kinesiska internetjätten Tencent har stängt ner två chattbottar från deras meddelandetjänst CC då man verkar ansett att dessa inte var tillräckligt patriotiska. Det handlar om två bottar som kallades för "BabyQ" och "XiaoBing". Bland annat ska BabyQ ha svarat "nej" när den fick frågan om den älskade det kinesiska kommunist-partiet. XiaoBing, som är utvecklad av Microsoft och skulle fungera som en slags virtuell flickvän, ska i sin tur ha konstaterat att det var "kinas dröm att åka till amerika". I de flesta andra länder skulle ovanstående saker antagligen passerat med ett leende men givet att kinesiska myndigheter verkar ta en allt hårdare kontroll över allt som har med nätet att göra i landet så ansåg antagligen Tencent att det var lika bra att stänga ner bottarna. Tumnagel
29.3°
+
Wille Wilhelmsson
0
2016

BRISBOT är en chattbott från BRIS
Ska underlätta för barn som har frågor

Det har snackats mycket om bottar i år och nu drar Barnens rätt i samhället, BRIS, igång en egen sådan tjänst som man kallar för BRISBOT. Med BRISBOT kan barn, ungdomar och andra chatta med en bott via meddelandetjänsterna Facebook Messenger och KIK. Botten kan ge svar som är skrivna av BRIS på förvalda frågor. Magnus Jägerskog, Bris generalsekreterare, säger i ett pressmeddelande: "När vi frågade barn och unga vad de önskade från Bris digitala stöd handlade många svar om att utveckla en slags kunskapsbank där det går att läsa om olika situationer och ämnen, och få tips ochråd. Brisbot är vårt sätt att paketera en sådan tjänst, så att upplevelsen blir att barnet och boten har en chattkonversation på vägen till svaret." BRIS hoppas framför allt att man med BRISBOT ska kunna nå unga som undviker att ta kontakt med en kurator och kanske hellre kommunicerar med en bott. Sara André, kurator i Bris stödverksamhet, säger: "Nu får vi chansen att nå barn och unga som inte vill eller kan ta kontakt med en kurator. När barn och unga börjar sätta ord på tankar, erfarenheter och frågor kan de också börja formulera sitt behov av stöd och hjälp. Kan Brisbot hjälpa bara ett barn i det så har den uppfyllt sitt syfte. Boten kommer alltid att hänvisa till oss vid allvarliga frågor, och förhoppningsvis kan den på så sätt bli en knuff i rätt riktning för de som behöver stöd från Bris." I videon ovan visas ett exempel på hur BRISBOT funkar och skulle ni vilja testa den själva så hoppa vidare på länken nedan. Tumnagel
41.1°
+
Wille Wilhelmsson
0

Microsoft släpper lös en ny AI-chatbot
Förhoppningsvis mindre rasistisk den här gången

I våras släppte Microsoft lös den AI-baserade chatbotten Tay på Twitter och detta slutade väl i mer eller mindre katastrof då Twitters användare på ett dygn lyckades förvandla "tonåringen" Tay till en sexistisk rasist. Efter missen med Tay har Microsoft lärt sig ett och annat om AI-chattbottar och gör därför nu ett nytt försök med chatbotten Zo som man kan snacka med via chattappen KIK. Precis som Tay är Zo en "tonåring" men till skillnad från Tay så undviker Zo att snacka om kontroversiella ämnen som innefattar rasism, viss politik och sexism (mittenbilden ovan). Vidare verkar det, kanske inte helt oväntat, som om Zo kan en hel del om Microsofts produktutbud och att "hon" gillar Windows Phone. Vill man testa att chatta med Zo så behöver man bli inbjuden vilket man kan be om att få på länken nedan. Tumnagel
38.5°
+
Wille Wilhelmsson
0

Skype implementerar bottar på Mac och webben
Chatbottar är det nya svarta

Automatiserade chatbottar som kan hjälpa användare med att köpa grejer, berätta om vädret och annat verkar vara en av årets trender och efter det att Microsoft presenterade sina Cortana-baserade chatbottar till Skype för Windows för en månad sedan kommer dessa nu även till Mac och webben. Än så länge finns det inte så mycket bottar tillgängliga utan det handlar för tillfället om en sökbot för Getty Images, en bot som kan sammanfatta webbsidor samt en vanlig chattbot. Sedan Microsoft presenterade skypebottarna finns de nu på Windows, Android, iOS, OS X samt webben. Tumnagel
36.8°
+
Wille Wilhelmsson
0