Teknik
Motor
Samhälle
Spel
Popkultur
Fritid
Tjock
Tester
Dagens fråga
Tipsa!
Skaffa Feber+
Laddar...
Annons från
Laddar...
Annons från
Microsoft släpper lös en ny AI-chatbot
Förhoppningsvis mindre rasistisk den här gången
Foto: MSPoweruser
I våras släppte Microsoft lös den AI-baserade chatbotten Tay på Twitter och detta slutade väl i mer eller mindre katastrof då Twitters användare på ett dygn lyckades förvandla "tonåringen" Tay till en sexistisk rasist.Efter missen med Tay har Microsoft lärt sig ett och annat om AI-chattbottar och gör därför nu ett nytt försök med chatbotten Zo som man kan snacka med via chattappen KIK. Precis som Tay är Zo en "tonåring" men till skillnad från Tay så undviker Zo att snacka om kontroversiella ämnen som innefattar rasism, viss politik och sexism (mittenbilden ovan). Vidare verkar det, kanske inte helt oväntat, som om Zo kan en hel del om Microsofts produktutbud och att "hon" gillar Windows Phone.Vill man testa att chatta med Zo så behöver man bli inbjuden vilket man kan be om att få på länken nedan.
earlyaccess.zo.ai
Pryl,
Artificiell intelligens,
chatbot,
zo,
microsoft,
bottar,
kik
Via
mspoweruser.com
Microsoft har tagit fram den AI-baserade chatbotten Tay
Chattar som en tonåring
36.9°
Twitter gjorde boten Tay till rasist på mindre än 24 timmar
Det ballade ur
79.3°
Microsoft berättar vad man lärde sig från Tay
Den artificiella intelligensen som blev en sexistisk rasist på rekordtid
47.5°
38.5°
Wille Wilhelmsson
tis. 6 dec 2016, 13:00
+
Per månad
39 kr
Betala löpande per månad. Ingen bindningstid.
Starta prenumeration
Per år
299 kr
Enklast och billigast, bara 25 kronor i månaden. Betala löpande per år. Ingen bindningstid.
Prova 14 dagar gratis innan du bestämmer dig.
Starta gratis provperiod
Engångsköp
349 kr
Slipp återkommande betalningar, betala ett år i taget. Betala med kort eller Swish.
Köp utan prenumeration