Microsoft berättar vad man lärde sig från Tay
Den artificiella intelligensen som blev en sexistisk rasist på rekordtid

Häromdagen släppte Microsoft lös sin artificiella intelligens Tay på Twitter och lite andra sociala medier för att den skulle lära sig hur människor kommunicerar. Tyvärr är väl inte sociala medier alltid rätt forum för sådana experiment och det tog mindre än ett dygn innan Tay hade förvandlats till en fullblodad rasist med sexistiska tendenser.
Detta gjorde att Microsoft kopplade bort Tay från nätet och nu har man skrivit ett blogginlägg om vad man lärde sig från det här experimentet. Man säger bland annat att man redan tidigare hade testat AI-chatbotten XiaoIce i Kina och nu ville se hur den "ungdomliga" Tay, som man primärt skapade för att kommunicera med 18-24-åringar, klarade av att umgås med människor. För att få kommunicera med en bred publik valde Microsoft bland annat att släppa loss Tay på Twitter och skriver:
"The logical place for us to engage with a massive group of users was Twitter. Unfortunately, in the first 24 hours of coming online, a coordinated attack by a subset of people exploited a vulnerability in Tay. Although we had prepared for many types of abuses of the system, we had made a critical oversight for this specific attack. As a result, Tay tweeted wildly inappropriate and reprehensible words and images. We take full responsibility for not seeing this possibility ahead of time. We will take this lesson forward as well as those from our experiences in China, Japan and the U.S. Right now, we are hard at work addressing the specific vulnerability that was exposed by the attack on Tay."
När eller om Tay dyker upp på Twitter igen finns det än så länge inga uppgifter om.
Twitter gjorde boten Tay till rasist på mindre än 24 timmar
Det ballade ur

Microsoft har tagit fram den AI-baserade chatbotten Tay
Chattar som en tonåring
