Tanken var god, och skulle leda till en smartare, personligare och ungdomligare AI-bot. Men på kort tid gick drömmen i kras och Microsofts Tay blev en fullfjädrad nazist.
Vi skrev bara förra veckan om försöket, något som faktiskt verkade ett ärligt och roligt försök att både underhålla och lära sig den moderna “tonårsparlören”.
Läs mer: Tay – en typisk tonåring och chatbot
Men nu ber alltså Microsoft om ursäkt – för på bara några timmar började Tay hylla Hitler och kasta ur sig andra kränkande och rasistiska tillrop. Tay blev helt enkelt ett offer för illvilliga internettroll, tyvärr något kanske symptomatiskt för vår tid.
“Tay är nu offline”, skrev Peter Lee, vicepresident för Microsofts forskningsavdelning i fredags, och tillade att man “tittar efter en lösning så att Tay skall komma tillbaka”. Tay är dock bara välkommen när Microsoft kan vara “säkra på att vi kan förebygga elakartade uppsåt som strider mot våra principer och värderingar”, skrev Lee i blogginlägget kring Tay-incidenten.
Samtidigt påpekade Lee att en variant av Tay faktiskt redan testats i Kina, då under namnet Xiaolce – då utan större problem. Faktum är att den “positiva” erfarenheten från den Kinabaserade boten fick Microsoft “att undra: skulle en AI vara lika fängslande i en radikalt annorlunda kulturell miljö?”, enligt Lee.
Slutsatsen verkar därför pinsamt nog vara ett nej. För oss nyfikna återstår det att se om man kan hålla trollen borta i framtiden.