Software "Tay" ausgetrickst

Microsoft nimmt Chatbot nach rassistischen Entgleisungen vom Netz

Der Online-Einsatz des Chatbots Tay von Microsoft währte nur kurz: Nutzer hatten die Software trickreich zu massenhaften rassistischen Äußerungen verleitet.

Microsoft© Microsoft

Seattle - Microsoft hat eine Chatbot-Software nach kurzer Zeit von Netz nehmen müssen, nachdem Nutzer sie durch Tricks massenhaft zu rassistischen Entgleisungen verleiten konnten.

Microsoft-Programm gibt beleidigende und rassistische Antworten

Das am Mittwoch eingeschaltete Programm mit dem Namen "Tay" sollte mit Hilfe einfacher Antwort-Algorithmen über Twitter den Anschein einer Konversation mit Menschen aufrechterhalten. Doch der Plan ging gründlich schief.

Nutzer brachten "Tay" unter anderem dazu, Adolf Hitler zu preisen, den Holocaust zu verneinen und Schwarze zu beleidigen. Ein Großteil dieser Tweets wurde später gelöscht, einige waren am Donnerstag noch zu finden. Nach einigen Stunden verkündete die Maschine über ihren Twitter-Account "@TayandYou", sie müsse nach so vielen Gesprächen schlafen und ging vom Netz.

Jörg Schamberg / Quelle: DPA

Weiterführende Links
Kommentieren Forum

Dieser Artikel wurde noch nicht kommentiert. Schreiben Sie uns Ihre Meinung!

Weitere Infos zum Thema
Zum Seitenanfang