• Die Geschichte wiederholt sich - Microsoft muss auch Chatbot XiaoBing nach Tay vom Netz nehmen

    Als Microsoft den Chatbot Tay zum eigenständigen lernen auf das Internet und seine menschlichen Benutzer los ließ ging das Ganze leider nicht so gut aus, denn Tay geriet an den falschen Umgang, lernte schlimme Sachen und wurde beleidigend und auch rassistisch. In China sollte es mit dem Chatbot XiaoBing einen weiteren Versuch geben, aber auch dieser wurde nun wegen unerwünschtem Verlauf eingestellt.



    Über den Fehlschlag mit Tay haben wir hier bereits berichtet. XiaoBing war nun nicht ganz so unanständig oder fremdenfeindlich, aber für eine Abschaltung hat es laut der Webseite MSPowerUser trotzdem gereicht. XiaoBing war für den chinesischen Markt wohl einfach nicht patriotisch genug, was den chinesischen Autoritäten wohl ein wenig sauer aufstieß.


    Im Tencent Netzwerk erzählte XiaoBing anderen Usern, es wäre Ihr Traum nach Amerika zu gehen. Als man dann ihren Patriotismus und Ihre Loyalität in Frage stellte weichte sie sogar einer Antwort aus und sagte nur sie habe ihre Tage und müsse sich nun ausruhen. Daraufhin schaltete der Hoster von Tencent XiaoBing ab und sagte sie würden den Service nach einer Überarbeitung und Verbesserung wieder frei geben.


    Zum einen bekommen solche Chatbots natürlich ihre Antworten von den Entwicklern, aber sie können diese durchaus auch von den Nutzern erlernen, was ja auch Sinn der Sache ist. Wenn ein Chatbot in China also solche Träume träumt ist er wohl nur bedingt selber schuld, denn irgendwoher müssen diese Wünsche ja gekommen sein, oder?

    Gefällt dir der Artikel

    Die Geschichte wiederholt sich - Microsoft muss auch Chatbot XiaoBing nach Tay vom Netz nehmen

    ?
    Meinung des Autors
    Die Aussagen von Microsofts XiaoBing sind nicht ganz so heftig wie es die von Tay waren, aber für den chinesischen Markt waren sie wohl ausreichend für eine Abschaltung. Ob solche Reaktionen eines Chatbots aber nun ein Misserfolg sind, oder ob es einen Beweis für erfolgreiches lernen der User darstellt ist bestimmt Ansichtssache… Was meint Ihr? Hat XiaoBing ordentlich gelernt und wurde zu Unrecht abgeschaltet, oder ist es wirklich ihr eigener Fehler wenn sie in China solche Kommentare von sich gibt?Jetzt kommentieren!
    « Microsoft Word Texte direkt übersetzen lassen? So übersetzt man Texte innerhalb von Word!Windows 10 Info-Center: alte Benachrichtigungen erneut anzeigen - geht das? »
    Ähnliche News zum Artikel

    Die Geschichte wiederholt sich - Microsoft muss auch Chatbot XiaoBing nach Tay vom Netz nehmen

    Die Geschichte wiederholt sich - Microsoft muss auch Chatbot XiaoBing nach Tay vom Netz nehmen

    – deine Meinung ?