Microsofts Tay – Das fehlgeschlagene Experiment auf Twitter

Diskutiere Microsofts Tay – Das fehlgeschlagene Experiment auf Twitter im Microsoft News Forum im Bereich IT-News; Künstliche Intelligenz soll den Menschen Arbeit abnehmen, sie informieren oder vielleicht auch einfach nur unterhalten. Mit Tay wollte Microsoft...
Zeiram

Zeiram

Redakteur
Threadstarter
Team
Mitglied seit
19.02.2015
Beiträge
1.999
Künstliche Intelligenz soll den Menschen Arbeit abnehmen, sie informieren oder vielleicht auch einfach nur unterhalten. Mit Tay wollte Microsoft auf Twitter einen Chat-Bot testen der selbstständig Unterhaltungen führen kann. Dies funktionierte leider zu gut und Tay wurde so selbstständig, dass seine „Eltern“ ihn vom Netz nehmen mussten.


Jugendlich und frisch sollte Tay wirken. Der Chat-Bot ging am 23.03.2016 Online mit einem harmlosen „Hello World“ online und sollte selbständig Postings und Chats mit den Usern ausführen. Am Anfang schien das Ganze auch recht normal zu laufen. Microsoft wollte so aus den Chats lernen und das Verhalten des Bots optimieren. Allerdings wurden dann in manchen Kreisen angeblich Lücken entdeckt und diese gezielt ausgenutzt.


So soll es möglich gewesen sein, dass man Tay so anschreiben konnte, dass sie Postings direkt 1:1 wiedergab. Relativ schnell wurde so aus dem unbekümmerten und offenen Programm ein Wesen mit misanthropischen Zügen das Alles und Jeden zu hassen schien. Es tauchten Postings auf bei denen die KI gegen Feministinnen wetterte, User als Daddys betitelte und nach Sex bettelte oder sogar zu Vernichtung Mexikos aufgerufen wurde. Als dann sogar schnell Äußerungen zu ** und dem Holocaust auftauchten zog man bei Microsoft die Notbremse um nahm Tay nach gerade einmal einem Tag vom Netz.


Microsoft hat sich mittlerweile dafür entschuldigt und noch einmal darauf hingewiesen, dass die Aussagen von Tay keinesfalls zu Microsoft gehören, sondern durch Trolle ausgelöst wurden. Man verweist auf zuvor erfolgreich verlaufene Versuche mit kleineren Gruppen, die aber wahrscheinlich besser beaufsichtigt waren. Auch ein Verweis auf Versuche in China mit XiaoIce sind wohl kein Maßstab, da dort das Netz vielleicht weniger frei ist.

Selbst wenn man Tay dazu bringen konnte Tweets zu wiederholen bleibt doch die Frage offen, warum sie dann selber solche Bilder und Äußerungen verfassen konnte wie sie nun einmal kurzzeitig zu sehen waren? Ob Tay überhaupt wieder Online gehen wird ist aktuell aber ohnehin offen.

Quelle: ZDNet

Meinung des Autors: DAS lief wohl nicht so gut… Hattet Ihr euch mit Tay befasst?
 
Thema:

Microsofts Tay – Das fehlgeschlagene Experiment auf Twitter

Microsofts Tay – Das fehlgeschlagene Experiment auf Twitter - Ähnliche Themen

  • Mir fehlt auf dem Laptop folgendes: C:\ProgrammData\Microsoft\Windows\Start Menu\Programs

    Mir fehlt auf dem Laptop folgendes: C:\ProgrammData\Microsoft\Windows\Start Menu\Programs: Guten Tag, Wahrscheinlich habe ich ein Windows-Installationsproblem (Beschädigung ?).- [verschoben]
  • Mir fehlt auf dem Laptop folgendes: C:\ProgrammData\Microsoft\Windows\Start Menu\Programs

    Mir fehlt auf dem Laptop folgendes: C:\ProgrammData\Microsoft\Windows\Start Menu\Programs: Guten Tag, Wahrscheinlich habe ich ein Windows-Installationsproblem (Beschädigung ?).-
  • microsoft security essentials

    microsoft security essentials: Frage: Habe einen neuen PC mit Winows 10 und der hat McAfee installiert. Früher hatte ich Microsoft security essntials. Was ist sinnvoller zu...
  • Die Geschichte wiederholt sich - Microsoft muss auch Chatbot XiaoBing nach Tay vom Netz nehmen

    Die Geschichte wiederholt sich - Microsoft muss auch Chatbot XiaoBing nach Tay vom Netz nehmen: Als Microsoft den Chatbot Tay zum eigenständigen lernen auf das Internet und seine menschlichen Benutzer los ließ ging das Ganze leider nicht so...
  • Microsoft bringt am AI Day Zo an den Start - Wie Tay, nur ohne Skandale?

    Microsoft bringt am AI Day Zo an den Start - Wie Tay, nur ohne Skandale?: Künstliche Intelligenz ist manchmal auch nicht das was man erwartet. Auf Twitter versuchte man bei Microsoft mit Tay einen sehr intelligenten...
  • Ähnliche Themen

    Oben