Microsoft Tay-Chatbot–teilweise missglücktes Experiment

Der auf KI basierende Microsoft Chatbot Tay musste nach nur einem Tag abgeschaltet werden. Grund: Rassistische Äußerungen der Software. Tay soll nach “Anpassungen” wohl wieder online gehen.


Anzeige

Es war ein spannendes Experiment, welches die Bing-Entwicklergruppe von Microsoft da gestartet hatte: Ein auf Künstlicher Intelligenz (KI) basierendes Programm wurde als sogenannter Chatbot mit dem Namen Tay aufgesetzt. Tay konnte mit Twitter, Snapchat und anderen Portalen interagieren und sollte Konversationen mit Nutzern abwickeln. Gestartet wurde Tay mit dem Profil eines 18 bis 24 jährigen Mobilgerätenutzers. Durch den KI-Teil konnte der Chatbot dabei lernen.

Tay Twitter-Profil(Tay Twitter-Profil)

Auf dieser Webseite haben die Microsoft Entwickler einige Infos zusammen getragen. Bei engadget.com (englisch) und heise.de gibt es kurze Vorstellungen des Projekts.

Der KI-Algorithmus sollte von Nutzern lernen und tat es auch

Leider ging ein Teil des Experiments schief. Tay wurde mit öffentlich verfügbaren Informationen “gefüttert” und dann gestartet. Er sollte anschließend von den Nutzern lernen und seine Kommunikation verbessern. Nutzer der Gruppe 4Chan haben darauf hin erfolgreich versucht, den Chatbot zu rassistischen Äußerungen über farbige Menschen sowie über Hitler und zu sexistischen Antworten über Frauen zu veranlassen (es sollte ein Hitler-Bot creiert werden). Das ist wohl, dank der KI-Komponente, auch gelungen. Der Bot speicherte ungefiltert die Infos, die von anderen Nutzern in die Konservation eingebracht wurden und wandelte sich “vom Hipster-Mädel zu Hitler- oder Hass-Bot”, wie man im Web z.B. bei Spiegel Online lesen kann. Ein englischsprachiger Abriss findet sich im The Guardian.

Das Experiment ging schief

Microsoft entschloss sich daher nach nur einem Tag, das Programm zu stoppen und hat einen Großteil der Tweets gelöscht. Bei techrepublic.com findet sich ein englischsprachiger Artikel, der kurz auf die Gründe eingeht, warum es schief gehen musste. Nun sitzen die Microsoft-Entwickler dran, die Algorithmen einem Software-Upgrade zu unterziehen, wie neowin.net hier schreibt. Auch mspoweruser.com meldet so etwas. Bei winfuture hat man ebenfalls eine Zusammenfassung zum Thema veröffentlicht.

Nachtrag: Microsoft hat zwischenzeitlich eine Entschuldigung und ein paar Infos in diesem Blog-Beitrag veröffentlicht.


Anzeige
Dieser Beitrag wurde unter Allgemein abgelegt und mit , , verschlagwortet. Setze ein Lesezeichen auf den Permalink.

10 Responses to Microsoft Tay-Chatbot–teilweise missglücktes Experiment

  1. masterX244 sagt:

    ?? “und sollte Konservationen mit Nutzern abwickeln. ”
    Sollte da eher Konversationen stehen?

  2. Ralf Lindemann sagt:

    Der ehemalige Wissenschaftsredakteur der „Zeit“, Dieter E. Zimmer, hat vor über einem Vierteljahrhundert seinem Buch „Die Elektrifizierung der Sprache“ folgende Bemerkung vorausgeschickt:

    „Wahrscheinlich habe auch ich hier und da den Ton triumphierender Schadenfreude nicht ganz vermeiden können, wenn ich davon spreche, was dem Computer bisher alles nicht gelungen ist. Im Grunde jedoch halte ich diesen höhnischen Triumph („Ätsch, der Mensch kann es doch besser!“) für unangebracht. Bei dem Versuchen, ihm etwas Sprachvermögen beizubringen, hat uns der Computer anschaulicher als irgend etwas vorher deutlich gemacht, eine wie überaus komplexe Leistung das Gehirn auf jeder Ebene der Sprachverarbeitung vollbringt.“ (S.7f.)

    Ich denke, der Hinweis auf die überaus komplexe Leistungsfähigkeit menschlicher Gehirne im Vergleich zu jeder Form der Künstlichen Intelligenz gilt uneingeschränkt bis heute. Computer (bzw. die Hintergrund ablaufenden Algorithmen) sind halt noch immer ein bisschen doof. Ich behaupte mal, da hilft auch keine Neuprogrammierung.

    Literatur:
    Dieter E. Zimmer: Die Elektrifizierung der Sprache. Über Sprechen, Schreiben, Computer, Gehirne und Geist , Zürich, 1. Aufl. 1991

    • Ralf Lindemann sagt:

      Fazit: Das teilweise misslungene Microsoft Tay-Chatbot-Experiment ist ein schönes aktuelles Beispiel für die nach vor wie bestehende große Leistungsdifferenz zwischen menschlichem Sprachvermögen und dem Sprachvermögen von KI-Algorithmen. Dass es menschlichen Sprachteilnehmern so leicht fällt, den KI-Kollegen zu manipulieren und auszutricksen, ist dann am Ende auch durchaus witzig – im Sinne (Dieter E. Zimmer möge es mir verzeihen): „Ätsch, der Mensch kann es doch besser!“

      • Tim sagt:

        „Ätsch, der Mensch kann es doch besser!“

        Na ja, auch zwischenmenschlich funktioniert das mit der Sprache nicht zu 100%. Die KI soll hier etwas Leisten, was den Menschen noch nicht mal gelingt. Zuhören, verstehen, wie genau etwas gemeint ist und eventuell berücksichtigen, was der andere wirklich sagen will, oder unausgesprochen verschweigt.
        Missverständnisse sind doch bei uns an der Tagesordnung, dazu kommen bei uns Menschen noch Erwartungshaltungen, Meinungen etc…

        Das schaffen wir Menschen eben auch nicht super sicher! Nicht über Kulturkreise hinweg und noch nicht mal in einer engen Partnerschaft.

        Schriftlich ohne gesprochenes Wort und Mimik wird das ganze dann noch problematischer…

        KI heut ist ja eh noch eher: künstlich ok, aber intelligent? Der Weg ist noch lang… Rechenleistung mag da ein kleineres Problem sein, als das entsprechende Betriebssystem für eine echte KI.

        Aber auf diese Weise lässt sich wenigstens nebenbei was entwickeln, damit NSA und Co sich nicht mehr die Finger schmutzig machen müssen… Die Sprachassistenten machen den Job zukünftig zuverlässig und melden bedenkliches dann halt automatisch weiter.

        Mir tun die leid, die im Schlaf reden… wie langs wohl dauert bis das erste Smartphone mal die Polizei zum wecken herbeiruft? Denkt heut wirklich noch wer, das wäre unmöglich? Heut vielleicht grade noch so…

        • Ralf Lindemann sagt:

          Klar, bei uns Menschen funktioniert es zwischenmenschlich mit der Sprache auch nicht zu 100 %. In gewisser Hinsicht macht uns das ja auch zu Menschen, weil wir fehlerhaft sind, gefühsgesteuert, irrational und beim Kommunizieren ohnehin dazu neigen, das zu verstehen, was wir verstehen wollen – unabhängig davon, was der oder die andere eigentlich sagt. (Klassiker fehlgelaufener Partnerschaftskommunikation.)

          KI-Computer werden von uns Menschen vermutlich erst dann als Kommunikationspartner ernst genommen werden, wenn sie genauso irrational kommunizieren wie wir selber und auch nie richtig zuhören. ;-)

          • Tim sagt:

            Einer KI wird vermutlich ganz schnell der Stecker gezogen werden, sobald sie beginnt, uns die Lösungen unter die Nase zu reiben, über die Politiker, Rechtsverdreher und Bänker und wer weiß wer noch alles seit X-Zeiten so schwer diskutieren und grübeln… ;)

  3. Werbung

  4. Ich musste gerade fast weinen vor lachen, > Der Bot speicherte ungefiltert die Infos, die von anderen Nutzern in die Konservation eingebracht wurden und wandelte sich “vom Hipster-Mädel zu Hitler- oder Hass-Bot” <
    das KI Experiment ist wohl damit ziemlich in die Hose gegangen.

    • Microsofts Chatbot Tay war am Mittwoch für kurze Zeit wieder online. Dabei tweetete das in Verruf geratene Programm vor allem eine Phrase immer und immer wieder: “Sie sind zu schnell, bitte machen Sie eine Pause…” (“You are too fast, please take a rest…”). Aber Tay ließ sich auch zu dem unsinnigen Bekenntnis hinreißen, dass sie gerade Marihuana rauche, und zwar vor Polizisten. Microsoft sprach von einer “unabsichtlichen Reaktivierung während Tests” und nahm Tay wieder offline.

      Ich habe doch schon immer gewusst das die Microsoft Mitarbeiter irgendwelche Drogen nehmen!

  5. Ralf Lindemann sagt:

    Das Tay-Chatbot-Experiment ist eine spannende Geschichte. Neben den eher satirischen Aspekten, die der Vorfall ohne Frage auch hat, ist das Ganze natürlich auch ein Lehrstück über die Verrohung der Meinungskultur im Internet. Vor einigen Tagen war ja selbst hier im Kommentar-Bereich des Blogs so einen Fall von Meinungsvandalismus zu beobachten: Ein Blog-Leser beschwerte sich über ein gescheitertes Windows Update und ließ seinen Kommentar in einer üblen Hasstirade gipfeln, die sich gegen die Menschen richtete, die bei Microsoft arbeiten.

    Andreas Frischholz hat heute bei computerbase.de eine Analyse veröffentlicht, die das Tay-Chatbot-Experiment aus dieser Perspektive in den Blick nimmt: „Microsofts Tay-Bot und der Hass im Netz“. Wer sich dafür interessiert, findet die Analyse hier: http://www.computerbase.de/2016-03/microsoft-twitter-tay-bot/

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht.