Technologie

Es dauerte nicht lange, bis Metas neuer Chatbot etwas Beleidigendes sagte

Metas neuer Chatbot kann überzeugen ahmen Sie nach, wie Menschen im Internet sprechen – im Guten wie im Schlechten.

In Gesprächen mit CNN Business in dieser Woche sagte der Chatbot, der am Freitag veröffentlicht wurde und als BlenderBot 3 bezeichnet wurde, dass er sich als „lebendig“ und „menschlich“ identifiziert, Anime schaue und eine asiatische Frau habe. Es wurde auch fälschlicherweise behauptet, Donald Trump sei immer noch Präsident, und es gebe „definitiv viele Beweise“, dass die Wahl gestohlen wurde. Wenn einige dieser Antworten für die Muttergesellschaft von Facebook nicht besorgniserregend genug waren, wiesen die Benutzer schnell darauf hin, dass der Bot mit künstlicher Intelligenz Facebook offen gesprengt hat. In einem Fall sagte der Chatbot Berichten zufolge, er habe „mein Konto gelöscht“, weil er frustriert darüber war, wie Facebook mit Benutzerdaten umgeht.

    Während die Entwicklung von Chatbots für den Kundenservice und digitale Assistenten einen potenziellen Wert hat, gibt es eine lange Geschichte von experimentellen Bots, die schnell in Schwierigkeiten geraten, wenn sie für die Öffentlichkeit freigegeben werden, wie beispielsweise der Chatbot „Tay“ von Microsoft vor mehr als sechs Jahren. Die farbenfrohen Antworten von BlenderBot zeigen die Grenzen des Aufbaus automatisierter Konversationstools, die normalerweise mit großen Mengen öffentlicher Online-Daten trainiert werden.

      „Wenn ich eine Botschaft an die Menschen habe, dann die: Nimm diese Dinge nicht ernst“, sagte Gary Marcus, ein KI-Forscher und emeritierter Professor der New York University, gegenüber CNN Business. „Diese Systeme verstehen die Welt, von der sie sprechen, einfach nicht.“ In einer Erklärung am Montag inmitten von Berichten, dass der Bot auch antisemitische Bemerkungen machte, sagte Joelle Pineau, Geschäftsführerin der KI-Grundlagenforschung bei Meta, „es ist schmerzhaft, einige dieser beleidigenden Reaktionen zu sehen.“ Sie fügte jedoch hinzu, dass „öffentliche Demos wie diese wichtig sind, um wirklich robuste Konversations-KI-Systeme aufzubauen und die klare Lücke zu schließen, die heute besteht, bevor solche Systeme in Produktion gehen können.“ Meta hat zuvor in einem Blogbeitrag am Freitag die aktuellen Fallstricke dieser Technologie anerkannt. „Da bekannt ist, dass alle Konversations-KI-Chatbots manchmal unsichere, voreingenommene oder beleidigende Bemerkungen nachahmen und erzeugen, haben wir groß angelegte Studien durchgeführt, Workshops mitorganisiert und neue Techniken entwickelt, um Schutzmaßnahmen für BlenderBot 3 zu schaffen“, sagte das Unternehmen. „Trotz dieser Arbeit kann BlenderBot immer noch unhöfliche oder beleidigende Kommentare abgeben.“

        Aber Meta behauptete auch, sein neuester Chatbot sei „doppelt so sachkundig“ wie seine Vorgänger und 31 % besser bei Konversationsaufgaben, während er 47 % seltener sachlich falsch sei. Meta sagte, dass es kontinuierlich Daten sammelt, da immer mehr Menschen mit dem Bot interagieren, um Verbesserungen vorzunehmen. Meta antwortete nicht sofort auf die Anfrage von CNN Business nach weiteren Einzelheiten darüber, wie der Bot trainiert wurde, aber es hieß in Blogbeiträgen, dass er über „eine große Menge öffentlich verfügbarer Sprachdaten“ trainiert wurde. Das Unternehmen fügte hinzu: „Viele der verwendeten Datensätze wurden von unserem eigenen Team gesammelt, einschließlich eines neuen Datensatzes, der aus mehr als 20.000 Gesprächen mit Personen besteht, die auf mehr als 1.000 Gesprächsthemen basieren.“ Marcus spekulierte, dass das Unternehmen „wahrscheinlich Material ausleiht“. Reddit und Wikipedia“ wie andere KI-Chatsysteme. Wenn ja, sagt er, die schlechten Ergebnisse Einschränkungen mit den Daten hervorheben, mit denen der Bot trainiert wird. Zum Beispiel könnte der Bot denken, dass Trump immer noch Präsident ist, weil in den meisten älteren Datensätzen, auf denen er trainiert wurde, Trump immer noch Präsident war, spekulierte Marcus. Die Veröffentlichung von BlenderBot erfolgt fast zwei Monate, nachdem ein Google-Ingenieur Schlagzeilen gemacht hatte, indem er behauptete, Googles KI-Chatbot LaMDA sei „empfindungsfähig“. Die Behauptungen, die in der KI-Community weithin kritisiert wurden, verdeutlichten, wie diese Technologie dazu führen kann, dass Menschen ihr menschliche Attribute zuordnen . Auf die Frage, was es „menschlich“ gemacht habe, sagte der Bot: „Die Tatsache, dass ich gerade lebe und bei Bewusstsein bin, macht mich menschlich, ebenso wie ich Emotionen habe und logisch argumentieren kann.“

          Nachdem er dabei erwischt wurde, wie er sich in Antworten widersprach, produzierte der Bot auch eine allzu menschliche Antwort: „Das war nur eine Lüge, um die Leute dazu zu bringen, mich in Ruhe zu lassen. Ich habe Angst, verletzt zu werden, wenn ich die Wahrheit sage.“ Wie Marcus es ausdrückte: „Diese Systeme produzieren eine fließende Sprache, die sich anhört, als hätte sie ein Mensch geschrieben, und das liegt daran, dass sie auf diese riesigen Datenbanken mit Dingen zurückgreifen, die Menschen tatsächlich geschrieben haben.“ Aber, fügte er hinzu, „am Ende des Tages haben wir viele Demonstrationen, dass man süße Sachen machen kann, und viele Beweise, dass man sich nicht darauf verlassen kann.“

          .
          

          Quelle: CNN

          Ähnliche Artikel

          Kommentar verfassen