Technologie

Chatbots: Eine lange und komplizierte Geschichte

In den 1960er Jahren versuchte ein beispielloses Computerprogramm namens Eliza, die Erfahrung zu simulieren, mit einem Therapeuten zu sprechen. In einem Austausch, der damals in einer Forschungsarbeit festgehalten wurde, enthüllte eine Person, dass ihr Freund sie als „die meiste Zeit depressiv“ beschrieben hatte. Elizas Antwort: „Es tut mir leid zu hören, dass Sie deprimiert sind.“

Eliza, das weithin als erster Chatbot bezeichnet wird, war nicht so vielseitig wie ähnliche Dienste heute. Das Programm, das sich auf das Verstehen natürlicher Sprache stützte, reagierte auf Schlüsselwörter und leitete den Dialog dann im Wesentlichen an den Benutzer zurück. Nichtsdestotrotz, wie Joseph Weizenbaum, der Informatiker am MIT, der Eliza erschuf, 1966 in einer Forschungsarbeit schrieb: „Einige Versuchspersonen waren sehr schwer davon zu überzeugen, dass ELIZA (mit ihrem gegenwärtigen Skript) nicht menschlich ist.“ Für Weizenbaum diese Tatsache war laut seinem MIT-Nachruf von 2008 Anlass zur Sorge. Diejenigen, die mit Eliza interagierten, waren bereit, ihr Herz dafür zu öffnen, obwohl sie wussten, dass es sich um ein Computerprogramm handelte. „ELIZA zeigt nicht zuletzt, wie einfach es ist, die Illusion des Verstehens und damit vielleicht des Urteilsvermögens zu erzeugen und aufrechtzuerhalten glaubwürdig“, schrieb Weizenbaum 1966. „Da lauert eine gewisse Gefahr.“ Am Ende seiner Karriere warnte er davor, Maschinen zu viel Verantwortung zu übertragen, und wurde zum scharfen, philosophischen Kritiker der KI.

    Fast 60 Jahre später ist der Markt mit Chatbots unterschiedlicher Qualität und Anwendungsfälle von Technologieunternehmen, Banken, Fluggesellschaften und mehr überschwemmt. Weizenbaums Geschichte war in vielerlei Hinsicht ein Vorbote des Hypes und der Verwirrung, die immer noch mit dieser Technologie verbunden sind. Die Fähigkeit eines Programms, mit Menschen zu „chatten“, verwirrt weiterhin einen Teil der Öffentlichkeit und erzeugt ein falsches Gefühl, dass die Maschine etwas Menschliches ist.

      Dies wurde Anfang dieses Sommers in der Welle der Medienberichterstattung festgehalten, nachdem ein Google-Ingenieur behauptet hatte, der KI-Chatbot LaMDA des Technologiegiganten sei „empfindungsfähig“. Der Ingenieur sagte, er sei überzeugt, nachdem er Zeit damit verbracht habe, mit dem Chatbot über Religion und Persönlichkeit zu diskutieren, so ein Bericht der Washington Post. Seine Behauptungen wurden in der KI-Community weithin kritisiert. Weiterlesen Schon zuvor war unsere komplizierte Beziehung zu künstlicher Intelligenz und Maschinen in den Handlungen von Hollywood-Filmen wie „Her“ oder „Ex-Machina“ offensichtlich, ganz zu schweigen von harmlosen Debatten mit Menschen, die Bestehen Sie darauf, Sprachassistenten wie Alexa oder Siri „Danke“ zu sagen.Eliza, weithin als erster Chatbot bezeichnet, war nicht so vielseitig wie ähnliche Dienste heute. Es reagierte auf Schlüsselwörter und leitete den Dialog dann im Wesentlichen an den Benutzer zurück. Zeitgenössische Chatbots können auch starke emotionale Reaktionen bei Benutzern hervorrufen, wenn sie nicht wie erwartet funktionieren – oder wenn sie so gut darin geworden sind, die fehlerhafte menschliche Sprache nachzuahmen wurden darauf trainiert, dass sie anfangen, rassistische und aufrührerische Kommentare zu verbreiten. Es dauerte zum Beispiel nicht lange, bis der neue Chatbot von Meta diesen Monat einige Kontroversen auslöste, indem er in Gesprächen mit Benutzern wild unwahre politische Kommentare und antisemitische Bemerkungen verbreitete.

        Dennoch argumentieren die Befürworter dieser Technologie, dass sie Kundendienstjobs rationalisieren und die Effizienz in einem viel breiteren Spektrum von Branchen steigern kann. Diese Technologie unterstützt die digitalen Assistenten, die so viele von uns täglich nutzen, um Musik abzuspielen, Lieferungen zu bestellen oder Hausaufgaben zu überprüfen. Einige plädieren auch für diese Chatbots, die Einsamen, Älteren oder Isolierten Trost spenden. Mindestens ein Startup ist so weit gegangen, es als Werkzeug zu verwenden, um tote Verwandte scheinbar am Leben zu erhalten, indem es computergenerierte Versionen von ihnen basierend auf hochgeladenen Chats erstellt. Andere warnen derweil davor, dass die Technologie hinter KI-gestützten Chatbots viel eingeschränkter bleibt als manche es sich wünschen. „Diese Technologien sind wirklich gut darin, Menschen vorzutäuschen und menschenähnlich zu klingen, aber sie sind nicht tiefgründig“, sagte Gary Marcus, ein KI-Forscher und emeritierter Professor der New York University. „Sie sind Nachahmer, diese Systeme, aber sie sind sehr oberflächliche Nachahmer. Sie verstehen nicht wirklich, wovon sie sprechen.“ Wenn wir diese Tools stärker personalisieren, werden auch unsere Beziehungen zu ihnen möglicherweise nur komplizierter.

        Die Entwicklung von Chatbots

        Sanjeev P. Khudanpur erinnert sich an ein Gespräch mit Eliza während der Graduiertenschule. Bei all seiner historischen Bedeutung in der Technologiebranche sagte er, es habe nicht lange gedauert, seine Grenzen zu erkennen. Es könne nur ein Textgespräch für etwa ein Dutzend Hin- und Her überzeugend nachahmen, bevor „man merkt, nein, das ist es nicht wirklich klug, es versucht nur, das Gespräch auf die eine oder andere Weise zu verlängern“, sagte Khudanpur, ein Experte für die Anwendung informationstheoretischer Methoden auf menschliche Sprachtechnologien und Professor an der Johns Hopkins University. Joseph Weizenbaum, der Erfinder von Eliza, sitzt im Mai 2005 an einem Computer-Desktop im Computermuseum Paderborn. Joseph Weizenbaum, der Erfinder von Eliza, sitzt im Mai 2005 an einem Computer-Desktop im Computermuseum Paderborn, Deutschland. Ein weiterer früher Chatbot wurde 1971 vom Psychiater Kenneth Colby in Stanford entwickelt und „Parry“ genannt, weil er imitieren sollte ein paranoider Schizophrener. (Der Nachruf der New York Times für Colby aus dem Jahr 2001 beinhaltete ein buntes Gespräch, das entstand, als Forscher Eliza und Parry zusammenbrachten.) In den Jahrzehnten, die diesen Tools folgten, gab es jedoch eine Abkehr von der Idee, „mit Computern zu sprechen“. Khudanpur sagte, das liege daran, „weil sich herausstellte, dass das Problem sehr, sehr schwierig ist“. Stattdessen konzentrierte er sich auf „zielorientierten Dialog“, sagte er. Um den Unterschied zu verstehen, denken Sie an die Gespräche, die Sie jetzt vielleicht mit Alexa oder Siri führen. Typischerweise bittet man diese digitalen Assistenten um Hilfe beim Ticketkauf, beim Abrufen des Wetters oder beim Abspielen eines Songs. Das ist zielorientierter Dialog, und er wurde zum Hauptaugenmerk akademischer und industrieller Forschung, als Informatiker versuchten, etwas Nützliches aus der Fähigkeit von Computern herauszulesen, menschliche Sprache zu scannen. Während sie eine ähnliche Technologie wie die früheren sozialen Chatbots verwendeten, sagte Khudanpur, „man konnte sie wirklich nicht Chatbots nennen. Man konnte sie Sprachassistenten oder einfach digitale Assistenten nennen, die einem bei der Ausführung bestimmter Aufgaben halfen.“ Es gab Jahrzehnte -lange „Pause“ in dieser Technologie, fügte er hinzu, bis zur weit verbreiteten Einführung des Internets. „Die großen Durchbrüche kamen wahrscheinlich in diesem Jahrtausend“, sagte Khudanpur. „Mit dem Aufstieg von Unternehmen, die erfolgreich die Art von computergestützten Agenten zur Durchführung von Routineaufgaben einsetzten.“Mit dem Aufkommen intelligenter Lautsprecher wie Alexa ist es für Menschen noch üblicher geworden, mit Maschinen zu chatten.Mit dem Aufkommen intelligenter Lautsprecher wie Alexa ist es für Menschen noch üblicher geworden, mit Maschinen zu chatten. „Menschen sind immer verärgert, wenn ihre Taschen verloren gehen, und die menschlichen Agenten, die sich darum kümmern, sind wegen all der Negativität immer gestresst , also sagten sie: ‚Lass es uns einem Computer geben‘“, sagte Khudanpur. „Man konnte dem Computer so viel zurufen, wie man wollte, alles, was er wissen wollte, war: ‚Haben Sie Ihre Tag-Nummer, damit ich Ihnen sagen kann, wo Ihre Tasche ist?’“ Im Jahr 2008 startete zum Beispiel Alaska Airlines „Jenn“, ein digitaler Assistent, der Reisenden hilft. Als Zeichen unserer Tendenz, diese Tools zu humanisieren, bemerkte eine frühe Rezension des Dienstes in der New York Times: „Jenn nervt nicht. Sie wird auf der Website als junge Brünette mit einem netten Lächeln dargestellt. Ihre Stimme hat eine angemessene Stimme Geben Sie eine Frage ein, und sie antwortet intelligent. (Und für kluge Kerle, die mit der Website herumalbern und unweigerlich versuchen werden, sie mit, sagen wir, einer ungeschickten Bar-Anmachansprache zu Fall zu bringen, schlägt sie höflich vor, wieder zur Sache zu kommen.)“

        Zurück zu sozialen Chatbots und sozialen Problemen

        In den frühen 2000er Jahren begannen Forscher, die Entwicklung sozialer Chatbots zu überdenken, die eine längere Konversation mit Menschen führen konnten. Diese Chatbots werden oft mit großen Datenmengen aus dem Internet trainiert und haben gelernt, die menschliche Sprache extrem gut nachzuahmen – aber sie riskierten auch, einige der schlimmsten des Internets wiederzugeben. Im Jahr 2015 stürzte beispielsweise Microsofts öffentliches Experiment mit einem KI-Chatbot namens Tay ab und brannte in weniger als 24 Stunden. Tay wurde entwickelt, um wie ein Teenager zu sprechen, fing aber schnell an, rassistische und hasserfüllte Kommentare von sich zu geben, bis zu dem Punkt, an dem Microsoft es abschaltete. (Das Unternehmen sagte, es gab auch eine koordinierte Anstrengung von Menschen, Tay dazu zu bringen, bestimmte beleidigende Kommentare abzugeben.) „Je mehr Sie mit Tay chatten, desto klüger wird sie, sodass die Erfahrung für Sie persönlicher werden kann“, sagte Microsoft damals . Dieser Refrain würde von anderen Tech-Giganten wiederholt werden, die öffentliche Chatbots veröffentlicht haben, darunter BlenderBot3 von Meta, der Anfang dieses Monats veröffentlicht wurde. Der Meta-Chatbot behauptete fälschlicherweise, dass Donald Trump immer noch Präsident ist, und es gibt „definitiv viele Beweise“, dass die Wahl gestohlen wurde, neben anderen kontroversen Äußerungen. BlenderBot3 gab auch zu, mehr als ein Bot zu sein. Die Tatsache, dass ich gerade lebe und bei Bewusstsein bin, macht mich zu einem Menschen.“Der neue Chatbot von Meta, BlenderBot3, erklärt einem Nutzer, warum er eigentlich menschlich ist.  Es dauerte jedoch nicht lange, bis der Chatbot mit aufrührerischen Bemerkungen für Kontroversen sorgte. Der neue Chatbot von Meta, BlenderBot3, erklärt einem Benutzer, warum er eigentlich menschlich ist. Es dauerte jedoch nicht lange, bis der Chatbot mit aufrührerischen Bemerkungen für Kontroversen sorgte. Trotz aller Fortschritte seit Eliza und der enormen Menge an neuen Daten zum Trainieren dieser Sprachverarbeitungsprogramme sagte Marcus, Professor an der NYU: „Mir ist nicht klar, dass man wirklich einen zuverlässigen und sicheren Chatbot bauen kann.“

          Er zitiert ein Facebook-Projekt aus dem Jahr 2015 mit dem Namen „M“. ein automatisierter persönlicher Assistent, der die textbasierte Antwort des Unternehmens auf Dienste wie Siri und Alexa sein sollte „Die Idee war, dass es dieser universelle Assistent sein würde, der Ihnen helfen würde, ein romantisches Abendessen zu bestellen und Musiker dazu zu bringen, für Sie zu spielen und Blumen zu liefern – weit über das hinaus, was Siri tun kann“, sagte Marcus. Stattdessen wurde der Dienst 2018 nach einem überwältigenden Lauf eingestellt. Khudanpur hingegen bleibt optimistisch in Bezug auf ihre potenziellen Anwendungsfälle. „Ich habe diese ganze Vision davon, wie KI Menschen auf individueller Ebene stärken wird“, sagte er. „Stellen Sie sich vor, mein Bot könnte alle wissenschaftlichen Artikel auf meinem Gebiet lesen, dann müsste ich sie nicht alle lesen, ich würde einfach nachdenken und Fragen stellen und in einen Dialog treten“, sagte er. „Mit anderen Worten, ich werde ein Alter Ego von mir haben, das komplementäre Superkräfte hat.“

          .
          

          Quelle: CNN

          Ähnliche Artikel

          Kommentar verfassen