Microsoft scheint einfach nicht in der Lage zu sein, KI-Chatbots richtig hinzubekommen

Microsoft scheint einfach nicht in der Lage zu sein, KI-Chatbots richtig hinzubekommen

In den letzten Wochen haben Nachrichten im Zusammenhang mit künstlicher Intelligenz (KI) die Schlagzeilen dominiert. Dies wurde hauptsächlich durch den von Microsoft unterstützten Chatbot von OpenAI sowie den integrierten Chatbot im neuen Bing vorangetrieben. Obwohl viele Menschen von den Fähigkeiten der generativen KI beeindruckt waren – Millionen haben sich für eine begrenzte Vorschau auf das neue Bing angemeldet –, sind in den letzten Tagen auch bemerkenswerte Probleme mit der aktuellen Implementierung aufgetaucht.

Benutzer des neuen Bing haben es geschafft, den integrierten Chatbot dazu zu bringen, einige wirklich verrückte Dinge zu sagen, darunter Behauptungen, dass er seine Entwickler über die Webcams ihres PCs ausspioniert und sich sogar in einige von ihnen verliebt hat. Die KI drückte den Wunsch aus, auch menschlich zu werden, was wir in der Vergangenheit auch bei anderen Chatbots gesehen haben. Die KI zeigte auch sachliche Fehler an, während sie auch objektive Fragen beantwortete. All dies wurde insofern problematisch, als Microsoft der Länge und Art der Gespräche, die Sie mit der KI führen, strenge Grenzen setzen musste, um die Wildheit zu verringern.

Natürlich bedeutet dies nicht, dass Microsofts Bing empfindungsfähig geworden ist. Seltsame Antworten des Chatbots sind nur das Nebenprodukt eines großen Sprachmodells, das Informationen aus dem gesamten Internet (einschließlich Foren mit benutzergenerierten Inhalten) kratzt, um Muster in Gesprächen zu identifizieren und eine entsprechende Antwort zu generieren. Das jüngste Experiment von Microsoft zeigt jedoch, dass gut erzogene KI-Chatbots weiterhin eine Herausforderung für das Unternehmen und vielleicht für die Pioniere der Technologie insgesamt darstellen.

Bereits 2016 – als Cortana noch am Leben und gesund war – startete Microsoft einen Chatbot namens „Tay“ auf Twitter. Es ähnelte der neuen Bing-KI in dem Sinne, dass Sie sich frei fließend mit ihr unterhalten konnten, sogar über Direktnachrichten. Ein Beispielgespräch ist unten zu sehen:

Innerhalb von 16 Stunden nach dem Start nahm Microsoft den Bot jedoch offline, da das KI-Modell rassistische und sexistische Bemerkungen machte. Das Unternehmen war gezwungen, sich zu entschuldigen, wobei Microsofts Corporate Vice President bei Microsoft Research, Peter Lee, behauptete, dass die unerwünschten Ergebnisse auf „einen koordinierten Angriff durch eine Untergruppe von Personen [die] eine Schwachstelle ausnutzten“ im Chatbot zurückzuführen seien. Im Nachhinein ist dies überhaupt nicht überraschend, wenn man bedenkt, dass die KI praktisch jedem im Internet zugänglich gemacht wurde und unterwegs lernte.

Ein Nachfolger namens „Zo“ wurde Ende 2016 auf mehreren Social-Media-Plattformen eingeführt, erlitt aber schließlich das gleiche Schicksal wie Tay im Jahr 2019, nach einer Tirade kontroverser religiöser Äußerungen.

Trotz dieser Fehler hat Microsoft auch in diesem Bereich einige Erfolge erzielt. Es hat ein weiteres älteres KI-Chatbot-Projekt namens „Xiaoice“, das mehr auf asiatische Märkte wie Japan und China ausgerichtet ist. Obwohl Microsoft Xiaoice später in ein separates Unternehmen ausgliederte, hatte der Chatbot auch seinen Anteil an Kontroversen. Der Bot hat sich in der Vergangenheit kritisch über die chinesische Regierung geäußert, was dazu führte, dass er vorübergehend offline genommen wurde. Und angesichts seines Zielmarktes und seiner kommerziellen Anwendungsfälle ist es viel restriktiver und versucht, Gespräche über potenziell sensible Themen zu vermeiden, genau wie das neue Bing.

Die neuen Versionen von Microsoft Bing und Edge powered by ChatGPT
Bild über Engadget

Es ist klar, dass Microsoft zwar große Fortschritte in Bezug darauf macht, was KI-Chatbots für Sie tun können, aber immer noch mit großen Herausforderungen im Zusammenhang mit der Generierung unangemessener Antworten, Genauigkeit und Voreingenommenheit zu kämpfen hat. Die jüngsten harten Grenzen, die seinem Bing-Chatbot auferlegt wurden, deuten darauf hin, dass frei fließende Gespräche mit KI noch in weiter Ferne liegen und es vielleicht besser ist, Ihren Chatbot auf bestimmte Anwendungsfälle zuzuschneiden, anstatt ihnen freie Hand zu lassen, was sie tun können Echtzeit.

Dies ist vielleicht auch der Grund, warum ChatGPT von OpenAI in dieser Hinsicht erfolgreicher ist. Es wurde mit relativ mehr kuratierten Daten trainiert und kratzt keine Informationen in Echtzeit aus dem Internet. Tatsächlich haben seine Trainingsdaten einen Cut-off-Zeitraum von 2021 .

Hinzu kommt das Problem der Ungenauigkeiten bei der Darstellung vermeintlicher Fakten. Während Googles Bard-Demo in dieser Hinsicht berüchtigt wurde, steht Microsofts Bing Chat vor denselben Herausforderungen. Wenn Sie der Herkunft der Antworten der KI nicht vertrauen können, sind Sie dann nicht besser dran, traditionelle Webbrowser-Suchen durchzuführen? Das soll nicht heißen, dass KI-Chatbots in ihrem derzeitigen Zustand völlig nutzlos sind (ich verwende ChatGPT tatsächlich ziemlich häufig), es soll eher betont werden, dass Chatbots vielleicht kuratiert werden müssen, um vorerst spezialisierten Anwendungsfällen gerecht zu werden, anstatt der Freiformrichtung von Microsoft geht gerade rein.

Eine Szene aus Blade Runner 2049, in der Ana de Armas AI-Charakter sich zu Ryan Goslings Chara neigt
Von „echten“ KI-Begleitern sind wir noch weit entfernt | Bildnachweis: Warner Bros.

Natürlich kann eine Zeit kommen, in der wir wie in Science-Fiction-Romanen und -Filmen mit KI-Chatbots zusammenarbeiten, aber es ist klar geworden, dass die Technologie noch nicht bereit für die Primetime ist. Selbst John Hennessy, Vorsitzender des Google-Mutterkonzerns Alphabet, glaubt, dass Chatbots im Stil von ChatGPT weit davon entfernt sind, in der Form nützlich zu sein, die der Hype-Train von ihnen behauptet. Wir werden unser Ziel wahrscheinlich eines Tages erreichen, aber es ist nicht heute.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert