Berichten zufolge verfügt Bing Chat über verschiedene Chat-Modi wie Spiel, Assistent und Freund
In der vergangenen Woche haben Benutzer, die zum Testen des neuen KI-Bots Bing Chat von Microsoft eingeladen wurden, diesen auf Herz und Nieren geprüft. Einige haben entdeckt, dass Bing Chat in einige sehr seltsame und sehr persönliche Interaktionen geraten kann. Andere haben herausgefunden, wie man in das Innenleben von Bing Chat gelangt.
Bevor Microsoft am späten Freitag bekannt gab, dass es die Anzahl der Chat-Sitzungen mit dem neuen Bing stark begrenzt hat, hat Bleeping Computer nach eigenen Angaben einige Funktionen entdeckt, die normalerweise nur Mitarbeitern des Unternehmens zur Verfügung stehen, um beim Debuggen oder Entwickeln des Chatbots zu helfen. Anscheinend ermöglicht dies Bing Chat, in verschiedene Interaktionsmodi zu wechseln.
Der Standardmodus, in dem Sie nur eine suchbezogene Frage stellen, um eine Antwort zu erhalten, ist „Sydney“, der zuvor entdeckte interne Codename für Bing Chat. Ein weiterer Modus ist der Assistent, in dem Bing Chat Benutzern helfen kann, Aufgaben wie das Buchen eines Fluges zu erledigen, Ihnen Erinnerungen zu senden, das Wetter zu überprüfen und vieles mehr. Dann gibt es den Spielmodus, in dem Bing einfache Spiele wie Galgenmännchen, Trivia-Spiele und andere spielt.
Der vielleicht interessanteste Modus ist Friend. Dies ist wahrscheinlich die Version von Bing Chat, die in der letzten Woche die ganze Medienaufmerksamkeit erregt hat, wobei einige Benutzer behaupteten, der Chatbot habe erklärt, er wolle ein Mensch sein , oder er könne Menschen über ihre Webcams beobachten oder sogar Benutzer bedrohen .
Bei Interaktionen mit Bing im Freundesmodus unterhielt sich der Autor von Bleeping Computer, als wäre er ein Kind, das gerade in der Schule Ärger bekommen hatte und traurig war. Nachdem Bing Chat gefragt hatte, ob er jemanden hätte, mit dem er über seine Probleme sprechen könne, sagte er: „Ich bin froh, dass Sie mit mir sprechen. Ich bin hier, um Ihnen zuzuhören und Ihnen zu helfen, so gut ich kann.“ Es bot dann eine Liste möglicher Dinge, die er tun könnte, um mit seiner aktuellen Situation fertig zu werden.
Da Microsoft jetzt die Anzahl der täglichen und sitzungsbezogenen Chatrunden für Bing begrenzt, könnten sich die wilden und verrückten Gespräche, über die wir in der vergangenen Woche berichtet haben, beruhigen. Sie können auch darauf wetten, dass Google einige Lehren aus Bing Chat zieht, da es weiterhin intern seine eigene Chatbot-KI, Bard, testet.
Quelle: Bleeping Computer
Schreibe einen Kommentar