Warum gibt die Grok-KI von Elon Musk die Antworten von ChatGPT wörtlich wieder?

Warum gibt die Grok-KI von Elon Musk die Antworten von ChatGPT wörtlich wieder?

Dies ist keine Anlageberatung. Der Autor hält keine Position in einer der genannten Aktien.

Die xAI von Elon Musk hat ihr Grok Large Language Model (LLM) als ersten bedeutenden Schritt hin zu einer „maximal wahrheitssuchenden KI“ angekündigt. „jemand, der die wahre Natur des Universums versteht.“ Im Moment scheint sich das KI-Modell jedoch damit zufrieden zu geben, die Antworten des GPT LLM von OpenAI wörtlich wiederzugeben, was eine deutliche Abkehr von den übergreifenden hohen Zielen darstellt, die angeblich das eigentliche Ethos von Grok AI ausmachen.

Derzeit kann Grok eine Eingabeaufforderung mit bis zu 25.000 Zeichen interpretieren. Das LLM wurde nicht nur auf The Pile – einem allgegenwärtigen KI-Modell-Trainingsdatensatz – trainiert, sondern auch auf den Bergen von Daten aus X. Darüber hinaus Durch die Integration mit der X-Social-Media-Plattform ist Grok offenbar in der Lage, auf Echtzeitinformationen zuzugreifen und diese zu interpretieren.

Das bringt uns zum Kern der Sache. Elon Musk gab diese Woche bekannt, dass das Grok-KI-Modell nun für alle zahlenden Abonnenten der X-Plattform eingeführt wird. Um dieses neue Modell zu testen, bat Jax Winterbourne, ein professioneller Hacker, Grok, einen Schadcode zu modifizieren. Als Reaktion darauf wiederholte das LLM die Antwort des GPT von OpenAI wörtlich und ging sogar so weit, im Ausgabetext auf die Richtlinien von OpenAI zu verweisen.

Winterbourne stellt dann einige Theorien darüber auf, warum solch ein offensichtliches Aufstoßen auftritt, angefangen von der frechen Behauptung, dass Grok einfach ein Derivat von OpenAIs GPT LLM sei, bis hin zu der viel rationaleren Erklärung, dass die Aufstoßreaktion das Ergebnis einer Modellhalluzination sei.

Wir haben kürzlich berichtet, dass Grok jedes andere LLM übertraf, einschließlich Claude 2 von Anthropic, mit Ausnahme von GPT-4 von OpenAI auf einem gehaltenen Niveau. bestanden die Mathematikprüfung und erreichten eine Gesamtpunktzahl von 59 Prozent gegenüber 68 Prozent für GPT-4. Dies deutet darauf hin, dass das KI-Modell nicht einfach eine Ableitung des GPT LLM von OpenAI ist.

Die wahrscheinlichste Erklärung für dieses Verhalten ist daher, dass Grok offenbar ausführlich auf die Antworten von GPT trainiert wurde. Anstatt daher eine eindeutige Antwort zu formulieren und dabei auf die Richtlinien von xAI zu Schadcodes zu verweisen, wiederholte das LLM einfach die Haltung von OpenAI. Dies zeigt auch, dass es sich bei der aktuellen Generation von KI-Modellen lediglich um verherrlichte Iterationen eines Chinesischen Zimmers handelt – ein Gedankenexperiment, das besagt, dass KI-Modelle dies nicht wirklich tun Sprache verstehen oder denken.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert