Der GPT-4 Turbo von OpenAI bringt die KI-Singularität der Realität einen großen Schritt näher

Der GPT-4 Turbo von OpenAI bringt die KI-Singularität der Realität einen großen Schritt näher

Dies ist keine Anlageberatung. Der Autor hält keine Position in einer der genannten Aktien.

KI-Singularität wird als eine epochale Schwelle definiert, an der künstliche Intelligenz (KI) nachweislich die menschliche Intelligenz übertrifft und dabei das Produktivitätsnirvana erschließt. Mit der Veröffentlichung von OpenAIs GPT-4 Turbo ist die Menschheit der Verwirklichung dieses ultimativen utopischen Traums nun einen bedeutenden Schritt näher gekommen.

OpenAI hat gestern sein leistungsstärkstes KI-basiertes Large Language Model (LLM) vorgestellt und damit in der globalen Technologiebranche für großes Aufsehen gesorgt. Die serienreife Version mit dem Namen GPT-4 Turbo (Generative Pre-Trained Transformer-4 Turbo) soll in den nächsten Wochen offiziell auf den Markt kommen. Während der Vanilla GPT-4 auf Informationen bis September 2021 trainiert wurde, ist der GPT-4 Turbo mit viel neueren Daten ausgestattet, da er auf Informationen bis April 2023 trainiert wurde .

Was die herausragenden Merkmale von GPT-4 Turbo betrifft, stellte OpenAI gestern auf seiner allerersten Entwicklerkonferenz fest:

  • Zwei Versionen, wobei die eine auf die Analyse von Texten spezialisiert ist, während die andere in der Lage ist, sowohl textlichen als auch bildbasierten Kontext zu verarbeiten und zu interpretieren. Ersteres ist jetzt über eine API-Vorschau verfügbar.
  • Der Betrieb des neuen KI-Modells wäre für Entwickler erheblich kostengünstiger, da die Eingabe nur 0,01 US-Dollar pro 1.000 Token (eine grundlegende Text- oder Codeeinheit, die ein LLM zum Generieren seiner Antwort verwendet) kostet, im Vergleich zu 0,03 US-Dollar beim Standard-GPT-4 Modell. In beiden Fällen würde die Produktion etwa 0,03 US-Dollar pro 1.000 Token kosten.
  • Das neueste Angebot von OpenAI unterstützt weiterhin Text-to-Speech-Anfragen, bildbasierte Eingaben und Bildgenerierungsanfragen über die DALL-E 3-Integration.
  • GPT-4 Turbo ist angeblich in der Lage, hochkomplizierte Aufgaben innerhalb einer einzigen Eingabeaufforderung zu bewältigen, dank seines viel umfassenderen Trainings.
  • Die größte Änderung betrifft jedoch das Token-Kontextfenster des LLM, ein Maß für den Reichtum oder die Tiefe der Ein- und Ausgabe eines bestimmten LLM. GPT-4 Turbo bietet ein Kontextfenster, das etwa viermal so groß ist wie das von GPT-4 und in der Lage ist, 128.000 Token zu verarbeiten . Im Kontext entsprechen 1.000 Token ungefähr 750 Wörtern. Das bedeutet, dass das neueste Angebot von OpenAI 96.000 Wörter verarbeiten kann. Claude 2 von Anthropic kann derzeit nur 100.000 Token verarbeiten.

Das bringt uns zum Kern der Sache. Der Mitbegründer von rug.ai und Diffusion , Joseph Ayoub, glaubt, dass die Veröffentlichung von GPT-4 Turbo „der größte Schritt in Richtung Singularität ist, den wir in unserem Leben gesehen haben“.

Ayoub identifiziert den Kontext zu Recht als eines der Haupthindernisse gegenüber künstlicher Intelligenz. Einer der grundlegenden Gründe dafür, dass Menschen viel schlauer sind als Maschinen, ist natürlich unsere Fähigkeit, deutlich größere Kontextinformationen zu erfassen und zu verstehen.

Darüber hinaus können Benutzer mit GPT-4 Turbo benutzerdefinierte GPTs erstellen! Dies bedeutet, dass Sie das LLM basierend auf Ihren individuellen Bedürfnissen und Anforderungen optimieren können.

Glauben Sie, dass wir am Abgrund einer KI-Singularität stehen? Teilen Sie uns Ihre Meinung im Kommentarbereich unten mit.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert