Google stellt erweiterte Modelle der Gemini 1.5-Serie vor und senkt die API-Preise um 50 %

Google stellt erweiterte Modelle der Gemini 1.5-Serie vor und senkt die API-Preise um 50 %

Heute hat Google zwei verbesserte, produktionsreife Gemini 1.5-Modelle vorgestellt : Gemini-1.5-Pro-002 und Gemini-1.5-Flash-002. Diese neuesten Modelle bieten inkrementelle Verbesserungen im Vergleich zu den ursprünglichen Gemini 1.5-Modellen, die im Mai veröffentlicht wurden.

Die überarbeiteten Modelle der Gemini 1.5-Reihe erreichen eine Steigerung von etwa 7 % bei MMLU-Pro, eine Verbesserung von etwa 20 % bei den MATH- und HiddenMath-Benchmarks und Verbesserungen von 2 % bis 7 % bei Vision- und Codierungsszenarien. Darüber hinaus hat Google die allgemeine Nützlichkeit der Modellantworten verfeinert. Diese Modelle generieren jetzt Antworten in einem prägnanteren Format, wobei die Standardausgabelänge etwa 5 % bis 20 % kürzer ist als bei ihren Vorgängern.

Zusätzlich zu den funktionalen Verbesserungen des Modells führt Google auch eine bemerkenswerte Preisänderung durch: Die Kosten für die Modell-APIs der Gemini 1.5-Reihe werden gesenkt.

  • 64 % Ermäßigung auf Eingabetoken.
  • 52 % Ermäßigung auf Ausgabe-Token.
  • Eine Reduzierung der inkrementell zwischengespeicherten Token für Gemini 1.5 Pro um 64 % mit Wirkung zum 1. Oktober 2024 für Eingabeaufforderungen unter 128.000 Token.
Google 1.5 Pro-Modelle

Google erhöht außerdem die Ratenbegrenzungen, sodass Entwickler anspruchsvolle KI-Anwendungen erstellen können. Die Ratenbegrenzungen der kostenpflichtigen Stufe für das Gemini 1.5 Flash-Modell liegen jetzt bei 2.000 RPM, während sie für das Pro-Modell von 1.000 bzw. 360 auf 1.000 RPM angehoben wurden. Darüber hinaus wird bei diesen neuen Modellen die Latenzzeit reduziert, sodass Entwickler die erwartete Ausgabe doppelt so schnell und mit dreimal geringerer Latenz erhalten.

Mit der Einführung des aktualisierten Gemini 1.5 (-002-Modelle) hat Google die Fähigkeit des Modells verbessert, Benutzeranweisungen zu befolgen und gleichzeitig Sicherheitsprotokolle einzuhalten. Standardmäßig erzwingt Google bei diesen neuesten Modellen keine KI-Inhaltssicherheitsfilter. Stattdessen können Entwickler die Filter entsprechend ihren spezifischen Anforderungen anwenden.

Schließlich hat Google eine aktualisierte Version des Gemini 1.5-Modells mit der Bezeichnung „Gemini-1.5-Flash-8B-Exp-0924“ herausgebracht. Diese experimentelle Version weist erhebliche Leistungsverbesserungen sowohl bei textbasierten als auch bei multimodalen Anwendungen auf. Alle diese aktualisierten Gemini 1.5-Modelle sind jetzt für Entwickler über Google AI Studio und die Gemini API zugänglich. Für größere Unternehmen und Google Cloud-Kunden sind diese frisch aktualisierten Gemini 1.5-Modelle auf Vertex AI verfügbar.

Quelle

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert