Microsofts Phi-3.5-MoE konkurriert mit Gemini 1.5 Flash und ist jetzt in Azure AI Studio und GitHub zugänglich

Microsofts Phi-3.5-MoE konkurriert mit Gemini 1.5 Flash und ist jetzt in Azure AI Studio und GitHub zugänglich

Letzten Monat stellte Microsoft die hochmoderne Phi-3.5-Familie leichter KI-Modelle vor, die mit einer Reihe von Verbesserungen ausgestattet sind. Das herausragendste unter ihnen ist das Phi-3.5-MoE, das erste Modell der Phi-Reihe, das die Mixture of Experts (MoE)-Technologie enthält.

Microsoft hat nun angekündigt, dass das Phi-3.5-MoE-Modell über eine serverlose API in Azure AI Studio und GitHub verfügbar ist. Mit dieser Funktion können Entwickler das Phi-3.5-MoE-Modell nahtlos in ihre Arbeitsabläufe und Anwendungen integrieren, ohne die zugrunde liegende Infrastruktur verwalten zu müssen.

Auf das Phi-3.5-MoE-Modell kann neben anderen Phi-3.5-Modellen in mehreren Regionen zugegriffen werden, darunter East US 2, East US, North Central US, South Central US, West US 3, West US und Sweden Central. Da es sich um ein serverloses Angebot handelt, profitieren Entwickler von einer Pay-per-Use-Preisstruktur, die auf 0,00013 USD pro 1.000 Eingabetoken und 0,00052 USD pro 1.000 Ausgabetoken festgelegt ist.

In verschiedenen KI-Benchmarks hat das Phi-3.5-MoE eine bessere Leistung als fast alle anderen offenen Modelle seiner Kategorie gezeigt, wie etwa Llama-3.1 8B, Gemma-2-9B und Mistral-Nemo-12B, wobei es insbesondere weniger aktive Parameter nutzt. Microsoft behauptet, dass seine Leistung mit der von Googles Gemini-1.5-Flash, einem der führenden Closed-Source-Modelle in diesem Bereich, mithalten kann, wenn nicht sogar knapp besser ist.

Phi-35 MoE

Das MoE-Modell umfasst insgesamt 42 Milliarden Parameter, von denen nur 6,6 Milliarden aktiviert sind und von 16 Experten unterstützt werden. Das Team von Microsoft Research hat dieses Modell von Grund auf neu entwickelt, um die Leistung zu verbessern, die Mehrsprachigkeit zu erhöhen und die Sicherheitsprotokolle zu verstärken. Anstatt sich auf herkömmliche Trainingstechniken zu verlassen, hat das Microsoft Phi-Team außerdem eine neuartige Trainingsmethode namens GRIN (GRAdient INformed) MoE entwickelt. Dieser Ansatz hat zu einer deutlich verbesserten Parameternutzung und Expertenspezialisierung geführt und im Vergleich zu herkömmlichen Trainingsmodalitäten deutlich qualitativ hochwertigere Ergebnisse erzielt.

Mit seinen außergewöhnlichen Leistungskennzahlen und seiner Zugänglichkeit wird das Phi-3.5-MoE Entwicklern mehr Möglichkeiten eröffnen und Innovationen im KI-Ökosystem vorantreiben. Sein serverloses Modell und die verbrauchsbasierte Preisgestaltung bauen weitere Eintrittsbarrieren ab und ermöglichen mehr Entwicklern als je zuvor den Zugriff auf erweiterte KI-Funktionen.

Quelle: Microsoft

Quelle

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert