Microsoft sagt, dass es die neuen Chips der AMD Instinct MI300-Serie für Azure-Webdienste verwenden wird
Im Wettlauf um die Bereitstellung neuer und verbesserter generativer KI-Dienste benötigen Technologieunternehmen neue CPUs, um die wachsende Anzahl von Servern zu betreiben, die für diese Funktionen erforderlich sind. NVIDIA war ohne Zweifel führend bei der Bereitstellung dieser Art von CPUs für diese Unternehmen, einschließlich Microsoft, und hat dadurch eine Menge Geld verdient.
Heute gab AMD, einer der größten Konkurrenten von NVIDIA, seine Pläne bekannt, mit der Einführung der AMD Instinct MI300-Serie die neueste Version seiner eigenen generativen KI-Chips anzubieten. Microsoft gehörte zu den Unternehmen, die ankündigten, für ihre Dienste Versionen der neuen Chips von AMD zu verwenden. Konkret kündigte Microsoft an, den AMD Instinct MI300X in seinen Azure ND MI300x v5 Virtual Machine-Servern zu verwenden.
AMD gab an, dass der neue Instinct MI300X seine CDNA 3-Architektur nutzt. Es verglich seine Leistung mit der der NVIDIA H100-GPUs, die bei vielen Unternehmen für KI-Dienste verwendet wurden, darunter Microsoft:
AMD fügte hinzu, dass Meta und Oracle zu den Unternehmen gehören werden, die die Instinct MI300X-Chips für ihre eigenen generativen KI-Dienste nutzen werden.
Dies ist nur das jüngste Beispiel für den neuen Vorstoß, den enormen Bedarf an KI-basierten GPUs zu decken. Tatsächlich kündigte Microsoft vor einigen Wochen auf der Ignite 2023 an, seinen eigenen KI-Chip zu entwickeln, den Azure Maia AI Accelerator. Es wird verwendet, um Microsoft Copilot und Azure OpenAI Services irgendwann Anfang 2024 zu unterstützen.
Schreibe einen Kommentar