Microsoft Azure ist der erste Hyperscaler, der NVIDIAs Blackwell-System mit GB200 einsetzt
Im März stellte NVIDIA seine innovative Blackwell-Plattform vor, die im Vergleich zu seinem Vorgängermodell eine bemerkenswerte Kosten- und Energieverbrauchsreduzierung von bis zu 25 Mal für das Training großer Sprachmodelle bietet. Die großen Cloud-Service-Anbieter und namhaften KI-Unternehmen wie Amazon Web Services, Dell Technologies, Google, Meta, Microsoft, OpenAI, Oracle, Tesla und xAI sind gespannt und werden Blackwell voraussichtlich nach der Veröffentlichung in ihre Betriebsabläufe integrieren.
Der Start der Blackwell-Plattform verzögerte sich jedoch aufgrund eines Designproblems um bis zu drei Monate. Vor Kurzem gab Microsoft auf X bekannt, dass es bereits mit der Lieferung von NVIDIAs GB200 Blackwell-Chips begonnen hat und derzeit seine Server optimiert, um diese neuen Chips voll auszunutzen. Diese Optimierung nutzt NVIDIAs fortschrittliche Infiniband-Netzwerktechnologie und innovative geschlossene Flüssigkeitskühlsysteme.
Microsoft Azure ist die erste Cloud-Plattform, die die Blackwell-Architektur von @nvidia mit GB200-gesteuerten KI-Servern einsetzt . Wir verbessern die Leistung auf allen Ebenen, um die weltweit führenden KI-Modelle zu unterstützen, indem wir Infiniband-Netzwerke und hochmoderne Flüssigkeitskühlung mit geschlossenem Kreislauf nutzen. Weitere Informationen finden Sie bei MS Ignite. pic.twitter.com/K1dKbwS2Ew
— Microsoft Azure (@Azure) 8. Oktober 2024
Darüber hinaus gab Microsoft-CEO Satya Nadella ein Update zur GB200-Bereitstellung bekannt:
Unsere langjährige Zusammenarbeit mit NVIDIA und unsere kontinuierlichen Innovationen geben in der Branche den Ton an und ermöglichen die komplexesten KI-Workloads. https://t.co/qaEoSv8dm5
— Satya Nadella (@satyanadella) 8. Oktober 2024
Darüber hinaus hat NVIDIA vor Kurzem auch eine der ersten technischen Versionen des DGX B200 an das OpenAI-Team geliefert:
Schauen Sie sich an, was gerade bei uns eingetroffen ist. Vielen Dank, @nvidia , dass Sie uns eines der ersten Testgeräte des DGX B200 geschickt haben. pic.twitter.com/vy8bWUEwUi
– OpenAI (@OpenAI) 8. Oktober 2024
Angesichts des großen Interesses verschiedener potenzieller Kunden an der Blackwell-Plattform von NVIDIA ist es sinnvoll, dass Microsoft und OpenAI zu den ersten gehören, die diese Chips erhalten. Im Gegensatz zu anderen großen Cloud-Anbietern wie Google und AWS, die über eigene KI-Trainingsinfrastrukturen verfügen (Google mit Tensor Processing Units und AWS durch die Entwicklung kundenspezifischer Chips), sind Microsoft und OpenAI vollständig auf die Technologie von NVIDIA angewiesen und gehören damit zu den größten Kunden von NVIDIA.
Weitere Einzelheiten zum Einsatz des GB200 von NVIDIA werden von Microsoft während der für November geplanten Ignite-Konferenz erwartet.
Schreibe einen Kommentar