Foxconn baut die größte Fabrik für Nvidias Blackwell-GPUs

Foxconn baut die größte Fabrik für Nvidias Blackwell-GPUs

Foxconn, der weltweit führende Auftragshersteller von Elektronik, hat seinen ehrgeizigen Plan zum Bau einer riesigen Produktionsanlage für die GB200-Chips von Nvidia vorgestellt. Diese Ankündigung machte Benjamin Ting, Senior Vice President von Foxconn, während Nvidias jährlicher Technologie-Showcase in Taipeh, Taiwan. Konkrete Details zum Standort dieser neuen Anlage wurden jedoch noch nicht bekannt gegeben.

Diese Initiative entspricht der großen Nachfrage nach Nvidias kommender Blackwell-Plattform, die speziell für rechenintensive Aufgaben wie das Trainieren von KI-Modellen entwickelt wurde.

Foxconn ist zwar vor allem für seine Partnerschaft mit Apple bekannt, erweitert jedoch seine Fertigungskompetenz um die Produktion anderer Elektronik, insbesondere GPUs. Der Anstieg der Nachfrage nach diesen Komponenten wird durch zahlreiche KI-Startups vorangetrieben, die robuste Rechenkapazitäten für das Modelltraining benötigen. Um diesen Bedarf zu decken, erweitern viele Unternehmen bereits die Kapazitäten ihrer Rechenzentren.

Nach dem Training und der Bereitstellung eines KI-Modells sind fortlaufende Rechenressourcen unerlässlich, um die wachsenden Datenmengen zu verwalten, die von verschiedenen Anwendungen erzeugt werden. Um diesen Anforderungen gerecht zu werden, hat Nvidia seine Blackwell-Plattform und die GB200-GPU eingeführt , wobei große Player wie Microsoft umfangreiche Vorbestellungen getätigt haben .

Der Nvidia GB200 ist ein leistungsstarker Superchip, der zwei Blackwell B200 GPUs und eine Grace CPU integriert. Jede GPU ist mit 192 GB HBM3e-Speicher ausgestattet, während die CPU mit 512 GB LPDDR5-Speicher verbunden ist, was eine Gesamtspeicherkapazität von 896 GB ergibt. Die Kommunikation zwischen diesen Komponenten wird durch NVLINK erleichtert, was eine Hochgeschwindigkeitsdatenübertragung zwischen den GPUs und der CPU ermöglicht. Darüber hinaus kann der GB200 als Teil eines Computer-Racks innerhalb der GB200 NVL72-Plattform fungieren und ist skalierbar, um 512 GPUs innerhalb einer einzigen NVLINK-Domäne aufzunehmen, was die Leistung für umfangreiche KI-Trainings- und Inferenzvorhaben erheblich steigert.

GPUs wie die GB200 sind ein wesentlicher Bestandteil von High-Performance-Computing-Systemen (HPC). Sie sind sorgfältig darauf ausgelegt, komplexe Berechnungen effizient durchzuführen und große Datensätze zu verarbeiten. Ihre Architektur ermöglicht die parallele Verarbeitung mehrerer miteinander verbundener Prozessoren und macht sie somit ideal für datenintensive Anwendungen.

Young Liu, der Vorsitzende von Foxconn, bekräftigte bei der Veranstaltung, dass die Lieferkette des Unternehmens für die Weiterentwicklung der KI gut aufgestellt sei. Er betonte die überlegenen Fertigungskapazitäten von Foxconn, die mit wichtigen Technologien wie Flüssigkeitskühlung und Wärmeableitungssystemen ausgestattet sind, die für die Herstellung der GB200-Konfigurationen von Nvidia unverzichtbar sind.

Foxconn und Nvidia arbeiten gemeinsam am Bau des größten Supercomputers Taiwans, dem Hon Hai Kaohsiung Super Computing Center. Dieser Supercomputer wird dieselbe Blackwell-Architektur verwenden und die GB200 NVL72-Plattform enthalten, die aus 64 Racks und 4.608 Tensor Core GPUs besteht. Er soll eine Gesamtrechenleistung von über 90 Exaflops erreichen.

Der Bau dieses Supercomputers ist in Kaohsiung, Taiwan, bereits im Gange. Die erste Phase soll Mitte 2025 betriebsbereit sein, die vollständige Inbetriebnahme ist für 2026 geplant.

Über Reuters

Quelle

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert