NVIDIA wird die Einführung von HBM3e im ersten Quartal 2024 mit Hopper H200 einleiten, HBM4 wird voraussichtlich 2026 auf den Markt kommen
Es sieht so aus, als hätte sich die HBM-Branche auf NVIDIA konzentriert, da TrendForce einen Markt schätzt, in dem die KI-Bestellungen von NVIDIA das aktuelle und nächste HBM-Angebot dominieren.
NVIDIA plant, die KI-Märkte durch den Einsatz von HBM-Speicher der nächsten Generation zu dominieren, und die Lieferanten beginnen, sich um Team Green zu drehen
Laut Marktforschung ist NVIDIA bereit, einen beträchtlichen Teil seiner HBM-Bestellungen an den koreanischen Riesen Samsung zu vergeben, da beide Unternehmen damit beginnen, Geschäftsbeziehungen aufzubauen, die sich als entscheidend für die KI-Branche erweisen könnten.
Es wurde bereits im September berichtet, dass Samsung es geschafft hat, das Vertrauen von Team Green zu gewinnen, indem es mehrere Qualifikationsprüfungen für seine HBM-Produkte bestanden hat TrendForce gibt nun bekannt, dass Samsung den Prozess möglicherweise bis Dezember abschließen wird und die Bestellungen ab Anfang nächsten Jahres eingehen werden. Samsung könnte möglicherweise für die Betreuung von KI-GPUs der aktuellen Generation wie den äußerst anspruchsvollen H100s und A100s verantwortlich sein.
Um es kurz zusammenzufassen: Das Debüt von HBM3e wird in den Blackwell AI-GPUs von NVIDIA erwartet, die Gerüchten zufolge im zweiten Quartal 2024 auf den Markt kommen sollen, und in Bezug auf die Leistung wird es durch die Einführung von entscheidende Steigerungen bei der Leistung pro Watt bringen ein Chiplet-Design.
Um zum Interessanten zu kommen: NVIDIA hat im Jahr 2024 viel für seine Kunden geplant, da das Unternehmen bereits die H200 Hopper GPU, dessen Masseneinführung im nächsten Jahr erwartet wird, gefolgt von der Einführung der B100 „Blackwell“-KI-GPUs, auf denen beide basieren werden zur HBM3e-Speichertechnologie.
Neben dem herkömmlichen Weg wird NVIDIA auch Gerüchten zufolge ARM-basierte CPUs für das KI-Segment vorstellen, was für eine Diversifizierung in der Branche sorgen wird Märkte zu erweitern und den Wettbewerb zu verschärfen. Intel und AMD werden voraussichtlich auch ihre jeweiligen KI-Lösungen vorstellen, wobei insbesondere die AMD Instinct GPUs und , mit HBM3e-Speicher.
Abschließend gibt TrendForce einen Überblick darüber, was wir mit HBM4 erwarten können, insbesondere angesichts der Tatsache, dass der kommende Speicherstandard eine komplette Überarbeitung< mit sich bringen wird a i=2> in Bezug auf Onboard-Chip-Konfigurationen, da Gerüchten zufolge der Basis-Logik-Chip zum ersten Mal über einen 12-nm-Prozesswafer verfügen und als Treiber für 3D-verpackte DRAM/GPU fungieren wird, wodurch eine Umgebung für die Zusammenarbeit zwischen Gießereien und anderen Herstellern geschaffen wird Speicherlieferanten. HBM4 wird voraussichtlich den Übergang zur nächsten Generation in Bezug auf Rechenleistung markieren und könnte der Schlüssel zu zukünftigen Durchbrüchen in der KI-Branche sein.
Nachrichtenquelle: TrendForce
Schreibe einen Kommentar