Intel hat die FP8-GPT3-Leistung seines Gaudi 2 AI-Chips in den neuesten MLPerf-Benchmarks verdoppelt

Intel hat die FP8-GPT3-Leistung seines Gaudi 2 AI-Chips in den neuesten MLPerf-Benchmarks verdoppelt

Intel veröffentlichte im November 2023 das Update seiner MLPerf Training 3.1-Ergebnisse und lieferte eine Leistungssteigerung von 103 % im Vergleich zu ihrer Prognose von 90 % im Juni . Es gibt derzeit nur drei Beschleuniger, die derzeit GPT-3-Ergebnisse auf MLPerf einreichen: Intel, NVIDIA und Google – was Intels Gaudi 2 derzeit zur einzigen praktikablen Alternative zu NVIDIAs GPUs (ist das überhaupt noch der richtige Begriff?) für MLPerf-KI-Workloads macht .

Intel präsentiert im neuesten MLPerf 3.1 ein wettbewerbsfähiges Preis-Leistungs-Verhältnis gegenüber NVIDIAs führenden Hopper-Chips

Intel wies auch schnell darauf hin, dass Xeon die einzige CPU ist, die auch Trainingsergebnisse im MLPerf-Benchmark vorlegt. Ohne weitere Umschweife hier die Folien:

Wie Sie sehen können, prognostizierte das Gaudi-Team von Intel zunächst einen Leistungszuwachs von 90 % im FP8 – konnte jedoch im GPT-3-Branchenbenchmark einen Zuwachs von 103 % erzielen und die Trainingszeit in Minuten (über 384 Beschleuniger) von 311,94 Minuten oder weniger verkürzen 5,2 Stunden bis auf knapp über 2 Stunden oder 153,58 Minuten. Intel präsentierte außerdem mehrere Folien zur Unterstützung der Entscheidungsfindung auf der Grundlage der Gesamtbetriebskosten (TCO) und zeigte, dass der Gaudi 2-Chip eine ähnliche Leistung wie der NVIDIA H100 bietet und gleichzeitig niedrigere Serverkosten verursacht – was ihn im Preis-Leistungs-Verhältnis wettbewerbsfähig macht.

Auf dem GPTJ-99 glänzt Gaudi 2 noch mehr – er liegt nur knapp hinter den neuen Hopper-Chips von NVIDIA. Während sich die Diskussion im Juni noch darum drehte, dass Gaudi 2 nur eine brauchbare Alternative zu den NVIDIA-Chips sei und deutlich hinter H100 zurückbleibe (nur ein Schlagabtausch mit dem älteren A100-Modell), liegt der Gaudi 2-Chip jetzt nur knapp hinter den H100- und GH200-96G-Setups. Der H100 ist nur 9 % schneller, während der GH200-96G in Server-Durchsatz-Benchmarks nur 12 % schneller als Gaudi 2 ist. Bei Offline-Benchmarks beträgt dieser Vorsprung 28 %. Gaudi 2 übertraf A100 in beiden Fällen um fast das Zweifache.

Schließlich wies Intel auch darauf hin, dass der Xeon die einzige CPU sei, die derzeit MLPerf-Benchmarks vorlege, und betonte sein Engagement für KI-Workloads.

intel-briefing-slides-mlperf-nov_embargoed-until-9-am-pt-nov-8_pages-to-jpg-0001intel-briefing-slides-mlperf-nov_embargoed-until-9-am-pt-nov-8_pages-to-jpg-0004intel-briefing-slides-mlperf-nov_embargoed-until-9-am-pt-nov-8_pages-to-jpg-0003intel-briefing-slides-mlperf-nov_embargoed-until-9-am-pt-nov-8_pages-to-jpg-0002intel-briefing-slides-mlperf-nov_embargoed-until-9-am-pt-nov-8_pages-to-jpg-0006intel-briefing-slides-mlperf-nov_embargoed-until-9-am-pt-nov-8_pages-to-jpg-0005intel-briefing-slides-mlperf-nov_embargoed-until-9-am-pt-nov-8_pages-to-jpg-0009intel-briefing-slides-mlperf-nov_embargoed-until-9-am-pt-nov-8_pages-to-jpg-0008intel-briefing-slides-mlperf-nov_embargoed-until-9-am-pt-nov-8_pages-to-jpg-0007intel-briefing-slides-mlperf-nov_embargoed-until-9-am-pt-nov-8_pages-to-jpg-0011intel-briefing-slides-mlperf-nov_embargoed-until-9-am-pt-nov-8_pages-to-jpg-0010intel-briefing-slides-mlperf-nov_embargoed-until-9-am-pt-nov-8_pages-to-jpg-0012

Über die Intel Gaudi2-Ergebnisse:

Gaudi2 ist nach wie vor die einzige brauchbare Alternative zu NVIDIAs H100 für KI-Rechenanforderungen und bietet ein hervorragendes Preis-Leistungs-Verhältnis. MLPerf-Ergebnisse für Gaudi2 zeigten die zunehmende Trainingsleistung des KI-Beschleunigers:

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert