Die ersten auf dem Markt erhältlichen Supermicro NVIDIA HGX(TM) B200-Systeme der Branche demonstrieren KI-Leistungsführerschaft bei MLPerf® Inference v5.0-Ergebnissen
San Jose, Kalifornien (ots/PRNewswire) - Neueste Benchmarks zeigen, dass
Supermicro-Systeme mit dem NVIDIA B200 die vorherige Generation von Systemen mit
der 3-fachen Token-Generierung pro Sekunde übertreffen
Super Micro Computer, Inc. (SMCI) , ein Anbieter von Komplettlösungen für KI/ML,
HPC, Cloud, Speicher und 5G/Edge, kündigt die branchenführende Leistung bei
mehreren MLPerf Inference v5.0-Benchmarks an, die mit dem NVIDIA HGX(TM) B200
8-GPU erzielt wurde. Die flüssigkeitsgekühlten 4U- und die luftgekühlten
10U-Systeme erzielten in ausgewählten Benchmarks die beste Leistung. Supermicro
hat bei den Benchmarks Llama2-70B und Llama3.1-405B im Vergleich zu H200
8-GPU-Systemen mehr als dreimal so viele Token pro Sekunde (Token/s) generiert.
Supermicro-Systeme mit dem NVIDIA B200 die vorherige Generation von Systemen mit
der 3-fachen Token-Generierung pro Sekunde übertreffen
Super Micro Computer, Inc. (SMCI) , ein Anbieter von Komplettlösungen für KI/ML,
HPC, Cloud, Speicher und 5G/Edge, kündigt die branchenführende Leistung bei
mehreren MLPerf Inference v5.0-Benchmarks an, die mit dem NVIDIA HGX(TM) B200
8-GPU erzielt wurde. Die flüssigkeitsgekühlten 4U- und die luftgekühlten
10U-Systeme erzielten in ausgewählten Benchmarks die beste Leistung. Supermicro
hat bei den Benchmarks Llama2-70B und Llama3.1-405B im Vergleich zu H200
8-GPU-Systemen mehr als dreimal so viele Token pro Sekunde (Token/s) generiert.
Anzeige
"Supermicro ist nach wie vor führend in der KI-Branche, wie die ersten neuen
Benchmarks von MLCommons aus dem Jahr 2025 belegen", sagte Charles Liang,
President und CEO von Supermicro. "Unsere Bausteinarchitektur ermöglicht es uns,
als Erste auf dem Markt mit einer Vielzahl von Systemen zu sein, die für
verschiedene Arbeitslasten optimiert sind. Wir arbeiten weiterhin eng mit NVIDIA
zusammen, um unsere Systeme zu optimieren und eine Führungsposition bei
KI-Workloads zu sichern."
Erfahren Sie mehr über die neuen MLPerf v5.0 Inference Benchmarks:
https://mlcommons.org/benchmarks/inference-datacenter/ (https://c212.net/c/link/
?t=0&l=de&o=4397635-1&h=914803934&u=https%3A%2F%2Fc212.net%2Fc%2Flink%2F%3Ft%3D0
%26l%3Den%26o%3D4397635-1%26h%3D1351998860%26u%3Dhttps%253A%252F%252Fmlcommons.o
rg%252Fbenchmarks%252Finference-datacenter%252F%26a%3Dhttps%253A%252F%252Fmlcomm
ons.org%252Fbenchmarks%252Finference-datacenter%252F&a=https%3A%2F%2Fmlcommons.o
rg%2Fbenchmarks%2Finference-datacenter%2F)
Supermicro ist der einzige Systemanbieter, der die MLPerf-Inferenzleistung (bei
ausgewählten Benchmarks) sowohl für die luftgekühlten als auch für die
flüssigkeitsgekühlten NVIDIA HGX(TM) B200 8-GPU-Systeme veröffentlicht. Sowohl
die luft- als auch die flüssigkeitsgekühlten Systeme waren vor dem Start des
MLCommons-Benchmarks in Betrieb. Die Ingenieure von Supermicro optimierten die
Systeme und die Software, um die beeindruckende Leistung zu präsentieren.
Innerhalb der Betriebsspanne zeigte das luftgekühlte Supermicro B200-System das
gleiche Leistungsniveau wie das flüssigkeitsgekühlte B200-System. Supermicro hat
diese Systeme bereits an Kunden ausgeliefert, während wir die Benchmarks
durchgeführt haben.
MLCommons legt Wert darauf, dass alle Ergebnisse reproduzierbar sind, dass die
Benchmarks von MLCommons aus dem Jahr 2025 belegen", sagte Charles Liang,
President und CEO von Supermicro. "Unsere Bausteinarchitektur ermöglicht es uns,
als Erste auf dem Markt mit einer Vielzahl von Systemen zu sein, die für
verschiedene Arbeitslasten optimiert sind. Wir arbeiten weiterhin eng mit NVIDIA
zusammen, um unsere Systeme zu optimieren und eine Führungsposition bei
KI-Workloads zu sichern."
Erfahren Sie mehr über die neuen MLPerf v5.0 Inference Benchmarks:
https://mlcommons.org/benchmarks/inference-datacenter/ (https://c212.net/c/link/
?t=0&l=de&o=4397635-1&h=914803934&u=https%3A%2F%2Fc212.net%2Fc%2Flink%2F%3Ft%3D0
%26l%3Den%26o%3D4397635-1%26h%3D1351998860%26u%3Dhttps%253A%252F%252Fmlcommons.o
rg%252Fbenchmarks%252Finference-datacenter%252F%26a%3Dhttps%253A%252F%252Fmlcomm
ons.org%252Fbenchmarks%252Finference-datacenter%252F&a=https%3A%2F%2Fmlcommons.o
rg%2Fbenchmarks%2Finference-datacenter%2F)
Supermicro ist der einzige Systemanbieter, der die MLPerf-Inferenzleistung (bei
ausgewählten Benchmarks) sowohl für die luftgekühlten als auch für die
flüssigkeitsgekühlten NVIDIA HGX(TM) B200 8-GPU-Systeme veröffentlicht. Sowohl
die luft- als auch die flüssigkeitsgekühlten Systeme waren vor dem Start des
MLCommons-Benchmarks in Betrieb. Die Ingenieure von Supermicro optimierten die
Systeme und die Software, um die beeindruckende Leistung zu präsentieren.
Innerhalb der Betriebsspanne zeigte das luftgekühlte Supermicro B200-System das
gleiche Leistungsniveau wie das flüssigkeitsgekühlte B200-System. Supermicro hat
diese Systeme bereits an Kunden ausgeliefert, während wir die Benchmarks
durchgeführt haben.
MLCommons legt Wert darauf, dass alle Ergebnisse reproduzierbar sind, dass die
Diskutieren Sie über die enthaltenen Werte
Verfasst von news aktuell
3 im Artikel enthaltene WerteIm Artikel enthaltene Werte