845 Aufrufe 845 0 Kommentare 0 Kommentare

    Die ersten auf dem Markt erhältlichen Supermicro NVIDIA HGX(TM) B200-Systeme der Branche demonstrieren KI-Leistungsführerschaft bei MLPerf® Inference v5.0-Ergebnissen

    San Jose, Kalifornien (ots/PRNewswire) - Neueste Benchmarks zeigen, dass
    Supermicro-Systeme mit dem NVIDIA B200 die vorherige Generation von Systemen mit
    der 3-fachen Token-Generierung pro Sekunde übertreffen

    Super Micro Computer, Inc. (SMCI) , ein Anbieter von Komplettlösungen für KI/ML,
    HPC, Cloud, Speicher und 5G/Edge, kündigt die branchenführende Leistung bei
    mehreren MLPerf Inference v5.0-Benchmarks an, die mit dem NVIDIA HGX(TM) B200
    8-GPU erzielt wurde. Die flüssigkeitsgekühlten 4U- und die luftgekühlten
    10U-Systeme erzielten in ausgewählten Benchmarks die beste Leistung. Supermicro
    hat bei den Benchmarks Llama2-70B und Llama3.1-405B im Vergleich zu H200
    8-GPU-Systemen mehr als dreimal so viele Token pro Sekunde (Token/s) generiert.

    Anzeige 
    Handeln Sie Ihre Einschätzung zu Nvidia Corporation!
    Long
    123,33€
    Basispreis
    0,92
    Ask
    × 14,38
    Hebel
    Zum Produkt
    Short
    107,56€
    Basispreis
    0,63
    Ask
    × 14,15
    Hebel
    Zum Produkt
    Präsentiert von

    Den Basisprospekt sowie die Endgültigen Bedingungen und die Basisinformationsblätter erhalten Sie bei Klick auf das Disclaimer Dokument. Beachten Sie auch die weiteren Hinweise zu dieser Werbung.

    "Supermicro ist nach wie vor führend in der KI-Branche, wie die ersten neuen
    Benchmarks von MLCommons aus dem Jahr 2025 belegen", sagte Charles Liang,
    President und CEO von Supermicro. "Unsere Bausteinarchitektur ermöglicht es uns,
    als Erste auf dem Markt mit einer Vielzahl von Systemen zu sein, die für
    verschiedene Arbeitslasten optimiert sind. Wir arbeiten weiterhin eng mit NVIDIA
    zusammen, um unsere Systeme zu optimieren und eine Führungsposition bei
    KI-Workloads zu sichern."

    Erfahren Sie mehr über die neuen MLPerf v5.0 Inference Benchmarks:
    https://mlcommons.org/benchmarks/inference-datacenter/ (https://c212.net/c/link/
    ?t=0&l=de&o=4397635-1&h=914803934&u=https%3A%2F%2Fc212.net%2Fc%2Flink%2F%3Ft%3D0
    %26l%3Den%26o%3D4397635-1%26h%3D1351998860%26u%3Dhttps%253A%252F%252Fmlcommons.o
    rg%252Fbenchmarks%252Finference-datacenter%252F%26a%3Dhttps%253A%252F%252Fmlcomm
    ons.org%252Fbenchmarks%252Finference-datacenter%252F&a=https%3A%2F%2Fmlcommons.o
    rg%2Fbenchmarks%2Finference-datacenter%2F)

    Supermicro ist der einzige Systemanbieter, der die MLPerf-Inferenzleistung (bei
    ausgewählten Benchmarks) sowohl für die luftgekühlten als auch für die
    flüssigkeitsgekühlten NVIDIA HGX(TM) B200 8-GPU-Systeme veröffentlicht. Sowohl
    die luft- als auch die flüssigkeitsgekühlten Systeme waren vor dem Start des
    MLCommons-Benchmarks in Betrieb. Die Ingenieure von Supermicro optimierten die
    Systeme und die Software, um die beeindruckende Leistung zu präsentieren.
    Innerhalb der Betriebsspanne zeigte das luftgekühlte Supermicro B200-System das
    gleiche Leistungsniveau wie das flüssigkeitsgekühlte B200-System. Supermicro hat
    diese Systeme bereits an Kunden ausgeliefert, während wir die Benchmarks
    durchgeführt haben.

    MLCommons legt Wert darauf, dass alle Ergebnisse reproduzierbar sind, dass die
    Seite 1 von 3




    news aktuell
    0 Follower
    Autor folgen

    Verfasst von news aktuell
    Die ersten auf dem Markt erhältlichen Supermicro NVIDIA HGX(TM) B200-Systeme der Branche demonstrieren KI-Leistungsführerschaft bei MLPerf® Inference v5.0-Ergebnissen Neueste Benchmarks zeigen, dass Supermicro-Systeme mit dem NVIDIA B200 die vorherige Generation von Systemen mit der 3-fachen Token-Generierung pro Sekunde übertreffen Super Micro Computer, Inc. (SMCI) , ein Anbieter von Komplettlösungen für KI/ML, …