checkAd

     1317  0 Kommentare Supermicro erweitert sein KI-optimiertes Produktportfolio um eine neue Generation von Systemen und Rack-Architekturen mit den neuen NVIDIA Blackwell Architecture Lösungen - Seite 2

    Die Direct-to-Chip-Flüssigkeitskühlung von Supermicro ermöglicht die erhöhte Thermal Design Power (TDP)  der neuesten GPUs und liefert das volle Potenzial der NVIDIA Blackwell GPUs. Supermicros HGX und MGX Systeme mit NVIDIA Blackwell sind die Bausteine für die Zukunft der KI-Infrastruktur und liefern bahnbrechende Leistung für KI-Training mit mehreren Billionen Parametern und KI-Inferenz in Echtzeit.

    Eine breite Palette von GPU-optimierten Supermicro-Systemen wird für die NVIDIA Blackwell B200 und B100 Tensor Core GPU bereitstehen und für die neueste NVIDIA AI Enterprise Software validiert sein, die Unterstützung für NVIDIA NIM Inferenz-Microservices bietet. Die Supermicro-Systeme umfassen:

    Anzeige 
    Handeln Sie Ihre Einschätzung zu Super Micro Computer!
    Long
    852,54€
    Basispreis
    0,57
    Ask
    × 14,60
    Hebel
    Short
    955,84€
    Basispreis
    0,58
    Ask
    × 14,35
    Hebel
    Präsentiert von

    Den Basisprospekt sowie die Endgültigen Bedingungen und die Basisinformationsblätter erhalten Sie bei Klick auf das Disclaimer Dokument. Beachten Sie auch die weiteren Hinweise zu dieser Werbung.

    • NVIDIA HGX B100 8-GPU und HGX B200 8-GPU Systeme
    • 5U/4U PCIe GPU System mit bis zu 10 GPUs
    • SuperBlade mit bis zu 20 B100-GPUs für 8U-Gehäuse und bis zu 10 B100-GPUs in 6U-Gehäusen
    • 2U Hyper mit bis zu 3 B100-GPUs
    • Supermicro 2U x86 MGX Systeme mit bis zu 4 B100 GPUs

    Für das Training massiver KI-Modelle ist Supermicro bereit, als erster Anbieter NVIDIA HGX B200 8-GPU und HGX B100 8-GPU Systeme auf den Markt zu bringen. Diese Systeme sind mit 8 NVIDIA Blackwell Grafikprozessoren ausgestattet, die über einen schnellen NVIDIA NVLink Interconnect der fünften Generation mit 1,8 TB/s verbunden sind, was eine Verdopplung der Leistung der vorherigen Generation bedeutet, mit insgesamt 1,5 TB Speicher mit hoher Bandbreite und im Vergleich zur NVIDIA Hopper-Architektur-Generation dreimal schnellere Trainingsergebnisse für LLMs, wie z. B. das GPT-MoE-1.8T-Modell, liefern. Diese Systeme verfügen über fortschrittliche Netzwerkfunktionen für die Skalierung auf Cluster und unterstützen sowohl NVIDIA Quantum-2 InfiniBand- als auch NVIDIA Spectrum-X Ethernet-Optionen mit einem Verhältnis von 1:1 GPU zu NIC.

    „Supermicro bringt weiterhin eine erstaunliche Reihe von beschleunigten Computing-Plattform-Servern auf den Markt, die auf KI-Training und Inferenz abgestimmt sind und jeden Bedarf auf dem heutigen Markt abdecken können", sagte Kaustubh Sanghani, Vice President of GPU Product Management bei NVIDIA. „Wir arbeiten eng mit Supermicro zusammen, um unseren Kunden die bestmöglichen Lösungen anbieten zu können."

    Für die anspruchsvollsten LLM-Inferenz-Workloads bringt Supermicro mehrere neue MGX-Systeme mit dem NVIDIA GB200 Grace Blackwell Superchip auf den Markt, der eine NVIDIA Grace CPU mit zwei NVIDIA Blackwell GPUs kombiniert. Supermicros NVIDIA MGX mit GB200-Systemen bieten einen enormen Leistungssprung bei der KI-Inferenz mit bis zu 30-facher Beschleunigung im Vergleich zum NVIDIA HGX H100. Supermicro und NVIDIA haben mit dem NVIDIA GB200 NVL72 eine Rack-Scale-Lösung entwickelt, die 36 Grace CPUs und 72 Blackwell GPUs in einem einzigen Rack verbindet. Alle 72 GPUs sind mit NVIDIA NVLink der fünften Generation für die GPU-zu-GPU-Kommunikation mit 1,8 TB/s verbunden. Zusätzlich kündigt Supermicro für Inferenz-Workloads den ARS-221GL-NHIR an, einen 2U-Server auf Basis der GH200-Produktlinie, bei dem zwei GH200-Server über einen 900Gb/s-Hochgeschwindigkeits-Interconnect verbunden sind. Besuchen Sie den Supermicro Stand auf der GTC und erfahren Sie mehr.

    Seite 2 von 4


    Diskutieren Sie über die enthaltenen Werte


    PR Newswire (dt.)
    0 Follower
    Autor folgen

    Verfasst von PR Newswire (dt.)
    Supermicro erweitert sein KI-optimiertes Produktportfolio um eine neue Generation von Systemen und Rack-Architekturen mit den neuen NVIDIA Blackwell Architecture Lösungen - Seite 2 Leistungsstarke und energieeffiziente Lösungen für große CSPs und NSPs beinhalten einen kompletten Stack von Next Gen NVIDIA GPUs und CPUs mit der NVIDIA Quantum X800 Plattform und NVIDIA AI Enterprise 5.0 SAN JOSE, Kalifornien, 20. März 2024 …

    Schreibe Deinen Kommentar

    Disclaimer