checkAd

     1257  0 Kommentare Supermicro bringt drei NVIDIA-basierte, sofort einsatzbereite generative KI-Supercluster auf den Markt, die von Enterprise- bis zu großen LLM-Infrastrukturen skalieren - Seite 2

    Um mehr über die Supermicro AI SuperClusters zu erfahren, besuchen Sie uns: www.supermicro.com/ai-supercluster

    „NVIDIAs neueste GPU-, CPU-, Netzwerk- und Software-Technologien ermöglichen es Systemherstellern, eine Reihe von KI-Workloads der nächsten Generation für globale Märkte zu beschleunigen", sagt Kaustubh Sanghani, Vice President of GPU Product Management bei NVIDIA. „Durch die Nutzung der NVIDIA Accelerated Computing-Plattform mit Produkten auf Basis der Blackwell-Architektur bietet Supermicro seinen Kunden hochmoderne Serversysteme, die problemlos in Rechenzentren eingesetzt werden können."

    Anzeige 
    Handeln Sie Ihre Einschätzung zu Super Micro Computer!
    Long
    842,75€
    Basispreis
    0,64
    Ask
    × 14,99
    Hebel
    Short
    940,86€
    Basispreis
    0,47
    Ask
    × 14,72
    Hebel
    Präsentiert von

    Den Basisprospekt sowie die Endgültigen Bedingungen und die Basisinformationsblätter erhalten Sie bei Klick auf das Disclaimer Dokument. Beachten Sie auch die weiteren Hinweise zu dieser Werbung.

    Supermicro 4U NVIDIA HGX H100/H200 8-GPU Systeme verdoppeln die Dichte des 8U luftgekühlten Systems durch den Einsatz von Flüssigkeitskühlung, reduzieren den Energieverbrauch und senken die TCO des Rechenzentrums. Diese Systeme sind für die nächste Generation der auf der NVIDIA Blackwell-Architektur basierenden Grafikprozessoren ausgelegt. Die Supermicro Cooling Distribution Unit (CDU) und Manifold (CDM) sind die Hauptadern für die Verteilung der gekühlten Flüssigkeit an die kundenspezifischen Direct-to-Chip (D2C) Cold Plates von Supermicro, die die GPUs und CPUs auf optimaler Temperatur halten, was zu einer maximalen Leistung führt. Diese Kühltechnologie ermöglicht eine Senkung der Stromkosten für das gesamte Rechenzentrum um bis zu 40 % und spart Platz in den Räumlichkeiten des Rechenzentrums. Erfahren Sie mehr über die Supermicro Liquid Cooling Technologie: https://www.supermicro.com/en/solutions/liquid-cooling

    Die mit 8-GPUs ausgestatteten NVIDIA HGX H100/H200-Systeme sind ideal für das Training von generativer KI. Die Hochgeschwindigkeits-GPUs, die über NVIDIA NVLink miteinander verbunden sind, sowie die hohe GPU-Speicherbandbreite und -kapazität sind der Schlüssel zur kosteneffizienten Ausführung von LLM-Modellen. Der Supermicro SuperCluster schafft einen massiven Pool von GPU-Ressourcen, die wie ein einziger KI-Supercomputer funktionieren.

    Ob es sich um die Anpassung eines enormen Basismodells handelt, das auf einem Datensatz mit Billionen von Token von Grund auf trainiert wurde, oder um den Aufbau einer LLM-Inferenzinfrastruktur im Cloud-Maßstab, die Spine- und Leaf-Netzwerktopologie mit nicht blockierenden 400-Gb/s-Fabrics ermöglicht eine nahtlose Skalierung von 32 Knoten auf Tausende von Knoten. Bei der vollständig integrierten Flüssigkeitskühlung werden die betriebliche Effektivität und Effizienz vor der Auslieferung durch die bewährten Testverfahren von Supermicro gründlich überprüft. 

    Seite 2 von 4


    Diskutieren Sie über die enthaltenen Werte


    PR Newswire (dt.)
    0 Follower
    Autor folgen

    Verfasst von PR Newswire (dt.)
    Supermicro bringt drei NVIDIA-basierte, sofort einsatzbereite generative KI-Supercluster auf den Markt, die von Enterprise- bis zu großen LLM-Infrastrukturen skalieren - Seite 2 Die Full-Stack SuperClusters umfassen luft- und flüssigkeitsgekühlte Trainings- und Cloud-skalierte Inferenz-Rack-Konfigurationen mit den neuesten NVIDIA Tensor Core GPUs, Netzwerken und NVIDIA AI Enterprise Software SAN JOSE, Kalifornien, 20. März …

    Schreibe Deinen Kommentar

    Disclaimer