checkAd

     1257  0 Kommentare Supermicro bringt drei NVIDIA-basierte, sofort einsatzbereite generative KI-Supercluster auf den Markt, die von Enterprise- bis zu großen LLM-Infrastrukturen skalieren

    Die Full-Stack SuperClusters umfassen luft- und flüssigkeitsgekühlte Trainings- und Cloud-skalierte Inferenz-Rack-Konfigurationen mit den neuesten NVIDIA Tensor Core GPUs, Netzwerken und NVIDIA AI Enterprise Software

    SAN JOSE, Kalifornien, 20. März 2024 /PRNewswire/ -- Supermicro, Inc. (NASDAQ: SMCI), ein Anbieter von IT-Gesamtlösungen für KI, Cloud, Storage und 5G/Edge, kündigt sein neuestes Portfolio an, um den Einsatz von generativer KI zu beschleunigen. Die Supermicro SuperCluster-Lösungen bieten grundlegende Bausteine für die Gegenwart und die Zukunft der Infrastruktur für große Sprachmodelle (LLM).

    Die drei leistungsstarken Supermicro SuperCluster-Lösungen sind jetzt für generative KI-Workloads verfügbar. Die flüssigkeitsgekühlten 4U-Systeme oder die luftgekühlten 8U-Systeme sind speziell für leistungsstarke LLM-Trainingsleistungen sowie für große Batchgrößen und LLM-Inferenzen mit hohem Volumen ausgelegt. Ein dritter SuperCluster mit 1U luftgekühlten Supermicro NVIDIA MGX Systemen ist für Cloud-Scale-Inferenz optimiert.

    „In der KI-Ära wird die Recheneinheit jetzt an Clustern gemessen, nicht nur an der Anzahl der Server. Mit unserer erweiterten globalen Fertigungskapazität von 5.000 Racks/Monat können wir unseren Kunden komplette generative KI-Cluster schneller als je zuvor liefern", sagte Charles Liang, President und CEO von Supermicro. „Ein 64-Knoten-Cluster ermöglicht 512 NVIDIA HGX H200 GPUs mit 72 TB HBM3e durch einige unserer skalierbaren Cluster-Bausteine mit 400 Gb/s NVIDIA Quantum-2 InfiniBand und Spectrum-X Ethernet-Netzwerken. Die SuperCluster-Lösungen von Supermicro in Kombination mit der NVIDIA AI Enterprise Software sind ideal für Unternehmens- und Cloud-Infrastrukturen, um die heutigen LLMs mit bis zu Billionen von Parametern zu trainieren. Die miteinander verbundenen GPUs, CPUs, Speicher, Storage und Netzwerke bilden, wenn sie über mehrere Knoten in Racks eingesetzt werden, die Grundlage der heutigen KI. Die SuperCluster-Lösungen von Supermicro bieten grundlegende Bausteine für die sich schnell entwickelnde generative KI und LLMs."

    Lesen Sie auch

    Seite 1 von 4


    Diskutieren Sie über die enthaltenen Werte


    PR Newswire (dt.)
    0 Follower
    Autor folgen

    Verfasst von PR Newswire (dt.)
    Supermicro bringt drei NVIDIA-basierte, sofort einsatzbereite generative KI-Supercluster auf den Markt, die von Enterprise- bis zu großen LLM-Infrastrukturen skalieren Die Full-Stack SuperClusters umfassen luft- und flüssigkeitsgekühlte Trainings- und Cloud-skalierte Inferenz-Rack-Konfigurationen mit den neuesten NVIDIA Tensor Core GPUs, Netzwerken und NVIDIA AI Enterprise Software SAN JOSE, Kalifornien, 20. März …

    Schreibe Deinen Kommentar

    Disclaimer