checkAd

     637  0 Kommentare Supermicro treibt die Ära der KI und des Metaverse mit Spitzen-Servern für KI-Training, Deep Learning, HPC und generative KI voran, mit NVIDIA HGX und PCIe-basierten H100 8-GPU-Systemen - Seite 2

    Die Flüssigkeitskühlung dieser Server wird auch von vielen GPU-Servern unterstützt. Darüber hinaus kündigt Supermicro ein flüssigkeitsgekühltes KI-Entwicklungssystem (als Tower- oder Rack-Mount-Konfiguration) mit zwei CPUs und vier NVIDIA A100 Tensor Core-GPUs an, das sich ideal für Büro- und Home-Office-Umgebungen eignet und auch in Abteilungs- und Unternehmensclustern eingesetzt werden kann.

    Supermicro-Systeme unterstützen die neue NVIDIA L4-GPU, die im Vergleich zu früheren Generationen ein Vielfaches an Beschleunigung und Energieeffizienz bietet. Das Gleiche gilt für KI-Inferencing, Videostreaming, virtuelle Workstations und Grafikanwendungen im Unternehmen, in der Cloud und am Edge. Mit der NVIDIA KI-Plattform und dem Full-Stack-Ansatz ist die L4 für Inferenzen im großen Maßstab für eine breite Palette von KI-Anwendungen optimiert, darunter Empfehlungen, sprachbasierte KI-Avatar-Assistenten, Chatbots, visuelle Suche und Contact Center-Automatisierung, um die bestmögliche personalisierte Erfahrung zu bieten. Als effizientester NVIDIA-Beschleuniger für Mainstream-Server bietet die L4 eine bis zu viermal höhere KI-Leistung, eine höhere Energieeffizienz und eine mehr als dreimal höhere Videostreaming-Kapazität und -Effizienz mit Unterstützung für AV1-Codierung/Decodierung. Die Vielseitigkeit der L4-GPU für Inferenz und Visualisierung und ihr kleiner, energieeffizienter Single-Slot-Formfaktor mit niedrigem Profil und geringem Stromverbrauch (72 W) machen sie ideal für den globalen Einsatz, auch an Edge-Standorten.

    „Die Ausstattung von Supermicro-Servern mit der unübertroffenen Leistung der neuen NVIDIA L4 Tensor Core-GPU ermöglicht es Kunden, ihre Workloads effizient und nachhaltig zu beschleunigen", sagte Dave Salvator, Director of Accelerated Computing Products bei NVIDIA. „Die NVIDIA L4 ist für Mainstream-Implementierungen optimiert und bietet einen flachen Formfaktor mit einem geringen Stromverbrauch von 72 W. Damit erreicht die KI-Leistung und -Effizienz am Edge neue Dimensionen."

    Die neuen PCIe-beschleunigten Lösungen von Supermicro ermöglichen die Erstellung von 3D-Welten, digitalen Zwillingen, 3D-Simulationsmodellen und dem industriellen Metaverse. Zusätzlich zur Unterstützung der vorherigen Generationen von NVIDIA OVX-Systemen bietet Supermicro eine OVX 3.0 -Konfiguration mit vier NVIDIA L40-GPUs, zwei NVIDIA ConnectX-7-SmartNICs, einer NVIDIA BlueField-3-DPU und der neuesten NVIDIA Omniverse Enterprise-Software an.

    Seite 2 von 3



    Diskutieren Sie über die enthaltenen Werte



    PR Newswire (dt.)
    0 Follower
    Autor folgen

    Weitere Artikel des Autors


    Verfasst von PR Newswire (dt.)
    Supermicro treibt die Ära der KI und des Metaverse mit Spitzen-Servern für KI-Training, Deep Learning, HPC und generative KI voran, mit NVIDIA HGX und PCIe-basierten H100 8-GPU-Systemen - Seite 2 Umfangreichstes Systemportfolio von der Cloud bis hin zum Edge mit NVIDIA HGX H100-Systemen, L40- und L4-GPUs und OVX 3.0-Systemen SAN JOSE CITY, Kalif., 21. März 2023 /PRNewswire/ - Supermicro, Inc. (NASDAQ, SMCI), ein Anbieter von …

    Schreibe Deinen Kommentar

    Disclaimer