EQS-News
Supermicro präsentiert auf der Supercomputing 2025 die Zukunft von HPC-Clustern und KI-Infrastruktur
- Supermicro zeigt innovative HPC- und KI-Lösungen.
- Neue flüssigkeitsgekühlte Systeme für hohe Effizienz.
- DCBBS-Architektur vereinfacht KI- und HPC-Bereitstellung.
|
EQS-News: Super Micro Computer, Inc. / Schlagwort(e): Sonstiges/Produkteinführung
SAN JOSE, Kalifornien, und ST. LOUIS, 17. November 2025 /PRNewswire/ -- Supercomputing Conference --Super Micro Computer, Inc. (SMCI), ein Anbieter von Komplettlösungen für KI/ML, HPC, Cloud, Speicher und 5G/Edge, wird auf der Supercomputing 2025 (SC25) in St. Louis, Missouri, seine neuesten Innovationen in den Bereichen KI-Fabrik, HPC und flüssigkeitsgekühlte Rechenzentren vorstellen. Dieses breite Portfolio, das von Desktop-Workstations bis hin zu Rack-Scale-Lösungen reicht, unterstreicht das Engagement von Supermicro, die nächste Generation von Hochleistungscomputern, wissenschaftlicher Forschung und KI-Anwendungen in Unternehmen voranzutreiben. |
„Supermicro ist weiterhin branchenführend bei der Bereitstellung kompletter Infrastrukturlösungen der nächsten Generation in enger Zusammenarbeit mit unseren Technologiepartnern", sagte Charles Liang, Präsident und CEO von Supermicro. „Auf der SC25 präsentieren wir unsere leistungsstarke DCBBS-Architektur, direkte Flüssigkeitskühlung und Rack-Scale-Innovationen, die es Kunden ermöglichen, KI- und HPC-Workloads schneller, effizienter und nachhaltiger zu implementieren."
Weitere Informationen finden Sie auf: https://www.supermicro.com/en/event/sc25
Supermicro Systems wird neue Plattformen vorstellen, die darauf ausgelegt sind, die Leistung sowohl für CPU- als auch für GPU-gebundene Workloads in groß angelegten HPC- und KI-Umgebungen zu verbessern.
Die wichtigsten Highlights sind:
- NVIDIA GB300 NVL72 mit Flüssigkeitskühlung - Rack-Lösung mit NVIDIA GB300 Grace Blackwell Superchips, die 72 NVIDIA Blackwell Ultra-GPUs und 36 Grace-CPUs pro Rack mit 279 GB HBM3e pro GPU bereitstellen.
- 4U HGX B300 Server Flüssigkeitsgekühltes Rack mit In-Rack-CDU
- 1U NVIDIA GB200 NVL4 Server (ARS-121GL-NB2B-LCC) - Ein hochdichter, flüssigkeitsgekühlter Rechenknoten, der speziell für groß angelegte HPC- und KI-Trainings entwickelt wurde.
- Super AI Station basierend auf NVIDIA GB300 (ARS-511GD-NB-LCC) - Eine KI- und HPC-Entwicklungsplattform, integriert in einen Desktop-Workstation-Formfaktor.
- Flüssigkeitsgekühlte 8U 20-Knoten und 6U 10-Knoten SuperBlade - Eine fortschrittliche flüssigkeitsgekühlte Plattform, die maximale CPU- und GPU-Dichte bietet und Intel Xeon 6900, 6700 und 6500 Series Prozessoren bis zu 500W unterstützt.
- Flüssigkeitsgekühltes 2U FlexTwin Multi-Node-System - Eine fortschrittliche flüssigkeitsgekühlte Plattform (bis zu 95 % Wärmeabfuhr) für maximale CPU-Rechendichte mit vier unabhängigen Knoten, die jeweils mit leistungsstarken Dual-Socket-CPUs ausgestattet sind, die entweder AMD EPYC 9005-Prozessoren oder Intel Xeon Prozessoren der Serie 6900 mit bis zu 500 W unterstützen.
DCBBS und Innovationen im Bereich der direkten Flüssigkeitskühlung
