Supermicro erweitert seine KI- und GPU-Rack-Scale-Lösungen um Unterstützung für Beschleuniger der Serie AMD Instinct MI300
Neue 8-GPU-Systeme mit AMD Instinct MI300X-Beschleunigern sind jetzt mit bahnbrechender KI- und HPC-Leistung für groß angelegte KI-Trainings- und LLM-Einsätze verfügbar
SAN JOSE, Kalifornien, 8. Dezember 2023 /PRNewswire/ -- Supermicro, Inc. (NASDAQ: SMCI), ein Hersteller umfassender IT-Lösungen für KI, Cloud, Speicher und 5G/Edge, kündigt drei neue Ergänzungen seiner AMD-basierten H13-Generation von GPU-Servern an, die für Spitzenleistung und Effizienz optimiert sind und durch die neuen Beschleuniger der Serie AMD Instinct MI300 angetrieben werden. Die leistungsstarken Rack-Scale-Lösungen von Supermicro mit 8-GPU-Servern, die als AMD Instinct MI300X OAM konfiguriert sind, sind ideal für das Training großer Modelle geeignet.
Die neuen flüssigkeitsgekühlten 2U-Server und luftgekühlten 4U-Server mit den Beschleunigern AMD Instinct MI300A Accelerated Processing Units (APUs) sind jetzt verfügbar und verbessern die Effizienz von Rechenzentren, wobei sie die schnell wachsenden komplexen Anforderungen in den Bereichen KI, LLM und HPC erfüllen. Die neuen Systeme enthalten Quad-APUs für skalierbare Anwendungen. Supermicro kann komplette flüssigkeitsgekühlte Racks für große Umgebungen mit bis zu 1.728 TFlops FP64-Leistung pro Rack liefern. Die weltweiten Produktionsstätten von Supermicro optimieren die Lieferung dieser neuen Server für die KI- und HPC-Konvergenz.
„Wir freuen uns sehr, unsere Rack-Total-IT-Lösungen für das KI-Training mit der neuesten Generation von AMD Instinct Accelerators zu erweitern, mit einer bis zu 3,4-fachen Leistungssteigerung im Vergleich zu früheren Generationen", sagte Charles Liang, Präsident und Geschäftsführer von Supermicro. „Mit unserer Fähigkeit, monatlich 4.000 flüssigkeitsgekühlte Racks aus unseren weltweiten Produktionsstätten zu liefern, können wir die neuesten H13-GPU-Lösungen entweder mit dem Instinct MI300X-Beschleuniger von AMD oder der AMD Instinct MI300A APU liefern." Unsere bewährte Architektur ermöglicht ein 1:1-400G-Netzwerk für jede GPU, die für große KI- und Supercomputing-Cluster mit vollständig integrierten Flüssigkeitskühlungen konzipiert ist und Kunden einen Wettbewerbsvorteil in Bezug auf Leistung und besondere Effizienz bei einfacher Bereitstellung verschafft."