Huawei Cloud
Förderung des fruchtbaren Bodens für Datenverarbeitung, Stärkung von KI-Pionieren für die Industrie
SHANGHAI, 21. September 2025 /PRNewswire/ -- Am zweiten Tag der HUAWEI CONNECT 2025 hielt Zhang Ping'an, Vorstandsmitglied von Huawei und Geschäftsführer von Huawei Cloud, eine Grundsatzrede mit dem Titel „All Intelligence: Empowering AI Pioneers for Industries" (All Intelligence: Stärkung von KI-Pionieren für die Industrie). Er berichtete über die Innovationen und Praktiken der Huawei Cloud in den Bereichen KI-Computing-Services, Gründungsmodelle, verkörperte KI, KI-Agenten und vieles mehr.
Ständige Innovation im Bereich KI-Computing-Services: leistungsstarkes Computing im Zeitalter der Intelligenz
In diesem Jahr hat Huawei Cloud seinen KI-Computing-Service angekündigt, der auf CloudMatrix384 basiert. Die Spezifikationen des Huawei CloudMatrix-Supernodes werden von 384 Karten auf 8.192 Karten erweitert. Die Supernodes können einen Hyperscale-Cluster mit 500.000 bis 1 Million Karten unterstützen und bieten somit robuste KI-Rechenleistung, eine unschätzbare Ressource im Zeitalter der Intelligenz. Huawei Cloud kündigte außerdem mit seinem Elastic Memory Service (EMS) eine innovative Speicherlösung an, die als Branchenneuheit den Video-RAM mit Speicher erweitert. Dadurch wird die Latenzzeit von Konversationen mit mehreren Runden auf Foundation-Modellen drastisch reduziert und die Benutzerfreundlichkeit erheblich verbessert.
Huawei Cloud hat vollständig flüssigkeitsgekühlte KI-Rechenzentren in den chinesischen Regionen Guizhou, Innere Mongolei und Anhui eingerichtet. Diese KI-Rechenzentren unterstützen eine Wärmeableitung von 80 kW pro Schrank, reduzieren die Stromverbrauchseffektivität (PUE) auf 1,1 und bieten KI-gestützte Betriebs- und Wartungsfunktionen. Das bedeutet, dass Unternehmen keine traditionellen Rechenzentren umbauen oder neue bauen müssen. Stattdessen benötigen sie lediglich ein Paar Glasfaserkabel, um sich mit dem Rechenzentrum zu verbinden und auf leistungsstarke KI-Rechenleistung sowie dedizierte Full-Stack-KI-Cloud-Services auf Huawei Cloud zuzugreifen.
Zhang Ping'an wies darauf hin, dass der KI-Token-Service der Huawei Cloud die zugrunde liegende technische Komplexität abstrahiert und den Nutzern direkt die endgültigen KI-Berechnungsergebnisse liefert. Auf diese Weise können die Benutzer die Rechenleistung der Inferenzen so effizient wie möglich nutzen. Der Supernode CloudMatrix384 ermöglicht das vollständige Pooling von Rechen-, Speicher- und Speicherressourcen, entkoppelt Rechenaufgaben, Speicheraufgaben und KI-Expertensysteme und wandelt serielle Aufgaben in verteilte parallele Aufgaben um, wodurch die Inferenzleistung des Systems erheblich verbessert wird. In Szenarien mit Inferenzaufgaben mit unterschiedlichen Latenzanforderungen, wie Online-, Nearline- und Offline-Inferenz, liefert CloudMatrix384 eine durchschnittliche Inferenzleistung pro Karte, die drei- bis viermal so hoch ist wie die von H20.

