EQS-News
WEKA durchbricht die KI-Speicherbarriere mit Augmented Memory Grid auf NeuralMesh
- WEKA präsentiert Augmented Memory Grid für NeuralMesh.
- 1000-fache GPU-Speicherkapazität, 20-fache Geschwindigkeit.
- Revolutioniert KI-Inferenz, verbessert Effizienz massiv.
|
EQS-News: WEKA / Schlagwort(e): Produkteinführung Bahnbrechende Speichererweiterungstechnologie, validiert auf Oracle Cloud Infrastructure, demokratisiert die Inferenz und bietet NeuralMesh-Kunden 1000-mal mehr Speicher und eine 20-mal schnellere Zeit bis zum ersten Token |
ST. LOUIS und CAMPBELL, Kalifornien, 19. November 2025 /PRNewswire/ -- Von SC25: WEKA, das KI-Speicherunternehmen, gab heute die kommerzielle Verfügbarkeit von Augmented Memory Grid auf NeuralMesh bekannt, einer revolutionären Speichererweiterungstechnologie, die den grundlegenden Engpass beseitigt, der die KI-Innovation bremst: GPU-Speicher. Augmented Memory Grid wurde auf Oracle Cloud Infrastructure (OCI) und anderen führenden KI-Cloud-Plattformen validiert und erweitert die GPU-Speicherkapazität um das 1000-fache, von Gigabyte auf Petabyte, während die Zeit bis zum ersten Token um das bis zu 20-fache reduziert wird. Dieser Durchbruch ermöglicht es KI-Entwicklern, langwierige Kontextüberlegungen und agentenbasierte KI-Workflows zu optimieren und so die Effizienz von Inferenz-Workloads, deren Skalierung bisher eine Herausforderung darstellte, erheblich zu verbessern.
Von der Innovation zur Produktion: Lösung für die KI-Speicherbarriere
Seit seiner Einführung auf der NVIDIA GTC 2025 wurde Augmented Memory Grid in führenden
Produktions-KI-Cloud-Umgebungen, beginnend mit OCI, gehärtet, getestet und validiert. Die Ergebnisse haben bestätigt, was erste Tests bereits gezeigt hatten Da sich KI-Systeme zu längeren,
komplexeren Interaktionen entwickeln – von Codierungs-Copiloten über Forschungsassistenten bis hin zu Schlussfolgerungsagenten – ist der Speicher zu einem kritischen Engpass geworden, der die
Inferenzleistung und Wirtschaftlichkeit einschränkt.
