WEKA durchbricht die KI-Speicherbarriere mit Augmented Memory Grid auf NeuralMesh
Bahnbrechende Speichererweiterungstechnologie, validiert auf Oracle Cloud Infrastructure, demokratisiert die Inferenz und bietet NeuralMesh-Kunden 1000-mal mehr Speicher und eine 20-mal schnellere Zeit bis zum ersten Token
ST. LOUIS und CAMPBELL, Kalifornien, 19. November 2025 /PRNewswire/ -- Von SC25: WEKA, das KI-Speicherunternehmen, gab heute die kommerzielle Verfügbarkeit von Augmented Memory Grid auf NeuralMesh bekannt, einer revolutionären Speichererweiterungstechnologie, die den grundlegenden Engpass beseitigt, der die KI-Innovation bremst: GPU-Speicher. Augmented Memory Grid wurde auf Oracle Cloud Infrastructure (OCI) und anderen führenden KI-Cloud-Plattformen validiert und erweitert die GPU-Speicherkapazität um das 1000-fache, von Gigabyte auf Petabyte, während die Zeit bis zum ersten Token um das bis zu 20-fache reduziert wird. Dieser Durchbruch ermöglicht es KI-Entwicklern, langwierige Kontextüberlegungen und agentenbasierte KI-Workflows zu optimieren und so die Effizienz von Inferenz-Workloads, deren Skalierung bisher eine Herausforderung darstellte, erheblich zu verbessern.
Von der Innovation zur Produktion: Lösung für die KI-Speicherbarriere
Seit seiner Einführung auf der NVIDIA GTC 2025 wurde Augmented Memory Grid in führenden
Produktions-KI-Cloud-Umgebungen, beginnend mit OCI, gehärtet, getestet und validiert. Die Ergebnisse haben bestätigt, was erste Tests bereits gezeigt hatten Da sich KI-Systeme zu längeren,
komplexeren Interaktionen entwickeln – von Codierungs-Copiloten über Forschungsassistenten bis hin zu Schlussfolgerungsagenten – ist der Speicher zu einem kritischen Engpass geworden, der die
Inferenzleistung und Wirtschaftlichkeit einschränkt.
„Wir bringen eine bewährte Lösung auf den Markt, die mit Oracle Cloud Infrastructure und anderen führenden KI-Infrastrukturplattformen validiert wurde", sagte Liran Zvibel, Mitbegründer und CEO von WEKA. „Bei der Skalierung agentenbasierter KI geht es nicht nur um reine Rechenleistung, sondern darum, die Speicherbarriere mit intelligenten Datenpfaden zu überwinden. Mit Augmented Memory Grid können Kunden mehr Token pro GPU ausführen, mehr gleichzeitige Benutzer unterstützen und völlig neue Servicemodelle für Workloads mit langem Kontext erschließen. Die Bare-Metal-Infrastruktur von OCI mit leistungsstarken RDMA-Netzwerk- und GPUDirect-Speicherfunktionen macht sie zu einer einzigartigen Plattform für die Beschleunigung von Inferenz in großem Maßstab."

