DDN AI400X2 Turbo Appliance beschleunigt generative KI und Inferenz für Rechenzentrum und Cloud um den Faktor 10
San Jose, Kalifornien, 28. März 2024 (ots/PRNewswire) - Das energieeffiziente
Storage-System für KI und leistungshungrige Software-Stacks sowie
KI-Bibliotheken ermöglicht eine nahtlose End-to-End-Beschleunigung von GPUs,
Computern und Netzwerken mit zahlreichen Optionen
https://c212.net/c/link/?t=0&l=de&o=4126943-1&h=3351678007&u=https%3A%2F%2Fwww.d
dn.com%2F%3Futm_source%3Dnewswire%26utm_medium%3Dpressrelease%26utm_campaign%3Da
istorage%26utm_content%3Dddnhome_page&a=DDN ®, der führende Anbieter von
Lösungen für künstliche Intelligenz (KI) und Multi-Cloud-Datenmanagement,
stellte heute DDN AI400X2 Turbo vor, die neueste Ergänzung der leistungsstarken
https://c212.net/c/link/?t=0&l=de&o=4126943-1&h=2522403477&u=https%3A%2F%2Fwww.d
dn.com%2Fproducts%2Fa3i-accelerated-any-scale-ai%2F&a=A https://c212.net/c/link/
?t=0&l=de&o=4126943-1&h=2615263577&u=https%3A%2F%2Fwww.ddn.com%2Fproducts%2Fa3i-
accelerated-any-scale-ai%2F%3Futm_source%3Dnewswire%26utm_medium%3Dpressrelease%
26utm_campaign%3Daistorage%26utm_content%3Da3i_product&a=3 https://c212.net/c/li
nk/?t=0&l=de&o=4126943-1&h=2164882585&u=https%3A%2F%2Fwww.ddn.com%2Fproducts%2Fa
3i-accelerated-any-scale-ai%2F&a=I ®-Lösungen von DDN. Die AI400X2 Turbo ist 30
Prozent leistungsfähiger als die bisherige branchenführende AI400X2 und zeichnet
sich durch höhere Performance und erweiterte Konnektivitätsoptionen aus.
Angesichts der steigenden Anzahl von KI-Workloads in allen Märkten entwickeln
GPU-Hersteller immer schnellere Beschleuniger, um diesen massiven Anforderungen
gerecht zu werden. Dabei ist es entscheidend, dass alle Infrastrukturkomponenten
eines Rechenzentrums die Verarbeitungsleistung der GPUs voll unterstützen
können. Die AI400X2 Turbo von DDN bietet einen deutlich höheren ROI für
Multi-Node-GPU-Cluster sowie für generative KI, Inferenz, KI-Frameworks und
Software-Bibliotheken und erreicht beeindruckende Schreibgeschwindigkeiten von
75 GB/s und Lesegeschwindigkeiten von 120 GB/s pro 2U-Appliance.
"Rechenzentren und Cloud-Anbieter investieren erhebliche Summen in
KI-Infrastrukturen. Wenn es darum geht, den ROI zu verbessern, die Effizienz von
KI-Frameworks und Software-Bibliotheken zu steigern und die GPUs mit maximaler
Leistung zu betreiben, sind Storagesysteme ein wichtiger Faktor", sagte Dr.
James Coomer, Senior Vice President of Products bei DDN. "Die AI400X2 Turbo von
DDN wurde mit dem Ziel höchster Effizienz, Performance sowie idealer Leistung
und Einfachheit für generative KI, Inferenz und Multi-Node-GPU-Cluster
Storage-System für KI und leistungshungrige Software-Stacks sowie
KI-Bibliotheken ermöglicht eine nahtlose End-to-End-Beschleunigung von GPUs,
Computern und Netzwerken mit zahlreichen Optionen
https://c212.net/c/link/?t=0&l=de&o=4126943-1&h=3351678007&u=https%3A%2F%2Fwww.d
dn.com%2F%3Futm_source%3Dnewswire%26utm_medium%3Dpressrelease%26utm_campaign%3Da
istorage%26utm_content%3Dddnhome_page&a=DDN ®, der führende Anbieter von
Lösungen für künstliche Intelligenz (KI) und Multi-Cloud-Datenmanagement,
stellte heute DDN AI400X2 Turbo vor, die neueste Ergänzung der leistungsstarken
https://c212.net/c/link/?t=0&l=de&o=4126943-1&h=2522403477&u=https%3A%2F%2Fwww.d
dn.com%2Fproducts%2Fa3i-accelerated-any-scale-ai%2F&a=A https://c212.net/c/link/
?t=0&l=de&o=4126943-1&h=2615263577&u=https%3A%2F%2Fwww.ddn.com%2Fproducts%2Fa3i-
accelerated-any-scale-ai%2F%3Futm_source%3Dnewswire%26utm_medium%3Dpressrelease%
26utm_campaign%3Daistorage%26utm_content%3Da3i_product&a=3 https://c212.net/c/li
nk/?t=0&l=de&o=4126943-1&h=2164882585&u=https%3A%2F%2Fwww.ddn.com%2Fproducts%2Fa
3i-accelerated-any-scale-ai%2F&a=I ®-Lösungen von DDN. Die AI400X2 Turbo ist 30
Prozent leistungsfähiger als die bisherige branchenführende AI400X2 und zeichnet
sich durch höhere Performance und erweiterte Konnektivitätsoptionen aus.
Angesichts der steigenden Anzahl von KI-Workloads in allen Märkten entwickeln
GPU-Hersteller immer schnellere Beschleuniger, um diesen massiven Anforderungen
gerecht zu werden. Dabei ist es entscheidend, dass alle Infrastrukturkomponenten
eines Rechenzentrums die Verarbeitungsleistung der GPUs voll unterstützen
können. Die AI400X2 Turbo von DDN bietet einen deutlich höheren ROI für
Multi-Node-GPU-Cluster sowie für generative KI, Inferenz, KI-Frameworks und
Software-Bibliotheken und erreicht beeindruckende Schreibgeschwindigkeiten von
75 GB/s und Lesegeschwindigkeiten von 120 GB/s pro 2U-Appliance.
"Rechenzentren und Cloud-Anbieter investieren erhebliche Summen in
KI-Infrastrukturen. Wenn es darum geht, den ROI zu verbessern, die Effizienz von
KI-Frameworks und Software-Bibliotheken zu steigern und die GPUs mit maximaler
Leistung zu betreiben, sind Storagesysteme ein wichtiger Faktor", sagte Dr.
James Coomer, Senior Vice President of Products bei DDN. "Die AI400X2 Turbo von
DDN wurde mit dem Ziel höchster Effizienz, Performance sowie idealer Leistung
und Einfachheit für generative KI, Inferenz und Multi-Node-GPU-Cluster