checkAd

     117  0 Kommentare DDN AI400X2 Turbo Appliance beschleunigt generative KI und Inferenz für Rechenzentrum und Cloud um den Faktor 10

    San Jose, Kalifornien, 28. März 2024 (ots/PRNewswire) - Das energieeffiziente
    Storage-System für KI und leistungshungrige Software-Stacks sowie
    KI-Bibliotheken ermöglicht eine nahtlose End-to-End-Beschleunigung von GPUs,
    Computern und Netzwerken mit zahlreichen Optionen

    https://c212.net/c/link/?t=0&l=de&o=4126943-1&h=3351678007&u=https%3A%2F%2Fwww.d
    dn.com%2F%3Futm_source%3Dnewswire%26utm_medium%3Dpressrelease%26utm_campaign%3Da
    istorage%26utm_content%3Dddnhome_page&a=DDN ®, der führende Anbieter von
    Lösungen für künstliche Intelligenz (KI) und Multi-Cloud-Datenmanagement,
    stellte heute DDN AI400X2 Turbo vor, die neueste Ergänzung der leistungsstarken
    https://c212.net/c/link/?t=0&l=de&o=4126943-1&h=2522403477&u=https%3A%2F%2Fwww.d
    dn.com%2Fproducts%2Fa3i-accelerated-any-scale-ai%2F&a=A https://c212.net/c/link/
    ?t=0&l=de&o=4126943-1&h=2615263577&u=https%3A%2F%2Fwww.ddn.com%2Fproducts%2Fa3i-
    accelerated-any-scale-ai%2F%3Futm_source%3Dnewswire%26utm_medium%3Dpressrelease%
    26utm_campaign%3Daistorage%26utm_content%3Da3i_product&a=3 https://c212.net/c/li
    nk/?t=0&l=de&o=4126943-1&h=2164882585&u=https%3A%2F%2Fwww.ddn.com%2Fproducts%2Fa
    3i-accelerated-any-scale-ai%2F&a=I ®-Lösungen von DDN. Die AI400X2 Turbo ist 30
    Prozent leistungsfähiger als die bisherige branchenführende AI400X2 und zeichnet
    sich durch höhere Performance und erweiterte Konnektivitätsoptionen aus.

    Angesichts der steigenden Anzahl von KI-Workloads in allen Märkten entwickeln
    GPU-Hersteller immer schnellere Beschleuniger, um diesen massiven Anforderungen
    gerecht zu werden. Dabei ist es entscheidend, dass alle Infrastrukturkomponenten
    eines Rechenzentrums die Verarbeitungsleistung der GPUs voll unterstützen
    können. Die AI400X2 Turbo von DDN bietet einen deutlich höheren ROI für
    Multi-Node-GPU-Cluster sowie für generative KI, Inferenz, KI-Frameworks und
    Software-Bibliotheken und erreicht beeindruckende Schreibgeschwindigkeiten von
    75 GB/s und Lesegeschwindigkeiten von 120 GB/s pro 2U-Appliance.

    "Rechenzentren und Cloud-Anbieter investieren erhebliche Summen in
    KI-Infrastrukturen. Wenn es darum geht, den ROI zu verbessern, die Effizienz von
    KI-Frameworks und Software-Bibliotheken zu steigern und die GPUs mit maximaler
    Leistung zu betreiben, sind Storagesysteme ein wichtiger Faktor", sagte Dr.
    James Coomer, Senior Vice President of Products bei DDN. "Die AI400X2 Turbo von
    DDN wurde mit dem Ziel höchster Effizienz, Performance sowie idealer Leistung
    und Einfachheit für generative KI, Inferenz und Multi-Node-GPU-Cluster
    Seite 1 von 2




    news aktuell
    0 Follower
    Autor folgen
    Verfasst von news aktuell
    DDN AI400X2 Turbo Appliance beschleunigt generative KI und Inferenz für Rechenzentrum und Cloud um den Faktor 10 Das energieeffiziente Storage-System für KI und leistungshungrige Software-Stacks sowie KI-Bibliotheken ermöglicht eine nahtlose End-to-End-Beschleunigung von GPUs, Computern und Netzwerken mit zahlreichen Optionen …

    Schreibe Deinen Kommentar

    Disclaimer