NVIDIAs iPhone Moment - Der Graphikchip H100 - Seite 3
Jensen Huang entschied, eine zweite Recheneinheit der elektronischen Geräte auszubauen, den Graphikchip. Bislang war dieser Graphikchip (GPU) vergleichsweise dumm, denn er transferierte lediglich komplexe Vektordaten in einfache Pixel, die vom Monitor angezeigt wurden. In der Verarbeitung komplexer Graphikdaten, Relationen und Vektoren sind GPUs den CPUs überlegen. Durch Softwarelösungen lagerte Huang komplexe Rechenaufgaben von der CPU auf die GPU aus, machte die GPU leistungsfähiger und ermöglichte somit weitere Leistungssprünge in der Leistung von Computern.
Zudem kaufte sein Unternehmen eine Software zu, die komplexe Aufgaben auf viele GPUs verteilen kann und somit für Rechenzentren Leistungssprünge ermöglicht.
Das menschliche Gehirn kann ja nicht nur 3+4=7 linear ausrechnen, sondern ist kontinuierlich einer Reizüberflutung ausgesetzt, die mit unendlich vielen Querverbindungen zueinander ins Verhältnis gesetzt, gerichtet und periodisiert werden. Nur so können wir uns auf das Wesentliche konzentrieren. Je mehr dieser Querverbindungen in der GPU-Landschaft von Rechenzentren vorhanden sind, desto effizienter arbeitet die darin entwickelte KI.
Der Wettbewerb ist um Jahre unterlegen
Der Wettbewerb, also AMD und Intel, sind Nvidia um Jahre unterlegen. Jensen Huang glaubte an diesen Weg und richtete sein Unternehmen konsequent darauf aus. AMD
beschritt diesen Weg ebenfalls, doch nicht mit der gleichen Überzeugung, und ist daher heute nur eine Billigversion davon. Natürlich hat auch AMD GPUs, die fast die Leistung von Nvidias H100 haben.
Natürlich hat auch AMD inzwischen entsprechende Softwarelösungen. Doch die komplexe Architektur, die ich soeben beschrieben habe, ist bei Nvidia in allen Bereichen ein wenig effizienter und damit
in Summe der Konkurrenz um Jahre voraus.
Nun ist ChatGPT die erfolgreichste Softwareeinführung, die es jemals gab. Die Möglichkeiten für Buchhaltung, Controlling, Juristen, Faktencheck, Korrekturlesen, Research, Krebsforschung, autonomes
Fahren, Software-Entwicklung, Verkaufsprozessoptimierung, ... sind gigantisch. Unternehmen, die diese Möglichkeiten nicht nutzen, werden künftig nicht bestehen können.
Lesen Sie auch
So werden Rechenkapazitäten von Rechenzentren und Cloud-Anbietern gebucht und genutzt. Die oben genannten Cloud-Anbieter (Alphabet, Amazon, Microsoft, ...) bauen ihre Rechenzentren aus, um die Nachfrage zu befriedigen. Eine H100-GPU kostet 20.000 USD. Über Ebay wurden die H100-GPUs in den vergangenen Monaten zu Preisen um 40.000 USD gehandelt, da die Nachfrage explodiert war. Nun sagt Nvidia: Beruhigt Euch, wir haben ausreichend Produktionskapazitäten gesichert, um die sprunghaft angestiegene Nachfrage zu befriedigen.