Supercomputer?
7281
3 Kommentare
Musks xAI sammelt 6 Milliarden US-Dollar ein – kommt der Supercomputer?
Mit Hilfe von Nvidia will Tesla-Chef Elon Musk seinen Chatbot auf die nächste Stufe katapultieren. Auch der Bau eines Supercomputers ist geplant, der alles bisher Gesehene in den Schatten stellt.
- Musk will Chatbot mit Nvidia auf nächste Stufe bringen, plant Supercomputer.
- xAI erhält 6 Mrd. USD Finanzierung für KI-Tool-Entwicklung.
- Musk plant Supercomputer mit Nvidia H100 GPUs für Grok 2 und mehr.
- Report: Die 200% Chancen:
![](http://assets.wallstreet-online.de/_media/22033/personen/size_1192/musk-spacex.jpg)
Elon Musks KI-Startup xAI hat eine Serie-B-Finanzierungsrunde in Höhe von 6 Milliarden US-Dollar abgeschlossen, wie das Unternehmen am frühen Montag bekannt gab. Die Finanzierungsrunde wurde von den Venture-Capital-Firmen Andreessen Horowitz und Sequoia Capital unterstützt.
Die Finanzierungsrunde, die am 26. Mai in einem Blogpost angekündigt wurde, markiert eine der größeren Investitionen im aufkommenden Bereich der KI-Tool-Entwicklung und folgt weniger als ein Jahr nach dem Debüt von xAI durch den Tesla-Chef. Nach der Runde kommt xAI auf eine Bewertung von 24 Milliarden US-Dollar.
Das Geld werde verwendet, um die ersten Produkte von xAI auf den Markt zu bringen, eine fortschrittliche Infrastruktur aufzubauen und die Forschung und Entwicklung zukünftiger Technologien zu beschleunigen, erklärte xAI in einer Mitteilung. "In den kommenden Wochen wird es mehr zu verkünden geben", sagte Musk in einem Beitrag auf seinem sozialen Netzwerk X als Reaktion auf die Finanzierungsankündigung.
Neuesten Berichten zufolge plant Musk, für die nächste Version seines KI-Chatbots Grok einen Supercomputer zu bauen. Dieser Supercomputer soll bis Herbst 2025 einsatzbereit sein und könnte in Zusammenarbeit mit Oracle entwickelt werden. Die geplanten GPU-Cluster, bestückt mit Nvidias Flaggschiff H100 Grafikprozessoren, sollen mindestens viermal so groß sein wie die derzeit größten existierenden GPU-Cluster.
Großauftrag an Nvidia
Musk hat angegeben, dass für das Training des Grok 2 Modells etwa 20.000 Nvidia H100 GPUs verwendet wurden und für das Modell Grok 3 und darüber hinaus 100.000 dieser Chips erforderlich sein werden. Die H100-Familie von Nvidia dominiert den Markt für Datenzentrum-Chips für KI, obwohl sie aufgrund hoher Nachfrage schwer zu beschaffen sind.
Die ambitionierten Pläne von xAI zeigen Musks Bestreben, eine führende Rolle im KI-Sektor einzunehmen und sich gegenüber etablierten Größen wie dem von Microsoft unterstützten KI-Platzhirsch OpenAI und Alphabet, dem Mutterkonzern von Google, zu positionieren. Musk, der bereits frühzeitig künstliche Intelligenz unterstützte und vor der Einführung von ChatGPT in OpenAI involviert war, zog sich später aus dem Unternehmen zurück.
Lesen Sie auch
Autor: Ingo Kolf, wallstreetONLINE Redaktion