Elon Musks xAI baut „Gigafactory of Compute“-Supercomputer für Grok KI
Elon Musks KI-Startup xAI baut einen riesigen Supercomputer namens „Gigafactory of Compute“. Dieser Supercomputer soll die Aufgabe übernehmen, ihre konversationelle KI, Grok, auf eine neue Ebene zu heben.

Elon Musks KI-Startup xAI arbeitet an einem ehrgeizigen Projekt: dem Bau eines gigantischen Supercomputers namens „Gigafactory of Compute“. Dessen Zweck ist es, die Fähigkeiten ihrer konversationellen KI, Grok, signifikant zu verbessern. Diese Maschine soll 100.000 spezialisierte Halbleiterchips (insbesondere NVIDIA H100 GPUs) nutzen, um xAI an der Spitze der KI-Technologie zu positionieren.
Musks Vision reicht weit über das aktuelle technologische Niveau hinaus; er prognostiziert, dass KI die kognitiven Fähigkeiten des Menschen bis Ende 2025 übertreffen wird. Auf einem kürzlichen Investorentreffen erklärte Musk, dass xAI bis Ende 2024 zu Branchenführern wie OpenAI und DeepMind aufschließen will. Darüber hinaus glaubt Musk, dass die KI-Entwicklung einen Punkt erreichen könnte, an dem sie alle menschlichen Arbeitsplätze ersetzt, was neue Fragen nach der Rolle des menschlichen Lebens aufwirft. Musk schlägt vor, dass die Aufgabe der Menschheit in der Zukunft darin bestehen könnte, „der KI einen Sinn zu geben“.
Der Supercomputer „Gigafactory of Compute“ soll bis Herbst 2025 fertiggestellt sein und Zehntausende von NVIDIA H100 GPUs nutzen, was möglicherweise Kosten in Milliardenhöhe verursachen wird. Diese massive Rechenleistung wird für die Entwicklung und den Betrieb der dritten Version von Grok verwendet werden, die mindestens 100.000 dieser Chips benötigen wird – fünfmal so viele wie für Grok 2.0. Grok befindet sich derzeit in Version 1.5, die im April veröffentlicht wurde und bereits beeindruckende Fähigkeiten wie die Verarbeitung von Bildern und Diagrammen sowie KI-gestützte Nachrichtenzusammenfassungen für Premium-X-Nutzer bietet.
Die Kernkomponenten des „Gigafactory of Compute“-Supercomputers von xAI werden Nvidias hochmoderne H100-Grafikprozessoren (GPUs) sein. Laut Musk wird die Größe dieses neuen GPU-Clusters mindestens viermal größer sein als die aktuellen GPU-Cluster, die von den Wettbewerbern von xAI verwendet werden. Der Supercomputer wird Zehntausende dieser Hochleistungs-H100-GPUs benötigen, und allein das Training der dritten Version von Grok wird mindestens 100.000 Chips erfordern – eine erhebliche Steigerung gegenüber den 20.000 GPUs, die Berichten zufolge für Grok 2.0 verwendet wurden.
xAI arbeitet mit Oracle zusammen, um die Infrastruktur für den Supercomputer „Gigafactory of Compute“ aufzubauen, was den Umfang und die Ernsthaftigkeit des Projekts unterstreicht. Um dieses Großprojekt zu finanzieren, wollte Musk zunächst 4 Milliarden Dollar bei einer Bewertung von 15 Milliarden Dollar für xAI aufbringen. Aufgrund des starken Interesses der Investoren wurde das Ziel später auf 6 Milliarden Dollar erhöht, wobei der Abschluss Berichten zufolge bei einer Pre-Money-Bewertung von 18 Milliarden Dollar erfolgte. Diese beträchtliche finanzielle Investition, die auf Milliarden Dollar geschätzt wird, zielt darauf ab, die Zehntausende von NVIDIA H100 GPUs zusammenzustellen, die benötigt werden, um das Grok KI-System der nächsten Generation anzutreiben.