Nvidia ist bei KI-Chips der Vorreiter. Aber kann man die Euphorie weiter aufrechterhalten? In 2023 und vor allem 2024 war der KI-Boom gigantisch, Anleger konnten sich gar nicht mehr einkriegen mit neuen Höchstständen in der Aktie. Seit Anfang 2023 konnte die Aktie gigantische 811 % zulegen, während der Nasdaq 100 Index „nur“ 95 % gewann (Chart zeigt Entwicklung seit Anfang 2023). Aber in 2025 scheint man sich zunehmend zu fragen, wie massiv der Hype bereits eingepreist ist, und wie lange das Wachstum noch weitergehen kann. Seit Jahresanfang verlor die Aktie 2,1 %.
Die KGV-Erwartungen für die Aktie liegen für 2025 und 2026 bei einem Wert von gut 30. Damit ist die Aktie zwar nicht billig, aber für einen gehypten High Tech-Wert auch nicht brutal überteuert. Nvidia hat die Möglichkeit durch Produktinnovationen neue Euphorie bei Anlegern zu entfachen. Heute hat der CEO Huang mit einer Produktpräsentation auf einer Messe in Taiwan einen großen Schritt nach vorne gemacht.
Nvidia CEO mit Präsentation auf der Computex
Nvidia hat die neueste Reihe von Technologien vorgestellt, die darauf abzielen, die boomende Nachfrage nach KI-Computern aufrechtzuerhalten – und sicherzustellen, dass seine Produkte im Zentrum des Geschehens bleiben. Firmenchef Jensen Huang eröffnete heute die Computex in Taiwan, Asiens größtes Elektronikforum. Er stellte neue Produkte vor und festigte die Beziehungen zu einer Region, die für die Tech-Lieferkette entscheidend ist. Der CEO stellte Updates für das Ökosystem rund um die Beschleunigerchips von Nvidia vor, die für die Entwicklung und den Betrieb von KI-Diensten entscheidend sind. Das zentrale Ziel ist es, die Reichweite von Nvidia-Produkten zu erhöhen und Hindernisse für die Einführung von KI in mehr Branchen und Ländern zu beseitigen.
Nvidia ist bestrebt seinen Platz im Herzen des Booms der künstlichen Intelligenz zu festigen, und das zu einer Zeit, in der Investoren und einige Führungskräfte unsicher sind, ob die Ausgaben für Rechenzentren nachhaltig sind. Die Tech-Branche sieht sich auch mit der Frage konfrontiert, wie die von der Trump-Administration eingeführten Zölle die globale Nachfrage und Produktion beeinflussen werden.
Dennoch steigen die Aktien von Nvidia nach einer Reise in den Nahen Osten, die im Rahmen einer von Präsident Donald Trump geleiteten Delegation stattfand, wieder an. Huang eröffnete mit einem Update über den Zeitplan für Nvidias GB300-Systeme der nächsten Generation, die im dritten Quartal dieses Jahres auf den Markt kommen sollen. Sie werden ein Upgrade der aktuellen Grace-Blackwell-Systeme darstellen, die derzeit von Cloud-Service-Anbietern installiert werden.
Heute danke Huang den zahlreichen Zulieferern, von TSMC bis zur Foxconn Technology Group, die dabei helfen, Nvidias Technologie zu bauen und weltweit zu vertreiben. „Wenn neue Märkte geschaffen werden müssen, dann müssen sie hier beginnen, im Zentrum des Computer-Ökosystems“, sagte Huang, 62, über seine Heimatinsel.
Was Bloomberg Intelligence dazu sagt: Die Bereitschaft zum Hochfahren der GB300-Server in der zweiten Jahreshälfte wird ein Hauptaugenmerk sein. Wir glauben, dass die breiteren Aussichten für die KI-Server-Nachfrage angesichts der anhaltenden wirtschaftlichen und geopolitischen Unsicherheiten ebenfalls auf dem Prüfstand stehen werden.
– Steven Tseng, Analyst
Opening-Up
Auf der Computex stellte Huang ein neues RTX Pro Server-System vor, das seiner Meinung nach eine viermal bessere Leistung als Nvidias früheres Flaggschiff H100 AI-System mit DeepSeek-Workloads bietet. Der RTX Pro Server ist auch 1,7 Mal so gut bei einigen Llama-Modell-Jobs von Meta Platforms. Dieses neue Produkt ist jetzt in der Serienproduktion, sagte Huang.
Der Chiphersteller bietet eine neue Version von kompletten Computern an, die er Rechenzentrumsbesitzern zur Verfügung stellt. Mit den NVLink Fusion-Produkten haben Kunden die Möglichkeit, entweder ihre eigenen zentralen Prozessoreinheiten mit Nvidias KI-Chips zu verwenden oder Nvidias CPUs mit den KI-Beschleunigern eines anderen Anbieters zu nutzen.
Bislang hat Nvidia nur solche Systeme angeboten, die mit seinen eigenen Komponenten gebaut wurden. Diese Öffnung seiner Designs – zu denen auch wichtige Konnektivitätskomponenten gehören, die eine Hochgeschwindigkeitsverbindung zwischen Prozessoren und Beschleunigern sicherstellen – gibt Nvidias Rechenzentrumskunden mehr Flexibilität und ermöglicht ein gewisses Maß an Wettbewerb, während die Nvidia-Technologie weiterhin im Mittelpunkt steht.
Große Kunden wie Microsoft und Amazon versuchen, ihre eigenen Prozessoren und Beschleuniger zu entwickeln, und das birgt die Gefahr, dass Nvidia für Rechenzentren weniger wichtig wird. MediaTek, Marvell Technology und Alchip Technologies werden kundenspezifische KI-Chips entwickeln, die mit Nvidia-Prozessoren zusammenarbeiten, sagte Huang. Qualcomm und Fujitsu planen die Herstellung kundenspezifischer Prozessoren, die mit Nvidia-Beschleunigern in den Computern zusammenarbeiten werden.
Wachsende Akzeptanz
Die kleineren Computer des Unternehmens – der Spark und die Station, die Anfang des Jahres angekündigt wurden – werden von einer breiteren Palette von Anbietern angeboten werden. Lokale Partner wie Acer und Gigabyte Technology werden sich der Liste der Unternehmen anschließen, die die tragbaren und Desktop-Geräte ab diesem Sommer anbieten, so Nvidia. Zu dieser Gruppe gehören bereits Dell Technologies und HP.
Lokale Unternehmen, darunter TSMC, haben Software und Dienstleistungen der Omniverse-Plattform von Nvidia genutzt, um so genannte digitale Zwillinge ihrer Fabriken zu erstellen. Das Verfahren hat laut Nvidia dazu beigetragen, die Modernisierung und Feinabstimmung von Anlagen zu beschleunigen, die für die Computerlieferkette von entscheidender Bedeutung sind. Das US-Chipunternehmen kündigte auch eine neue „Dream“-Software an, die ein schnelleres Training von Robotern durch fein abgestimmte Simulationsszenarien ermöglichen wird.
Werbung
Nvidia sagte, man biete detaillierte Pläne an, die den Aufbau von „KI-Fabriken“ durch Unternehmen beschleunigen sollen. Nvidia wird einen Service anbieten, der es Unternehmen ermöglicht, die nicht über eigene Fachkenntnisse für den mehrstufigen Prozess des Aufbaus ihrer eigenen KI-Rechenzentren verfügen, dies zu tun.
Nvidia kündigte auch eine neue Software namens DGX Cloud Lepton an. Sie soll Cloud-Computing-Anbietern wie CoreWeave und SoftBank dabei helfen, den Prozess der Zusammenführung von KI-Entwicklern mit den Computern zu automatisieren, die sie für die Erstellung und Ausführung ihrer Dienste benötigen. Das Unternehmen von Huang versucht, einen virtuellen globalen Marktplatz für KI-Computing zu schaffen.
FMW/Bloomberg
Kommentare lesen und schreiben, hier klicken