Die Qualcomm-Aktie steigt aktuell um 17 %. Denn vor wenigen Minuten meldete der Chiphersteller seinen de facto Großangriff im KI-Markt, den man auch als Angriff auf die Dominanz von Nvidia ansehen kann.
Qualcomm mit „Großangriff“ im KI-Markt
Die Lösungen Qualcomm AI200 und AI250 bieten Rack-Scale-Leistung und überlegene Speicherkapazität für schnelle generative KI-Inferenz in Rechenzentren zu branchenführenden Gesamtbetriebskosten, so meldet es das Unternehmen aktuell. Qualcomm AI250 führt demnach eine innovative Speicherarchitektur ein, die einen Generationssprung in Bezug auf die effektive Speicherbandbreite und Effizienz für KI-Workloads bieten soll.
Beide Lösungen verfügen über einen umfangreichen Software-Stack und sind nahtlos mit führenden KI-Frameworks kompatibel, sodass Unternehmen und Entwickler sichere, skalierbare generative KI in Rechenzentren einsetzen können. Die Produkte sind Teil einer mehrjährigen Roadmap für KI-Inferenz in Rechenzentren mit jährlicher Kadenz, so meldet es Qualcomm.
Auszugsweise aus der Unternehmensmeldung im Wortlaut (übersetzt): Qualcomm Technologies hat heute die Einführung seiner nächsten Generation von KI-Inferenz-optimierten Lösungen für Rechenzentren bekannt gegeben, nämlich die chipbasierten Beschleunigerkarten Qualcomm® AI200 und AI250 sowie Racks. Aufbauend auf der führenden NPU-Technologie des Unternehmens bieten diese Lösungen Rack-Leistung und überlegene Speicherkapazität für schnelle generative KI-Inferenz bei hoher Leistung pro Dollar pro Watt – ein großer Fortschritt für die Bereitstellung skalierbarer, effizienter und flexibler generativer KI in allen Branchen.
Qualcomm AI200 führt eine speziell entwickelte AI-Inferenzlösung auf Rack-Ebene ein, die niedrige Gesamtbetriebskosten (TCO) und optimierte Leistung für die Inferenz großer Sprach- und multimodaler Modelle (LLM, LMM) sowie andere AI-Workloads bietet. Sie unterstützt 768 GB LPDDR pro Karte für eine höhere Speicherkapazität und niedrigere Kosten und ermöglicht so eine außergewöhnliche Skalierbarkeit und Flexibilität für die AI-Inferenz.
Die Qualcomm AI250-Lösung wird mit einer innovativen Speicherarchitektur auf Basis von Near-Memory-Computing eingeführt und bietet einen Generationssprung in Sachen Effizienz und Leistung für KI-Inferenz-Workloads, indem sie eine mehr als zehnmal höhere effektive Speicherbandbreite und einen deutlich geringeren Stromverbrauch bietet. Dies ermöglicht eine disaggregierte KI-Inferenz für eine effiziente Nutzung der Hardware und erfüllt gleichzeitig die Leistungs- und Kostenanforderungen der Kunden.
Qualcomm macht Nvidia bei KI-Beschleunigern Konkurrenz
Qualcomm, der führende Hersteller von Mobilfunkprozessoren, steigt mit neuen Chips und Computern in den lukrativen Markt für KI-Rechenzentren ein und will Nvidia in diesem am schnellsten wachsenden Bereich der Branche herausfordern, so Bloomberg News aktuell. Weiter wird berichtet: Der AI200 wird ab nächstem Jahr ausgeliefert und entweder als eigenständige Komponente, als Karte, die in bestehende Maschinen eingebaut werden kann, oder als Teil eines kompletten Server-Racks von Qualcomm angeboten. Der erste Kunde für diese Produkte wird das saudische KI-Startup Humain sein, das ab 2026 eine Rechenleistung von 200 Megawatt auf Basis der neuen Chips einsetzen will.
Auf diese ersten Produkte wird 2027 der AI250 folgen, teilte das Unternehmen aus San Diego heute mit. Wenn die Komponente nur als Chip geliefert wird, könnte sie in Geräten eingesetzt werden, die auf Prozessoren von Nvidia oder anderen Konkurrenten basieren. Als vollständiger Server wird sie mit den Angeboten dieser Chiphersteller konkurrieren.
Qualcomm versucht, in einen Bereich vorzudringen, der die Halbleiterindustrie neu gestaltet hat, wobei Hunderte von Milliarden Dollar für Rechenzentren ausgegeben werden, um Software und Dienste für künstliche Intelligenz zu betreiben. Das Unternehmen erklärte, dass neue speicherbezogene Funktionen und die Energieeffizienz von Designs, die ihre Wurzeln in der Mobilgerätetechnologie haben, trotz des relativ späten Einstiegs von Qualcomm Kunden anziehen werden.
Die neuen Angebote basieren auf einer neuronalen Verarbeitungseinheit, einer Art Chip, der erstmals in Smartphones zum Einsatz kam und dafür ausgelegt ist, KI-bezogene Arbeitslasten zu beschleunigen, ohne die Akkulaufzeit zu beeinträchtigen. Diese Funktion wurde durch den Einstieg von Qualcomm in den Markt für Laptop-Chips weiterentwickelt und nun für den Einsatz in den leistungsstärksten Computern skaliert.
Unter der Leitung von CEO Cristiano Amon versucht Qualcomm, sich von seiner Abhängigkeit von Smartphones zu lösen, deren Umsatz nicht mehr so schnell wächst wie früher. Das Unternehmen hat sich auf Chips für Autos und PCs verlegt, bietet aber erst jetzt ein Produkt für den mittlerweile größten Einzelmarkt für Prozessoren an.
Qualcomm habe sich „in diesem Bereich zurückgehalten, sich Zeit genommen und seine Stärke ausgebaut“, so Durga Malladi, Senior Vice President des Unternehmens. Qualcomm sei mit allen großen Abnehmern solcher Chips im Gespräch über den Einsatz von Server-Racks auf Basis seiner Hardware, sagte er.
Aufträge von Unternehmen wie Microsoft, Amazon und Meta Platforms würden Qualcomm eine bedeutende neue Einnahmequelle bieten. Das Unternehmen hat in den letzten zwei Jahren ein solides, profitables Wachstum verzeichnet, aber die Anleger haben andere Technologiewerte bevorzugt. Die Qualcomm-Aktie hat im Jahr 2025 um 10 % zugelegt und liegt damit hinter dem 40-prozentigen Anstieg des Philadelphia Stock Exchange Semiconductor Index zurück.
Nvidia, das nach wie vor an der Spitze der KI-Computing-Welt steht, ist auf dem besten Weg, in diesem Jahr mit seiner Rechenzentrumssparte einen Umsatz von mehr als 180 Milliarden US-Dollar zu erzielen – mehr als jeder andere Chiphersteller, einschließlich Qualcomm, insgesamt erzielen wird, wie Schätzungen zeigen. Laut Malladi werden die neuen Chips von Qualcomm eine beispiellose Speicherkapazität bieten. Sie werden über bis zu 768 Gigabyte an energiesparendem dynamischem Direktzugriffsspeicher verfügen.
Die Speicherzugriffsgeschwindigkeit und -Kapazität sind entscheidend für die Geschwindigkeit, mit der die Chips die bei der KI-Arbeit verarbeiteten Datenmengen verarbeiten können. Die neuen Chips und Computer sind für Inferenzaufgaben ausgelegt, also die Berechnungen, die hinter dem Betrieb von KI-Diensten stehen, sobald die großen Sprachmodelle, auf denen die Software basiert, trainiert wurden.
FMW/Bloomberg
Kommentare lesen und schreiben, hier klicken












