Allgemein

KI der nächsten Generation DeepSeek greift an: Chinas KI-Modell stellt USA in den Schatten

DeepSeek greift an: Chinas KI-Modell stellt USA in den Schatten
DeepSeek. Foto: Bloomberg

China rüttelt erneut am globalen KI-Markt: Mit DeepSeek präsentiert ein aufstrebendes Start-up ein KI-Modell der nächsten Generation, das mit seiner neuartigen „Sparse Attention“-Technik die Effizienz von Trainings- und Betriebsprozessen revolutionieren soll. Damit zeigt China, dass es trotz Chip-Beschränkungen weiterhin entschlossen ist, im weltweiten Rennen um künstliche Intelligenz die Führung zu übernehmen – und den USA zunehmend den Rang abläuft.


Werbung

DeepSeek: KI-Modell der nächsten Generation

Wie Bloomberg berichtet, hat das bekannte Start-up aus China, DeepSeek, mit „Sparse Attention” ein KI-Modell der nächsten Generation vorgestellt. Das Unternehmen hat sein experimentelles KI-Modell aktualisiert und bezeichnet es als Schritt in Richtung KI der nächsten Generation. Damit setzt es die USA, die selbst führend im KI-Sektor sein wollen, weiter unter Druck.

Das chinesische Start-up stellte die Plattform DeepSeek-V3.2-Exp, dass eine neue Technik namens „DeepSeek Sparse Attention” (DSA) für schnelleres, effizienteres Training und Inferenz bei langem Kontext verwendet. Dies geht aus einem Beitrag auf seiner Hugging-Face-Seite hervor. Die neueste Version sei „ein Zwischenschritt auf dem Weg zu unserer Architektur der nächsten Generation”, so das in Hangzhou ansässige Unternehmen. Es wies außerdem darauf hin, dass es bei der Entwicklung des Ki-Modells mit chinesischen Chipherstellern zusammenarbeitet.

DeepSeek, dessen bahnbrechendes R1 in diesem Jahr mit seiner Raffinesse das Silicon Valley verblüffte, arbeitet an neuen Produkten, um diese Führungsposition im chinesischen KI-Sektor zu festigen. Die neueste Version baut auf der älteren V3.1-Terminus auf und führt einen Mechanismus ein, der das KI-Training und den KI-Betrieb untersuchen und optimieren soll. Damit soll die Forschung des Start-ups zur Verbesserung der Effizienz bei der Verarbeitung langer Textsequenzen präsentiert werden.

Kostengünstige Effizienz

Die Verwendung des Sparse-Attention-Mechanismus unterstreicht die beharrliche Suche von DeepSeek nach Möglichkeiten, die Kosten und den Aufwand für das Training von KI-Modellen zu senken, da der Zugang zu Chips von Nvidia und anderen US-Herstellern begrenzt ist. DeepSeek-Gründer Liang Wenfeng war in diesem Jahr Mitautor einer Veröffentlichung zu genau diesem Thema, in der er darlegte, wie Entwickler Software-Innovationen mit kalibrierter Hardware kombinieren können, um den Rechenaufwand zu reduzieren.

„Einfach ausgedrückt bedeutet dies, dass zwar etwas Genauigkeit bei den Ergebnissen verloren geht, dafür aber ein hohes Maß an Intelligenz beibehalten wird“, schrieb Jefferies-Analyst Edison Lee. Fortgesetzte Innovationen bei der Modelleffizienz würden trotz Chip-Beschränkungen zu einer raschen Einführung von KI und einem besseren ROI in China führen.

Wichtig ist, dass DeepSeek durch die Kostensenkung mehr Spielraum im Wettbewerb erhält. Das Unternehmen kündigte an, die Preise für seine Softwaretools zu halbieren. Damit schließt es sich anderen chinesischen Start-ups an, die ihre Kosten senken, um Nutzer zu gewinnen. Am Montag gaben die führenden chinesischen Anbieter von KI-Chips, Huawei Technologies und Cambricon Technologies, bekannt, dass ihre Produkte das neueste KI-Modell-Update von DeepSeek unterstützen werden.

Gleichgewicht zwischen Geschwindigkeit und Genauigkeit

DeepSeek gab an, dass die neuesten Versionen seiner Modelle die FP8- oder Floating-Point-8-Architektur unterstützen, während die Unterstützung von BF16 noch in Arbeit ist. Dabei handelt es sich um Fachbegriffe für die Art und Weise, wie Zahlen für KI und maschinelles Lernen auf Computern gespeichert werden können. FP8 spart theoretisch Speicherplatz und beschleunigt Berechnungen.

Da KI-Modelle Millionen von Zahlen verarbeiten, sorgt die Verwendung kleinerer Formate wie FP8 und BF16 für ein Gleichgewicht zwischen Geschwindigkeit und Genauigkeit und erleichtert die Ausführung großer Modelle auf begrenzter Hardware. Obwohl FP8 nicht sehr präzise ist, gilt es für viele KI-Aufgaben als nützlich. BF16 (Brain Floating Point 16) gilt hingegen als genauer für das Training von KI-Modellen.

FMW/Bloomberg



Über den RedakteurStefan Jäger

Stefan Jäger berichtet als Finanzjournalist über das aktuelle Geschehen an den Aktien- und Edelmetallmärkten. Mit fundierter Fundamentalanalyse und präziser Technischer Analyse beleuchtet er zudem Chancen und Risiken verschiedenster Assets.

Kommentare lesen und schreiben, hier klicken

Lesen Sie auch

3 Kommentare

  1. Das ist der bekannte chinesische Ansatz die Kosten für ein Produkt ständig zu senken, (was gelegentlich zu Problemen führt). Genau deshalb kosten chinesische eAutos halb so viel wie deutsche eAutos (und brennen manchmal ab). Die US-KI-Industrie wird sich warm anziehen müssen, wenn sie nicht anfangen ebenfalls auf die Kosten zu achten. Das passt allerdings nicht zu dem extrem hohem Aktienkurs von Nvidea.

    1. Jede Innovation verbrennt auch Kapital. Zu Beginn muss immer viel Geld fließen. Wer zu früh spart, wird abgehängt, wer zu spät spart, geht pleite.

      Das müssen die entscheiden, die das Kapital geben. Solange es Privatkapital ist, ist mir das ganz gleich. Denn da paßt Roberts Spruch: Das Geld ist nicht weg, es hat nur wer anders.

      1. Das müssen die entscheiden, die das Kapital geben.

        Hier bei fmw klang manchmal an, dass das möglicherweise gar nicht die großen Unternehmen sind. Beim KI-Start-up von Elon Musk ist es bsw so, dass er sich 10 Mrd geholt hat: 5 Mrd aus besicherten Anleihen und Darlehen und weitere 5 Mrd als Eigenkapital von irgendwelchen Investoren. Für mich sieht das ähnlich aus wie seinerzeit das mit den Firmenübernahmen, wo mit fremden Geld das ganz große Rad gedreht wurde. Wenn das Risiko von anderen Leuten getragen wird, kann man spekulative Deals leicht machen. Fragt sich wie verbreitet das ist.

Hinterlassen Sie eine Antwort

Ihre E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert




ACHTUNG: Wenn Sie den Kommentar abschicken stimmen Sie der Speicherung Ihrer Daten zur Verwendung der Kommentarfunktion zu.
Weitere Information finden Sie in unserer Zur Datenschutzerklärung


Meist gelesen 7 Tage

Die mobile Version verlassen
Place this code at the end of your tag:
Place this code at the end of your tag:
Capital.com CFD Handels App
Kostenfrei
Jetzt handeln Jetzt handeln

69,0% der Kleinanlegerkonten verlieren Geld.