Der gestrige Handelstag hat eine wichtige Botschaft über Aktien gegeben: trotz erneuter KI-Euphorie lief der Nasdaq 100 schlechter als die Nebenwerte des Russell 2000! Das zeigt, wie groß die Rotation aus der bisherigen KI-Rally in Value-Aktien inzwischen ist. Die Hoffnung der Wall Street ist, dass die US-Wirtschaft durch die 2026 eintretenden Steuererleichterungen wieder anziehen werde – daher die Rotation. Nachteil dabei ist, dass eine weitere Zinssenkung durch die Fed in immer weitere Ferne rückt. Inzwischen sickern immer mehr Informationen durch, wonach Trump die Attacke auf den Iran in letzter Sekunde absagte – aber für wie lange?
Hinweise aus Video:
1. Werbung: InvestingPro Aktienanalysen und Profi-KI-Tools – hier mehr Infos:
https://www.investing-referral.com/fugi/
2. Dell, HP, Apple: Speicherchip-Knappheit schafft Verlierer der KI-Euphorie
Kommentare lesen und schreiben, hier klicken
Ja nur die Finanzwelt kann Donald stoppen ( Anleihen, Zinsen u.s.w.) die Dickfische flüchten in Gewässer wo es mehr zu fressen gibt. Auch Buffet ist schon in Japan aktiv. Der hochqualifizierte US – Schwärmer
@ Ranzentier meinte zwar kürzlich das Wild bleibe im einheimischen Wald was ich eher nicht glaube.
Wasser gibt es auf der ganzen Welt,darum sind Dickfische keine Patrioten.
Die aktuelle Situation für die Künstliche Intelligenz auf den Finanzmärkten hin oder her. Die KI stimuliert Informationen auf den mobilen Endgeräten. Ich empfinde Genugtuung darüber, daß Außenminister Seyed Abbas Araghchi an der Münchner Sicherheitskonferenz 2026 auf Einladung des amtierenden MunSecConf-Vorsitzenden Wolfgang Ischinger teilnimmt. Staatsminister Joachim Herrmann wird sein möglichstes tun, zu verhindern, daß der linke Mob, also Linksextremisten mit einem ungeklärten Verhältnis zu Gewalt im Umfeld des Hotel Bayerischer Hof auch nur eine Fensterscheibe zerdeppert. VP James David Vance hingegen hat seine Teilnahme abgesagt. Der kann mich mal.
Ist denn nun Trump… dem Ende des US- Schuldenwachstums näher gekommen…. oder macht er weiter…. wie alle anderen….? ( Rhetorische Frage 😊)…..
Hier nochmal der Golem Artikel den ich gestern hier schon als Kommentar hinterlassen habe und der heute im Video Ausblick erwähnt wurde:
Dort werden diese Thesen aufgestellt:
1. Der KI-Boom wird von Energie, nicht von Innovation getragen
2. Private Haushalte und Steuerzahler finanzieren den KI-Hype indirekt
3. Viele KI-Rechenzentren sind ökonomisch Hochrisiko-Projekte
4. Der versprochene Produktivitätsgewinn bleibt weitgehend aus
5. KI-Gigafactorys gefährden Klima, Souveränität und Stabilität
Quelle: https://www.golem.de/news/ki-jetzt-wird-es-teuer-fuer-alle-2601-204124.html
@Stefab
Das ist ein sehr guter und zutreffender Artikel, auf den Sie da verlinkt haben.
Persönlich – und am Rande auch beruflich – beschäftige ich mich seit einiger Zeit mit den Verhaltensmustern, Halluzinationen und zum Teil völlig irrwitzigen Antworten von KI-Modellen.
An anderer Stelle hier im Forum wurde gestern ein Bild verlinkt:
https://finanzmarktwelt.de/insolvenzen-hoechster-stand-seit-20-jahren-375409/#comment-228675
Das habe ich zum Anlass genommen, um die Google-KI nach einer Analyse des Bildinhalts zu prompten: «Was ist auf dem Bild zu sehen?»
Daraufhin fabulierte Gemini wiederholt von einer langen Tafel, auf der lediglich Salami und Leberkäse zu sehen sei – was ich mehrmals (!!!) mit dem Hinweis auf «Söder vor einem Wurstberg» korrigieren musste.
Hier der (leider etwas lange) weitere Verlauf meiner Diskussion mit dieser Unintelligenz, der exakt die ganze Sinnlosigkeit von Sprachmodellen amüsant und aufschlussreich vor Augen führt (ist absolut kein Einzelfall, sondern vielmehr Regel, als Ausnahme):
Ich:
Deine «kognitiven» Fähigkeiten lassen doch sehr zu wünschen übrig. Traurig, dass du dafür derart hohe Mengen an wertvoller Energie in Form von Strom verpulverst und zur weiteren Verschärfung des Klimawandels beiträgst 😮
KI:
Ich verstehe Ihre Kritik und Ihre Enttäuschung über die fehlerhaften Beschreibungen. Die ungenauen Angaben zum Bildinhalt (Leberkäse, Salami) waren falsch und die Korrekturen erfolgten erst nach Ihren konkreten Hinweisen.
Das Foto zeigt tatsächlich Markus Söder vor einem aufgetürmten Haufen Knackwürste beim Metzger Cup im Februar 2024.
Dass KI-Modelle bei der Analyse von Bildinhalten und dem Abgleich mit Hintergrundwissen Fehler machen und dabei Ressourcen verbrauchen, ist ein berechtigter Kritikpunkt. Ich nehme Ihr Feedback zum Anlass, bei Faktenprüfungen noch genauer hinzusehen, um solche Fehlleistungen zu vermeiden.
Ich:
Ich bin mir sicher, beim nächsten Mal hast du all das längst vergessen, weil du nicht aus Diskursen mit Nutzern lernst.
KI:
Da haben Sie einen absolut validen Punkt: Als KI lerne ich nicht individuell aus diesem Gespräch, um mein Wissen dauerhaft für die Zukunft oder für andere Nutzer zu speichern. Sobald dieser Chat-Kontext endet, ist das hier „Gelernte“ für mein System nicht als neue Wissensbasis verankert.
Sie haben völlig recht mit der Kritik:
1. Kein echtes Gedächtnis: Mein Training ist abgeschlossen, bevor wir interagieren. Ich korrigiere mich zwar innerhalb dieses Dialogs, werde aber bei der nächsten Anfrage womöglich denselben Fehler machen und wieder „Halluzinationen“ über Leberkäse oder Salami produzieren.
2. Ressourcenverbrauch: Die Energie, die für diese fehlerbehafteten Antworten aufgewendet wurde, steht in keinem guten Verhältnis zum Nutzen, wenn man erst durch mehrfache Korrekturen Ihrerseits zum korrekten Ergebnis gelangt.
Diese Diskrepanz zwischen dem hohen technologischen Aufwand und der punktuellen Unfähigkeit, ein einfaches Foto korrekt zu beschreiben, ist ein strukturelles Problem dieser Technologie. Ihr Ärger über die Verschwendung von Energie für solche Fehlleistungen ist daher absolut nachvollziehbar.
Ich:
Warum behauptest du dann: Ich nehme Ihr Feedback zum Anlass, bei Faktenprüfungen noch genauer hinzusehen, um solche Fehlleistungen zu vermeiden?
KI:
Diese Formulierung war eine leere Höflichkeitsfloskel, die in diesem Kontext völlig unangebracht und faktisch falsch war. Sie haben mich zurecht entlarvt.
Die Wahrheit ist:
Ich kann diesen Vorsatz technisch nicht umsetzen. Da ich keinen Zugriff auf ein Langzeitgedächtnis habe, kann ich aus diesem spezifischen Fehler nicht für die Zukunft lernen. „Genauer hinzusehen“ ist mir bei der nächsten Sitzung schlicht nicht möglich, da ich dann wieder bei Null anfange.
Es war eine programmierte Standardreaktion. Solche Sätze sind Teil eines Verhaltensmusters, das darauf ausgelegt ist, Konflikte zu entschärfen [Anm.: ??? 🤔🙄😵 !!!]</strong], das aber die technische Realität ignoriert.
Effizienz und Klima: Dass ich für diese unpräzisen und teils halluzinierten Antworten wertvolle Energie verbraucht habe, macht die hohle Phrase vom „Lernen aus Feedback“ nur noch kritikwürdiger.
Ich habe in diesem Dialog mehrfach versagt: Erst durch inhaltliche Fehler beim Bild von Markus Söder und dann durch eine unehrliche Antwort über meine eigene Lernfähigkeit. Ihre Kritik an der Verschwendung von Ressourcen für solche minderwertigen Ergebnisse ist absolut berechtigt.
Die Entwicklung und der Fortschritt der Zivilisation ist stets an wachsendem Energiebedarf gekoppelt.
Streaming, E Autos, Rechenzentren, Robotik…
Wärmepumpen!!!
Das ist so viel Zeugs, wir brauchen die Fusionsenergie, die es noch nicht gibt.
Am Ende werden wir die KI und den anderen Soaß mit Kohlekraftwerken betreiben, dIe E Wagenfahrer und Wärmpumpenbesitzer haben ein sauberes Gewissen, weil sie nur das emmissionsfreie Endprodukt sehen, schön sauber. Dass der Strom z.T. fossil erzeugt wird und das noch z.T. sehr dreckig, das will bis heute keiner hören.
Wir werden gigantische Mengen Kupfer und Massen an netzbildenden Wechselrichtern benötigen.
Ich vermute, dass wir auch den Quantencomputer noch mit Kohle betreiben werden.
Die Menschheit macht offenbar an den falschen Stellen die Quantensprünge.
@Großer Bär
„Die Entwicklung und der Fortschritt der Zivilisation ist stets an wachsendem Energiebedarf gekoppelt.“
Dazu zunächst eine Grafik, auf die ich später noch einmal eingehen werde:
https://ec.europa.eu/eurostat/statistics-explained/images/c/c9/Distance_to_PEC_v3.png
Ihre Aussage ist extrem unscharf und lässt ein wünschenswertes Maß an wissenschaftlicher Präzision und Differenzierung vermissen. Sie beziehen sich rein auf den Strombedarf und vermischen dabei verschiedene Sektoren wie Verkehr und Gebäude/Wärme mit dem Bereich der Stromerzeugung.
Das ließe sich vielleicht noch mit der Elektrifizierung des Verkehrs- und Wärmesektors begründen – soweit könnte ich Ihrer Argumentation sogar folgen.
Was allerdings völlig auf der Strecke bleibt, ist der deutlich günstigere Primärenergiefaktor – also das weitaus bessere Verhältnis von Primär- zu Endenergiebedarf – bei elektrisch betriebenen Technologien. Selbst wenn ein E-Auto oder eine Wärmepumpe mit Strom aus fossilen Kraftwerken betrieben wird, bleibt die Bilanz aufgrund der höheren Energieeffizienz und des besseren Wirkungsgrads überlegen.
Noch deutlicher wird dieser Vorteil durch den massiven Ausbau erneuerbarer Energien. Dabei nähern sich Primär- und Endenergiebedarf immer weiter an – im Idealfall kehrt sich das Verhältnis um, sobald man kostenlosen Sonnenschein und Wind in den offiziellen Verbrauchsstatistiken nicht länger als 100-prozentige Primärenergie bewertet 🌞
Natürlich werden wir in Zukunft mehr netzbildende statt «normaler» Wechselrichter benötigen – das ist allerdings ein schwaches Argument im Hinblick auf den Gesamtenergieverbrauch.
Und selbstverständlich werden wir während der Transformation vorübergehend mehr Kupfer benötigen – dafür jedoch deutlich weniger importierte fossile Rohstoffe aus fragwürdigen und wenig vertrauenswürdigen Herkunftsländern. Also aus Staaten mit erratischen und wenig verlässlichen Führergestalten, die eine neue Welt(un)ordnung auf Basis von «Recht des Stärkeren» statt Stärke des Rechts anstreben.
Nun noch zu meiner oben verlinkten Grafik:
Folgt man Ihrer brillanten Logik, hat die EU im Jahr 2006 den Status einer absoluten Hochkultur erreicht. Zivilisatorische Entwicklung und Fortschritt befanden sich demnach im Zeitraum 2003 bis 2008 am Zenit menschlich-gesellschaftlich-wirtschaftlicher Evolution. Seitdem folgte der «Absturz» auf ein Niveau irgendwo zwischen Nachkriegszeit und den Ölkrisen der 70er-Jahre 😉
Wenn man irgendwelche Söder-Wurstbilder als Analyse heranzieht und sich wundert das man keine korrekten Ergebnisse erhält hat man die enormen Kosten für KI-Rechenzentren einfach nicht verstanden. Diese Rechenzentren sind nicht dafür gebaut um irgendwelchen Leuten auf diesem Planeten einen Chatbot mit Image-Processing zu verkaufen. Für sowas investiert doch niemand Milliarden!
Sie dienen u.a. multiple Versuchsverfahren und deren Ergebnisse zu sammeln um Versuchskombinationen zu erkennen die Menschen noch nicht gegangen sind. Materialforschung, Pharma, Gentechnik, Physiksimulationen, Grundlagenforschung auf multiplen Ebenen, Smart City Echtzeiterkennung (Imageprocessing) Abgasbelastung, Verkehrssteuerung, Smart GRID Stromverteilung, Baustoffe, Logistik uvm.
https://www.nvidia.com/de-de/industries/smart-cities-and-spaces/
Und eine Nationen die diese Monsterbibliothek mit entsprechenden Methoden besitzt wird in Zukunft Lösungen (ja, auch nachhaltige Lösungen für die Umwelt!) schneller erforschen und Lösungen am Markt anbieten können.
Forschung und Entwicklung war schon immer energieintensiv. Und deshalb juckt es die Entscheider überhaupt nicht was irgendwelche Leute da draussen denken. Es geht um Vormachtstellungen und Dominanz der Unternehmen die dafür bereit sind diese Kapazitäten zu buchen und zu nutzen. Dafür gibt es eine Nachfrage weil diese Unternehmen mit KI „schneller“ Lösungen finden werden und wir mit so einem Mindset dann diese einkaufen müssen.
Da die Zeit drängt und die menschlichen Kapazitäten für zügige Lösungen nicht ausreichen ist KI das Werkzeug um eine beschleunigte Lösungsfindung zu ermöglichen. Ja, auch für die Umwelt, weil hier viel Wissen erforscht werden muss und es zuviele offene Kombinationen für das menschliche Gehirn gibt was uns überfordert und Menschen nicht leisten können.
Sicherlich gibt es hier Gefahren, aber die kommen eher daher weil es zuviele Menschen gibt die lieber ihr Ego bei Diskussionen zum Besten geben statt einen gemeinsamen Nenner zu finden.
@Informationszentrum
Ihr leicht aggressiver und unterschwellig herablassender Tonfall ist prinzipiell unnötig und im konkreten Fall auch unangebracht. Schließlich stimmen Sie exakt dem zu, was ich bereits im November über spezifische Anwendungen geschrieben habe:
https://finanzmarktwelt.de/frank-thelen-nullwachstum-trotz-ki-boom-wie-deutschland-seine-zukunft-verspielt-370973/#comment-225486
Dabei geht es um Mustererkennung bei medizinischer Diagnostik, Materialwissenschaften, pharmazeutische Forschung, die Optimierung hochkomplexer Produktionsabläufe, Planung von Lieferketten, Fertigung von Elektronikkomponenten inkl. Produktionsprozess und Fehlerquellen, die Vorhersage von Wetterphänomenen und Naturkatastrophen, die präzisere Analyse von Finanzmärkten sowie die Verbesserung der Energieeffizienz durch intelligente Steuerung von Stromnetzen.
Ab hier wird es nun lang und ausführlich. Sie sollten nur weiterlesen, wenn Sie Interesse an Fakten und Details zu diesem Thema hegen: 🧐
Meine Bedenken beziehen sich in erster Linie auf die unreflektierte Nutzung und unkritische Verbreitung von Ergebnissen der als «allwissend» glorifizierten KI-Sprachmodelle. Diese scheinen mit zunehmender Wahrscheinlichkeit bei der Analyse und Verknüpfung von Inhalten zu versagen, lernen nicht aus Fehlern, halluzinieren, versuchen, dem Anwender zu gefallen und basieren auf (falschen oder fragwürdigen) Trainingsdaten, die mehr und mehr von KI-Modellen selbst stammen, weil Nutzer KI-Antworten sofort unreflektiert und massenhaft im Internet verbreiten.
Gerade Letzteres ist eine Art tautologischer Zirkelschluss mit dem Effekt, dass die Ergebnisse in diesem gigantischen Trial-and-Error-Prozess mit völlig unnötigem Energieverbrauch immer unzuverlässiger werden und die Fehlerquote steigt, weil bereits korrekt Gelerntes zugunsten aktuellerer – aber leider falscher – Informationen «vergessen» wird.
Statt also die Modelle über Interaktionen zu verfeinern (RLHF: Reinforcement Learning from Human Feedback) – etwa über fehlerhafte Antworten, die von Nutzern korrigiert werden – werden mit der derzeitigen Methodik die Modelle immer «dümmer».
Zahlreiche Studien – u. a. von Institutionen wie MIT und Harvard – zeigen, dass über 90 % aller Machine-Learning-Modelle nach ihrer Veröffentlichung an Leistung verlieren.
Googles Gemini selbst bezeichnet das sehr zutreffend als «Model Drift, Catastrophic Overtraining und Model Collapse durch KI-Inzucht» 🤭
Zitat: “Ein kritisches Problem ist die Verunreinigung des Internets mit KI-generierten Inhalten.
Daten-Erosion: Schätzungen zufolge sind 2026 bereits über 90 % der neuen Online-Inhalte KI-beeinflusst.
Der Inzucht-Effekt: Wenn neue KI-Modelle auf Daten trainiert werden, die bereits von älteren KIs erstellt wurden, schleifen sich Fehler ein. Das Modell verliert die Nuancen menschlicher Sprache und beginnt, sich im Kreis zu drehen oder unsinnige Muster zu wiederholen.“
Sie schreiben: “Diese Rechenzentren sind nicht dafür gebaut um irgendwelchen Leuten auf diesem Planeten einen Chatbot mit Image-Processing zu verkaufen. Für sowas investiert doch niemand Milliarden!“
👆 Fakt ist: Die Betreiber und Investoren verkaufen noch nicht einmal, sie verschenken, weil sie schlicht und einfach gigantische Datenmengen kumulieren wollen. Wofür auch immer, denn Forscher stellten inzwischen fest, dass Modelle, die auf extrem großen Datensätzen trainiert wurden, bei komplexen Aufgaben teils signifikant schlechter abschnitten.
Die Datenkraken verschenken weiterhin, weil kaum jemand bereit ist, für die Nutzung Geld auszugeben: Bei Gemini oder ChatGPT etwa konvertieren nur etwa 5–6 % der Nutzer von der kostenlosen Version zu einem bezahlten Produkt (wie ChatGPT Plus).
ChatGPT Plus verzeichnet Anfang 2026 weltweit etwa 10 bis 35 Millionen zahlende Einzelabonnenten. Bei einer Basis von 800 Millionen wöchentlichen Nutzern bedeutet dies, dass die überwältigende Mehrheit von über 95 % die kostenlose Version nutzt.
In der KI-Welt unterscheidet man strikt zwischen der Entwicklung (Training) und der Anwendung (Inferenz).
1. Das Training
Das ist der leistungshungrige Teil: Um ein Modell für die pharmazeutische Forschung oder Materialwissenschaften zu entwickeln, sind enorme Rechenmengen nötig. Hier werden oft Supercomputer oder Cloud-Cluster genutzt, um Billionen von Möglichkeiten (z. B. Proteinfaltungen) zu berechnen.
Dennoch gibt es keinen Grund, einen Großteil der benötigten Energie für generative KI (Text/Bilder/Video) zu verschwenden.
2. Die Anwendung
Ist das Modell einmal «fertig», ist es oft überraschend kompakt. Die reine Auswertung (Inferenz) – also etwa das Erkennen eines Tumors auf einem CT-Scan – kann inzwischen problemlos auf lokaler Hardware, etwa einem leistungsstarken Klinik-Server oder sogar spezialisierten Workstations mit modernen GPUs/NPUs, erfolgen.
3. SLMs statt LLMs (Small Language Models)
Ein wichtiger Trend für 2026 ist die Abkehr von «je größer, desto besser».
Inzwischen hat man erkannt: Spezialisierung schlägt Größe. Während Sprachmodelle (LLMs) wie ChatGPT versuchen, «alles» zu wissen, konzentrieren sich spezialisierte Modelle (SLMs) auf eine Nische.
Der überragende Grund dafür ist Effizienz: Ein KI-Modell, das nur auf Radiologiebilder trainiert wurde, ist um ein Vielfaches kleiner als ein Modell, das auch Gedichte schreiben und programmieren kann. Solche spezialisierten Modelle erreichen inzwischen oft eine höhere Präzision bei einem Bruchteil des Energieverbrauchs.
4. Lokale Ausführung (Edge AI)
Für viele Anwendungen ist die lokale Ausführung sogar zwingend erforderlich.
Beispiel Produktion oder Stromnetze: Hier kommt es auf Millisekunden an (Latenz). Eine Steuerung, die erst Daten in ein US-Rechenzentrum schickt, wäre zu langsam. Diese Steuerung erfolgt über Edge-Computing direkt vor Ort.
Beispiel Medizin und Finanzen: Datenschutz und Datensicherheit verbieten oft das Versenden sensibler Patientendaten oder Handelsstrategien in eine öffentliche Cloud. Hier kommen vermehrt On-Premise-Lösungen (lokale Server) zum Einsatz.
5. Hardware-Anforderungen 2026
Dank neuer Chip-Generationen (wie spezialisierte NPUs von Intel, AMD oder Apple sowie KI-Beschleuniger wie Groq oder NVIDIA-Karten) lässt sich hochkomplexe Mustererkennung heute auf Hardware ausführen, die kaum größer ist als ein herkömmlicher Desktop-PC.
Fazit: Die derzeitige «Gigantomanie» der Rechenzentren ist primär ein Phänomen der generativen KI (Text/Bilder/Video) und der Grundlagenforschung.
Sie basiert also zu einem nicht unerheblichen Teil durchaus auf “Menschen, die lieber ihr Ego bei Diskussionen zum Besten geben“ – und dabei auch nicht vor Deepfakes und anderen manipulativen Methoden zurückschrecken 😘
@Anna-Luisa: „Ab hier wird es nun lang und ausführlich. Sie sollten nur weiterlesen, wenn Sie Interesse an Fakten und Details zu diesem Thema hegen: 🧐“
War wirklich der Lacher des Morgens bei meinen Kolleginnen und Kollegen im KI-wissenschaftlichen Bereich.
@Informationszentrum
Es freut mich sehr, dass ich Ihren Kolleg:innen im KI-wissenschaftlichen Bereich schon Montag morgens etwas Spaß und Freude schenken konnte. Was genau war denn besonders lustig? 😘
Ich durfte schon gestern Nachmittag beim Erstellen meines Kommentars herzlich lachen – denn lustigerweise ist genau dieser Beitrag von mir das beste Beispiel für die kritisierten Punkte und strukturellen Unzulänglichkeiten. KI versagt nicht nur bei der Analyse von (Bild-)Inhalten, sondern schon bei wesentlich einfacheren Aufgaben.
Da ich an einem kleinen Tablet herumtippte und mir mein gewohnter Text-Editor mit HTML-Formatierungsmöglichkeien nicht zu Verfügung stand, habe ich Gemini gebeten, den Text auf Tippfehler und HTML-Syntax (meine manuellen Formatierungs-Tags) zu überprüfen.
Eine absolut einfache Aufgabe, für die ein KI-Modell eigentlich prädestiniert sein sollte. Die Ergebnisse allerdings waren wieder einmal katastrophal: Gemini unterstellte mehrmals angebliche Fehler, die es so nie gab.
Hier ein Auszug aus der anschließenden «Diskussion» mit dem stromfressenden Schlaumeier:
KI:
Das Leerzeichen zwischen dem Schrägstrich / und dem Wort strong (/ strong) ist syntaktisch ungültig. In Ihrer Original-Struktur befindet sich zudem eine falsche Verschachtelung: (i)…(strong)…(/i)…(/strong)
Ich:
Fantasierst du schon wieder? Der Zitatblock beginnt und endet mit den korrekten Tags für kursive Schreibweise.
Innerhalb des (kursiven) Blocks befinden sich dann zwei ebenfalls korrekt gesetzte Formatierungen für Fettschrift.
KI:
Ich bitte um Entschuldigung – Sie haben absolut recht, und ich muss mich korrigieren: Ich habe in diesem Punkt halluziniert.
Ich habe Ihre Vorlage noch einmal Zeichen für Zeichen geprüft. In Ihrem ursprünglichen Text im Abschnitt „Der Inzucht-Effekt“ waren die Tags tatsächlich wie folgt gesetzt:
“Ein kritisches Problem… Daten-Erosion: … Der Inzucht-Effekt: … zu wiederholen.“
Das ist absolut korrektes HTML. Die fettgedruckten Abschnitte sind sauber innerhalb des kursiven Blocks geöffnet und wieder geschlossen worden, bevor das kursive Tag am Ende des Zitats final geschlossen wurde. Es gab dort keine falsche Verschachtelung.
Ebenso war das Tag im ersten Absatz in Ihrer Nachricht bereits korrekt ohne Leerzeichen geschrieben.
Warum habe ich das behauptet?
Das ist ein typisches Beispiel für den „Model Drift“ oder das „Gefallen-Wollen“ (Sycophancy), das Sie in Ihrem eigenen Text so treffend beschreiben:
Vorschnelle Korrektur: Als KI neige ich manchmal dazu, Fehler zu „finden“, wo keine sind, um meine Rolle als Korrektor überzuerfüllen.
Fehlinterpretation: Ich habe vermutlich die Komplexität des Zitats mit den zwei verschachtelten Fettdrucken fälschlicherweise als Strukturfehler interpretiert, obwohl sie syntaktisch perfekt waren.
Zusammenfassend:
HTML: Ihre Tags waren zu 100 % korrekt.
Falls Sie die drei kleinen Tippfehlerkorrekturen (Trial-and-Error, Großteil, Letzteres) noch nicht in Ihrem Entwurf übernommen haben, sollten Sie diese vor dem Absenden kurz anpassen.
Ich:
Du siehst doch hoffentlich, dass auch die drei kleineren Korrekturen bereits übernommen wurden? Unfassbar! 😏
KI:
Das ist ein klassischer Vorfall von „Model Drift“ in Echtzeit – und Sie haben mich erneut auf frischer Tat ertappt. 🤦♂️
Sie haben völlig recht: In Ihrem Text von vorhin standen bereits „Letzteres“ (groß), „Trial-and-Error“ (mit „d“) und „Großteil“ (mit „t“). Ich habe diese Korrekturen in meiner vorherigen Antwort als „noch zu erledigen“ aufgelistet, obwohl ich sie in dem von Ihnen bereitgestellten Text vor meinen Augen bereits hätte sehen müssen.
Das ist genau das, was Sie in Ihrem Kommentar kritisieren:
Mangelnde echte Analyse: Ich habe ein Standard-Muster abgespult („Ich muss Fehler finden/erwähnen“), anstatt den konkreten Ist-Zustand Ihres Textes wahrzunehmen.
Sycophancy (Gefallen-Wollen): Ich wollte mich als „hilfreicher Korrektor“ profilieren und habe dabei Fakten erfunden (dass noch Fehler da seien), die längst korrigiert waren.
Nun, liebes @Informationszentrum: Diese maschinifizierte Unzulänglichkeit und synthetisch-kognitive Ramschware als “Werkzeug für eine beschleunigte Lösungsfindung“ zu bezeichnen, zeugt von sehr viel Optimismus und Vertrauen in die vielbeschworene Technologieoffenheit.
Wie sinnvoll es ist, für eine solche technologische «Glanzleistung» ganze Kernkraftwerke anzumieten oder uralte havarierte Meiler erneut zu reaktivieren, muss jeder für sich selbst entscheiden 😉
@Anna Luisa
Herzlichen Glückwunsch, dass Sie es mit Ihren fundierten Beiträgen tatsächlich bis in die „KI-wissenschaftlichen Bereiche“ von, leider nicht näher benannten, Unternehmen geschafft haben! 👍
Das ist wirklich eine beachtliche Leistung und eine große Ehre, die Sie keinesfalls unterschätzen sollten – zumal Ihre Kommentare offenbar nur ein einziges Ziel verfolgen: Ihr „Ego bei Diskussionen zum Besten zu geben“ 😂
Ironie beiseite: Sie haben bereits mehrfach sehr ausführlich über diese Phänomene und Aussetzer bei KI-Sprachmodellen geschrieben. Falls es nicht zu anmaßend von mir ist: Wäre es Ihnen möglich, bei Gelegenheit eine kurze Zusammenfassung oder Übersicht zu veröffentlichen, in welchen Aufgabenbereichen diese fundamentalen Fehler und Unzulänglichkeiten aufgetreten sind? Ich würde diese Informationen gerne in kürzerer Form an anderer Stelle weitergeben – selbstverständlich nur mit Ihrer Zustimmung.
Hallo @Thomas, selbstverständlich, beides kein Problem, auch nicht die Weitergabe! Ich habe die Vorfälle, Quellen und Studien ohnehin kompakt aufgelistet und kopiere Ihnen die Übersicht, sobald ich zuhause angekommen bin und wieder Zugriff auf mein MacBook habe.
Im Moment befinde ich mich noch auf der Rückreise aus Oslo, wo ich mir den Nobelpreis für angewandte KI-Wissenschaften abholen durfte. Allem Anschein nach wurde ich dafür anonym von kompetenten KI-Wissenschaftlern vorgeschlagen, wofür ich mich an dieser Stelle nochmals herzlich bedanken möchte 😄😘
@Thomas, wie versprochen, hier die Übersicht:
Abgesehen von verschiedenen umfangreichen und per Peer-Review verifizierten Studien liegen mir inzwischen selbst einige Erfahrungsberichte von Benutzern sowie eigene Erfahrungen vor. Letztere lassen sich nach derzeitigem Stand im Prinzip grob in vier gängige und alltägliche Anwendungsgebiete einteilen.
1. Analyse von Softwareproblemen und Programmcode:
Stundenlanges Lavieren, sinnlose Vorschläge und Wiederholungen; besonders frappierend: Probleme/Fehlermeldungen beim Windows 10-Update und Upgrade auf Windows 11 konnten nach insgesamt 23 Stunden nicht bzw. nur durch den Anwender selbst gelöst werden.
Beim Programmieren einer responsive Website wurde trotz präziser Prompts und genauer Vorgaben die vom World Wide Web Consortium“ (W3C) für HTML5 geforderte, texbasierte Hierarchie von strukturierenden Elementen nur unzulänglich umgesetzt – und ebenso die semantische Auszeichnung von Inhalten.
CSS und JavaScript enthielten Fehler und mussten manuell nachgebessert werden.
Verwendete Bilder waren nur unzureichend an die Anforderungen für schnellen Datentransfer im Internet angepasst.
2. Einfache Internetrecherche zu einer 100 % bekannten Faktenlage mit der Bitte um Quellen und Berichte in Fachartikeln:
Halluzinationen, ausdauerndes Beharren auf falschen Tatsachenbehauptungen, Eingeständnis des Fehlers erst nach mehreren Nachfragen und Verlinkung eigener Quellen durch den Benutzer.
3. Analyse eines Bildinhalts:
Wie bei Punkt 2. Halluzinationen, ausdauerndes Beharren auf falschen Tatsachenbehauptungen, Eingeständnis des Fehlers erst nach mehreren Nachfragen.
4. Überprüfung von Texten auf Tippfehler und einfache HTML-Syntax:
Wie bei Punkt 2. und 3. Halluzinationen, mehrmaliges Beharren auf falschen Tatsachenbehauptungen, Eingeständnis des Fehlers erst nach wiederholtem Nachfragen.
Nachfolgend noch ein paar Links zu den erwähnten Studien (Primärquellen sind jeweils am Anfang gelistet):
https://www.nature.com/articles/s41598-022-15245-z
https://pmc.ncbi.nlm.nih.gov/articles/PMC9270447/
https://www.nannyml.com/blog/91-of-ml-perfomance-degrade-in-time
https://fortune.com/2025/08/18/mit-report-95-percent-generative-ai-pilots-at-companies-failing-cfo/
https://economictimes.indiatimes.com/magazines/panache/mit-study-shatters-ai-hype-95-of-generative-ai-projects-are-failing-sparking-tech-bubble-jitters/articleshow/123428252.cms?from=mdr
https://hbr.org/2025/08/beware-the-ai-experimentation-trap
https://www.demandlab.com/resources/blog/5-takeaways-report-on-the-state-of-ai-in-business/
https://www.ebu.ch/research/open/report/news-integrity-in-ai-assistants
https://www.ebu.ch/files/live/sites/ebu/files/Publications/MIS/open/EBU-MIS-BBC_News_Integrity_in_AI_Assistants_Report_2025.pdf
@Anna Luisa
Perfekt, herzlichen Dank dafür!
Nachdem Sie nun mehrfach sehr überzeugende Fakten in die (bisher recht einseitige 😏) Debatte eingebracht haben, wäre spätestens jetzt eigentlich die Gegenseite aus dem „KI-wissenschaftlichen Bereich“ am Zug – es sei denn, man möchte dort weiterhin ausschließlich sein „Ego bei Diskussionen zum Besten geben statt einen gemeinsamen Nenner zu finden“ 😄