Mr Dax Dirk Müller wird von vielen großen Medien als einer der Crashpropheten betitelt. Ständig Krise, ständig alles Schwarz sehen? Auch ist die Kritik an der miesen Performance seines Aktienfonds groß. Auch wir bei FMW haben die Aussagen von Dirk Müller in den letzten Jahren öfters kritisch begleitet, aber auch zugestanden, wenn er interessante Aussagen präsentiert, die zur individuellen Entscheidung eines Anlegers durchaus einen Beitrag leisten können.
Und dies ist beim aktuellen Interview mit Dirk Müller der Fall, das auf dem Kanal von „Rene will Rendite“ ausgestrahlt wurde. Es geht vor allem um den derzeitigen Hype um Aktien mit Bezug zum Thema Künstliche Intelligenz (KI). Wir hatten es vor Kurzem auf FMW auch dargelegt: Rechnet man die 7 am meisten gehypten KI-Aktien aus dem S&P 500 Index heraus, dass ergibt sich für die restlichen 493 Aktien in diesem Jahr eine Null-Performance. Der Blick auf den Gesamtindex täuscht also! Dies spricht auch Dirk Müller an. Der Boom bei KI täusche über die tatsächlich weniger gute Lage am Gesamtmarkt hinweg.
Dies sei aktuell kein Bullenmarkt in den USA, der Aufwärtsmove werde nur von einem halben Dutzend Aktien getragen. Es gebe Schwierigkeiten in der Realwirtschaft durch die höheren Zinsen, aber große Tech-Konzerne seien gut aufgestellt und würden davon aktuell unbeeindruckt bleiben, so Dirk Müller. Die KI-Blase könne die gehypten Aktien seiner Meinung nach noch weiter nach oben pushen, bevor eine Korrektur einsetzt – denn man wisse ja nie, wie lange so eine Blase läuft. Und ja, in der Tat: Das ist das Problem bei so einem Hype – man kann nicht vorhersehen, wie lange die Blase sich ausdehnt, und wann die Korrektur kommt.
Kommentare lesen und schreiben, hier klicken
Zwei Anmerkungen zum Video:
Zu KI: Die Wellenbetrachtung ist grundsätzlich richtig, doch die Zeitdimension ist das eigentliche Thema. Die aktuelle Geschwindigkeit ist mit der, die es in den Nuller Jahren gab, nicht mehr vergleichbar. Dies bezieht sich sowohl auf die Entwicklung als auch auf die Implementierung.
Zu Marktstruktur: wenn nur einpaar Unternehmen den Aktienmarkt dominieren, der Rest verliert – auch an Umsatz – dann dürfte es doch „nur“ eine Frage der Zeit sein, bis die Großen auch runterfallen.
Wir entwickeln bzw. arbeiten an einer Sprach-KI mit. Aktuell gibt es eine Reihe von Richtungen, die teilweise extrem gute Ergebnisse liefert, siehe z.B. Bildbearbeitungs-KI.
Sprach-KI oder auch Text-To-Speach (TTS) ist eine völlig andere Liga, dabei gibt es erhebliche Unterschiede.
Will man ein gutes, echtes Gespräch mit einer KI führen, soll der Text von einer KI gesprochen werden und wie bzw. wer soll das Ganze bedienen? Soll eine spezifische Stimme (deepfake) aufgesetzt sein und wie viel Material hat man zur Verfügung?
Dabei sollte man unbedingt auch die Prozesse verstehen und exakt hier beginnt das Problem. Ich gehe fest davon aus, dass nicht mal 1% der Menschen überhaupt versteht, wie KI programmiert bzw. entwickelt wird.
Ich kann nur von Sprach-KI schreiben. Der Aufwand ist gigantisch, die Vorstellung, dass man einfach ein paar Sätze von irgendjemand nehmen kann und dann quasi diese Stimme perfekt sprechen lassen kann, ist nicht zutreffend.
Echtzeit Gespräche sind nur möglich, wenn man eine große Rechenkapazität zur Verfügung hat.
Die Vorstellung, dass das auf dem eigenen Handy oder eigenen PC möglich sei, ist aktuell völlig abwegig.
Bei TTS ist der Zeitfaktor egal, man kann wie beim Rendern den Rechner „machen lassen“ und halt Tage auf das Ergebnis warten.
Meine sehr subjektive Einschätzung sieht so aus: Viele der gehypten KI-Programme (wie z.B. ChatGPT) sind auf den ersten Blick interessant. Allerdings sind die Ergebnisse, wenn man ins Detail guckt, dann doch sehr oberflächlich. Konkrete Anwendungen sind nur bedingt möglich. Die aktuelle Euphorie kann ich nicht nachvollziehen, da ist sehr viel Phantasie dabei, die bei genauer Betrachtung einfach nicht realisierbar ist.
Ein paar Bild-KI sind tatsächlich sehr gut und liefern auch sehr gute Ergebnisse.
Eines der besten Sprach-KI Projekte wurde vor ca. 1 Jahr von Spotify gekauft ( Sonantic), was man noch finden kann ist deren „Projektvideo“ auf Youtube. Was man da sieht ist das Ergebnis von viel Arbeit, aber man kann nicht wissen, wie viel Arbeit dafür reingesteckt wurde.
Jetzt noch ein kleiner Einblick der Herausforderungen, die da auf uns zukommen.
Wer ist der Urheber? Die KI? Der Besitzer der KI?
Wer vergibt die Nutzungsrechte?
Die Ursprungsfotos, die für die KI benutzt werden. Sind die eingekauft wurden? (eher nicht)
Wenn 100 Personen ähnliche Anfragen an die KI stellen, wie ähnlich ist das Ergebnis?
Das Urheberrecht ist in den verschiedenen Ländern unterschiedlich. Wenn wir nur Deutschland betrachten,
dann gibt es aktuell überhaupt kein rechtlichen Rahmen, die Gesetze sind nicht vorhanden.
Wie weit muss ein Foto verfremdet sein, um keine Urheberrechtsverletzung zu begehen?
Allein die Klagen und die Angst vor diesen Klagen, wird dazu führen, dass für einige Jahre Fotografen gut zu tun haben werden.
Als Konzern oder Agentur möchte ich immer Rechtssicherheit, ich werde kein Risiko eingehen und ein Foto (was sehr gut sein kann) für eine große Kampagne einsetzen. In B-B wird KI für viele Projekte nur dann eingesetzt werden, wenn das komplette Ursprungs/Basismaterial komplett rechtssicher eingekauft oder selbst hergestellt wurde.
Und hier macht sich der geneigte Interessent überhaupt keine Vorstellung, was das im Detail bedeuten kann.
Bei Bild muss man sich das in etwa so vorstellen, dass Getty Images oder Adobe in der Lage sind die KI überhaupt einzusetzen und für Konsumenten zur Verfügung zu stellen. Jede andere Foto-KI kann zwar existieren, aber müsste sich irgendwo die Rechte für die Fotos einkaufen.
ChatGPT bedient sich an Texten, die frei im Internet verfügbar sind. Urheberrechtlich also extrem unsauber.
Sprach KI muss sich die Stimmen des jeweiligen Sprechers einkaufen, mit allen Nutzungsrechten. Die Übertragung von Urheberrecht ist in Deutschland nicht möglich.
Egal welche KI man nehmen möchte, der aktuelle Hype wird sich bald abkühlen, weil die Barrieren enorm sind und wenn man ins Geld gehen möchte, es nicht viele Player geben wird, die überhaupt das Grundmaterial dafür haben.
Die Entwicklung geht schnell voran und wir werden in wenigen Jahren mit KI kommunizieren. Die ethische und moralische Verantwortung und der Umgang mit KI wird enorme Herausforderungen mit sich bringen.
Anwendungen mit denen man direkt kommunizieren kann, sind bereits möglich, aber die benötigte Rechenleistung ist ein Killer. Das ist als Heimanwendung für die nächsten Jahre kaum vorstellbar, wenn dann nur auf sehr niedrigem Niveau.
Ich kann mich z.B. mit meiner toten Oma über das Wetter oder das TV-Programm von morgen unterhalten,
sobald es aber spezifisch wird (z.B. die punischen Kriege) ist die KI fertig.
Ich kann mich im normalem Smalltalk unterhalten, soll die Stimme aber emphatisch sein, dann wird es schwierig.
Lachen, Weinen, Trauer usw. sind darstellbar, aber in Summe ein extremer Aufwand.
Ich rede nicht über eine erkennbare KI-stimme, die mir was vorliest, sondern eine perfekte Sprach-KI, bei der ich nicht mehr weiß, ist das echt oder nicht?!? sowas: https://www.youtube.com/watch?v=gS1m_TIxEW0
Ich denke, dass die großen Sprünge in den nächsten 2-5 Jahren von Spotify und Adobe kommen werden.
Spotify wird eine Sprach-KI online stellen, mit der jeder User sein Text zu einem Podcast wandeln lassen kann, also typisches TTS. Der Contentzuwachs den Spotify damit produzieren kann wird quasi über Nacht explodieren.
Wenn man versteht, wie Spotify Geld verdient (0,004 Cent pro Stream – Ausschüttung), dann kann man auch in etwa abschätzen, was bei dem Konzern passieren wird.
Adobe wird ebenfalls ein TTS-System in Ihre Plattform integrieren. Jeder Durchschnittsfilmproduzent wird zumindest bei normalen Imagefilmen oder Erklärvideos das TTS-System nutzen. Der Umsatz wird sich signifikant erhöhen. Zumindest in allen Tonsprachen.
Da Adobe auch Bildrechte hat und verkauft, wird Adobe ebenfalls eine Bild-KI auf den Markt bringen.