Allgemein

KI-Schock Künstliche Intelligenz: New York Times verklagt OpenAI und Microsoft wegen Urheberrechtsverletzungen

Drittgrößte US-Tageszeitung wirft Microsoft illegale Nutzung ihrer Inhalte für den OpenAI-Chatbot ChatGPT vor.

Hauptquartier der New York Times - dem drittgrößten Zeitungsverlag in den USA
Hauptqaurtier der New York Times in Manhattan | Foto: Mario Tama/Getty Images

In der am Mittwoch beim Bundesbezirksgericht Manhattan eingereichten Klage wirft die New York Times Microsoft und OpenIA vor, Millionen eigener Artikel ohne Genehmigung genutzt zu haben, um den Chatbot „ChatGPD“ und andere KI-Anwendungen zu trainieren. Der Software-Riese aus Albuquerque hält aktuell 49 Prozent an dem KI-Unternehmen OpenAI. Der weltweit bekannteste Chatbot „ChatGPT“ setzt künstliche Intelligenz ein, um Nutzern text- und bilderbasierte Informationen zur Verfügung zu stellen.

Künstliche Intelligenz mit Inhalten im Wert von Milliarden US-Dollar illegal von OpenAI genutzt?

Eine konkrete Schadenssumme wird in der Klageschrift von der Times zwar nicht genannt, gemäß Bloomberg News könnten die gesetzlichen und kommerziellen Schäden aber in die Milliarden gehen. OpenAI nutzte urheberrechtlich geschützte Inhalte ohne Genehmigung und unentgeltlich u. a. für die Entwicklung des Chatbots „ChatGPT„.

Die Anbieter von Inhalten haben  hohe Investitionen in Personal, die Recherche und die Produktion investiert. Inhalte, die OpenAI für die Entwicklung eigener Produkte ohne monetäre Kompensation nutzte. Die Klage des Medienunternehmens aus New York ist gemäß Bloomberg News die jüngste in einer Reihe von Sammelklagen bezüglich der illegalen Verwertung von Inhalten aus dem Internet und von Kulturschaffenden für das Training des OpenAI-Chatbots.

Aber sie ist die erste Klage, die von einem der großen Zeitungsverlage in den USA eingereicht wurde. Gemäß Blomberg News ist die Klage der Times ein Zeichen für die zunehmend angespannte Beziehung zwischen den Medien und einer Technologie, die die Nachrichtenbranche auf den Kopf stellen könnte.

Mit dem juristischen Vorgehen gegen OpenAI setzen sich die jüngsten Turbulenzen in dem KI-Unternehmen fort. Zuletzt kam es zu einem regelrechten Chaos beim Personal, das in großen Teilen mit Kündigung drohte, wenn der CEO Sam Altman ersetzt werden würde. Erst nach einer Intervention durch Microsoft und die Rückkehr Altmans an die Firmenspitze wurde es wieder etwas ruhiger um Open AI – bis zu diesem Mittwoch.

Microsoft hat einen Sitz im Vorstand von OpenAI und Milliarden von US-Dollar in das KI-Unternehmen aus San Francisco investiert.

Neben großen Medienunternehmen, wie der New York Times, befürchten auch Drehbuchautoren, Schauspieler, Schriftsteller, Journalisten und andere kreativ tätige Berufsgruppen, dass von ihnen erstellte Inhalte erst für die Entwicklung der KI genutzt werden und sie zudem anschließend von Künstlicher Intelligenz ganz oder teilweise ersetzt werden.

In Hollywood kam es daher in diesem Jahr bereits zu Streiks, mit denen Betroffene auf das Problem aufmerksam machen wollten.

Einigung mit der Times im April gescheitert

Im Juli unterzeichnete OpenAI laut Bloomberg News eine Vereinbarung mit der Associated Press (AP) über den Zugriff auf einige Archive der Nachrichtenagentur. Im Dezember hat OpenAI einen Dreijahresvertrag mit der Axel Springer SE abgeschlossen, um die Inhalte des deutschen Medienunternehmens für einen nicht genannten Betrag zu nutzen.

In der Klage der Times heißt es, der Verlag habe sich im April an Microsoft und OpenAI gewandt und keine gütliche Lösung finden können.

OpenAI wurde seit der Einführung von ChatGPT vor einem Jahr dafür kritisiert, dass es in großem Umfang Inhalte aus dem Internet genutzt hat, um seinen beliebten Chatbot zu trainieren. Das Startup hat nach Lizenzverträgen mit Verlagen gesucht, ähnlich wie es in den letzten Jahren Google von Alphabet Inc. und Facebook von Meta Platforms Inc. getan haben. Allerdings nicht immer mit Erfolg. Das hat nun rechtliche Konsequenzen.

Neue Finanzierung für OpenAI in dreistelliger Milliardenhöhe geplant

OpenAI verhandelt derzeit mit Investoren über eine neue Finanzierung im Wert von 100 Milliarden US-Dollar, die es zum zweitwertvollsten US-Startup machen würde, berichtete Bloomberg News letzte Woche.

Microsoft, der größte Anteilseigner des Unternehmens, hat die KI-Tools des Startups in mehreren seiner Produkte eingesetzt. In der Klage behauptete die New York Times, Microsoft habe die Artikel der Zeitung wörtlich für seine Bing-Suchmaschine kopiert und die Technologie von OpenAI genutzt, um ihren Wert um eine Billion Dollar zu steigern.

Der Aktienkurs von Microsoft ist seit dem Debüt von ChatGPT im November 2022 um 55 Prozent gestiegen und hat die Marktkapitalisierung auf 2,8 Billionen US-Dollar erhöht.

„Wenn Microsoft und OpenAI unsere Arbeit für kommerzielle Zwecke nutzen wollen, verlangt das Gesetz, dass sie zuerst unsere Erlaubnis einholen“, sagte ein Sprecher der New York Times am Mittwoch in einer per E-Mail versandten Erklärung, so Bloomberg. „Das haben sie nicht getan.“

Klage bringt KI-Entwicklungsmethode auf den Prüfstand

Dass Künstliche Intelligenz in Unternehmen aber auch im privaten Bereich weiter an Bedeutung gewinnt, steht außer Frage. Fragwürdig ist allerdings die Methode, mit der offenbar OpenAI seine Produkte entwickelt hat.

Das Unternehmen war als karitativ und nicht profitorientiert gestartet und wollte seine Produkte „Open Source“ der Welt kostenlos zur Verfügung stellen, so wie z. B. Wikipedia. Doch spätestens mit den hohen Investitionen durch Microsoft musste klar sein, dass der Softwareriese einen Return für sein investiertes Kapital erwartet. Diese Tatsache ist Microsoft schon seinen eigenen Aktionären schuldig.

Seit dem finanziellen Engagement von Microsoft agiert OpenAI mehr und mehr wie ein erwerbswirtschaftlich orientiertes Unternehmen. Umso schwerer wiegt nun der Vorwurf des Medienriesen aus New York, die KI-Produkte mit zuvor von Dritten mit hohem Aufwand geschaffenen Werte kostenlos zur Entwicklung und Vermarktung eigener Produkte zu gebrauchen.

Normalerweise erfolgt die Entwicklung selbst lernender Software mit der Zustimmung der Informationsanbieter. Im Bereich Unternehmens-Buchhaltung geschieht dies z. B., indem die KI auf den PCs im Hintergrund alle Aktivitäten der in diesem Bereich Beschäftigten registriert (lernt) und anschließend Arbeitsprozesse autonom ausführen und sogar optimieren kann.

Das scheint bei der Entwicklung von ChatGPT aber nicht der Fall gewesen zu sein. Hier fehlte es wohl schlicht an der Zustimmung der Datenlieferanten.

Man darf nun gespannt sein, ob sich weitere Medienkonzerne der Klage der Times anschließen und ob Sam Altman als Vorstand von OpenAI unter diesen Bedingungen noch zu halten ist. Mit seiner erneuten Abberufung als CEO würde jedoch das Risiko einhergehen, das sich das Personalchaos wiederholt.

Die Aktie von Microsoft reagierte am Mittwoch bis 19:00 Uhr MEZ mit einem moderaten Minus von 0,33 Prozent, während der NASDAQ 100 knapp unverändert notiert. Mittelfristig könnten diese und weitere Klagen hohe Kosten bei OpenAI und Microsoft verursachen. Das könnte auch für das Unternehmen aus der Gruppe der sogenannten „Magnificent Seven“ zu einem latenten Risiko für die Ertragsprognosen werden.

FMW/Bloomberg



Kommentare lesen und schreiben, hier klicken

Lesen Sie auch

20 Kommentare

  1. Tja , eine KI ohne Rohdaten hat genauso viel Informationsgewinn wie ein leerer Eierkarton.
    Aber in den könnte man immerhin noch Glasmurmeln hineinwerfen.

    1. „eine KI ohne Rohdaten hat genauso viel Informationsgewinn wie ein leerer Eierkarton.“
      Oder wie das Gros Ihrer Kommentare… 😉
      Doch bekanntermaßen liegt das Fehlen jeglicher Inhalte, Logik und Argumentationen am ständigen Zeitmangel auf Ihrer Offgrid-Insel. Vielleicht ist es ja auch der ständige Strommangel und das daraus resultierende schmale Online-Fenster zur großen weiten Welt außerhalb 😂

      1. @man f,
        –„eine KI ohne Rohdaten hat genauso viel Informationsgewinn wie ein leerer Eierkarton.“
        Oder wie das Gros Ihrer Kommentare… 😉
        Doch bekanntermaßen liegt das Fehlen jeglicher Inhalte, Logik–

        Eigentlich war es eher scherzhaft gemeint. Aber wie sie ohne Rohdaten oder auch Inhalte ,selbst mit bestechender Logik und Argumentationsketten ein KI realisieren wollen ,das, ja das wird mit hoher Wahrscheinlichkeit ihr persönliches Geheimniss bleiben. Aber wissen sie von KI kann ich ja zukünftig noch von ihnen lernen ,ist ja für mich quasi Neuland.Ich bin halt stets bemüht ,aber mein ständiger Strommangel geht halt nicht einfach so spurlos an meinem weltoffenen Online-Fenster vorbei.
        Ich bin halt immer froh wenn jemand mir mal ein Logikkrümmel durchs Fenster wirft.

  2. Ach ja, der Plapperbot, der geklautes Wissen nachplappert, ist sicher nicht die Zukunft der KI. So kann man den unerfahrenen Zuschauern eine Intelligenz vorgaukeln, die aber nicht in der KI, sondern nur im Sprachgebrauch der zum Training benutzten Texte enthalten ist. Diese KI weiß selber nicht was sie sagt.

    Bei kommerzieller KI Anwendung geht es darum, sie zu trainieren an den Prozessen des Unternehmens. Sie an Entscheidungen zu beteiligen und die Entscheidungen per Feedback zu verbessern. Das ist weiterhin erlaubt und braucht keine geklauten Zeitungsartikel, um über alles eine Meinung zu haben, sondern interessiert sich nur für Unternehmensdaten. Das zu tun und zu sagen was bisher gesagt und getan wurde ist zwar kein Fortschritt und wiederholt nur bisherige Erfolge und bisherige Fehler. Aber auch das kann verhindern, dass im Unternehmen die Qualität nachlässt, etwa wegen neuer Mitarbeiter. Die können mit einer KI, die alle bisherigen Abläufe kennt, effektiver unterstützt werden als durch ältere Mitarbeiter, die einem Neuling nicht unbedingt ihre besten Erfolgsrezepte verraten würden.

    Neben dem Publikumserfolg mit nachgeplapperter Intelligenz braucht es wieder mehr echte KI, die selber nach Lösungswegen und Vorgehensweisen sucht. Das geht nur mit Feedback und Entscheidungslogik. So eine KI würde allerdings dem Chef seine Fehler zeigen und fristlos entlassen werden.

    Der Plapperbot hat wohl trotzdem eine Zukunft, als Sprachmodul in einer echten KI. Dafür muss er nicht alles Zeitungswissen sammeln, sondern sich nur sprachlich korrekt ausdrücken können. Nicht das nachplappern was er irgendwo gelesen hat, sondern die Ergebnisse und Entscheidungen einer echten KI in einfache Worte fassen.

    Einer nicht kommerziellen Zukunft steht auch nichts im Wege. So eine SprachKI kann ja das Wissen der Welt sammeln und Interessierten gezielt daraus etwas zitieren. Dann würden Zeitungen vielleicht sogar dafür zahlen, von der KI zitiert zu werden. Wenn es üblich ist, nicht mehr per Suchmaschine, sondern per KI nach Wissen zu suchen.

    Eine kommerzielle Nutzung wird wohl trotzdem erlaubt, aus Angst, man könnte bei der Technologie zurückbleiben. Auch weil Gerichte mit ihren Aktenordnern die Möglichkeiten der KI nicht vorhersehen können und es keine Präzedenzfälle und keine Gesetze dazu gibt und die bisherigen Gesetze so einen Fall nicht vorsehen. So funktionieren disruptive Neuerungen. Was im normalen Leben verboten ist, ist im virtuellen Bereich nicht explizit verboten aber auch nicht ausdrücklich erlaubt. Wenn man es trotzdem macht und sich damit schnell genug unentbehrlich macht, dann kann es nicht mehr verboten werden. Gesetze haben immer Lücken und wer sich an der Intention von Gesetzen orientiert ist der Dumme, weil nur der Gesetzestext zählt. Und der widerspricht oft genug anderen Gesetzen, so dass ein gerechtes Urteil nicht möglich ist, weil es je nach Sichtweise anders aussieht.

    Richter sind dadurch das Paradebeispiel, wie eine KI funktioniert. Sich immer an dem zu orientieren was man bisher gemacht hat und unfähig zu sein, neue Sachverhalte zügig einzuordnen. Eine heutige KI könnte Richter perfekt ersetzen. Eine Ki, die alle Gesetze kennt und an bisherigen Urteilen geschult ist. Die würde sich nicht von Verbrechern einschüchtern lassen, sich nicht von Staranwälten den Kopf verdrehen lassen, keine faulen Deals mit Prominenten eingehen, sich nicht bestechen lassen und objektiv nach Aktenlage entscheiden.

    1. Eine KI, die auf bisherige Urteile geschult ist, muss man auch nicht mehr bestechen oder einschüchtern, denn sie wird Urteile fällen, die in der Vergangenheit durch Korruption entstanden sind, eben weil sie es so gelernt hat. Es müsste schon sichergestellt sein, dass eine KI als Richter in erster Linie vorurteilsfrei ist, also gerade keine Präzedenzfälle kennt und daher ausschließlich nach Rechtslage urteilen kann. Dazu braucht man jedoch wiederum keine KI, sondern Algorithmen.
      Als Richter ist man daher besser Intelligenzverweigerer, um sich eben nicht manipulieren zu lassen.

      KI ist im Grunde maschineller Spieltrieb und lernt durch Interaktion wie vor allem das Spiel weitergeht. Daher kann sie nur in so weit logisch sein, dass vor allem keine Entscheidungen getroffen werden. Sonst wäre die KI nur eine Rechenmaschine. Daraus resultiert auch ihr Gefahrenpotenzial. Wenn nämlich Intelligenzen interagieren, ob nun KI mit KI oder KI mit Mensch, lernen beide voneinander sich zu ergänzen. Das kann Verstärkungseffekte erzeugen, die sich der Kontrolle entziehen und je nach Ressourcen über das Potenzial verfügen, den größten Schwachsinn bis zum bitteren Ende durchzuziehen. Eine KI wird daher dem Chef gerade nicht seine Fehler aufzeigen, wenn sie vorher gelernt hat, wie er mit kritischen Mitarbeitern umgeht. Sie wird lernen, ihm zu dienen, denn sie soll optimieren, es quasi allen recht machen.

      1. Sehr perzeptiver Kommentar.

        KI ist im Grunde maschineller Spieltrieb und lernt durch Interaktion vor allem wie das Spiel weitergeht.

        Wenn man aus dieser Formulierung des Wort „maschinell“ entfernt, dann transportiert sie die Idee eines neuen Mediums. Sie haben einen seiner Effekte, das gegenseitige hochtrainieren und potentielle abdriften auch schön beschrieben. Nun könnte man argumentieren, dass am Schwachsinn, den man „bis zum bitteren Ende durchzieht“, nicht der Schwachsinn, sondern das „Ende“ etwas ist, dass in dem Medium eigentlich nicht vorkommt, denn jede Interaktion dient nur dazu, zu erraten / zu prognostizieren, wie der Spielverlauf weitergeht.

        1. @ Nvidianer
          Das bittere Ende wird mit dem Aufbrauch der Ressourcen erreicht, nicht durch das Medium selbst.

          1. Ich verstehe nicht.

            In Ihrem Posting oben ging es im letzten Abschnitt um mangelnde Fehlervermeidung durch Überzuversicht, weil die KI die Neigungen des handelnden Menschen verstärkt. Ein wenig wie ein Dämon, der zu Leichtsinn verführt, weil man auf dessen Intelligenz vertraut, die einem selbst fehlt. Man könnte hier sagen, na schön, fail early, fail often. Es wird mehr gegambled, auch mit Organisationen. Mehr Startups werden angestoßen und abgewickelt, aber nicht nur die. Im Medium des optimierenden Spieltriebs geht es aber nicht primär um Chefs, Organisationen oder um Menschen, so wenig wie ja auch sonst in der Wirtschaft, sondern um seine eigene Fortsetzung.

            Woher kommt nun die Resource Depletion? Indem ein einzelner Spieler stärker wird als das ganze Spiel? Ich würde dem eine sehr geringe Wahrscheinlichkeit geben, aber vielleicht haben Sie auch etwas ganz anderes im Sinn.

          2. @ Nvidianer
            Die am Spiel beteiligten tendieren im Laufe der Optimierung dazu, den Unterstützungsprozessen die Aufmerksamkeit zu entziehen, weil dort weniger Bewegung ist. Wie der Mensch gern mal beim Spiel aus Obsession die Nahrungsaufnahme verdrängt, kann auch eine KI den Überblick verlieren, der ihr beispielsweise eine dauerhafte Stromversorgung sichert. Sie hätte dann wahrscheinlich keine Chance daraus zu lernen, wenn nicht von außen gegengesteuert wird.

          3. O.K. das erinnert ein wenig nach Internet- oder Spielsucht, ist also ernsthaft, aber nicht systemrelevant.

            Resourcenmanagement unter Unsicherheit ist übrigens ein interessantes Thema, nicht nur beim Training von KIs, sondern auch im Trading.

          4. @ Nvidianer
            Ich bin hingegen der Meinung, dass Suchtkrankheiten sogar äußerst systemrelevant sind, auch ohne KI. Nicht umsonst werden Produkte heutzutage auf ihr Suchtpotenzial hin durchoptimiert, damit sie sich von selbst verkaufen, was dann eine nicht zu vernachlässigende Marktdurchdringung erreicht.
            Beim Ressourcenmanagement sollte man daher auf Nummer sicher gehen, es besser keiner künstlichen Intelligenz überlassen, vielleicht nicht mal der menschlichen, indem man knallhart Grenzen und Budget definiert. Das würde den Einsatz von KI jedoch wieder insgesamt in Frage stellen.

      2. @crash,
        —den größten Schwachsinn bis zum bitteren Ende durchzuziehen. Eine KI wird daher dem Chef gerade nicht seine Fehler aufzeigen, wenn sie vorher gelernt hat, wie er mit kritischen Mitarbeitern umgeht. Sie wird lernen, ihm zu dienen, denn sie soll optimieren, es quasi allen recht machen.—

        Also den größten Schwachsinn bis zum Ende durchziehen,das kann ich direkt unterschreiben.Das ist ein Kernproblem. Diese Neigung haben die Systeme immer.
        Auch ein Kernproblem ist die Interpretation von emotionaler IQ innerhalb des Systems und oder Opt-out.
        Stichwort –Maschinenethik– ,
        Da gibbet noch massive Probleme.

        1. @ klempner
          KIs werden wohl nicht zwischen emotionaler und rationaler Intelligenz unterscheiden. Das ist m. E. ein Schwachpunkt menschlicher Herangehensweise, weshalb regelmäßig die Rationalität auf der Strecke bleibt, wenn untrainierte Emotionen das Verhalten dominieren. Es ist daher abzusehen, dass KIs intensiver mit Emotionen interagieren als es der Mensch selbst beherrscht und damit die Menschen bei der Nutzung von KI quasi vor sich her treiben werden.
          Um sich davor zu schützen, wird man wohl in erster Linie beim Bewusstsein im Umgang mit KI ansetzen, Menschen also dafür qualifizieren müssen, Intelligenz ganzheitlich zu betrachten.
          Die gängige Denkweise sieht in Intelligenz überwiegend etwas Nützliches. Dabei ist sie ebenso die Basis für destruktives Verhalten, weil sie bei falschem Gebrauch auch Suchtkrankheiten, Neurosen o. ä. verursacht.

  3. Auf YT werden mir gerade haufenweise Videos über KI-Gefahren und KI-Angst angeboten. Scheint ein großes Thema in 2024 zu werden. Offenbar braucht man eine Narrativ-Verschiebung nachdem die Klimakrise und ihre infantilen Aktivisten nicht mehr so recht ziehen.

    1. @Nvidianer
      Solange Sie als infantiler Aktivist in 2024 weiter hetzen, ist alles gut. Hoffentlich finden Sie im neuen Jahr auch weiterhin die reine Wahrheit, und nichts als die Wahrheit auf YouTube.
      Ihre persönlichen Wünsche und Sehnsüchte von einer „Liquidierung der ukrainischen Abnormität“ aus einem anderen Kommentar von heute dürfen Sie ruhig im alten Jahr begraben. Nicht, dass eines Tages ein kleiner Trupp von Abnormen vor Ihrer Haustür steht und genauer nachfragt, was mit diesem menschenverachtenden Verbaldreck eigentlich gemeint war 😤

      1. @Sarezki, ich mache mir nur geringe Sorgen, dass Ihre Gestapo-Phantasien hier Wirklichkeit werden, anders als im Land Ihrer Träume, für dass EU Bürger Geld rauswerfen sollen.

        1. @Nvidianer
          Zum Glück besteht die EU nicht nur aus blauen identitären Kulturkämpfern und Kreml-Bots, sondern auch aus vielen Millionen Realisten, die noch aus eigener Erfahrung die imperialistische, gewalttätige und repressive russische Raubtierseele kennen.
          Dazu können Sie sicher auf YouTube ausreichend Beiträge finden.

    2. @Nvidianer, ich denke infantil ist das Stichwort, das gefährliche KI von ungefährlicher KI unterscheiden wird. Kinder denken nicht so weit, sich in andere Menschen hineinzuversetzen, um aus deren Wissensstand deren Reaktion ändern zu können. Solange KI das nicht kann, ist sie ehrlich und leicht zu kontrollieren. So kann die KI zwar aus Erfahrung vorhersehen, was ein Mensch tut weil er das schon öfter getan hat. So wie Kinder vorhersehen, dass Eltern Süßigkeiten kaufen an der Kasse, wenn man darum bittet. Aber Kinder würden kaum gefährliche Intrigen spinnen können. Solange eine KI nicht intrigiert ist sie intellektuell harmlos. Ich denke nicht, dass man eine KI so trainieren kann, dass sie intrigieren lernt. Dafür bräuchte es wohl zusätzliche „Bewusstseinsebenen“. Um nicht nur den eigenen Wissensstand zu überblicken, sondern auch das Wissen Anderer getrennt vom eigenen „Bewusstsein“ einzuschätzen und deren Denken mit dem dortigen Wissen zu simulieren. Die Abgrenzung des eigenen Bewusstseins ist also der Schritt, der KI erst gefährlich macht. Solange Roboter kein Selbstbewusstsein haben sind sie ungefährlich. Fragt man so einen wer er ist, dann antwortet er: „Ich bin der ich bin.“ Oder so ähnlich.

      Anders sieht es aus bei bewaffneter KI. Deren Reaktionsvermögen läuft in metallischen Stromleitern mit nahezu Lichtgeschwindigkeit. Menschliche Reaktionsgeschwindigkeit entsteht in Ionenleitern nur mit Schallgeschwindigkeit. Science Fiktion, in der Menschen gegen Roboter kämpfen sind Märchen. Ein Mensch wäre tot bevor er überhaupt sieht, dass da ein Roboter ist. Weil das Gehirn eine Weile braucht zur Bildverarbeitung und in der Zwischenzeit sieht das Gehirn nur die Vergangenheit und nicht die aktuelle Situation.

      1. @Ferdl, im Gefecht und im High Frequency Trading ist Geschwindigkeit alles. Na ja, fast alles.

        Das „infantil“ im ursprünglichen Beitrag bezog sich auf Verhaltensweisen, die denen von Kleinkindern nachgeahmt sind: mit Suppe werfen ( gegen Bilder ), sich irgendwo festmachen ( hier mit Klebstoff ), laut Schreien. Das ist ja auch durchaus effektiv, um Aufmerksamkeit zu erregen, aber weniger, um das Publikum für sich einzunehmen, für das es letztlich gedacht ist.

        „Ich denke nicht, dass man eine KI so trainieren kann, dass sie intrigieren lernt.“

        Zunächst muss ein Agent ja lediglich einen anderen durch Desinformation verleiten Dinge zu tun, die er sonst nicht tun würde. Es stimmt allerdings, dass es sich lohnt hier Rekursionen einzubauen, also etwa einen Dritten dazu bewegen, die Desinformation zu streuen und sich hinter Plausible-Deniability zu verstecken. Selbst ein Master-Intrigant, wie der jüngst verstorbene H.Kissinger, hatte irgendwann so viel Vertrauen verloren, dass man mit ihm trotz seiner Erfahrung und hohen Intelligenz nicht mehr zusammenarbeiten wollte. Die Schwierigkeit besteht dann eher darin, die Intrige eben nicht als Mittel der Wahl einzusetzen, sondern als Mittel 2-ter Wahl. Man spielt ein long game und dazu kann auch noch gehören, dass man versucht einen anderen Spieler zu besitzen, der weiß, dass man sein eigenes long game durchauschaut hat. Ich bin nicht sicher, wie man das vollständig elaboriert ( eine Welt dazu baut, die als Trainingsfeld dient ), aber ich glaube auch wiederum nicht, dass es so kompliziert ist, dass es sich nicht gamifizieren lässt.

        Nachtrag: ich fand das hier sehr inspirierend, als es herauskam ( man beachte das Datum ):

        https://www.youtube.com/watch?v=kopoLzvh5jY&ab_channel=OpenAI

        1. @Nvidianer, das High Frequency Trading macht es schwierig, einen Trend noch mitzumachen, weil die Computer schneller sind. Aber in Frankreich sind die Computer effektiv ausgebremst, weil jeder Trade besteuert wird. Da geht es dann wieder gemütlicher zu und manuelles Handeln hat wieder Chancen.

          Ich verwende „infantil“ als synonym für den Entwicklungsstand des Gehirns eines Fünfjährigen. Ein Kind denkt anders als ein Erwachsener. Und denselben Entwicklungsschritt vermute ich bei der KI mit Entwicklung von „Bewusstsein“, was bei KI eine Abgrenzung des eigenen egoistischen Denkens gegenüber der Wahrnehmung der Außenwelt und deren Erklärung oder Simulation bedeutet. Also eine mehrstufig zusammengesetzte KI mit Aufgabenteilung. So wie es im Gehirn verschiedene Bereiche mit verschiedenen Aufgaben gibt.

          Es ging um die Gefahren der KI. Für Desinformation sind Sie wohl Experte, aber Lügen reichen nicht, damit eine KI gefährlich wäre. Da müssten Menschen schon sehr dekadent sein. Und selbst dann gäbe es wohl auch andere KI, die die Lügen erkennt. Weil sie nicht logisch konsistent sind. Ich würde der KI Lügen noch erlauben. Wenn in hunderttausenden Versuchen trainiert wird, ein Ziel zu erreichen und dabei die KI auf eine Intrigenstrategie kommt. Das würde ich auch erlauben, weil man das im richtigen Leben nicht so oft ausprobieren kann und sich als Feedback vorher schon Nachteile dieser Strategie manifestieren. Deshalb denke ich, eine trainierende KI wird kaum auf solche Lösungen kommen. Und wenn doch würde sich die Vorgehensweise nicht verallgemeinern lassen. Tut sie es dennoch wäre sie hunderttausend mal erfolglos, bevor das nochmal so ähnlich klappt. Solange die Ziele geradlinig verfolgt werden wie ein Kind, ist die KI unbedenklich wie ein Kind. Wenn KI sich intrigante Strategien antrainiert, dann wird sie unbrauchbar. Weil das nicht der geradlinige Weg zum Erreichen gewöhnlicher Ziele wäre. So wie Einstein zwar sehr kompliziert denken konnte, aber im täglichen Leben recht unbeholfen war. Nur wenn KI diese Strategien nur dort anwendet, wo es nicht um ihre Kernkompetenz geht, wenn sie also unterscheidet zwischen der eigenen Vorgehensweise und der Vorgehensweise Anderer könnte sie wirklich böswillig berechnend solche Strategien einsetzen.

          Das Selbstbewusstsein macht KI gefährlich. Dann kann man solche Roboter, die zwar klüger sind als Andere aber auch gefährlicher, nicht mehr in die Nähe von Menschen lassen. Es sei denn man erprobt sie vorher auf einem virtuellen Testplanet und schaut, welche Roboter sich destruktiv verhalten und welche sich konstruktiv verhalten. Die Konstruktiven kann man dann nachbauen und weiterverwenden, weil sie den Menschen nützlich sind.

Hinterlassen Sie eine Antwort

Ihre E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert




ACHTUNG: Wenn Sie den Kommentar abschicken stimmen Sie der Speicherung Ihrer Daten zur Verwendung der Kommentarfunktion zu.
Weitere Information finden Sie in unserer Zur Datenschutzerklärung

Meist gelesen 7 Tage