Was, wenn die generative KI sich als Blindgänger entpuppt?

Spannender Artikel und Meinungsbeitrag von Gary Markus, der der Frage nachgeht, was eigentlich passiert, wenn sich die gerade massiv gehypten Ansätze für generative KI wie ChatGPT sich schlicht als Blindgänger entpuppt. Eine ganze Industrie – und vor allem Microsoft – hüpft ja auf diesen AI-über-Alles-Ansatz. Derweil will Microsoft ab dem 18. August 2023 mit seiner KI-gestützten Bing-Suche im Unternehmensumfeld starten – ein Ansatz, der übrigens große Mengen Energie verschlingt, so das Redmond als "Umweltsau" agiert.


Anzeige

Im Artikel What if Generative AI turned out to be a Dud? greift Gary Markus das Hype-Thema und die Erwartungen ganzer Industriezweige in Sachen LLMs auf und zieht den Erfolg des Thema arg in Zweifel. Der Artikel ist mit dem ikonischen Bild eines Zeppelins versehen – eine Technologie, die auch einem Hype unterlag, dann aber in sich zusammen fiel, weil die Erwartungen nicht erfüllt wurden.

generative KI sich als Blindgänger

Gary Markus meint, dass er (mit Ausnahme des angeblichen Raumtemperatur-Supraleiters LK-99) nur wenige Dinge gesehen habe, mehr gehypt worden seien als generative KI. Die Bewertungen vieler Unternehmen in diesem Bereich gehen in die Milliarden. Die Berichterstattung in den Nachrichten trägt dazu bei, dass die Erwartungen in AI-Lösungen ins Unendliche wachsen.

Die Bewertungen gehen von Billionen-Dollar-Märkten für KI-Lösungen aus. Aber die tatsächlichen aktuellen Einnahmen aus generativen KI-Lösungen liegen Gerüchten zufolge im dreistelligen Millionenbereich. Der größte Teil des Umsatzes scheint, laut Markus, bisher aus zwei Quellen zu stammen: dem Schreiben von halbautomatischem Code (Programmierer nutzen generative Tools gerne als Assistenten) und dem Schreiben von Texten.


Anzeige

Diese Einnahmen müssten also "bald" um das 1000-fache steigen, um die Bewertungen vieler Firmen zu rechtfertigen. Gary Markus schreibt dazu, dass aktuell die Einnahmen im AI-Bereich schlicht noch fehlen und es sehr spekulativ sei, dass da jemals signifikante Einnahmen generiert werden können. Potenzielle zahlende Kunden könnten schnell den Glauben in AI-Lösungen verlieren und abspringen.

Sinnloses ChatGPT

Angeführt wird der einflussreiche Risikokapitalgeber Benedict Evans, der auf Twitter (X) einige Post (siehe Screenshot) publiziert hat, die als "ernüchternd" einzustufen sind. Evans schreibt, dass er ein halbes Jahr ChatGPT 3.5 und 4 für seine Arbeit nutzen wollte. Dabei sei bisher nichts sinnvolles für seine Arbeit herausgekommen – und er sieht keinen Sinn darin, sich von den AI-Modellen mittelmäßige Prosa erstellen zu lassen, und die zahlreichen Fehler, die die LLM-Algorithmen erzeugen, lassen nicht mal die Verwendung zur Datenanalyse zu. Evans braucht aber kein ChatGPT, um Code zu schreiben (das soll nach einzelnen Leute gut funktionieren, andere behaupten, es kommt nur Nonsense heraus).

Gary Markus schreibt auch, dass seine Freunde versucht haben, ChatGPT zur Beantwortung von Suchanfragen für akademische Recherchen zu nutzen. Die Erfahrungen waren ernüchternd, heißt es. Markus führt auch das Beispiel des Anwalts auf, der ChatGPT für eine Klageschrift nutzte und damit böse hereinfiel (ich hatte im Artikel Anwalt nutzt ChatGPT für Klage und bekommt richtig Ärger wegen "erfundener" Rechtsfälle berichtet). Inzwischen gibt es auch Meldungen, die von einem Rückgang der ChatGPT-Nutzung berichten – die Luft könnte aus dem Thema raus sein.

Die Schlussfolgerung von Markus: Wenn man die Aussagen von Benedict Evans "als Kanarienvogel in einer Kohlemine" interpretiert, könnte der gesamte Bereich der generativen KI, zumindest bei den derzeitigen Bewertungen, ziemlich aufgeblasen sein und nach Abklingen des Hype kollabieren. Entwickler werden weiterhin AI-Ansätze zur Codeerstellung nutzen, und das Marketing könnte weiterhin viele Texte mit ChatGPT schreiben lassen, um ihre Produkte zu bewerben und die Platzierung in den Suchmaschinen zu verbessern. Aber beide Nischen werden nicht ausreichen, um die derzeitigen "Bewertungsträume" aufrechtzuerhalten.

Selbst OpenAI könnte es schwer haben, seine Bewertung von 29 Milliarden Dollar zu halten, schreibt der Autor. Konkurrierende Startups mit wesentlich niedrigeren Bewertungen dürften kollabieren, wenn sie Jahr für Jahr nur zehn oder hundert Millionen Umsatz machen. Selbst für den Aktienkurz von Microsoft sieht es schlecht aus. Dieser ist 2023 zwar um fast die Hälfte gestiegen, was vermutlich vor allem auf das Versprechen der generativen KI und dessen Umsatzwachstum zurückzuführen ist. Die letzten Informationen lauten, dass der Kurs nachgegeben hat. Markus schreibt, dass der Aktienkurse von Microsoft und NVIDIA, die noch stärker in die Höhe geschossen sind, einbrechen könnte. Es bleibt also spannend, was mit diesem Hype-Thema passiert.

Microsofts Bing-KI-Suche

Bei Martin Geuß las ich kürzlich, das Bing Chat Enterprise ab Ende August 2023 allen Kunden von Microsoft 365 zur Verfügung stehen werde (konkret soll es ab 18. August 2023 los gehen). Das ist die Unternehmensversion von Microsofts ChatGPT-basierter KI-Suche. Dort heißt es, dass Microsoft dafür offenbar keinen Aufpreis verlange. Wenn die Funktionalität einschlägt wie eine Bombe, wird das irgendwann kostenpflichtig werden. Erweist es sich als heiße Luft, könnte das ein weiterer Todesstoß für diese Hype-Geschichte werden.

Auf jeden Fall kann Microsoft sich eine Spitzenplatz ans Revers heften. Anfang August 2023 wurde bekannt, dass die künstliche Intelligenz hinter Microsofts Suchmaschine Bing enorme Mengen an Strom benötigt. Berechnungen des texanischen Rechenzentrumsbetreibers TRG Datacenters ergaben, dass das Training der KI von Bing mit 7.200 Megawattstunden der größte Stromfresser unter den populären KI-Chatbots sei. Stromsparmeister unter den KI-Modellen ist den Berechnungen zufolge Google Bard. Das Training des Chatbots kommt mit 312 Megawattstunden aus. Microsoft hat das Attribut der Umweltsau also wohl mit riesigem Abstand zu Google Bard gewonnen.

Administratoren, die die KI-Suche in Bing im Unternehmen deaktivieren möchten, finden in Martins-Beitrag einen Link, wo sich das abstellen lässt. Eine FAQ von Microsoft und dieser Artikel von Martin Geuß liefern weitere Informationen, auch in Punkto Datenschutz. Petri.com berichtet hier, dass Microsoft seine AI-Lösung Copilot in seine  Dynamics 365- Field Service-App für sogenante Frontline Workers integriert. Also auch dort geht es mit AI los.


Anzeige

Dieser Beitrag wurde unter Software abgelegt und mit , , verschlagwortet. Setze ein Lesezeichen auf den Permalink.

24 Antworten zu Was, wenn die generative KI sich als Blindgänger entpuppt?

  1. 1ST1 sagt:

    Nach Begeisterung folgte auch bei mir Ernüchterung. Solange man bei Mainstram-Themen und Programmier/Scriptsprachen bleibt, sieht das Ergebnis gut aus und ist es auch meistens. Sobald man aber beginnt, Spezialwissen abzufragen oder exotische Programmiersprachen nutzen will, muss man alles gegenchecken, und damit ist der Zeitvorteil dahin. Das kurioseste Ergebnis was ich mal hatte, war die Frage nach einem Programmcode in der Sprache "Brainfuck", da spuckte ChatGPT immer nur den Beispielcode aus Wikipedia aus, der mit der Aufgabe nichts zu tun hatte. Die Syntax hat dieses "Elektonenhirn" nicht durchschaut.

    • McAlex777 sagt:

      Hatte mal die einfache Aufgabe gestellt mit Hilfe von Powershell alle Einträge eines regfiles in der Registy zu löschen. Das Ergenis war eine "nicht funktionierernde" Schleifenfunktion in der via Powershell versuche die Einträge manuell zu löschen.

      Sehr viel Schlauer wäre es gewesen via Regular Expression in der Regfile =foobar durch "=-" zu ersetzen, und dann das Regfile zu imporieren.

      Seither ist mir klar das ChatGPT noch viel Luft nach oben hat. Wirkliches um die Ecke denken kann das Programm derzeit nicht.

      • Bernd Bachmann sagt:

        Auf die Gefahr hin, mich mal wieder selbst zu zitieren:

        ChatGPT ist ein Sprachmodell. Es generiert, basierend auf seinen Trainingsdaten, einigem Meta-Wissen und der Benutzeranfrage, wahrscheinliche Sätze. Und das macht es verdammt gut.

        Aber es *denkt* nicht, weder gerade noch um die Ecke. Und wird das auch nie tun. Das gibt der Ansatz schlicht nicht her.

        • Stephan sagt:

          Dabei verstehe ich nicht, was daran so schlimm ist.

          In einem Normalen Gesprächsverlauf mit einem Menschen werden auch Falschaussagen getroffen oder Falsche dinge behauptet.
          Selbst Experten die eine sache Gelernt / Studiert haben machen Fehler.

          Genauso werden erlernte dinge Interpretiert und wiedergegeben.
          Beim Menschen genauso wie bei ChatGPT

          Fehler passieren und sind einfach Normal.
          Wo ist das Problem dabei ?

          • GüntherW sagt:

            Ich würde mal behaupten, dass Problem oder der Unterschied an den Gesprächsverläufen ist, was da alles noch dranhängt bzw. was da zugrunde liegt.

            Du hast zwar Recht, dass sowohl Mensch und als Maschine Falsche Aussagen machen können. Da hört aus meiner Sicht die Gemeinsamkeit aber schon auf. Hier liegt aus meiner Sicht auch da Problem, es wird extrem simplifiziert.

            Die Frage ist wie und warum es zu diesen Falschaussagen oder Aussagen generell kommt. Hier gibt es aus meiner Sicht massive Unterschiede wie ein Mensch zu einer Aussage kommt und eine KI. Das ist halt diese ganze Bewusstsein und Umweltproblematik (Kontext) Auch die Auswertung/Einordnung von neuen Informationen und der Umgang mit Fehlern. Ein Mensch kann sich relativ schnell adaptieren, wenn er merkt irgendwas ist neu/Veraltet oder "falsch" oder gefährlich. Ich kann es nicht beschreiben, aber das ganze menschliche Konstrukt dahinter funktioniert ganz anders. Diese ganze Informationsgewichtung, wie man Kontext einordnet, miteinander kommuniziert, evtl. auch der gegenüber kommuniziert/reagiert. Für jeden Gesprächspartner hast du eigentlich irgendwie schon mal im Hinterkopf, wie schlau/dumm diese die Person einordnest, wie demzufolge die Antworten einzuordnen sind. man merkt auch WIE Jemand schreibt. Das machst DU alles irgendwie nebenbei mit und auch vermutlich relativ gut. Das spielt halt alles mit rein.

            Die KIs zeichnen sich meist durch abartig lange Lernphasen aus. Wenn man denen etwas sagt, dass etwas falsch ist, dann wird es oft ignoriert oder vergessen. Das ist aus meiner Sicht das Problem wie die Infos verarbeitet werden. Sobald man Jemanden mitteilt, dass etwas veraltet ist hinterfragt der Mensch eigentlich alles was dazugehört. Das scheint bei einer KI strukturell so nicht stattzufinden, auch muss die KI irgendwie einschätzen welche Quelle oder Teil von bisherigen Quellen einfach scheiße ist. Auf der anderen Seite kann der Mensch der KI auch quatsch erzählen. Hier ist und war es auch immer extrem einfach eine KI einfach zu irgendwas zu nötigen. Einfach mal Hitlergruß oder kleine Kinder in den Van. Das hat auch nichts mit dem Entwicklungsstand von KI zu tun, dass sind aus meiner Sicht einfach grundlegende Probleme in der Art und Weise. Natürlich kann man auch Menschen beeinflussen, aber die Art und Weise.

            Heißt jetzt nicht, dass die KI schlecht ist. Man muss halt überlegen wo man sowas einsetzt und warum.

            • Stephan sagt:

              Vom verständnis her hast du ja recht, aber dennoch gibt es viele Ähnlichkeiten die du so nicht beachtest hast.

              z.b. die ewig langen Lernphasen der KI.

              Der Mensch hat sein Leben lang Lernphasen und kann in den ersten Monaten Nix!

              Auch die Adaption der KI würde ich so nicht unterstreichen.
              z.b. ChatGPT kann Adaptiv Lernen und lässt sich auch Korrigieren wenn es Fehler macht.

              Diese Korrekturen werden Natürlich nicht ins Hauptsystem übernommen,
              bleiben aber innerhalt der Chat sitzung bestehen und werden auch angewendet.

              Sicher ist da viel Potential nach oben, aber das bisherige ist schon mehr als nur ein Blindgänger.

  2. Johannes sagt:

    Von allen Dingen warum eine KI scheitert, hätte ich nie an eine Ursache gedacht: Weil man sich wirtschaftlich verspekuliert hat.

    Ob da nicht ChatGPT bzw. Skynet dahintersteckt?

  3. rpr sagt:

    Es gibt keine KI. Es gibt gigantische Datensilos und sehr gute Algorithmen die daraus Inhalte zusammen basteln. Das war es letztlich auch schon. wie wenig Respekt muss man vor Lebewesen haben wenn man deren Intelligenz damit gleich stellt.
    Ja es ist sicher hilfreich in der Forschung und der Medizin wenn der Weg zu Resultaten verkürzt werden kann aber mit Intelligenz hat das nichts zu tun.
    Gruß

    • Matze sagt:

      Richtig. Die derzeitigen Verfahren, die als LLM gehyped werden, sind nur (verbesserte) statistische Verfahren, die aus einer Unmenge von Daten irgendwelche schön klingende Formulierungen basteln, von denen man sich (auch ich) blenden lässt. Was soll daran 'intelligent' sein?
      Mein Smartphone auch intelligent: kann sich viel mehr merken als ich und rechnet auch schneller.

      • Nrpr sagt:

        Eben. Alles was es nicht schon vorgekaut im Internet gibt kann es auch nicht. Ich kenn Leute die sind schon überfordert eine App auf dem Handy herunter zuladen aber KI IST DIIIIIEEEEEE ZUKUNFT! Darunter befindet sich ein Geschäftführer. Ich kenne wirklich niemand der in der EDV arbeitet und sich mit dem KI Virus angesteckt hat.

    • Nrpr sagt:

      Eben. Alles was es nicht schon vorgekaut im Internet gibt kann es auch nicht. Ich kenn Leute die sind schon überfordert eine App auf dem Handy herunter zuladen aber KI IST DIIIIIEEEEEE ZUKUNFT! Darunter befindet sich ein Geschäftführer. Ich kenne wirklich niemand der in der EDV arbeitet und sich mit dem KI Virus angesteckt hat.

  4. squat0001 sagt:

    Wenn man chatgpt natürlich als "Chat" Bot ansieht dem man Fragen stellen kann.. dann hat man aber nicht erkannt was das Teil wirklich kann. Denn gerade eine Wissensmaschine ist es nicht.

    Aktuelle KI Systeme sind extrem stark darin, Dinge zu klassifizieren, also die Mensch-Maschinen-Schnittstelle zu überwinden. Man kann damit wunderbar Dinge automatisieren welche bis vor kurzem nur einem Menschen möglich war.

    • User007 sagt:

      Ja, aber auch das muß nicht immer zwingend unabdingbar richtig oder sinnvoll sein! 🤷‍♂️

      Und es zeigt auch nur umso mehr die sich mittlerweile in der Menschheit etablierte Unfähig- bzw. Unwilligkeit (auch unter Stress) richtige Zuordnungen zu treffen.

  5. Patrick sagt:

    Die Eier-Legende Wollmilchsau …

  6. Herr IngoW sagt:

    Für mich ist das schon lange ein Blindgänger.
    Überall, wo es geht, abgeschaltet.

  7. Andy sagt:

    Ich könnte mir vorstellen, dass die Suche mit Hilfe von "KI" (Mustergenerierern) ganz gut funktionieren könnte. Weil hier nichts intelligentes als Gegenpunkt existiert.
    Überall, wo man ernsthaft die Leistung von Menschen ersetzen will, wird das massiv floppen.
    Ausnahme werden die ganzen Servicewüsten sein, in denen man Menschen darauf trainiert hat, schon jetzt so dämliche Textbausteine von sich zu geben, wie es ein generativer Algorithmus auch täte. Also für den Microsoft- und Google-First-Level-Support und die übliche Hotline von Mobilfunkanbietern für Privatkunden ändert sich dann ja nichts.
    Wenn man Geld sparen kann, wird das vielleicht noch für die ganzen Sozialhotlines als egal eingestuft werden, die man am liebsten eh nicvt funden will: "Bitte springen Sie erst von der. Brücke, wenn der Trainingsdatensatz vollständig ist."

    Alle anderen werden merken, dass die Dinge belastbar sein müssen und der erst übersehen Fehler so blöd war, das den kein Mensch gemacht hätte. Wenn dann in Zeile 130 die Tables gedropt werden, weil keiner so weit mlt Konzentration gelesen hat. Oder die Finanzierung eines Projekts platzt, weil irgendein Zahlen-Nonsens zwar schön aussah, sich aber als trivial falsch rausstellt.

    Meines Erachtens fehlen nur noch zwei, drei dicke Korken wie bei dem Rechtsanwalt und die Technik ist verbrannt. Für Jahre. Wenn nicht Jahrzehnte. Weil dann auch die Gelder für die Entwicklung wegbrechen.
    Das derzeitige In-den-Markt-Pressen, insbesondere von Microsoft, ist Pokern mit höchsten Einsätzen.

  8. Fred sagt:

    Ich habe Tests gemacht, ob ChatGPT mir sinnvolle Python-Scripts ausgeben würde. Nicht ein einziges Script war nutzbar (gut, war aber natürlich "ein wenig" komplexer als ein "Hello World"… ein "Hello World" in Phyton habe ich nicht getestet, aber ich gehe mal schwer davon aus, dass ChaftGPT dies noch knapp hinktiegt). Als Programmierer muss man sich aber definitiv (noch) keine Sorge machen, dass man arbeitslos werden würde.

    • Bernd Bachmann sagt:

      >> ein "Hello World" in Phyton habe ich nicht getestet, aber ich gehe mal schwer davon aus, dass ChaftGPT dies noch knapp hinktiegt

      Weil es in seinen Trainingsdaten wahrscheinlich tausende von "Hello World"-Progrämmchen gesehen hat, wird es das sicher hinkriegen. Ob es andere Programme oder Programmteile hinbekommt, wird davon abhängen, ob es Deine oder eine ähnliche Problemstellung schon gesehen hat. Wenn man an die Menge von Code-Beispielen im Internet denkt, kann das durchaus erfolgreich sein.

      Aber, zum x-ten Mal: Es ist ein Sprachmodell. Es denkt nicht, es hat keine Kreativität und es weiss nicht einmal, was "Programmieren" überhaupt ist.

  9. mvo sagt:

    Das einzige, was KI wirklich gut kann, ist formulieren. Bei den Fakten liegt die KI oftmals so dermaßen daneben, dass sie schlicht unbrauchbar ist. Selbst problemlos per Google ermittelte Fakten kann die KI nicht liefern sondern – und das ist der eigentliche Skandal – denkt sich irgendwelchen hanebüchenen Kram aus. Wird nach simplen Powershell, Bash oder CMD Scripten gefragt, führt das Ergebnis in vielen Fällen zum Ziel, ist dann aber statt mit 20 Zeilen auch mit einer zu erreichen.
    M.E. total überbewertet.

    • Bernd Bachmann sagt:

      >> Das einzige, was KI wirklich gut kann, ist formulieren.

      Wenn Du "KI" jetzt auf "ChatGPT und Konsorten" beschränkst: Ja. Denn genau dafür ist es gebaut worden. Das sagt ja schon der Name. Weder ChatGPT noch seine Entwickler können etwas dafür, dass man allenorten Fähigkeiten in das System hineininterpretiert, die es einfach nicht hat.

      >> und das ist der eigentliche Skandal – denkt sich irgendwelchen hanebüchenen Kram aus

      Das ist kein Skandal, und es denkt sich auch nichts aus. Es kann nicht denken. Es weiss nicht, was "richtig" und was "falsch" ist. Es weiss auch nicht, dass es etwas nicht weiss. Es generiert wahrscheinliche Sätze. Und wenn es zu Deiner Anfrage keine passenden (wahren) Daten im Trainingsmaterial gefunden hat, dann kann der aus seiner Sicht wahrscheinlichste Satz halt einer sein, den wir als "falsch" bezeichnen würden.

      • mvo sagt:

        "Und wenn es zu Deiner Anfrage keine passenden (wahren) Daten im Trainingsmaterial gefunden hat, dann kann der aus seiner Sicht wahrscheinlichste Satz halt einer sein, den wir als "falsch" bezeichnen würden."
        Man sollte doch aber meinen, dass der Kenntnisstand zumindest dem von Google und anderen Suchmaschinen entspricht.
        Ich habe mal spaßeshalber ChatGPT nach Informationen zu einem Unternehmen befragt. Über Google waren alle korrekten Infos sofort als erstes Suchergebnis auffindbar. ChatGPT nannte völlig absurde und abwegige Informationen in Bezug auf die Internetseite, den Geschäftsführer usw. und beharrte auf diese Info selbst auf hartnäckige Nachfrage.

  10. Fachkraft IT sagt:

    Es war seit Tag 1 ein Blindgänger. Jeder seriöse IT-Mensch, der sich das 5 Mins angesehen hat, also die Erklärung der Technik, nicht den Prompt mit Fragen, wusste sofort, dass das keine KI und nichtmal ansatzweise ähnlich oder verlässlich ist oder sein kann und wird. Wenn man das geschrieben hat, wurde man von den üblichen Marketingläubigen fast schon aufs Messer angegriffen und wird es hier und da noch heute.

    Das ganze Theater soll eine tiefe allgemeine Gläubigkeit an Entscheidungen durch Technik erzeugen, die nicht mehr hinterfragt wird, so absurd die Antworten bzw. Anweisungen daraus auch sind. Diese Art Verkündung von "Wahrheit" kennt man auch aus anderen Lebensbereichen, hinterfragen unerwünscht.

    • Fritz sagt:

      Ähnliches Stauen unter den Leuten, die die Hintergründe vicht verstehen hat Joseph Weizenbaum schon vor 60 Jahren mit "Eliza" erzeugt.

      30 Jahre später, in meiner Zeit bei Siemens waren "Expertensysteme" groß in Mode, die mit Daten angelernt werden mußten und mehr oder weniger fundierte Aussagen wie "bei dem und dem Fehlerbild ist wahrscheinlich das und das Bauteil kaputt" treffen konnten und so halfen, Ingenieure bei der Fehleranalyse einzusparen und durch stumpfes Tauschen von Bauteilen recht hohe Reparaturquoten zu erreichen.

      Der aktuelle Hype ist ja nicht durch die stete Evolution in der KI entstanden (die fand kontinuierlich statt), sondern daß mal wieder eine Firma unbedarfte Leute darauf gehetzt und einen gewissen Überraschungseffekt erzeugt hat.

  11. Michael sagt:

    Also meine Frau hat sich über mein "selbstgeschriebenes" Gedicht zum Valentinstag sehr gefreut und mich nett belohnt :-D
    Ich finde das sehr intelligent von mir. Das Künstliche und die Intelligenz haben sehr gut miteinander funktioniert ^^

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Hinweis: Bitte beachtet die Regeln zum Kommentieren im Blog (Erstkommentare und Verlinktes landet in der Moderation, gebe ich alle paar Stunden frei, SEO-Posts/SPAM lösche ich rigoros). Kommentare abseits des Themas bitte unter Diskussion.

Du findest den Blog gut, hast aber Werbung geblockt? Du kannst diesen Blog auch durch eine Spende unterstützen.