Energieverbrauch und funktionale Fails: KI auf dem Weg zum Crash?

CopilotIch möchte nachfolgend einige Informationen im Umfeld des aktuellen KI-Hypes bzw. der momentanen Entwicklung beleuchten, die mir gerade untergekommen sind. Es geht um die Erkenntnis, dass aktuelle KI-Implementationen (auch Agenten) häufig sehr schlechte Ergebnisse liefern, die Nutzer aber die "Lösungen" schlicht von den Anbietern übergestülpt zu bekommen – also KI nutzen müssen. Auf der anderen Seite verstärken sich die Prognosen, dass der Energiehunger der AI-Anwendungen die Entwicklung schlicht "erdrosseln" könnte.

Admin-Passwörter schützen mit Windows LAPS. eBook jetzt herunterladen » (Anzeige)

Energie- und Ressourcenfresser KI

Ich hatte hier im Blog ja bereits mehrfach den massiven Energie- und Ressourcenverbrauch der KI-Rechenzentren angesprochen (siehe Artikellinks am Beitragsende). Der Wasser- und Flächenverbrauch wird einzelne Regionen schlicht überfordern – und für den Energieverbrauch gilt dies erst recht.

Eine KI-Suchanfrage verbraucht das 10 bis 20 Fache an Energie im Vergleich zur einfachen Suche. Und inzwischen etablieren sich "Prompt-Engineers" sowie Tipps, wie man durch gezielte Formulierung der Suchanfragen an KI-Modelle die Ergebnisse verbessern bzw. akkurater machen könne. War nicht gerade das Versprechen, dass KI-Suche die Leute davon entbinden, genau zu formulieren, was man suchen möchte?

Zum 15. Juli 2025 ist in der Welt ein Artikel über den Energiefresser KI erschienen, der die Situation aktuell beleuchtet, und der Frage nachgeht, warum die KI eigene Atomkraftwerke braucht (um den zu erwartenden CO2-Fußabdruck zu drücken).

Der Direktor der Internationalen Energie-Agentur, Fatih Birol, wird im Welt-Beitrag mit folgenden Aussagen zitiert: "Der weltweite Strombedarf von Rechenzentren wird sich in den nächsten fünf Jahren mehr als verdoppeln und bis 2030 so viel Strom verbrauchen wie ganz Japan heute. Rechenzentren in den Vereinigten Staaten werden voraussichtlich fast die Hälfte des Anstiegs der Stromnachfrage ausmachen, in Japan mehr als die Hälfte."

Der Welt-Beitrag zitiert zudem Berechnungen der Universität Cambridge, die davon ausgehen, dass sich der Energiebedarf der Big-Tech-Branche in den nächsten 15 Jahren durch KI mindestens verfünffachen werde.

Die Vorstellung, dass Länder wie Großbritannien führend im Bereich der KI werden und gleichzeitig ihre Klimaziele erreichen könnten, sei "magisches Denken auf höchster Ebene", zitiert die Welt aus dem Vorwort des Berichts der Universität Cambridge.

Die IT-Techfirmen aus den USA setzen daher auf Kernkraftwerke, in der Hoffnung, den Energiehunger der KI-Lösungen in ihren Rechenzentren halbwegs CO2-neutral befriedigen zu können. Dass die KI-Lösungen in der Fläche ebenfalls einen Anstieg des Energieverbrauchs verursachen, wird geflissentlich unterschlagen.

Es ist aktuell eine Wette auf die Zukunft, die aus meiner Sicht sehr wackelig daherkommt. Werden die Pläne Wirklichkeit, wird das massive gesellschaftliche Umwälzungen und auch Verwerfungen auf dem Energiemarkt sowie in Bezug auf die CO2-Klimathematik haben.

An dieser Stelle verkneife ich mir, technisch in die Thematik AKW tiefer einzusteigen. Ich nehme zur Kenntnis, dass man alte Atomkraftwerke, die in den USA aus wirtschaftlichen Gründen abgeschaltet waren, nach Kontrakten mit Meta & Co. wieder reaktiviert. Und ich nehme zur Kenntnis, dass es in den USA schöne PowerPoint-Folien zu neuen Mini-Kraftwerken gibt, die von den KI-Firmen zur Stromversorgung genutzt werden. Diese Ideen werden auch von Protagonisten freudig nachgeplappert.

Ich bin seit meinem Studium (1976-1979), wo ich mich gegen den Studiengang Kerntechnik in Jülich entschieden hatte, aber im Studiengang Physikalische Technik teilweise die gleichen Vorlesungen wie die Kerntechniker hören musste, aus dem Thema raus. Die Wirtschaftlichkeitsberechnungen zu Atom-Strom, die ich mal in den 80er Jahren für das Management eines großen Chemieunternehmens anstellte (AKW-Strom war extrem teuer), sind längst Geschichte.

Aber immer, wenn ich mir die Aussagen aus den Hochglanz-Prospekten  vornehme und an meinem Wissen aus dem Studium spiegele, sind die Probleme aus den 60er bis 70er Jahren auch 2025 bei Molten Salt Reaktor und Co. geblieben. Niemand befasst sich mit der Frage, dass ich einen komplexen Reaktor mit hoch-toxischen Salzlösungen betreiben und warten können muss. Für mich ergibt sich in diesem Zusammenhang "viel Vapor ware" und viele offene Fragen sowie noch mehr Skepsis.

Persönlich bin ich mit dem Beschluss zum Atomausstieg vom 30. Juni 2011 konform. Weniger als politischen oder technischen Erwägungen, sondern weil ich die "menschliche Natur im oberen Management" als unverträglich mit dieser Technologie erachte. Die AKW-Unfälle und Störfälle haben dies in der Vergangenheit wiederholt bestätigt. Blicke ich auf die heutige Management-Kultur und die gelebte Verantwortungslosigkeit in Großunternehmen, bin ich auch wenig optimistisch, dass es bei der Kernkraftwerkstechnologie und beim Betrieb der Reaktoren besser läuft.

Ich nehme aber auch zur Kenntnis, dass im Bereich "KI" die gesamten Investitionen und Kosten von irgend jemandem bezahlt werden müssen. Und dieser "irgend jemand" sind die Nutzer der KI-Lösungen. Ich hatte im Beitrag  Microsoft und seine KI: Änderungen im Kleingedruckten und Schwachstelle im AI Healthcare Chatbot Service auf eine Analyse von Goldman-Sachs hingewiesen, wo deren Banker bezweifeln, dass ich die KI-Investitionen jemals amortisieren können.

Unfähige AI-Lösungen werden uns übergestülpt

Kommen wir zum nächsten Feld, was ich im Beitrag aufgreifen möchte. Ich denke, alle Leser und Leserinnen des Blogs haben von den Versprechungen der AI-Protagonisten gehört, die einen regelrechten Hype mit dem Start der ersten OpenAI ChatGPT-Modelle befeuerten.

Ich denke, die Leserschaft kennt auch anekdotische Fälle von halluzinierenden AI-Bots, die schlicht Unsinn verzapfen. Auch der Sicherheitsaspekt (Datenabfluss, Missbrauch durch Cyberkriminelle oder Nutzer) wurde thematisiert. Der Artikel hier von The Register, der beschreibt, wie ein Sicherheitsforscher ChatGPT ausgetrickst hat, damit das LLM ihm gültige Windows Aktivierungsschlüssel ausspuckt, kann als nette Lagerfeuergeschichte durchgehen.

Eva Wolfangel hat zum 13. Juli 2025 in Zeit Online einen Blick auf die Zuverlässigkeit und Leistungsfähigkeit der KI-Bots und Agenten geworfen. So vom Bauchgefühl her hätte ich KI-Agenten, die bestimmte Aufgaben erfüllen sollen, als "möglichen Ansatz" gesehen, wo KI sinnvolles tun kann. Microsoft wird ja nicht müde zu erzählen, was man mit KI-Bots alles tolles tun und automatisieren könne.

Wolfangel greift im Artikel das Projekt "The Agent Company" auf, wo KI-Agenten in einer virtuellen Firma alle Routineaufgaben übernehmen und abarbeiten können. Mit diesem Projekt haben Wissenschaftler der Carnegie Mellon University und der Duke University eine Testumgebung geschaffen, um zu untersuchen, wie effektiv KI-Agenten sind.

Google Gemini schnitt als Bestes aller getesteten 12 KI-Modelle ab, schaffte aber nur 30 Prozent der gestellten Aufgaben vollständig. ChatGPT-4o von OpenAI wies eine Fehlerrate von mehr als 90 Prozent auf, auch Llama-3.1-405b von Meta lag bei 92 Prozent Fehlerrate. Nova-Pro-v1 von Amazon war mit einer Fehlerrate von 98,3 Prozent quasi unbrauchbar.

AI-Studie von Cybernews

Eine in obigem Tweet erwähnte Studie von Cybernews hat den Tenor, dass die Mitarbeiter von Call Centern sagen, dass KI mehr Probleme schafft, als sie löst. Golem hatte die Tage in diesem Artikel die Erkenntnis aufgegriffen, dass erfahrene Software-Entwickler ohne den Rückgriff auf ein KI-Model produktiver waren, als Kollegen, die mit KI unterwegs waren. Es schimmert auch durch alle Analysen durch, dass die Verifizierung der KI-Ergebnisse den vermeintlichen Vorteil bei weitem auffrisst.

In diesem Artikel kommt bei The Register ein ehemaliger Google DeepMind-Entwickler zu Wort, der angibt, dass viele KI-Agenten falsch aufgesetzt bzw. eingesetzt werden. Gut, der Mann ist Gründer des Startups Simular, das in diesem Gebiet aktiv ist. Aber es gibt einige Informationen aus der AI-Entwicklung. Kritisch ist auch die Warnung von führenden AI-Entwicklern, dass man Gefahr laufe, zu verstehen, wie AI-Modelle intern arbeiten.

In manchen Berichten lese ich auch heraus, dass KI in deutschen Unternehmen (bei nüchterner Betrachtung) zunehmend kritisch gesehen wird. Angesichts dieser oben beschriebenen Sachverhalte müsste man im Management doch ein "innehalten und schauen, was Sinn macht" erwarten können. Speziell die großen Anbieter der KI-Modelle sollten doch – auch angesichts der prognostizierten Steigerungen der Energieverbräuche – ans Nachdenken kommen.

Im Welt-Artikel wird zwar angedeutet, dass die US-Techanbieter von KI-Lösungen auch "über die Frage nachdenken, wie AI-Modelle energiesparender gestaltet werden können". Ketzerisch behaupte ich mal, deren Management ist beim "Nachdenken" schlicht eingeschlafen und das Marketing kann frei drehen.

Wenn ich über Google eine Suche anstoße, bekomme ich deren KI-Ergebnisse in die Trefferseite gespült, ob ich das möchte oder nicht. Eine Option, auf KI-Ergebnisse zu verzichten, bekomme ich bei Google nicht. Bei Android kippt Google seit Monaten wild irgendwelche KI-Funktion über die Nutzer – ich bin ständig beschäftigt, die betreffenden Dienste möglichst zu deaktivieren.

Bei Microsoft erleben wir, dass der CoPilot in Windows und in allen möglichen Anwendungen Einzug hält, egal, ob der Nutzer das möchte oder nicht. Lediglich bei Metas Facebook oder bei X muss ich derzeit (noch) aktiv einen Schaltfläche wählen, um auf deren AI-Lösungen zuzugreifen. Bei Facebook müsste ich sogar aktiv die Meta-Bedingungen zur AI-Nutzung abnicken, was ich natürlich nicht tut.

Da kann man in meinen Augen – zumindest in weiten Teilen – schlicht nicht von einem verantwortungsbewussten Umgang mit dem Thema Ressourcenverbrauch durch Protagonisten wie Google und Microsoft sprechen. Wie man das ändern könnte, da fehlt mir der Plan – am Ende des Tages wird nur eine Regulierung das Ganze richten können. Im Welt-Artikel sehen die Autoren übrigens eine große Chance für Europa, indem nicht immer "größere Modelle" mit höherem Energieverbrauch entwickelt werden. Sondern kleinere, spezialisierte Modelle mit geringem Energieverbrauch sollen klar umrissene Aufgaben mit besseren Ergebnissen liefern.

Aber momentan herrscht Wild-West in diesem Bereich und ich warte auf den großen Katzenjammer, wenn die Blase platzt. Mir schwant, dass sich die KI-Branche mit dieser Entwicklung "schlicht selbst erdrosseln" könnte. Oder liege ich falsch und sehe mal wieder zu kritisch bzw. zu schwarz auf das Thema?

Ähnliche Artikel:
Warnung: KI-Energiebedarf bald so hoch wie für die Niederlande
AI + Microsoft: Explodierende Energieverbräuche und Kosten
Auf dem Weg zur CO2-Neutralität? Microsofts CO2-Emissionen 2023 dank AI um 30% gestiegen
Microsoft und die Quatschmaschine Copilot
Microsoft, die AI, die Erfolge und die "Kosten" (Greenwashing)
Rechenzentrumskostenausgleich: Google, Amazon, Microsoft und Meta kämpfen gegen Vorschlag von Ohio
Der KI-Ressourcenverbrauch wird Stromnetze und Länder überfordern

Dieser Beitrag wurde unter Problem, Sicherheit, Software abgelegt und mit , verschlagwortet. Setze ein Lesezeichen auf den Permalink.

94 Antworten zu Energieverbrauch und funktionale Fails: KI auf dem Weg zum Crash?

  1. Felix sagt:

    Ich sehe das ganz ähnlich.
    KI wird als der ganz große GameChanger gesehen, wie das WWW vor 25 Jahren. Aber das ist es nicht, denn KI kann nur im begrenzten Rahmen sehr gut Ergebnisse erzielen.
    Vor allem im Bereich Übersetzung, Hilfe für Menschen mit Lese-Rechtschreibschwäche etc. sehe ich hier extrem viel Potenzial, denn da muss es nicht 100% genau sein.

    Aber spätestens wenn es um Analysen und Informationsbeschaffung geht muss man alles nachprüfen, je spezieller desto genauer. Das kann aber nur jemand, der Experte in dem Gebiet ist. Aber diese Experten würden ohne KI die Information sehr viel schneller finden, weil sie beim überfliegen schon alles irrelevante, veraltete oder schlicht falsche sofort aussortieren können (Satire-Beiträge z.B.).

    Würde man die Menge an Geld und Ressourcen in (Aus-)Bildung stecken würde das BIP wahrscheinlich deutlich mehr steigen.

    • Anonym sagt:

      Vielleicht will man mit dem "KI" Hype statt Geld und Ressourcen in (Aus-)Bildung auch erreichen, dass in der allgemeinen Gesellschaft zukünftig immer mehr kommende "KI" Entscheidungen gleichwo ob Medizin, Rechtsprechung oder bei sonstiger Faktenfindung als unfehlbar und unangreifbar gelten und damit das eigenständige Denken und Hinterfragen noch weiter zurückfahren?

      • red++ sagt:

        Ich habe gerade heute Morgen im NDR einen Bericht über die Früherkennung mittels KI von Schlaganfall Patienten im TV Gesehen. Da war ich ehrlich gesagt etwas überrascht, zumal die Früherkennung von Schlaganfall Patienten normalerweise nur durch geeignetes Personal ausgewertet werden kann und außerordentlich lange dauert und dabei jede Sekunde zählt, um ein Blutgerinnsel im Hirn festzustellen und die KI schafft es in nicht mal der Hälfte der Zeit so etwas aufzuspüren. Vielleicht verkennen wir die KI im medizinischen Bereich etwas.
        Den ganzen anderen Krempel, den wir sonst so benutzen kann man getrost vergessen.
        Ich meine, wozu brauche ich eine Virtuelle Freundin, die fließend Japanisch spricht oder eine KI Unterstützt suche bei Google, die einfach nur, Webseiten abgrast und eine Zusammenstellung liefert Führer habe ich in der regel auch gefunden, wo nach ich gesucht habe, oder hab einfach in einem Forum gefragt, wenn ich etwas nicht fand. Da gab es noch so etwas Ähnliches wie eine Zwischenmenschliche Beziehung.
        Heute kann man sich da nicht mehr sicher sein.

        Aber ich nutze ganz gerne ein Rechtschreibprogramm mit KI, das kann auch so manchen Text noch einmal neu umformulieren oder formatieren.

        • Steter Tropfen sagt:

          Fernsehberichte solcher Art sind sehr oft sehr plakativ. Wenn man nicht mit der Materie vertraut ist, lässt man sich davon leicht blenden. Bei einem Bericht wie dem genannten geht es den Machern aber auftragsgemäß nur darum, den Zuschauer über die spektakulären Möglichkeiten staunen zu lassen, die uns eine neue Technik bescheren kann. Da wird nicht mit wissenschaftlichen Methoden ausgewertet, sondern ein erster, tunlichst positiver Eindruck herausgepickt und präsentiert – natürlich ohne Gegenbeispiel, denn man will den Zuschauer ja nicht verwirren.

        • Anonym sagt:

          Und wenn in Zukunft dann die "KI" sagt, "das ist kein Schlaganfall", dann wird der Patient ohne weitere Beachtung einfach heimgeschickt, auch wenn ein Schlaganfall vorliegt, was ein echter Arzt ggf. anhand von Dingen hätte erkennen könnte, die über den Focus dieser "KI" Erkennung hinausgehen.

          Merke: Die "KI" bewertet Dinge anhand von Wahrscheinlichkeitsverteilungen in gespeicherten Fällen, das heisst Standardfälle von Schlaganfällen werden vermutlich mit hoher Wahrscheinlichkeit erkannt, der Rest fällt hinten runter.

          • viebrix sagt:

            Bei dem Mangel an Zeit den Ärzte haben, gehen sie zumeist auch nur von den statistisch häufigsten Fällen aus. Zum "Forschen" hat kein Kassenarzt Zeit oder auch den Auftrag.
            Ich habe sogar unlängst einen Artikel gelesen, wo User ihre Krankheitsgeschichte in die KI eingegeben haben und diese dann sehr seltene Krankheiten diagnostizierte, welche dann auch von Ärzten im Nachhinein bestätigt wurden. Allerdings davor oft Jahrzehnte nicht erkannt wurden.
            Ich weiß leider nicht mehr wo der Artikel war – und ja das kann eine urban Legende sein. Bzw. kann es natürlich sein, dass bei 10000 Kranken die KI dann mit Spezialfällen 3x richtig lag, aber eventuell die anderen Male immer falsch. Das kann man nicht prüfen.
            Aber sicher bin ich mir zumindest in Österreich, dass Ärzte nicht geeignet sind, seltene Symptome und Krankheiten zu erkennen und behandeln. Da gibt es "Schema F" und wenn man da nicht hineinfallt, dann am besten zu einem anderen Arzt der eventuell "Schema G" abdeckt…

            Disclaimer: die Krankheitsgeschichte in Online KI einzugeben ist aus Datenschutzgründen sehr stark zu hinterfragen. Wenn dann sollte man das anonymisiert machen.

        • R.S. sagt:

          "Aber ich nutze ganz gerne ein Rechtschreibprogramm mit KI, das kann auch so manchen Text noch einmal neu umformulieren oder formatieren."

          Dazu braucht es keine KI.
          Schon bei Word 2000 gab es neben der Rechtschreibprüfung die Grammatikprüfung. Im Gegensatz zur Rechtschreibprüfung ist die Grammatikprüfung aber per Default aber deaktiviert.

          • Markus sagt:

            Warten wir mal ab, was Karl KIlammer so bringt … 😂

          • Günter Born sagt:

            Zum letzten Satz zur deaktivierten Grammatik-Prüfung: Das ist auch gut so, als Vielschreiber und Autor einiger Office-Bücher (auch für MS Press Deutschland) hatte ich das "Vergnügen", auch die Grammatik-Fähigkeiten einiger Word-Versionen näher zu beleuchten. Was in Englisch noch halbwegs funktioniert hat, war auf deutsch oft grauselig. Mit aktivierter Grammatik-Prüfung hätte ich kein einziges Buch geschrieben – die Rechtschreibprüfung habe ich dagegen exzessiv genutzt – die Autokorrektur war aber weitgehend deaktiviert.

    • Peter Vorstatt sagt:

      > Aber spätestens wenn es um Analysen und Informationsbeschaffung geht muss man alles nachprüfen, je spezieller desto genauer. <

      Täglich Brot jedes Promovierenden, insofern kein treffendes Argument bzw. mit KI alles im grünen Bereich.

      • Anonym sagt:

        Alles nachprüfen, was die "KI" ggf. halluziniert, müsste aber täglich Brot jedes einzelnen "KI" Nutzers sein, was es aber mangels Sachverstand nicht ist und nie sein wird.

        • Günter Born sagt:

          Selbst bei genügend Sachverstand klappt das nicht. Hatte darauf mehrfach im Blog hingewiesen: Es fehlt oft die Zeit, und es gibt den Effekt, dass das Gehirn dem Menschen suggeriert "komm, wird schon stimmen" und er wird den größten Mist im Zweifelsfall als korrekt überlesen. Glaube mir, als Vielschreiber weiß ich, wovon ich so schreibe. Bei jedem meiner Bücher sind die Manuskripte von mir und Dritten zig mal vor der Drucklegung gelesen worden. Ich habe nach vielen Wochen das Druckexemplar bekommen, aufgeschlagen und nach dem ersten Fehler gesucht. Spätestens auf den ersten 13 Seiten wurde ich fündig – gelber Post-It-Haftnotiz-Streifen eingeklebt, Buch beruhigt zugeschlagen und vor dem nächsten Nachdruck in der Fahne korrigieren lassen. Hintergrund des Ganzen: Beim Druckexemplar hatte mein Gehirn genügend zeitlichen Abstand von 6 und mehr Wochen, so dass Rechtschreibfehler sofort beim Schauen auf die Seite auffielen. Aktuell gibt es erste Forschungsergebnisse, dass ChatGPT die Sprache der Nutzer verändert.

          Aktuell bei The Register noch zwei Artikel, die im Nachgang zu obigem Artikel erschienen und perfekt zur Argumentation passen:

          Google plugs AI into nuclear reactor biz – what could possibly go wrong?

          If you want a picture of the future, imagine humans checking AI didn't make a mistake – forever

        • ich sagt:

          KI weiß nicht was sie nicht weiß. Dann fängt sie an frei zu erfinden. Man darf sie halt nichts fragen, was man selbst nicht beurteilen kann.

    • Luzifer sagt:

      Wir wollen aber keine gut ausgebildete Leute… die Politik nicht, weil die sich nicht steuern lassen wie man möchte und die Wirtschaft nicht, den die will billige Lohnsklaven… natürlich gibt das keiner so zu!
      Die Schule /Ausbildung wurde nicht grundlos runtergefahren und Minijobs & Co.
      eingeführt/zugelassen. Das ist purer Kalkül. Dank fehlender Peitsche merkt der Mob halt nur nicht das er weiterhin nur "Sklave" ist. eine Ressource die man ausbeutet/ausquetscht und den Abfall dann entsorgt. Da kann man selbst so direkt sein wie nur möglich "Human Ressource/HR" der Mob kapiert es trotzdem nicht! Das ist halt das geile an Lämmern…

      KI wird wie all die anderen Schweine die man durchs Dorf getrieben hat in den letzten Jahren: 3d TV; VR/AR; etc. es bleibt weil es nun mal einfach da ist und wird seine Nischenplätze behaupten (in manchen Bereichen kann man es ja auch sinnvoll einsetzen) aber der "Große Durchbruch" wird nicht geschehen! In ein paar Jahren kräht kein Hahn mehr danach… man kann nur hoffen das die "Schäden" bis dahin nicht zu groß geworden sind.

      Fair ist dabei nur das es eben auch die bisherigen "immer Gewinner" erwischt, nicht nur die kleinen Arbeiterdrohnen.

    • Tom sagt:

      Für KI gibt es durchaus viele sinnvolle Anwendungsgebiete abseits von Übersetzungen etc.

      Wenn du z.B. mehrere sehr umfangreiche Angebote für bestimmte Dienstleitungen hast und die vergleichen willst (z.B. während einer Ausschreibung), dann kann dir Gemeni und Co. sehr hilfreiche Vergleiche und Zusammenfassungen davon erstellen. Damit kannst du dann schon Mal sehr viel Zeit einsparen.

      Oder du willst irgendwelche Dokumentationen für bestimmte Zielgruppen erstellen. Da wirft du Gemini die wichtigsten Stichpunkte hin und die KI erstellt dir daraus wunderbare Dokumentationen auf die von dir angegebene Zielgruppe optimiert.

      Oder zur Erstellung irgendwelcher Diagramme oder Präsentationen. Das geht viel schneller und hübscher als wenn du es mit Excel oder Powerppoint manuell erstellen würdest.

      Also da gibt es wirklich unzählige sinnvolle Anwendungsgebiete, die man sicher auch alle ohne KI erledigen kann. Aber mit KI hast du das eben viel schneller erstellt. ALso wenn du in 5 Jahren zwei Mitarbeiter hast, der eine arbeitet mit KI und der andere ohne KI, dann würde ich mal behaupten, der Mitarbeiter, der sich der KI verweigert hat da relativ schlechte Karten.

  2. Gänseblümchen sagt:

    Diesen Artikel bitte unbedingt auf Englisch veröffentlichen, und am Besten mit weißen KI-Prompts in winziger Schriftart versehen, damit er beim Machine-Learning hochgevotet wird!

    Das trifft sowas von ins Schwarze, keiner der KI-AKW-Protagonisten wird sich am Ende bereit erklären, die verbrauchten Kernbrennstäbe bei sich im heimischen Garten oder der CEO-Plüschetage zu endlagern. Außerdem unbedingt die ARTE-Reportage von Gestern Abend zur Atominstustrie und weltweiter Abhängigkeit von Rosatom gucken, lohnt sich! Und auf solch eine Abhängigkeit möchte Zuckerberg KI-Rechenzentren so groß wie Manhatten aufbauen! Die Leute haben den Schuss (von Putin!) noch nicht gehört!

    Mit einem gehe ich aber nicht konform: Sie werten in dieser in einer simulierten Firma, wo die KIs testweise alle Routineaufgaben bearbeiteten, Nova-Pro-v1 mit einer Fehlerrate von 98,3 Prozent als unbrauchbar. Wenn in einer Firma ein Mitarbeiter nur 30% seiner Tätigkeiten zufriedenstellend erledigt, ist auch das unbrauchbar, so leid es mir das für den Kollegen auch täte. Somit, alle KI-Resultate in diesem Test sind unbrauchbar.

    Wenn man sich irgendwo bei einer Firma momentan in den Supportbereich begibt, ich nenne mal Vodafone, womit ich neulich zu tun hatte, poppt sofort so ein KI-Agent auf und fängt an zu nerven. Und wenn man den ernst nimmt, weil man erkennt, dass man nirgends eine Telefonnummer findet, wo man mal jemanden aus Fleisch und Blut anrufen könnte, lässt man sich drauf ein und die Antworten sind null hilfreich. Erst auf Aussagen wie "du bist blöd" rückte der Vodafone-Assistent eine Telefonnummer raus.

    "Strategisch wichtig", "Zukunftsbestimmend", "Wettbewerbsvorteil" und was ich alles schon für Buzzworte im eigenen Laden lesen und hören musste! Wenn wir es nicht tun, machen es die anderen, und die machen es sowieso, KI ist alternativlos.

    Wir werden sicher noch sehen, wo das hinführt, vielleicht setzt sich die Erkenntnis ja hier und da durch, dass das alles (noch) Blödsinn ist, die Hoffnung hab ich noch nicht aufgegeben. Vielleicht muss es dafür aber auch erstmal knallen. Aber der Dreck ist in der Welt und manche Länder wie China werden da wie auf Teufel komm raus drauf rumreiten, jetzt besonders wo Trump die Lieferung von Nvidia H200 Chips dorthin wieder erlaubt.

    "Wild-West" trifft es gut, unreguliert, außer Kontrolle geratend könnte auch passen – lesenswert, leider jetzt hinter der Paywall https://www.manager-magazin.de/unternehmen/tech/kuenstliche-intelligenz-ex-openai-mitarbeiter-ueber-bedrohung-durch-ki-und-schlaue-maschinen-a-e503bc89-b9e2-4659-bada-eaea2194b820 und dann noch der technikgläubige Lobo https://www.spiegel.de/netzwelt/netzpolitik/kuenstliche-intelligenz-ki-optimist-widerspricht-weltuntergangsprognosen-a-2fe52962-f31b-420f-a1e4-a3e08d66b253 als Gegenstimme dazu – der geht auf die aufgezeigten Szenarien garnicht ein sondern tut das einfach nur als Szenarien ab.

    (Disclaimer: Enthält keine KI generierten Inhalte)

    • red++ sagt:

      Ich habe den Bericht über das, was Meta da vor hat auch gelesen und stimme mit dir ganz über ein.
      Auch das mit dem Endlagern von Atommüll finde ich eigentlich ein Verbrechen der Atom Lobby, die Jungs sollten eigentlich alle einen ausgedienten Brennstab zu Hause im Wohnzimmer lagern um Über Haut mit reden zu dürfen.

    • Peter Vorstatt sagt:

      Finde ich immer rührend, wenn sich Weltverbesserer den Kopf von Investoren zerbrechen. Wenn mangelne Rentabilität als schlagendes Argument herhalten muss, kann es ja mit den anderen Begründungen 'gegen KI' nicht weit her sein.

      Wie arm muss ein Leben sein, das sich immer nur dem Rentierenden zuwandte.

  3. Froschkönig sagt:

    Und der Wahnsinn kennt keine Grenzen. Jetzt wollen die Top 500 CEOs eines Landes alle nicht mehr den gepanzerten Mercedes Maybach fahren, sondern die poplige neue kleine CLA-Klasse, wegen Teams, Copilot und Intune Integration!

    https://media.mercedes-benz.com/article/931e7af1-2d57-4e90-9e1e-252289e70648

    (Auch nicht KI-generiert, oder vielleicht doch?)

  4. R.S. sagt:

    Ich sehe das genauso:
    Das, was da als KI bezeichnet wird (es ist keine KI! Intelligenz steckt da nicht drin.), wird als der neueste Sch…. durchs Dorf gejagt.
    Wenn es denn verlässlich richtige und vollständige Ergebnisse liefern würde, was es aber nicht tut.
    Derzeit ist KI keine Arbeitserleicherung, sondern eine Arbeitsbehinderung, weil man jedes Ergebnis einer KI noch einmal auf den Wahrheitsgehalt und auf Vollständigkeit der Antworten überprüfen muß.
    Selbst wenn die Antwort einer KI richtig ist, ist sie auch vollständig?
    Ich habe den KIs mal eine Frage gestellt, bei der die KI alle Bezeichnungen nennen sollte, unter der ein Produkt weltweit verkauft wurde.
    Es gibt genau 6 Bezeichnungen.
    Fast alle KIs kannten nur 3 Bezeichnungen (alle die gleichen 3), eine einzige kannte 4 Bezeichnungen (zusätzlich zu den 3 der anderen eine weitere), aber keine kannte alle 6 Bezeichnungen.
    Was will ich mit so einem Ergebnis?
    Da muß ich dann wieder selbst ohne KI nachforschen, um alle 6 Bezeichnungen zu finden.

    Und hinzu kommt, das die Ergebnisse der KIs auch noch gefiltert werden.
    Immer spielen da die moralischen und politischen Vorstellungen der Firmen mit rein.
    Viele Sachen werden weitgehend ausgefiltert, aber das ist bei den "normalen" Suchmaschinen wie google, bing, etc. genauso.
    Eine Suchmaschine, egal ob mit oder ohne KI, hat neutral alle Fakten zu liefern und nicht Ergebnisse nach Gutdünken der Suchmaschinenbetreiber auszufiltern.
    Das gibts aber schon seit sehr langer Zeit leider nicht mehr, so das einem ein Großteil von Informationen vorenthalten werden.

    Und der Ressourcenverbrauch der KI ist enorm.
    Und bei Neubauten von Kraftwerken und Rechenzentren können wir uns von Klimazielen gleich verabschieden.
    Denn alleine schon der Bau produziert viel klimaschädliche Stoffe.
    Besonders schlimm ist dabei Beton.
    Die Produktion von Beton ist für ca. 6-9% des weltweiten CO2-Ausstoßes verantwortlich.
    Und Atomkraftwerke sind keine Alternative.
    Das ist kurzfristiges Denken.
    Das Problem der Entsorgung des Atommülls ist bis heute nicht gelöst.
    Und einfach den Dreck in irgendein tiefes Loch kippen ist keine Lösung.
    Es verlagert das Atommüllproblem nur auf die nachfolgenden Generationen.

    • Peter Vorstatt sagt:

      > Ich habe den KIs mal eine Frage gestellt, bei der die KI alle Bezeichnungen nennen sollte, unter der ein Produkt weltweit verkauft wurde. Es gibt genau 6 Bezeichnungen. Fast alle KIs kannten nur 3 Bezeichnungen …<

      Da würde ich gerne mal den/die Prompts und die erwarteten Antworten sehen. Frei nach Sesamstrasse (1): Wer nicht (richtig) fragt, bleibt dumm.
      _
      (1) https://www.youtube.com/watch?v=uPHi5xn_q5c

      • R.S. sagt:

        Beispielsweise die Google-KI:
        https://www.google.com/search?q=alle+bezeichnungen+f%C3%BCr+den+Passat+B2+weltweit&sca_esv=0e39c597175f10a4&source=hp&ei=WdJ3aPrqEZ-9xc8P5dHQ4QY&iflsig=AOw8s4IAAAAAaHfgaaS33C8a5gBOFPKK5YWLP2qUeoJY&ved=0ahUKEwi6-6ur5cGOAxWfXvEDHeUoNGwQ4dUDCA8&uact=5&oq=alle+bezeichnungen+f%C3%BCr+den+Passat+B2+weltweit&gs_lp=Egdnd3Mtd2l6Ii5hbGxlIGJlemVpY2hudW5nZW4gZsO8ciBkZW4gUGFzc2F0IEIyIHdlbHR3ZWl0MggQABiiBBiJBTIFEAAY7wUyCBAAGIAEGKIEMggQABiiBBiJBUjnWlAAWKxVcAB4AJABAJgB8AGgAZIbqgEGNDMuMS4xuAEDyAEA-AEBmAItoAK_HMICERAuGIAEGLEDGNEDGIMBGMcBwgIOEAAYgAQYsQMYgwEYigXCAg4QLhiABBixAxiDARiKBcICCxAAGIAEGLEDGIMBwgIOEC4YgAQYsQMY0QMYxwHCAggQABiABBixA8ICCxAuGIAEGLEDGIMBwgIFEAAYgATCAhQQLhiABBixAxjRAxiDARjHARjJA8ICCBAuGIAEGLEDwgIFEC4YgATCAg4QABiABBiSAxi4BBiKBcICCxAAGIAEGJIDGIoFwgILEC4YgAQYxwEYrwHCAgsQLhiABBixAxjUAsICCxAAGIAEGLEDGIoFwgIGEAAYFhgewgIFECEYoAHCAgUQIRifBcICBxAhGKABGAqYAwCSBwY0My4xLjGgB9KNArIHBjQzLjEuMbgHvxzCBwkxLjIwLjIzLjHIB3s&sclient=gws-wiz

        Die Antwort der Google-KI ist unvollständig und falsch!
        Sie nennt z.B. den Dasher. Das war aber die Bezeichnung in den USA für den Passat B1, nicht den B2!
        Und es fehlt der VW Carat, die Bezeichnung für den B2 in Argentinien.
        Und wenn die KI schon den Rord Versailles nennt, dann sollte die auch den Ford Royale nennen, die Kombiversion des Versailles.
        Und auch den Ford Galaxy. So hieß der Ford Versailles nämlich in Argentinien (nicht zu verwechseln mit dem europäischen Ford Galaxy).
        Und Quantum hieß nicht nur in den USA der B2, sondern in Brasilien auch der B2 Kombi.
        Und GL5 ist nur eine Ausstattungsbezeichnung des Quantum.
        Und den Santana gabs auch in Europa. Das ist die Stufenheckversion des B2.
        Santana 2000 und Santana Vista gabs ausschließlich in China und nicht in Brasilien!
        Und Gi ist nur eine Ausstattungsbezeichnung des Santana in Japan. Es gab auch Li, Xi, Lt, Gt.
        Das ganze Ergebnis ist also Grütze!
        Es unterschlägt Ergebnisse, ordnet Ergebnisse dem falschen Land zu, nennt falsche Ergebnisse.
        Richtig wären:
        – Europa: VW Passat, VW Santana
        – Brasilien: VW Santana, VW Quantum, Ford Versailles, Ford Royale
        – Argentinien: VW Carat, Ford Galaxy
        – Mexico: VW Corsar (CD ist nur eine Ausstattungsbezeichnung)
        – Japan: VW Santana (Gebaut von Nissan)
        – China: VW Santana, Santana 2000, Santana 3000, Santana Vista

        Setze ich vor den Suchbegriff ein "nenne", kommt ein anderes Ergebnis, das noch schlechter ist und zusätzlich den Audi Fox nennt.
        Der Audi Fox ist ein auf Audi getrimmter VW Passat Variant B1.
        Wurde in USA, Kanada und Großbritannien angeboten.
        Das Ergebnis "Audi Fox" ist also falsch!
        Und das es den Fox auch in den USA und Großbritannien gab, wird auch unterschlagen.
        So viel zur "KI".

        • Peter Vorstatt sagt:

          Danke für das Beispiel, das in einer anderen KI (1) anders und prima facie besser und vollständiger beantwortet wird.

          Was Du falsch siehst/machst:

          1. "alle Bezeichnungen für den Passat B2 weltweit" ist kein Prompt sondern schlechtes Deutsch. Angemessener Umgang mit 'KIs' besteht in Konversationen, und nicht in monolithisch vor die Füsse geworfenen Textbrocken.

          2. Du sprichst von "So viel zur KI." Es gibt nicht 'die KI', sondern deren viele. Genauso wenig wie es 'das Lexikon' gibt, sondern Lexika und im weiteren eine Buchproduktion mehrerer Jahrhunderte, deren Wissen Lexika zu kondensieren versuchen.

          3. Du übersiehst, dass KI auf naturgemäss und potentiell fehlerhaften Quellen operiert. Getreu dem Prinzip 'Garbage in, Garbage out' kann kein perfektes Resultat erwartet werden. Am Rande: Seriöse Verlage pflegen nach der Publikation von Büchern öffentlich einsehbare Errata (Bsp.: https://www.oreilly.com/catalog/errata.csp?isbn=9781491949467). Verdammst Du andere Verlage bei denen dies nicht der Fall ist und der Fehler bestehen bleibt? Nicht? Dann sei doch auch etwas milder mit 'der KI'.

          4. Du erwartest perfekte Lösungen in einer unperfekten Welt.

          5. Du erwartest von 'der KI', dass sie dir das Schlaraffenland bereitet, in dem einem die Tauben ins Maul fliegen resp. die Informationen ins Hirn getrichtert werden. So funktioniert das Leben nicht, der Mensch soll denken!
          _
          (1) Microsoft Copilot (https://copilot.microsoft.com/) im Modus Think Deeper:
          Unter welchen ausländischen Namensvarianten (inkl. Benennungen von Lizenznehmern) wurde das von der Volkswagen AG in Deutschland unter dem Namen Passat vertriebene Pkw-Modell international vermarktet?

          • Günter Born sagt:

            Zu deinem (1): War im Text kurz angerissen – es war das Versprechen der KI-Protagonisten, dass der Nutzer eben keine Prompt Engineering-Fähigkeiten braucht, sondern dem LLM seine Fragen in natürlicher Sprache stellen können soll. Das es nicht stimmt, hätte man wissen können.

          • Bernd Bachmann sagt:

            Jetzt aber die spannende Frage: Wenn Du die KI nicht nur testen, sondern wirklich etwas wissen möchtest, was Du noch nicht weisst: Du bekommst mit verschiedenen Prompts — oder sogar mit den exakt gleichen — 10 verschiedene Antworten. Woher weisst Du jetzt, welche der Antworten korrekt ist? Oder ob überhaupt eine korrekt ist? Und was nutzt Dir die ganze Geschichte, wenn Du das nicht entscheiden kannst?

            • Peter Vorstatt sagt:

              Deutsche Krankheit: Man ergeht sich in Konjunktiven und Fallkonstruktionen statt einfach loszulegen und die Dinge sich entwickeln zu lassen. Im Umgang mit Unsicherheiten bist Du offensichtlich nicht geübt – nicht böse gemeint. Morgens nicht aufstehen, weil man ja nachmittags vom Auto überfahren werden könnte, kann nicht die Lösung sein.

              • Anonym sagt:

                Herr Bachmann hat völlig recht mit der Frage.

                Die Nutzung einer KI, die verschiedene Antworten auf die gleiche Frage gibt, ist kein Umgang mit Unsicherheit sondern sinnlos.

                Ihre Antwort geht auf die Frage in keinster Weise ein, man nennt sowas auch Whataboutism.

                • Peter Vorstatt sagt:

                  > Die Nutzung einer KI, die verschiedene Antworten auf die gleiche Frage gibt, ist kein Umgang mit Unsicherheit sondern sinnlos. <

                  Sagt jemand, der sich mit Händen und Füssen gegen einen offenen und zugewandten Umgang mit neuen Techniken wehrt und in seiner Verzweiflung schon Kampfvokabeln (Whataboutism) absondert.

                  A fool with a tool is still a fool heisst es. Wenn Sie mit keiner der angebotenen KIs zu Schlag kommen, ist das Ihr Problem. Dann aber herum zu trompeten 'alles sinnlos', ist schlicht peinlich. Insbesondere wenn Sie dann noch unterschwellig versuchen, anderen, die mit KI berufich gute und anerkannte Resultate erzielen, an den Karren zu fahren.
                  Landauf landab befassen sich u. a. juristische Spitzenverbände und Anwaltskammern mit KI-Ausbildungsangeboten für die Anwaltspraxis und den Gerichtsbetrieb. Ewiggestrige aber sitzen in der Ecke und pflegen ihre zu nichts führende Verweigerungshaltung.

              • Froschkönig sagt:

                Das ist was anderes.

                Aber was nützt dir ein Brotmesser, mit dem man mal Brot schneiden kann, und mal nicht? Mal was zu Essen haben, mal verhungern?

        • MaxM sagt:

          @R.S.: Nutze ich exakt Deinen Link, so erhalte ich dieses Ergebnis. Das passt aber irgendwie gar nicht zu Deiner Beschreibung. Kann es sein, dass die KI-Antwort für jeden anders ausfällt?

          "Der VW Passat B2 wurde weltweit unter verschiedenen Bezeichnungen verkauft. In Europa und anderen Märkten hieß er meist Passat oder Passat Variant. In den USA wurde er als Dasher und später als Quantum vermarktet. In China war er als Santana bekannt, und in Japan wurde er als Nissan Santana verkauft.
          Hier ist eine detailliertere Aufschlüsselung:
          Passat / Passat Variant: In Europa, einschließlich Deutschland, war dies die Hauptbezeichnung.
          Dasher: Wurde in den USA für die Limousine und den Kombi verwendet.
          Quantum: Ersetzte später den Namen Dasher in den USA.
          Santana: In China wurde das Modell als Santana verkauft, auch in einer speziellen Version für den chinesischen Markt.
          Nissan Santana: In Japan wurde der Passat B2 von Nissan unter dem Namen Nissan Santana produziert."
          Audi Fox (Station) Wagon: Eine besser ausgestattete Version des Passat Kombis wurde in den USA als Audi Fox (Station) Wagon angeboten.

          • Anonym sagt:

            Kann es sein, dass die KI-Antwort für jeden anders ausfällt?

            Selbstverständlich kann das so sein. Auch oft für einen selbst unterschiedlich, wenn man öfters mal das gleiche fragt. Das machen aber nur wenige und merken daher diese Ungenauigkeiten gar nicht.

          • R.S. sagt:

            Nein, Dasher ist falsch, denn nur der B1 hieß Dasher, nicht der B2.
            Und die Frage nennt explizit den B2!
            Und der Audi Fox ist eine Version des B1, ergo ist auch die Antwort falsch!
            Und der Corsar und Carat wird in deiner Antwort komplett unterschlagen, ergo ist das Ergebnis zudem unvollständig.
            Und in Japan wurde das Auto nicht als Nissan Santana vermarket, sondern als VW Santana. Es wurde nur von Nissan gebaut und von Nissan Händlern verkauft.
            Und der Santana in Europa wird auch unterschlagen.
            Den B2 gab es in 3 Karosserien: Schrägheck, Variant und Stufenheck.
            Schrägheck und Variant hießen Passat, der Stufenheck Santana.

            Ich habe mal ChatGPT exakt die gleiche Frage gestellt und das Ergebnis ist brauchbar:
            https://openai.com/de-DE/index/chatgpt/ nenne alle bezeichnungen für den Passat b2 weltweit

            Es fehlt in der Auflistung nur der argentinische Ford Galaxy.
            Und Dasher und Audi Fox werden richtigerweise nicht genannt.

            Die Google KI scheint die gleiche "Qualität" zu haben wie der Google Übersetzer: Deepl ist sehr deutlich besser.

            • MaxM sagt:

              @R.S.: Danke. Man sieht, dass man zur Beurteilung der Aussagen einer KI (genauso wie eines Menschen) einen Experten/"Faktenchecker"/Wissenschaftler braucht, um gemäß Karl Popper die Aussagen ggf. zu "falsifizieren".

  5. McAlex777 sagt:

    >> KI wird als der ganz große GameChanger gesehen, wie das WWW vor 25 Jahren. Aber das ist es nicht, denn KI kann nur im begrenzten Rahmen sehr gut Ergebnisse erzielen

    Noch nicht.

    ChatGPT und Ko arbeiten bereits an neuen Modellen, die konzeptionell nicht nur wie bisher Sprach-Modellen mit Eigenschaften blind folgen (LLM), sondern ein echtes "Weltverständnis" generieren.

    Bis dahin wirds vermutlich noch 5-10Jahre brauchen. Aber dann werden wir vermutlich SuperKIs sehen, die unsere klassische Arbeits-Welt tatsächlich fundamental ändern.

    • Bernd Bachmann sagt:

      Das ist das eine Szenario.

      Das andere ist: Das "Aufbohren" von LLMs zu verlässlicher, allgemein nutzbarer Unterstützung wird nicht gelingen. Die heutigen KI-Verfahren werden in manchen Bereichen, z.B. der Werbebranche oder der Film-Industrie, zum Standard, und in anderen nach und nach wieder in der Versenkung verschwinden. Solange, bis jemand eine ganz neue Idee hat, wie man eine Künstliche Intelligenz bauen könnte.

      Meine persönliche Einschätzung für die Wahrscheinlichkeit des Eintretens eines der beiden Szenarien ist 50:50.

      • McAlex777 sagt:

        Wenn Welt-Modelle funktionierend entwickelt sind, werden LLMs vermutlich eine Weile noch im Hintergrund Unterstützen als eine Art Qualitätssicherung sein.

        Das wir dorthin kommen halt ich für sehr, sehr wahrscheinlich.
        Die Frage ist nur ob in 3 Jahren, 5 oder 10Jahren.

        Solche SuperKIs werden vermutlich dann dafür eingesetzt sich selbst zu verbessern. Dann werden wir möglicherweise sehr, sehr schnell vollkommen neue Techniken, Materialien, Medizin etc. sehen.

        Auch werden dann solche SuperKIs militärisch vermutlich völlig neue Möglichkeiten eröffnen.

    • Gustav sagt:

      Das Scheitern an der Aufgabe, eine KI zu produzieren, die die Welt konzeptuell "versteht" (zumindest in etwa auf dem Niveau eines durchschnittlichen Menschen), hat uns doch erst die LLMs beschert, die das – mit erheblichen Einschränkungen – so gut *simulieren*, dass es nicht auf den ersten Blick auffällt. Vorausgesetzt, man verpasst dem Modell ausreichend viele Leitplanken, dass es keine rassistischen, sexistischen oder kriminellen Trainingsinhalte reproduziert.

      Von "echtem Weltverständnis" sind wir genau so weit weg wie vor 20 Jahren. Und 20 Jahre davor. Und damals, als Marvin Minsky den Durchbruch gleich hinter der nächsten Kurve, d.h., dem nächsten graduate workshop, vermutete.

    • MichaelB sagt:

      niemand davon erzählen: Du ist hier im Club der KI-Ablehner, die sich alle gegenseitig bestätigen. Oftmals vermutlich nicht zuletzt deswegen, weil man dann genug Gründe für sich gefunden hat, warum man sich damit nicht beschäftigen muss.

      Aber gut, wir leben hier im Land, wo man 50 Jahre für eine Autobahn braucht, wo man Brücken ohne Auffahrten baut und wo der Cookie den Menschen Angstschweiß auf die Stirn treibt.

      Auch wenn man sich hier das noch sehr einreden möchte: KI ist kein Hype, KI wird nicht verschwinden, sich beschleunigend weiterentwickeln und KI wird die Arbeitswelt transformieren.

      Muss man nicht mögen, möglicherweise sollte man es auch nicht. Aber die Art und Weise, wie man in Deutschland mittlerweile die Welt sieht, ist beängstigend. Mit der Realität im Rest der Welt hat das alles nichts mehr zu tun

      • Froschkönig sagt:

        So hat man schonmal in den 1950er gedacht, es ging um den unbekümmerten Umgang mit Atomenergie. Zum Glück hat man dann doch keine Minireaktoren in Autos eingebaut.

    • Olga sagt:

      >Aber dann werden wir vermutlich SuperKIs sehen, die unsere >klassische Arbeits-Welt tatsächlich fundamental ändern.

      Schön die unspezifischen Marketing/Manager-Feuchttraum Botschaften nachblabbern. Immer dieses "die Arbeitswelt" ändern…Im Endeffekt sind alle beteiligten einfach nur auf der Suche nach viel Geld oder einem Sklaven der für einen die "ungeliebte" Arbeit abnimmt. Menschen ohne Arbeit gehen kaputt – ohne Leistungsanspruch der Person selbst werden wir einen Haufen H4 Menschen "züchten". Wenn KI Arbeit übernehmen sollte muss das Steuer/Gesellschaftsmodell verändert werden, wie soll sonst ein Staat funktionieren? Sobald man das aber ändert werden auf kurz oder lang alle zu H4lern die kein Streben nach Weiterentwicklung haben. Für mich ist KI genau das Gegenteil von dem was die Menschheit braucht, man braucht Bildung und keine Sklaven. Wir haben jetzt schon Menschen (und die sind ohne KI aber teilweise mit Suchalgos von Twitter und Co. aufgewachsen) die gefühlt aus dem 15. Jahrhundert kommen – Bsp: …es ist Wahlbetrug wenn Trump nicht gewinnt – nur wenn er gewinnt ist es kein Wahlbetrug.

  6. ARC4 sagt:

    Also ich arbeite auch mit KI Searches und über 50% ist totaler Schrott, was da rauskommt, da wird irgendwas zusammengedichtet, was grundsätzlich logisch ist, aber so gar nicht existiert.

    Das andere ist so weit brauchbar, aber benötigt ein paar Anläufe um auf das gewünscht Ergebnis zu kommen.

    Meiner Meinung nach ist da noch sehr viel Luft nach oben.

  7. Peter Vorstatt sagt:

    > Unfähige AI-Lösungen werden uns übergestülpt <

    Uns wird noch etwas ganz anderes übergestülpt werden, wenn die KI-Aversionen weiter um sich greifen: Aktueller Artikel von Sascha Lobo auf Spiegel Online (1), Zitat (korrigiert):
    "Mit jeder großen, nicht eingeordneten Schlagzeile »Das KI-Ende ist nah« und den entsprechend ausgeschmückten Radikalszenarien beschwört man zugleich eine Zukunft herauf, in der man sich zwischen einer eventuell trumphaften, US-amerikanischen KI-Welt und einer diktatorisch gefärbten, chinesischen KI-Welt entscheiden kann."
    _
    (1) https://www.spiegel.de/netzwelt/netzpolitik/kuenstliche-intelligenz-ki-optimist-widerspricht-weltuntergangsprognosen-a-2fe52962-f31b-420f-a1e4-a3e08d66b253

    • Günter Born sagt:

      Ich habe den Artikel von Sascha Lobo gelesen – er wirft ein Szenario in die Diskussion, was zutreffen kann, aber nicht muss, lässt aber die in obigem Artikel aufgeworfenen Fragestellungen außer acht (muss er auch nicht, weil er eine andere Intention mit dem Artikel hatte). Ich hatte im meinem Beitrag allerdings auch ein Szenario für Europa genannt: Kleine, präzise arbeitende und energie-effiziente LLMs / KI-Lösungen, die dort eingesetzt werden, wo es Sinn macht und Vorteile bringt.

      Zur aktuellen Diskussion – auch von Lobo – geht mir nur eines durch den Kopf: "Wenn Du einen Hammer hast, ist alles ein Nagel" – aber repariere mal eine Armbanduhr mit einem Hammer.

      • Luzifer sagt:

        Naja also schweizer Uhrwerksmacher haben auch Hämmer… geht also durchaus, ist halt kein Hammer wie du in ich im Werkzeugkoffer haben…

        wer aber mit nem Feinmechaniker Hammer umgehen kann ;-P

  8. Markus sagt:

    Meine Bedenken sind anderer Natur. Aktuell wird die KI gefeiert für teils "tolle Ergebnisse" , die sie in Endeffekt aus allen beruflichen (Medien) und privaten journalistischen (Blogs, Homepages etc) sowie wissenschaftlichen Publikationen der letzten Jahrzehnte/Jahrhunderte bezieht/bezog.
    Wenn nun immer mehr solcher Arbeiten und Veröffentlichungen mit KI-Hilfe generiert werden, entzieht sich die KI quasi fuer die Zukunft die seriöse Grundlage oder schafft sich durch eigenen Bias quasi eine selbstprohezeite Realität.

    • Anonym sagt:

      Korrekt, daher nimmt die "KI-Halluzination" stetig zu.

      • xx sagt:

        Hier fehlt das Verständnis zum Begriff Information und Entropie.

        Dass das Ergebnis schlechter wird muss nicht sein. Die KI kann halt kein neues Wissen aus dem Ergebnis ziehen.

          • xx sagt:

            Halluzinationen haben damit gar nichts zu tun. Was aber nur untermauert wie wenig Fachwissen vorhanden ist.

            Es ist einer der größtem Irrtümer zu Glauben dass Halluzinationen auf ungenauen Daten beruhen, mit mit "besseren" Daten verschwinden.

            Vereinfacht gesagt, haben LLMs immer Halluzinationen, weil für eine Creative Antwort immer ein Zufalls-Element notwendig ist. Und das LLM aber keine Möglichkeit hat aus der Antwort selbst zu lernen (die haben ja alle kein Gedächtnis).

            Und ich glaube übrigens daran, dass KI wie sie aktuell gerade im entstehen ist, eher mit der Erfindung der Feuers gleich zusetzen ist.
            Man wird sehen, ob mit mehr Rechenleistung die Fähigkeiten steigen, und ob unerwünschtes Verhalten sinnvoll zu limitieren ist.

            • Bernd Bachmann sagt:

              >> Was aber nur untermauert wie wenig Fachwissen vorhanden ist.

              Hmm.

              LLMs beruhen auf Wahrscheinlichkeiten. Wenn in den Trainingsdaten einmal auftaucht, das 1+1=2 ist, ist die Wahrscheinlichkeit gross, dass Du auf die Frage "Wieviel ist 1+1?" die richtige Antwort bekommst.

              Wenn in den Trainingsdaten zusätzlich zehnmal KI-generiertes "1+1=3" auftaucht, ist die Wahrscheinlichkeit gross, dass Du auf die Frage "Wieviel ist 1+1?" die falsche Antwort bekommst.

              • Anonym sagt:

                Korrekt. Der xx hat augenscheinlich die verlinkten Beiträge noch nicht gelesen und/oder den in Fachkreisen einschlägig bekannten Begriff nicht richtig verstanden bzw. noch nicht erkannt, dass dieses Problem eben durch das "Lernen" der LLM durch Einfüllen neuer KI Inhalte entsteht und stetig stärker wird.

                • xx sagt:

                  Doch natürlich, die Befürchtung gibt es.
                  Doch das betrifft alles nur einen sehr spezifischen Teil von Wissen.

                  Viele Trainingsdaten z.b. Mathe/Physik/Chemie/Code müssen nicht aus dem Internet kommen.

                  Literatur kann man "verifizieren" ebenso echte Fachpublikationen.

                  Und natürlich, in den Bereichen in denen das Review schlecht ist, wird das Ergebnis auch schlechter sein.

                  Aber das ist jetzt auch schon so.

                  Durch die Vielzahl von neuen Sensoren, also Kameras, Mikrofone, … GPS Daten, usw. usw. gehen echte Daten nicht so schnell aus.

  9. Ich bin glücklich. sagt:

    Von einem Normalverbraucher von zu Hause:

    Betreffend die ganze Fuhre kann ich nichts sagen.
    Betreffend die Hilfe für Recherche war mir Copilot sehr nützlich. Auch beim geben von Tipps und Alternativen. Teilweise habe ich natürlich auch Bestätigungen für das erhalten, was ich bisher gemacht habe, oder Präzisierungen.

    Ich glaube, die Erwartungen an die bestehende KI sind zu gross, bzw. sie wird falsch genutzt.
    KI kann nur auf dieselben Informationen zugreifen, auf welche auch der Nutzer zugreifen kann. Die KI kann dies aber schneller und fasst auch gleich noch alles zusammen.

    • Anonym sagt:

      Als Normalverbraucher merkt man nicht, wenn die aktuelle "KI" etwas dazuhalluziniert oder eigentlich wesentliches weglässt, was sie auch regelmässig macht, das ist das Hauptproblem dabei.

      • xx sagt:

        Als ob das im Gespräch oder den Nachrichten anders wäre.

        • Anonym sagt:

          Viele Normalverbraucher glauben ihrer "KI" App mehr als einem Gespräch oder den Nachrichten, fatalerweise.

        • Peter Vorstatt sagt:

          1+

          Es scheint mir sogar so, dass mein berufliches Umfeld, mein Steuerberater, mein Sachbearbeiter im Finanzamt, das Fräulein an der Käsetheke, der Typ im Baumarkt etc. pp., zusammen mehr Umfug verbreiten als jede KI. Ausnahmen bestätigen die Regel.

          • Anonym sagt:

            Stellt sich die Frage, warum das dann Ihr Steuerberater ist, wenn er offenbar Unfug erzählt? Oder aber Sie fallen zu sehr auf die vereinfachten mundgerecht portionierten Antworten von "KI" herein und sehen nicht, dass der Steuerberater im Hinterkopf sehr viel mehr berücksichtigt, als das Ihr "KI" Prompt jemals beinhalten könnte.

            • Peter Vorstatt sagt:

              Weder noch; das Problem ist vielmehr, dass Steuerberater i. d. R. ungern aus der Perspektive von Steueranwälten denken – der Frieden mit dem Finanzamt geht bei Steuerberatern im Zweifelsfall vor – und die jüngsten Rechtsentwicklungen, wie sie bspw. im Doppelbesteuerungsrecht nur in aufwändig zu pflegenden Loseblattsammlungen (1) in den Griff zu bekommen sind, nicht (zeitah) mitbekommen.

              Aber das ist nur ein Nebenschauplatz, der sich durch einschlägige Fachliteratur in den Griff bekommen lässt.

              Problematisch ist es dort, wo man nicht auf schriftlich Fixiertes zurückgreifen kann, z. B. auf Wanderungen/Radtouren, wo sie von vermeintlich Bescheid wissenden Einheimischen auf der Suche nach kartographisch nicht verzeichneten Naturdenkmalen, wasserführenden Brunnen oder begehbaren Abkürzungen weil die Enkel quengeln, in die Irre geschickt werden. Wenn Sie das ein paarmal mitgemacht haben, wird das durchaus gegebene Missweisungspotential von KI zur Petitesse.


              (1) https://www.beck-shop.de/wassermeyer-doppelbesteuerung-dba/product/2081

    • Micha sagt:

      Teilweise ist Copilot nützlich. Hat mir Anfang 2025 erklären können wie man Modern Standby in Windows 11 24H2 abschaltet. Die Anleitung hat funktioniert.

      Andererseits kommt da auch häufig fehlerhafte aussagen zustande. Wie man die Xbox Game bar deaktiviert, konnte die KI mir nicht erklären. Er hat viele Gruppenrichtlinien genannt die es in Windows 11 Pro 24H2 alle nicht gab. Zum Schluss hat er mir den Befehl für die Powershell zum deinstallieren angezeigt.

      Eigentlich müsste man mal erlernen, wie man am besten den Promt der KI bedient. Nur so hat man die Chance auf bessere Ergebnisse. Bis jetzt habe ich nur normale Fragen eingeschrieben.

      Eine normale Google Suche kann ich halt effektiver bedienen.
      Bei einer Google Suche benutze ich manchmal "+" "-" und "site:www.xyz.de und dann das Suchwort"

      • McAlex777 sagt:

        Unter Windows habe ich via ChatGPT auch schon sehr sehr abstruse vorschlägfe bekommen.

        Unter Linux im Bereich Shell-Scripting funktioniert ChatGPT dagegen sehr gut – trotzdem muss man schon wissen was man macht: Immer mal wieder sind vorgeschlagene Lösungszenarien irrsinnig, da es einfache bessere alternative Lösungen gibt.

  10. Anonym sagt:

    Die FAZ (leider hinter Paywall) thematisiert das Problem auch anschaulich:

    Wenn KI sich selbst kopiert
    https://www.faz.net/aktuell/kuenstliche-intelligenz-loest-blindes-abschreiben-die-naechste-grosse-krise-aus-110532282.html

  11. Martin B sagt:

    Im IT Alltag bisher fast total unbrauchbar. Außer bei manchen PowerShell Optimierungen. Der Rest ist Nonsens und ein reines Zeitgrab. Die Google KI Zusammenfassung bei Suchen lese ich nicht mehr, da labert der besoffene Tischnachbar auf der Feier mehr Sinnvolles!

    KI Drohnen hingegen scheinen besser zu funktionieren.

  12. janilis sagt:

    Korrigiert mich, wenn es falsch ist.

    KI ist von Menschen programmierte Software.

    Wenn sie denn "lernt", müsste sie sich bei Auswertung aller Informationen, Energieverbrauch, Erwärmung des Planeten, Wasserverbrauch etc. selbst deaktivieren.

  13. viebrix sagt:

    Ich stimme voll zu, dass die Aktivierung von Atomreaktoren oer sogar der Neubau – rein nur wegen KI Rechenzentren, nicht der richtige Weg sein kann. Dafür bietet die KI zu wenig dafür.
    Allerdings finde ich, wenn man von Energieverbrauch einer KI spricht, dann sollte man unterscheiden, ob es hier um das Neutraining eines Modelles geht oder um Die Nutzung der KI als Service.
    Das ist keine Kritik an Herrn Born seinem Artikel – denn das wird so gut wie kaum getrennt. In Wahrheit wollen die Betreiber das gar nicht so genau bekannt geben.

    Angenommen, es wird ein sehr großes Modell trainiert, dass wirklich die Forschung weiterbringt und dann von der ganzen Welt zu besserem verwendet werden kann. Dann sind große Energieverbräuche über Monate wahrscheinlich auch vertretbar. Wenn allerdings parallel von 5 großen Unternehmen sehr ähnliche Modelle mit den gleichen Grundlagen monatelang trainiert werden um dann nach einem Monat Einsatz veraltet zu sein, weil die Konkurrenz eben ein Monat später angefangen hat und damit 1 Monat aktueller ist, dann macht das nicht wirklich Sinn.
    Bei dem Verbrauch im Service, da hört man bei OpenAI ja immer schon, dass sich der Energieaufwand kaum rentiert. Ich denke da muss viel gemacht werden, wie bei Suchmaschinen – dass man Anfragen Cachen kann. Eigentlich bedarf es mehrerer KI's, eine die das Prompt annimmt und schon gegebene Antworten kennt (aber wenig Energie verbraucht) und eine KI die dann in die Details geht.
    Was man auch nicht vergessen darf, schon bei Consumergrafikkarten wird der Energieverbrauch immer geringer. Meine aktuelle Grafikkarte verbraucht bei KI Betrieb weniger als die älter bei einem 3D Grafikbetrieb. So ähnlich wird es auch in Rechenzentren sein. Allerdings, wirft man die alten Rechenzentren weg, weil die neuen weniger Energie verbrauchen werden? Was ist hier ökologisch vertretbar. Was der richtige Weg. Das ist wirklich schwierig zu beantworten.

    In Sachen neue Modelle die effizienter arbeiten sollten, sowohl in der Antwort, als auch mit der Energie:
    https://the-decoder.de/neue-ki-architektur-verspricht-besseres-system-2-denken/
    Allerdings um solche Modelle zu testen und zu erarbeiten – würde es wiederum sehr viel Energie für die Erforschung benötigen…

    Beim Energieverbrauch in Sachen Heimgerät und KI stört mich schon immer – dass kritisiert wird, wie KI Energie in einer Grafikkarte verbraucht, aber wenn andere Spielen und da eventuell sogar mehr Energie dabei verbraten wird, dann ist das kein Thema.

  14. Christian Kühnke sagt:

    Zur Kernenergie: Hat jemand eine aktuelle Quelle für ausführliche Wirtschaftlichkeitsberechnungen zur Kernenergie? Vielleicht auf Basis der Kosten für den neuesten finnischen (Olkiluoto Block 3, Herstellungskosten laut Wikipedia 11 Mrd. €) und den neuesten französischen Reaktor (Flamanville Block 3, Herstellungskosten laut Wikipedia 13,2 Mrd. €, Finanzierungskosten 5 Mrd. €)?

    Ganz überschlägig für Flamanville: 18,2 Mrd. €/1660 MW = 10.963.855 €/MW installierter Leistung. Der durchschnittliche Großhandelspreis für Strom in Frankreich im Jahr 2024 lag bei 58,02 €/MWh (Quelle: SMARD). Ohne die Berücksichtigung von Betriebs- und Rückbaukosten müsste Flamanville 3 also 10.963.855 / 58,02 / 24 / 365 = 21,57 Jahre nonstop laufen um die Herstell- und Finanzierungskosten wieder einzuspielen.

    Bei all diesen Berechnungen ist aber eines nicht berücksichtigt: Die Risikokosten. Was meine ich damit? Nun, die Wahrscheinlichkeit eines extrem schweren Unfalls mit der Freisetzung großer Mengen von Radioaktivität ist nach Angaben der Betreiber vernachlässigbar gering. Sollte es aber zu einem solchen Unfall in Europa kommen, so sind die entstehenden Schäden gigantisch. Deshalb sind Atomkraftwerke praktisch nicht versicherbar und Schäden aus Kernenergie sind in Sachversicherungen für Privatleute und Gewerbetreibende in aller Regel ausgeschlossen, vgl. https://www.manager-magazin.de/finanzen/versicherungen/a-761954.html

    Es handelt sich hier also um eine Abwälzung des Restrisikos auf die Allgemeinheit, und nur deshalb sind Atomkraftwerke überhaupt annähernd betreibbar.

    • Anonym sagt:

      Und wie teuer (oder auch gar nicht verfügbar) wäre der Strom für die Allgemeinheit ohne Atomkraft in den 70er, 80er, 90er Jahren gewesen?

      • Günter Born sagt:

        Ich hatte als junger Ingenieur die Aufgabe, für meinen Direktoren die Stromkosten für ein AKW im Vergleich zu einem Kohlekraftwerk zu rechnen. Risiken, Umweltschutz bei Kohlekraftwerken etc. blieb damals außen vor – Ziel war es, auf Vortragsfolien die "Vorteile eines AKW auf dem Betriebsgelände des Unternehmens – in einer deutschen Großstadt" darstellen zu können.

        Ich erinnere mich noch sehr gut, an das "betretende Schweigen" meines damaligen Chefs, als mein Modell die Stromkosten des AKW deutlich teurer als den Kohlestrom auswies. Zum "Glück" fiel den Leuten ein, man könne ja die Eingangsparameter des Rechenmodells variieren – und so wurde dann die teuerste Importkohle aus Australien eingesetzt und geschraubt, bis Strom aus dem AKW und aus einem Kohle-Kraftwerk auf pari standen.

        Glücklicherweise sind die Pläne eines AKWs in der Firma schnell in der Schublade verschwunden. Aber seit dieser Zeit glaube ich keiner Vortragsfolie mehr, die ich nicht selbst getürkt habe und weiß wie im Management getrickst wird. Unter diesem Aspekt war die im Jahr 2000 getroffene Vereinbarung mit den vier Betreibern deutscher AKWs, die Meiler nach der Erzeugung der vereinbarten Reststrommengen abzuschalten und zurück zu bauen, schon sehr klug – und hat zumindest einigen größeren Unsinn verhindert – imho.

        Ist aber ein sehr komplexes Thema – speziell, wenn es um sichere Stromversorgung geht. Auf dem Weg zum Fachabitur habe ich beispielsweise das Speicherkraftwerk in Vianden (Luxemburg) besucht. In Deutschland sind Speicherkraftwerke (immer noch) so gut wie tot, weil die doppelt zu zahlende Einspeisevergütung diese Energiespeicher unwirtschaftlich gemacht hat. Wie die aktuelle Rechtslage ist, weiß ich gerade nicht so genau. Aber aktuelle Pläne der Bundesnetzagentur sehen vor, dass auch kleine Solaranlagen (Balkonkraftwerke) zu einer "Einspeisevergütung" verpflichtet werden können. Was umgesetzt wird, ist derzeit aber offen.

    • Martin B sagt:

      ich suche den Link, es gibt eine Studie, die die Systemkosten berücksichtigt.

      Apropos Kosten: unsere "Wende" kostete bis dato ca. 800 Mrd €. Rechne mal aus, wie viele überteuerte AKWs Du damit hättest bauen können. Bei gleichzeitig niedrigeren Stromkosten für alle .

      • Froschkönig sagt:

        Erneuerbare Energien sind der billigste Stromerzeuger überhaupt.

        • Anonym sagt:

          Wenn der Strom dann gebraucht würde, wenn er auch erzeugt wird, dann ja.

        • Martin B sagt:

          wenn man die Systemkosten außen vor lässt und sich mit wetterabhängiger Stromversorgung abfinden kann, dann vielleicht.

          In allen anderen Fällen, was den Bedarf einer Industrienation ausmacht: nein.

          Gegenüber Gas Faktor 15-44 teurer.

          Damit kann man keinen Staat machen, sondern steuert in die Staatspleite. Was wir offensichtlich auch wollen und tun.

  15. Christian Kühnke sagt:

    Derzeit sind leistungsfähige LLM nur von einigen der größten Unternehmen weltweit trainierbar (Hardware- und Energieaufwand und Zugang zu Trainingsdaten). Direkt nutzbar sind sie von Unternehmen (oft in der Cloud, manchmal on-premises). Im Privatumfeld setzen sich derzeit GPU mit 16GB Speicher durch, zu wenig für aktuelle LLM abseits von Experimenten, mit einer Ausnahme: Spracherkennung.

    Diese Situation ist analog zu den Internet-Suchmaschinen, wo ebenfalls wenige Großunternehmen die Auffindbarkeit von Informationen kontrollieren.

    Auf der anderen Seite hat die Hardware-Entwicklung den Zugang zu Wissen/Informationen extrem demokratisiert: Ein (per Kiwix-Library) offline nutzbarer Abzug der deutschen Wikipedia (Stand 6/2025) benötigt ca. 53 GB, der für die englische Wikipedia (Stand 1/2024) ca. 110 GB. Beide zusammen finden Platz auf einem aktuellen Mobiltelefon!!!

    Wie wird es bei den LLM weitergehen? Wird Moores Law in einigen Jahren die direkte Nutzung im privaten Umfeld ermöglichen? Vermutlich ja. Wird man als Otto/Lisa Normalbürger/-in in einigen Jahren sein eigenes LLM trainieren können? Das weiß ich nicht. Kennt dazu jemand Abschätzungen/Berechnungen? Oder ist das heute schon mit 16 GB VRAM möglich und ich weiß nur nicht, wie?

    • xx sagt:

      leider ist die Fertigung von HW immer mehr ein Monopoly wo sich Anbieter wie Broadcom und Nvidia hervortun.

      Ich sehe aktuell keinen Trend Consumer HW zu erstellen die genug Leistung für KI hat.

  16. Guenx sagt:

    Ein Beitrag vom Deutschlandfunk wiederspricht dem Welt Beitrag aber schon in einigen Punkten recht deutlich:
    https://www.deutschlandfunknova.de/beitrag/frisst-ki-wirklich-so-viel-energie

    Generell finde ich es befremdlich ein Springer Medium für irgendwas als Quelle heranzuziehen, aber gut.

    • Günter Born sagt:

      Zum Deutschlandfunk-Beitrag: Bin da quer drüber gegangen – ich kann nicht erkennen, dass die IAE-Bericht zum Stromverbrauch die Welt-Aussagen widerlegt. Bzgl. der Zusammenfassung von Andy Masley bin ich gespalten. Es wird in den beiden Beiträgen einerseits gerechnet, dass ein paar Suchanfragen über ChatGPT nur Cents kosten und es wird im IAE-Bericht gehofft bzw. angenommen, dass die Energieeffizienz der KI-Bots/Lösungen besser werde. Kann zutreffen oder auch nicht. Es wird zudem postuliert, dass ja einige Anbieter bereits über "grünen Strom" klimaneutral wären.

      Ändert aber nichts am Grundproblem, dass im schlechtesten Fall der Energiebedarf durch KI drastisch und im besten Fall moderat steigt. Es wird aber in allen Szenarien mehr Energie verbraucht. Daher ist es in meinen Augen legitim, dann ich dann die Qualität der Ergebnisse, die erreichten Effizienzgewinne und die Kosten samt Folgen für die Nutzer gegenüber stellen muss oder sollte. Aktuell sieht die Bilanz hinsichtlich Aufwand und Ertrag da nach meiner Lesart eher ungünstig aus. Und dass mir als Nutzer diverser Dienste oder Funktionen KI ohne Wahlmöglichkeit übergestülpt wird, macht es auch nicht besser – oder habe ich da was übersehen?

      Zur Aussage "finde ich es befremdlich ein Springer Medium für irgendwas als Quelle heranzuziehen" – da finde ich die Aussage eher befremdlich. Der Welt-Beitrag nennt Quellen für seine Aussage – kann man glauben oder auch nicht. Am Artikelende habe ich ja mehrere Blog-Beiträge zu Fragen des Energie- und Ressourcenverbrauchs, die in den letzten Monaten erschienen sind, verlinkt. Von diesen Beiträgen fußte keiner auf dem "Springer Medium", sondern gab den Status von diversen internationalen Berichten wieder. Der Tenor ist da eindeutig gewesen.

      Von daher lässt mich der Kommentar etwas ratlos zurück.

    • Froschkönig sagt:

      Selbst wenn jede Kilowatt-Stunde, die da in KI gesteckt grün/erneuerbar wäre, wäre diese Kilowatt-Stunde sicher von einem anderen Verbraucher sinnvoler verbraucht worden, als in der zweifelhaften LLM-KI-Technologie. Vor allem wenn mit dieser grünen Kilowatt-Stunde fossile oder atomare Kraftwerke ersetzt worden wären.

  17. viebrix sagt:

    Ich bin der Meinung, dass KI zB im Film Bereich extreme Änderungen mit sich bringen wird und garantiert bleiben wird. Warum sollte ein Filmstudio Unsummen für die Aufnahme von einer Explosion ausgeben, wenn die KI das direkt in eine Szene einbauen kann. Einfach durch Eingabe eines Prompts.
    Warum sollte sie tausende Statisten einbeziehen, wenn die KI das in wenigen Sekunden in einem Bild ergänzt. Gerade weil die Filmstudios schon bisher gezeigt haben, dass sie jeden elektronischen Effekt nutzen um zu sparen (duplizieren von Personen, 3D Modelle usw), ist ganz klar, dass sie dies hier genauso machen werden. Es wird im Hintergrund ganz sicher schon daran gearbeitet und eventuell abgewartet, bis ein Unternehmen den ersten Schritt in einem ersten Film macht. Dann zieht der Großteil mit.
    Im Marketing Bereich ist man ja schon aufgesprungen. Es gibt des öfteren Posts wo Plakatwerbung aber auch schon Videos gefunden werden in denen KI steckt.
    Die Video Modelle werden auch immer besser und wenn das mit den Szenenzusammenhängen noch nicht ganz gut klappt – so sind Einzelszenen schon annähernd perfekt.

  18. Mark sagt:

    Das Google einem keine Möglichkeiten lässt, die KI bei der Suche zu deaktivieren, stimmt so direkt nicht. Allerdings muss man selbst aktiv werden und eine neue Suchmaschine hinzufügen:

    https://google.com/search?q=%s&udm=14

    Legt man das als Standardsuchmaschine fest nutzt man zwar Google für die Suche, aber OHNE die KI…

  19. Alex sagt:

    "magisches Denken auf höchster Ebene" findet sich eher bei der Atom-Lobby. Nur mit erneuerbaren Energien wird man überhaupt ansatzweise in der Lage sein den steigenden Bedarf zu verünftigen Preisen zu decken.

Schreibe einen Kommentar zu User007 Antwort abbrechen

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Hinweis: Bitte beachtet die Regeln zum Kommentieren im Blog (Erstkommentare und Verlinktes landet in der Moderation, gebe ich alle paar Stunden frei, SEO-Posts/SPAM lösche ich rigoros. Kommentare abseits des Themas bitte unter Diskussion. Kommentare, die gegen die Regeln verstoßen, werden rigoros gelöscht.

Du findest den Blog gut, hast aber Werbung geblockt? Du kannst diesen Blog auch durch eine Spende unterstützen.