Über das Thema "künstliche Intelligenz" und deren Scheitern hatte ich ja schon mehrere Beiträge hier im Blog. Mich treibt seit einiger Zeit die Erkenntnis um, dass die Gesellschaft sich mit der AI-Welle gewaltige (technische) Hypotheken aufsattelt. Diese müssen irgendwann bedient werden, scheinen aber in der Allgemeinheit noch nicht auf dem Radar zu sein. Nachdem ist in Teil 1 eine eher "amüsante" Stilblüte bei maschineller Übersetzung angesprochen habe, weitet Teil 2 das Thema im Hinblick auf die entstehenden Hypotheken aus.
KI-Revolution, Übersetzungen und Halluzinationen
Momentan werden wie ja mit einem regelrechten KI-Hype überflutet. Da pappt jeder Hersteller "AI" auf seine Produkte und wer nicht volle Kanne auf den Trend hüpft, gilt ja als Loser. Firmen, die aus vielfältigen Gründen, einen AI-Einsatz zurückhalten prüfen, laufen nach Ansicht mancher AI-Protagonisten, Gefahr abgehängt zu haben.
Aber es gibt auch eine sichere Methode, ein Unternehmen mittels nicht durchdachter AI-Projekte an die Wand zu fahren. Über das Thema "künstliche Intelligenz" und deren Scheitern hatte ich ja schon mehrere Beiträge hier im Blog. Eine meiner Bedenken besteht darin, dass man Halluzinationen der Sprachmodelle nicht verhindern kann, was gravierende Folgen für unser aller Leben haben kann.
Im Management einer Firma steht dann die Frage im Raum: Was passiert, wenn die KI mir falsche Informationen liefert und ich darauf falsche Entscheidungen treffe. Das Ganze passiert auch ohne KI und Fehleinschätzungen gibt es häufiger. Der entscheidende Punkt ist aber, dass wir an einer Schwelle stehen, wo (überspitzt formuliert) KI den menschlichen Verstand ersetzen und nichts mehr hinterfragt werden soll.
Halluzinationen lassen sich nicht verhindern!
Die Argumentation der AI-Protagonisten ist bisher ja: Wir müssen und werden einfach besser, dann ist das Thema abgeräumt. Die Tage bin ich bei heise auf den Artikel hier gestoßen, der neueste Forschungsergebnisse von OpenAI aufbereitet. Deren Aussage war, dass das Konfabulieren (oder Halluzinieren) der LLMs auch mit größtem Aufwand nicht gänzlich verhindern lässt, sondern höchstens reduziert werden kann.
Es sind doch nur Übersetzungen
Normalerweise hätte ich gesagt: "Aber Übersetzungen sollten die LLMs doch können?". Das Beispiel aus Teil 1 zeigt, dass es auch da kräftig schief gehen kann und auch schief geht. In obigem Fall mag man drüber schmunzeln und weiter gehen. Aber den Fall zeigt die Dimensionen auf – die AI-Welle schwappt über uns, und maschinelle Übersetzungen sind verlockend. Warum nicht die Dokumentation einer atomtechnischen Anlage, eine chemischen Fabrik, von medizinischen Geräten, Fahrzeugen und was weiß ich alles entsprechend mit LLMs in die Zielsprachen übersetzen lassen?
Fata Morgana und versagt die Kontrolle?
Die AI-Protagonisten versprechen ja nicht weniger als die Weltrevolution durch den Einsatz von KI. Viele Stellen sollen in wenigen Jahren verloren gehen, weil KI-Agenten die Aufgaben übernehmen sollen.
Das Problem bei den AI-Ansätzen ist, dass der Mensch kritisch drüber schauen und die größten Fehler beseitigen müsste. Die Frage bleibt aber: Erkennt der Mensch diese Fehler zuverlässig? Ich meine, dass die Antwort Nein lautet – und ich postuliere zusätzlich, dass die Fähigkeiten der Leute, die AI-Lösungen nutzen, mit der Zeit auch abnehmen.
Wenn ich mir mal die viel zitierten Zusammenfassungen herausgreife, die mir die AI-Modelle liefern sollen. Versprochen wird eine Zeitersparnis – aber wer sagt mir denn, dass die Zusammenfassung das abbildet, was ich beim Lesen der Original-Artikel erfasst hätte? Sobald ein LLM einen BIAS hat oder den Kontext nicht versteht, geht das doch gravierend schief.
Wikipedia hat im Juni 2025 die KI-Zusammenfassungen wieder gestoppt. Und vor einigen Tagen hatte ich im Artikel Finger weg: Die Google AI-Suchergebnisse sind eine Katastrophe! eigene Erfahrung mit Googles KI-Suchergebnissen – welches letztendlich auch nur eine Zusammenfassung dessen, was das Web zu einem Thema kennt, sind – angesprochen.
Das Einzige, was den Anbietern einfällt, sind Versprechungen, was die AI-Modelle alles können und besser machen sollen. Die von mir bereits mehrfach aufgeworfene Frage des gigantisch steigenden Energie- und Ressourcenverbrauchs konterte man kürzlich mit Bullshit-Bingo-Vergleichen der Art, dass eine KI-Anfrage so viel Strom wie 9 Sekunden Fernsehen verbraucht – heise hatte das hier angesprochen. Mit der Verlautbarung sollen die sich dort aufbauenden Probleme für die breite Öffentlichkeit verwässert werden. Das Erwachen kommt erst dort, wenn die Anrainer die Stromkosten für KI-Rechenzentren durch höhere Versorgungspreise mit bezahlen müssen (in den USA gibt es erste Fälle).
Wir bauen eine riesige (technische) Hypothek auf
In den letzten Wochen sind mir da sehr kritische Erkenntnisse unter die Augen gekommen. Die Gesellschaft baut sich mit dem AI-Ansatz eine gewaltige (technische) Hypothek auf, die irgendwann eingelöst werden muss.
Wenn der "Zahltag" sehr schnell kommt
Manchmal ist "Zahltag" schon sehr bald und die Pro-AI-Entscheidung fällt dem Management ganz schnell auf die Füße.
- Da brüsten sich Vorstände (wie bei Salesforce), dass sie massenhaft Leute gefeuert hätten (gut bei Salesforce steht der CEO unter massivem Druck, weil die Geschäftsentwicklung nicht läuft). Die CEOs werden in meinen Augen kräftig auf den Bauch fallen.
- Kürzlich berichtete heise in diesem Artikel, dass eine Bank in Australien 45 Mitarbeiter gekündigt und durch Chatbots ersetzt hatte. Ging schief, öffentlicher Druck und ausbleibende Ergebnisse führten zur Rolle rückwärts, es wurden wieder Menschen eingestellt.
- Die US Fast-Food-Kette Taco Bell hatte auch voll auf KI gesetzt, und erlebte ein Desaster mit der maschinellen Bestellannahme, die nicht funktioniert. T-Online hatte das in diesem Beitrag aufbereitet und schreibt, dass das Management das Thema "überdenkt".
Finanzanalysten sehen die gesamte Entwicklung derzeit nüchtern und befürchten das Platzen einer Blase, wie ich im Beitrag Goldman Sachs warnt vor AI-Blase, die Rechenzenten-Boom platzen ließe anmerkte.
Beispiele, wo es noch schief läuft
Hier noch einige weitere Kostproben, was schief läuft, die jeden in der Verantwortung stehenden Manager sehr nachdenklich machen sollten.
- Es ist ein zunehmender Trend, dass Bewerbungen mit KI-Unterstützung verfasst werden. Und vorgeblich progressiv aufgestellte Unternehmen setzen eine AI ein, um diese Bewerbungen zu filtern. Dann kann die Personalabteilung sich auf die vermeintlich passenden Bewerber fokussieren – spart ja Zeit und Ressourcen. Zum 4. September 2025 ist mir bei Golem der Beitrag LLMs bevorzugen KI-generierte Lebensläufe untergekommen. Wenn KI nur noch die KI-Ergebnisse berücksichtigt, erfolgt in meinen Augen eine Filterung, die nicht gut für ein Unternehmen ist.
- Oder was ist, wenn Leute den Verlockungen der AI-Anbieter erliegen, und ihre (E-Mail-)Korrespondenz von Sprachmodellen und Agenten abwickeln lassen. Drückt auch etwas über die Kommunikationskultur aus (die Wertschätzung für den Empfänger einer Nachricht ist nicht gegeben, wenn ich diese per AI-Agenten formulieren lasse). In den Mail-Clients der Empfänger übernehmen Bots (AI-Agenten) dann die Auswertung und Beantwortung. In Reinkultur sprechen dann KI-Agenten mit KI-Agenten. Die KI-Agenten kommunizieren noch lustig miteinander, während, spitz ausgedrückt, das Unternehmen längst pleite oder die Produktionsanlage explodiert ist, aber keiner hat es gemerkt.
Gut, man könnte die obigen Beispiele als Bullshit-Jobs abtun, die sich in den Unternehmen breit machen, und die man nicht wirklich braucht.
Sind KI-Agenten weitgehend nutzlos?
Dazu passt auch der Artikel von Golem, dass das britische Handelsministerium drei Monate lang Copilot von Microsoft ausprobieren ließ. Das Urteil: Viele Mitarbeiter sind zufrieden, ist ja schon mal was. Nur beim genauen Nachschauen hat die Behörde aber Zweifel am Nutzen von Copilot. Und es gäbe da noch den Bericht von Forbes, der sich auf eine MIT Studie State of AI in Business 2025 bezieht und besagt, dass derzeit 95 % der Projekte mit GenAI Piloten in Unternehmen derzeit scheitern.
Der Vorfall bei Copilot und den Zugriffsprotokollen
Das KI-Modelle in Bezug auf Sicherheitsaspekte häufig versagen und angreifbar sind, war ja schon häufiger Thema hier im Blog sowie in zahlreichen Beiträgen, die sich im Internet aufspüren lassen.
Und es gab noch den Vorfall bei Microsofts Copilot, den ich nicht im Blog hatte, der aber von heise in diesem Artikel aufgegriffen wurde. Microsoft Copilot verfälschte Zugriffsprotokolle bei Abfragen, was bei Zugriffen auf geheime, kritische oder zu kontrollierende Inhalte betraf. Es wurde schlicht nicht aufgezeichnet, wenn die Daten durch Copilot abgefragt wurden. Ein Desaster für Forensiker oder Verantwortliche, die sicherstellen müssen, dass Zugriffe protokolliert werden.
Aber es muss doch Vorteile und positive Beispiele geben?
Persönlich hatte ich vermutet, dass Sprachmodelle in Spezialanwendungen wie Syntheseplanungen von Molekülen oder Medikamenten, bei der Bildauswertung in der Medizin etc. ihre Stärken ausspielen können. Speziell, da dort Menschen die Vorschläge der KI bewerten und ggf. umsetzen müssen. Auch hier gibt es inzwischen ganz reale Erkenntnisse, die die Risiken von AI-Einsatz belegen.
- In den USA benutzen Juristen bereits in größerem Umfang AI-Modelle, um ihre Schriftsätze zu formulieren. Hier sind Anwälte negativ aufgefallen und wurden auch sanktioniert, weil die per AI erstellten Schriftsätze erfundene Urteile aufwiesen. Eine wesentlich größere Dimension nimmt aber der LLM-Einsatz von Richtern an, die ihre Urteile auf AI-Ausarbeitungen stützen. Heise hat sich Ende August 2024 im Beitrag Wenn Richter KI benutzen: Warum es große Probleme in den USA gibt (Paywall) auseinander gesetzt. Das Problem: Ein Urteil, welches sich nachweislich auf falsche, per KI generierten, Aussagen stützt, ist erst einmal rechtskräftig und kann nicht so einfach aufgehoben werden. Und solche Urteile gibt es bereit.
- Wo ich persönlich sehr große Hoffnungen in KI-Modelle gesetzt habe, war der Medizinbereich, wenn es um Bildauswertungen (Röntgen etc.) geht. Dort müsste die KI eigentlich ihre Stärken ausspielen und Ärzte entlasten oder unterstützen können. Das MIT hat in einer Studie herausgefunden, dass alleine Schreibfehler die Qualität der Ergebnisse von AI-Ratschlägen reduzieren oder sogar falsche Diagnosen gestellt werden (heise hatte es hier aufbereitet).
- Und es gibt noch eine beunruhigende Erkenntnis, die ich in anderem Kontext bereits in Teil 1 angerissen hat. Durch KI-Einsatz verlieren wir Menschen Fähigkeiten. Studie aus Polen hat sich angeschaut, was mit Medizinern passiert, wenn diese sich bei Untersuchungen über Monate auf KI stützen. Das Ergebnis war eindeutig: Die Ärztinnen und Ärzte verlieren die Fähigkeit, Krebserkrankungen bei der Koloskopie erkennen zu können. Der Effekt ist als "Deskilling" bekannt, mehr Details finden sich hier.
Schaut man nüchtern auf die Sachlage, bleibt von den wolkigen Versprechen der AI-Anbieter wenig übrig. Es mag Projekte geben, wo sich der Einsatz von KI-Modellen rechnet und Sinn ergibt. Aber in vielen Bereichen muss man schon die Frage stellen: "Welche (technischen) Hypotheken bauen wir auf, was hat das für Folgen und können wir diese Hypotheken überhaupt einlösen?" Zu meiner Studienzeit in den 70er Jahren gab es noch den Begriff "Technikfolgenabschätzung". Ziel war es, die Folgen bestimmter technischer Entwicklungen vorab einzuschätzen, um Fehlentwicklungen zu vermeiden.
Hat nicht immer geklappt, aber heute ist von diesem Ansatz wohl nichts geblieben. Wer beim Marketing am lautesten schreit oder die besten TikTok-Videos hat gewinnt. Substanz oder kritisches Hinterfragen: Fehlanzeige.
Warum fällt mir spontan der griechische Dichter Homer und seine Odyssee ein? Dort gab es die Sirenen (derzeit noch ohne KI), die wackere Seefahrer mit ihren Gesängen ins Verderben lockten.
Wer es mit dem apokalyptischen Reiter hält, und moderner mag, kann sich den Golem-Beitrag In ein paar Jahren könnte es vorbei sein zu Gemüte führen. Dort wird die These einer Gruppe Experten aufgegriffen, die bis 2030 das "wahrscheinliche" Ende der Menschheit durch KI voraussagt. Ergänzung: Golem hat den Beitrag Glaube an Jobs durch KI "100 Prozent Blödsinn" publiziert. Dort sagt ein Ex-Google-Manager, dass er nicht an neue Jobs durch KI glaubt.
Und jetzt sind wir genau so schlau wie vorher: Die Beispiele zum Scheitern werden ja momentan an allen Ecken gezeichnet. Wo ich drauf warte, sich belastbare Beispiele von KI-Projekten, die sicher, zuverlässig und langfristig erfolgreich sind.
Artikelreihe:
Microsoft : Wenn die KI-Übersetzung scheitert und die Deutsche Bahn ins Spiel kommt – Teil 1
Technische Hypotheken: Muss die KI-Revolution ausfallen? – Teil 2



MVP: 2013 – 2016




Nach meinen Erfahrungen frisst ChatGPT 5 (Thinking) hintenraus soviel Zeit, das die Zeitgewinne durch die zweifellos auch guten Beiträge durch die ganz Falschaussagen wieder aufgefressen werden. Am Ende komm ich zu dem Fazit, das ich mir dann das Thema auch selbst aus den Dokus aneignen kann.
Beim Generieren von Linux-Shellcode ist ChatGPT 5 (Thinking) bei einfachen 1-3 Zeilern unschlagbar gut, aber bei komplexeren Problemen verrennt sich ChatGPT in Komplexitäts-Monster die völlig unwartbar und fehleranfällig sind.
Im derzeitigen Qualitätsstand würd ich freilaufende ChatGPT-Agenten als ernste Sicherheitsrisiken für Unternehmen betrachten. Und ich glaube nicht das das durch 10x soviel Training deutlich besser wird: LLM erscheint mir strukturell der falsche Ansatz für KI sein. LLMs begreifen praktisch nichts, sie plappern nur nach statistischen Warscheinlichkeiten.
Vor allem gibt es ja kein, oder fast kein menschliches Trainingsmaterial mehr. Die LLM drehen sich mit eigenem Input im Kreis.
Das ist eine törichte und falsche Aussage. Ich habe sehr viel mit deutschen Verlagen zu tun. Kaum einer tut sich mit KI resp. Chat-Books wie (1) hervor oder hat eine solche Contentverwertung schon in Erwägung gezogen. Verwertungsrechte für über die Volltexte gespannte KI-Anwendungen an Dritte zu vergeben, kommt für sie noch weniger in Frage. Verlage scheuen solche Lizenzierungen wie der Teufel das Weihwasser.
_
(1) https://www.beck-shop.de/grueneberg-bgb-chat-book-2026/product/38734079
Die Verlage tun auch gut daran, genau so zu handeln. Warum sollte ich eine Lizenzierung erwägen – zumal die meisten Verlage die Verträge mit den Autoren (die halten die Urheberrechte) in Bezug auf Verwertungsrechte kaum auf KI ausgedehnt haben. Sie bekämen einen Brotkrummen und im dümmsten Fall wird dann auch noch der Boden entzogen. Ich habe lange genug als Autor gearbeitet, um diese Winkelzüge zu verstehen. Von mir bekämen die Verlage keine expliziten Verwertungsrechte für KI-Weitergabe.
Passend hierzu (1). Beachte: "In dem Verfahren in San Francisco befand der Richter zwar, dass die Nutzung urheberrechtlich geschützter Texte durch Anthropic an sich vom "Fair Use"-Grundsatz (faire Nutzung) gedeckt sein kann, da als Folge etwas Neues entstehe."
Aber auch: "Für das Herunterladen zweier Piraterie-Bibliotheken galt das aus seiner Sicht aber nicht."
Ich kenne mich im amerikanischen oder internationalen Urheberrecht nicht aus. Wenn der zitierte Richter aber von "Fair Use"-Grundsatz spricht, wittere ich eine mögliche Entwicklung. Zumindest gerüchtehalber könnte es bereits genügen, wenn ein KI-Betreiber ein gedrucktes Exemplar eines Buches erwirbt, um es dann unter Ausübung des 'Fair Use Rechtes' (2) seiner KI zuzuführen.
Wenn das in 's Rollen kommt, dann hat sich Deutschland – in dem ja ein viel restriktiveres Urheberrecht herrscht – mit seiner prekären Literaturversorgung m. E. bildungsmässig endgültig abgehängt. Grund: US-Amerikaner sind dann nicht mehr auf Bibliotheken angewiesen, sondern subskribieren eine leistungsfähige KI, die sich den gesamten Wissensschatz verlegerischer Publikationen einverleibt hat. Das deutsche Bibliothekswesen ist noch viel zu sehr auf das Buch als physische Entität, die man ausleihen, lesen und wörtlich zitieren kann bzw. muss (akademische Arbeiten), fixiert, statt seine wahre Natur als 'Wissensvehikel' zu erkennen.
_
(1) https://rsw.beck.de/aktuell/daily/meldung/detail/ki-firma-autoren-milliardenvergleich-urheberrecht-anthropic-claude-chatbot-usa
(2) https://www.law.cornell.edu/uscode/text/17/107
Google hat sich schon mal an diesem Ansatz schwer verhoben und es deutet sich an, dass auch die KI-Firmen sich einen einfangen. Aber: Müssen wir uns an dem orientieren, was die Amis aktuell meinen, in Wildwest durchziehen zu müssen? Ich finde nein.
Naja, für eine synology habe ich mir ein Script schreiben lassen, was die externe Festplatte anhand der Hardware-ID erkennt und zum bestimmten Zeitpunkt den jeweiligen Hyper Backup Plan startet. Danach wird die Festplatte von System getrennt.
Hintergrund des ganzen: synology bindet an den Backuplänen fix eine Festplatte. Wird vergessen die Festplatte zu wechseln (pro Werktag eine Platte und ein Plan), schlägt der Plan fehl.
Script hat 87 Zeilen. War etwas probierten, aber nun ist es gut. Ich selber kann z.b. gar nicht programmieren.
Ich nutze "die Dame aus Frankreich" recht oft, um Skripte für den Firefox zu erstellen.
Erstens kommt es auf die Fragestellung an, zweitens habe ich festgestellt, wenn ich die KI
selber mit "Daten" füttere" komme ich eher ans Ziel.
Was ich sagen will, KI's sind strunzdumm, und es brauch zig Anläufe, bis ein Skript
wirklich das tut, was es soll.
Aber da ich JS nicht wirklich kann, ist KI mir eine große Hilfe,
ein Werkzeug eben, dass mir hilft, doch so hin und wieder, aber mit viel aufwand
brauch bare Skripte zu erstellen.
Ach ja, es ist ja nicht nur so, dass ich diese Skripte teste, nein, ich lassen sie auch von
anderen KI's gegenprüfen und "veranstalte" battles!
Gibt da eine schöne Seite für.
>> Was ich sagen will, KI's sind strunzdumm, und es brauch zig Anläufe, bis ein Skript
wirklich das tut, was es soll.<<
Und ein jedesmal muss das System 5min denken.
Wenn ich dann 5-10 Anläufe brauche, kann ich in so manchen Fällen das schneller und verlässlicher selbst umsetzen.
Beispiel: Ich hatte schon Einzeiler wo er Datenumswerte komplex prüfte, die Anfangs liefen aber in den Folgemonaten sporadisch nicht mehr. DH ich kann nach Monaten einen Fehler im Gesamt-Script suchen gehen, und dann den KI-Kram manuell fixen.
Dann kann ich's auch gleich selbst machen.
======================
Noch kritischer wird es wenn er aus beigefügten Hersteller-Dokumenten irgendwelche Befehle zur Zertifikatserneuerung frei erfindet, und auf den Hinweis das ich das nirgends in den Dokumenten finde er mich auf Kapitel/Seitenzahlen und anschliessend auf Webseiten verweist die allesamt nicht existieren.
Auch das ein Beispiel wo ich Safe 20min mit der KI vertrödelt habe, und dann 5min google das Problem per Hersteller-Script final gelöst hat.
Solche KI also frei auf komplexer Production laufen lassen?
Zitat:"Dann kann ich's auch gleich selbst machen."
Wenn Du es kannst, warum dann erst eine KI bemühen?
Aber leider hast Du einen wichtigen Teil, und zwar den nachfolgenden Satz
unterschlagen!
Zitat:"Aber da ich JS nicht wirklich kann, ist KI mir eine große Hilfe,
ein Werkzeug eben, dass mir hilft, doch so hin und wieder, aber mit viel aufwand
brauchbare Skripte zu erstellen."
Ergo, wenn ich JS beherrschen würde, bräuchte ich keine KI!
Aber ich lerne, eventuell wird's ja was. ;)
Ja, solche aus dem nichts halluzinierten Fakten mit angeblichen Quellenverweisen gibt es öfters als man denkt. "KI" Unbedarfte lassen sich vom vermeintlichen Ergebnis einwickeln und prüfen die Quelle nicht selbst, wenn es sich nicht gerade um Scripts handelt, die dann einfach nicht funktionieren…
>> Script hat 87 Zeilen. War etwas probierten, aber nun ist es gut. Ich selber kann z.b. gar nicht programmieren. <<
Klar, kann man je nach Aufgabe machen.
Ich hatte für ein technisches Problem ein 100Zeilen Script bekommen: mit 20Jahren Shell-Erfahrungen war das für mich vollkommen undurchsichtig: mehrere ineinander verschachtelte schleifen, subshells, Regex und und und.
Und als ichs dann mit der Hand selbst löste waren es noch im Kern 5 Prüfzeilen-Zeilen, und aus den Ergebnissen eine intelligente if-abfrage.
So kann ich KI nicht gebrauchen – dann lass ich mir lieber mit KI die Sprache erklären und lös die Probleme dann selbst.
Zitat:"… dann lass ich mir lieber mit KI die Sprache erklären …"
Ergänzend zu meiner Ausführung oben, so mache ich es auch sehr oft!
Erst erklären lassen, dann versuchen das Problem zu lösen, selber Testen,
KI überprüfen lassen und eventuell auch korrigieren.
Und erst, wenn ich gar nicht weiter komme, die KI das Skript erstellen lassen.
Ist aber nicht so, dass die KI gleich was Brauchbares aus dem Ärmel schüttelt!
Ne, die Arbeit geht dann ja weiter!
Ich hoffe, dass ich irgendwann so weit bin,
dass ich auf KI nicht mehr angewiesen bin.
Ein paar Gedankensplitter zur Thematik:
Wenn sie das Thema nicht verstehen, produzieren auch menschliche Übersetzer oft Mist. Da ist die AI auch nur menschlich. Im Umkehrschluss braucht korrekte Übersetzung Fachleute, aber die können oder wollen meist nicht lange Texte schreiben…
Tun wir mal so, also ob die AI ein Mensch ist. Besonderes Kennzeichen: Liefert mit hoher Geschwindigkeit gut aussehende Ergebnisse, selbst wenn keinerlei Ahnung vorhanden ist und nur Geschwätz produziert wurde. Liegt aber manchmal sogar richtig, Sollte man die Person einstellen, und wenn ja, in welcher Abteilung?
Bleibt noch das Thema Selbstverteidigung. Falls AI wirklich viel schlauer als jeder Mensch werden sollte, ist dem wohl kein Kraut gewachsen (ausser sie weltweit zu verbieten). Aber wenn nicht, was tun, wenn der eigene Arbeitsplatz wackelt? Selber AI benutzen, weil es gut ausschaut und den Chef erfreut? Anderen Job suchen, und hoffen das dort keiner AI einführt? Oder versuchen, als Spezialist stets schlauer als die beste AI zu sein, und hoffen es wird honoriert?
Betr. "Im Management einer Firma steht dann die Frage im Raum: Was passiert, wenn die KI mir falsche Informationen liefert und ich darauf falsche Entscheidungen treffe. Das Ganze passiert auch ohne KI und Fehleinschätzungen gibt es häufiger. Der entscheidende Punkt ist aber, dass wir an einer Schwelle stehen, wo (überspitzt formuliert) KI den menschlichen Verstand ersetzen und nichts mehr hinterfragt werden soll.":
Wir drehen uns im Kreis, es kommen keine neue Argumente mehr, um der KI, die gekommen ist um zu bleiben, den Garaus zu machen. Einer Überschrift 'Muss das vollautonome Fahren ausfallen?' hätte ich zugestimmt, kein Mensch mag Verkehrsunfälle. Aber von falschen Auskünften sind wir doch ständig umgeben und haben längst zu falsifizieren gelernt. Genau diese Fähigkeit ermöglicht uns nun auch im Umgang mit der KI auf Kurs zu bleiben und Informationen nicht vorschnell auf den Leim zu gehen.
Hatte ich übrigens schon erwähnt, dass ich im Rahmen meiner ehrenamtlichen Digitallotsentätigkeit vermehrt 'Prompting-Techniken' in die Schulungen einfliessen lasse? Wir haben viel Spass an der Technik und erfreuen uns der Dialoge und nützlichen Resultate. Ein Renner sind übrigens warenkundliche Fragestellungen. Viele der Senioren sagen mir, wie froh sie seien, mit der KI Anschaffungen planen zu können, weil die Einzelhandelsmitarbeiter doch oft gehetzt seien und zu wenig Markt- und Produktkenntnisse besässen.
Die Darstellung, KI solle den menschlichen Verstand ersetzen und das Hinterfragen solle verboten werden, halte ich für eine Zwangsvorstellung. Sam Altman tut in seiner kritisch-zugewandten Art ja nun weiss Gott genug, um der Öffentlichkeit einen angemessenen Umgang mit KI einzuschärfen. Frei nach Boochs 'A fool with a tool is still a fool' sagt Altman quasi 'this tool – not for a fool!, wenn er über KI spricht.
Vielleicht liegt auch darin ein Schlüssel für den erfolgreichen Unternehmenseinsatz: Wer mit notorischem KI-Unwillen das Betriebsklima vergiftet, und seine Unfähigkeit zur Schau trägt, mit Informationen abwägend umzugehen, wird auf weniger verantwortungsvolle Stellen versetzt.
****************************************************
Aber von falschen Auskünften sind wir doch ständig umgeben und haben längst zu falsifizieren gelernt. Genau diese Fähigkeit ermöglicht uns nun auch im Umgang mit der KI auf Kurs zu bleiben und Informationen nicht vorschnell auf den Leim zu gehen.
****************************************************
Einige wenige sind dazu in der Lage, weil sie sich angepasst haben und verstehen. Die Masse kann das jedoch nicht, sondern konsumiert und nimmt die Ergebnisse als gottgegeben hin. Sie haben das schon vor der KI nicht mehr verstanden: Auf YouTube, TikTok, Fratzenbuch und wie sie alle heißen wird etwas behauptet – und die Leute glauben es einfach, auch wenn man den Schwachsinn auf den ersten Blick erkennen müsste. Phishing ist das beste Beispiel dafür.
Dazu muss man auch nicht erst auf "Flat Earth" Gläubige zeigen, das ist nur die Extreme Ecke… wo es ganz deutlich wird.
PISA zeigt recht deutlich wo wir stehen… jedes Jahr!
Mich juckt Rechtschreibung auch nur kontextbezogen, in nem Forum/Blog ist das irrelevant, aber bei ner Bewerbung Geschäftsbrief etc. was ich da als zu sehen bekomme, lässt einem die Nackenhaare zu Berge stehen… naja Ablage P regelt. KI gestützte Bewerbungen? Da regelt die Probezeit! Da trennt sich die Spreu vom Weizen recht zuverlässig.
Die KI Blase wird platzen (zumindest KI wie wir sie heute haben). Ja KI ist gekommen um zu bleiben und das wird sie auch, so wie 3DTV; VR/AR usw. als Nischenprodukt! Es ist da, aber der große Durchbruch bleibt aus.
Rechtschreibfehler in Bewerbungsschreiben müssen nicht sein, auch nicht bei Legasthenikern.
Einfach den Text schreiben und dann die Rechtschreibkorrektur drüber laufen lassen.
Ich glaube genau solche Bewerber meint Luzifer ;-)
Die Rechtschreibprüfung findet nur einen Bruchteil …
Zur Rechtschreibkorrektur: Ein korrekter Satz ist noch lange kein korrekter Kontext:
Der gefangene Floh.
Der Gefangene floh.
Er hat Liebe genossen.
Er hat liebe Genossen.
Wäre er doch nur Dichter!
Wäre er doch nur dichter!
Sich Brüsten und anderem zuwenden.
Sich brüsten und anderem zuwenden.
Danke für den Beitrag. Ich selbst war anfangs stark überheblich ggü. KI Systemen. Mittlerweile erkenne ich dem Mehrwert für viele Zwecke. Aber auch die Grenzen. Viele Eingaben werden nur durch zugegebenen Kontext richtig gut.
@Peter Vonrtatt: Lies einfach nochmals den Beitrag und die Fragestellungen und kapriziere dich nicht auf den Artikeltitel (ob die dort gestellte Frage mit Ja beantwortet wird, muss die Zeit zeigen). Ich stelle die Frage, welche technische Hypothek wir mit dem KI-Einsatz aufbauen und ob wir am Ende des Tages bereit und in der Lage sind, diese Hypothek zu bedienen. Lautet die Antwort "ein informiertes und abgewogenes Ja" ist doch alles gut. Momentan gewinne ich den Eindruck, dass da weder "informierte Leute sind", noch abgewogen wird, geschweige denn die Frage nach den Kosten der skizzierten AI-Hypothek gefragt wird.
Ich lese ja viel in diesem Bereich und bringe bei weitem nicht alles in den Blog. Mir wird Angst und Bange, wie naiv die Masse der Leute auf diese Entwicklung zusteuert. Speziell, wenn ich sehe, dass AI-Lösungen der Masse übergestülpt werden, ohne dass die sich wehren können. Ist ein wenig: Wenn ich einen Hammer habe, ist alles ein Nagel.
BTW: Ich denke den KI-Einsatz nicht vom Sachbearbeiter her, der "unwillig" ist, weil er es nicht besser kennt, sondern vom Stuhl der Unternehmensleitung (deutsch Management). Da geht es nicht um naives "prompt Engineering", sondern um Risiken (was die KI liefert und auch ausplaudert, größer werdende Angriffsflächen), Fähigkeiten und Fragen des Return of Investment. Und was ich da mit nüchternem Blick sehe, passt so gar nicht zur verlockenden Welt, die das KI-Marketing malt.
Ich brauch mir doch nur die Pressemitteilungen der AI-Anbieter und Verbände anzusehen. Argumente sind "Wir hängen hinterher … wir können uns zaudern nicht mehr leisten …", angereichert um Buzzwords wie Produktivitätssteigerungen, Innovation etc. Aber selten eine Analyse, was geht, was sinnvoll ist und was die Leute wissen müssen.
Sehe ich mein eigenes Betätigungsfeld, ist aktuell doch eher die Frage, wie bekomme ich noch ungefilterte Informationen im Internet, ohne dass da eine AI ihre Finger im Spiel hatte. Wenn ich am Ende des Tages die dreifache Zeit benötige, um bereitgestellte Informationen zu verifizieren, wird es schwierig mit dieser KI.
Letztes Erlebnis, was mich nachhaltig verschnupft hat: Android 14 hat mehrfach KI-Updates erhalten – ist ja hip – ob ich es brauche oder will, hat dieses Google nicht gefragt. Im Rahmen einer Authentifizierungslösung wurde ich gefragt, ob ich PIN oder biometrische Authentifizierung aktivieren wolle – eine der Optionen war ein muss. Am Ende des Tages nützte mir diese Authentifizierung nichts, weil die benötigte Funktion nicht das tat, was ich benötigte. Ich habe im Nachgang ca. 1/2 Stunde in den Einstellungen von Android 14 gewühlt, um herauszufinden, wie ich diese Option rückgängig machen kann.
Vor diesen KI-Updates wusste ich, wo ich für bestimmte Einstellungen eingreifen musste. Nach dem Android AI-Update waren viele Einstellungsseiten modifiziert und legten erst bei gezielter Suche auf irgendwelche Optionen die Details offen.
Fun Fakt am Rande: Ich habe ja seit 2015 Android-Bücher für Einsteiger geschrieben – eines erreichte die 6. überarbeitete Auflage. Die hier skizzierte Episode (samt einigen anderen Vorkommnissen) haben mich bewogen, da den Exit aus dem Buchprojekt einzuleiten. Mit diesem Krampf, der dort abgeliefert wird, kannst Du kein Einsteigerbuch verfassen, was halbwegs Bestand hat. Ist hier nicht ausschließlich KI, aber sehr start durch KI beeinflusst, was Google da abliefert.
Von daher: Es ist, wie beim Pferd. Es kommt darauf an, was hinten raus kommt. Wussten schon meine Vorfahren.
Ich sehe es eher wie Herr Born. KI ist nicht zuverlässig, soll es aber sein.
Die aktuellen Ergebnisse aus der Medizin haben mich auch ernüchtert.
Der neueste Trend den ich gehört hatte: Buchhalter und Steuerberater würden durch KI arbeitslos. Das letzte was ich als Unternehmer brauchen kann sind neue und vermutlich besser versteckte Fehler in der Buchhaltung/Steuer. DATEV nutzt KI aktuell zum Glück nur zur Interpretation von Belegen. Das klappt halbwegs. Vermutlich wären gute Algorithmen aber mindestens genauso gut 😉
Datev nutzt die leider auch für die Hotline und es nervt ziemlich, wenn man eigentlich bereits weiß, dass man definitiv einen Mitarbeiter benötigt.
Ohhhh weh. Als Endnutzer hatte ich mit der noch nicht zu tun. Hoffe das bleibt so.
Hypothese: Ein Mitarbeiter in der Kfz-Schaden-Bearbeitung einer Versicherung übersieht Fehler (erkennt gefakten Unfall nicht, akzeptiert zu hohes Schadengutachten, übersieht, dass ein Vorgängerschaden am selben Fahrzeugteil nur fiktiv repariert wurde etc.)
Gründe für diese Fehler/Fahrlässigkeit: egal (ob mangelnde Ausbildung, Faulheit/Bequemlichkeit, persönliche Probleme, Augenblicksversagen …)
Fehlerquote – sagen wir: 5 % der von ihm bearbeiteten Fällen.
KI-gestütztes System hat eine Fehlerquote von
a) 20 %
b) 4 %
c) 0,1 %
Rhetorische Frage: In welchem Fall würde ich als Unternehmer den Mitarbeiter mit einer KI ersetzen: a), b) oder c)?
1. Blöder Vergleich!
2. Wer hat denn das kontrolliert, dass es zu der Annahme kommt, dass die KI eine bessere Fehlerquote hat?
Ist's ein Werbeversprechen?
Genau eine solche Einstellung zu KI lässt mich etwas verstört zurück.
Es ist ja nicht so, dass ich nicht solche Tools benutze,
aber es ist doch so, dass immer ein Mensch das Ergebnis überprüfen (können) muss!
Es ist wie bei den Beispielen mit den Übersetzungen!
Man kann es machen, aber die Übersetzung ist dann nur so etwas wie eine Rohfassung
und muss korrektur gelesen werden und Fehler müssen berichtigt werden.
@Mira Bellenbaum:
zu 1/: KI soll doch gerade Arbeitsplätze ersetzen, wieso passt dann der Vergleich nicht?
zu 2/: Natürlich muss die Fehlerquote objektiv ermittelt werden. Selbstverständlich darf das kein bloßes Werbeversprechen des KI-Herstellers sein.
Wie könnte 2/ praktisch ablaufen?
Die Versicherung nimmt 100 % der Fälle des Sachbearbeiters und dieselben 100 % der von der KI bearbeiten Fälle her und lässt sie von – sagen wir – 10 anderen erfahrenen Sachbearbeitern in aller Ruhe unter optimalen Bedingungen nachprüfen.
Die so ermittelte Fehlerquote dürfte doch relativ objektiv für beide Kandidaten (konkreter menschlicher Sachbearbeiter und KI-System) sein.
Falls Du meinen Überlegungen zustimmst, bleibt meine Frage bestehen:
Wie sollte das Versicherungsunternehmen betriebswirtschaftlich im Fall a), b) oder c) entscheiden?
Zitat: "zu 1/: KI soll doch gerade Arbeitsplätze ersetzen, wieso passt dann der Vergleich nicht?"
sagt wer?
Und damit sind wir schon in einer Blase! KI kann und wird keine Arbeitsplätze
ersetzen, es ist ein Tool, welches Prozesse vereinfachen kann, mehr aber auch nicht!
Wer etwas anderes behauptet, will das Produkt" verkaufen" oder hat absolut keine Ahnung.
Zitat: "zu 2/: Natürlich muss die Fehlerquote objektiv ermittelt werden. Selbstverständlich darf das kein bloßes Werbeversprechen des KI-Herstellers sein."
Tja, das ist es eben aber!
Und dann sind wir wieder bei meiner Aussage, dass KI bloß ein Werkzeug ist
und eben auch richtig angewendet werden will und es halt auch kontrolliert werden muss!
Aber klar, Du kannst auch mit einem Messer Löcher in eine Konservendose klopfen,
oder mit einem Schlitzschraubendrehe Schlitze in die Wand machen.
Aber daran würde man erkennen, dass Du eben entweder keine Ahnung hast,
oder eben ein Pfuscher bist.
Nichts anderes trifft auch auf KI zu!
Und, "Wie sollte das Versicherungsunternehmen betriebswirtschaftlich im Fall a), b) oder c) entscheiden?"
Einen "besseren", gewissenhafteren neuen Mitarbeiter rekrutieren und die Pfeife entlassen.
Die KI, könnte in der Vorsortierung eingesetzt werden, damit die Mitarbeiter etwas
entlastet werden, z.B. beim Telefonsupport, oder aber zur Plausibilitätsprüfung.
Aber keinen Entscheidungen treffen lassen, denn das geht in die Hose!
Eigentlich brauchts für vieles überhaupt keine KI, gute Algorithmen täten es da auch, und hätten nicht so einen Energiehunger und fantasieren würden die auch nicht!
Nüchtern betrachtet ist "KI" nur ne neue Sau die durchs Dorf getrieben wird!
Wenn Du heute irgendwo einen Raum betrittst und das Licht geht an, ist das "smart"!
Wow, Smart war die vorhergehende Sau!
Ich habe den Post andersrum verstanden. KI erreicht aktuell vermutlich mit Glück a und vielleicht in Zukunft b.
Bei a gewinnt zu 100% der Mensch. Auch bei b, da der Mensch auch noch viele andere Dinge kann.
Ob es jemals zu c kommt muss die Glaskugel zeigen.
Fazit: mit aktueller KI ist der Job nicht gefärdet.
@John: Danke. So war mein Beitrag gemeint, wie von Dir verstanden.
a) und b) hätte ich auch so wie Du entschieden.
a) ist sonnenklar, da KI schlechter
b) auch relativ klar. Der Mensch hat noch andere Vorteile;-)
c) Unterstellen wir mal, dass die zukünftige KI so "schlau" und so wenig Fehler macht.
Dann würdest Du doch auch dazu tendieren, den Menschen durch das KI-System zu ersetzen?
Und das ist doch die große Gefahr, die auf uns zukommt.
In einem Bereich, den ich überschauen kann (= IT-Administration) sind wir derzeit vielleicht bei 10 %, dh. aktuell noch keine Gefahr für den menschlichen Arbeitsplatz. Aber wenn die Entwicklung so weitergeht …
Schaut Euch mal dieses Video über MS365-Tenant-Administration mit Claude an. Ich meine: Sehr beeindruckend!
https://lokka.dev/
re:
Wer es mit dem apokalyptischen Reiter hält, und moderner mag, kann sich den Golem-Beitrag In ein paar Jahren könnte es vorbei sein zu Gemüte führen. Dort wird die These einer Gruppe Experten aufgegriffen, die bis 2030 das "wahrscheinliche" Ende der Menschheit durch KI voraussagt.
Such a ridiculous statement, since the entire existing AI isn't even capable of translating a single word correctly, how could it possibly ensure the "probable" end of humanity? Try having an AI translate this word correctly: pogovey
Ich nutze KI (perplexity.ai) nur für Fragen, wo ich die Antworten sofort auf Richtigkeit überprüfen kann.
Nach dem Schema: Welchen Powershellbefehl brauche ich, um das Ergebnis xyz zu erreichen. Oder: Wie kann ich in LibreOffice Base die Zeitdifferenz zwischen 2 Zeitangaben errechnen. Dafür ist es brauchbar und spart Zeit, die ich zum Studieren von Bedienungsanleitungen aufwenden müsste.
Und selbst bei solch simplen Fragestellungen habe ich schon oft fehlerhafte Antworten bekommen.
Absolut, für einfache Dinge: Da ist es google 2.0.
>> Und selbst bei solch simplen Fragestellungen habe ich schon oft fehlerhafte Antworten bekommen.<<
Exakt, aber in einfachen Strukturen bleibt KI m.E. trotzdem ein Mehrwert, weil man es selbst zum Lernen und besser werden nutzen kann.
Ich hoffe, dass es so ist!
Und in etwa nutze ich KI auch genau so!
Skript erklären lassen, Zeile für Zeile, danach selber versuchen das Problem zu lösen, eventuell die KI nach bestimmten Befehlen oder Parameter fragen, usw. …
Das, was sich derzeit "KI" schimpft, hat mit Intelligenz nichts zu tun.
Es sind LLMs, die nur auf Basis der Daten, die in Datenbanken gespeichert sind und Wahrscheinlichkeiten Antworten generieren.
Zu intelligentem Verhalten, wie z.B. Folgenabschätzung, Plausibilitätsprüfungen, etc. sind diese Systeme nicht fähig.
In diversen Filmen wurde schon vor vielen Jahren so etwas thematisiert.
Beispielsweise wurde in einem Film eine KI damit beauftragt, alle Atomwaffen zu beseitigen.
Was hat die KI gemacht?
Einen Atomkrieg gestartet, denn wenn eine Atomwaffe explodiert, ist sie ja beseitigt.
Das es dadurch aber viele schwere Zerstörungen gibt und die Gegend hinterher unbewohnbar ist, ist der KI egal.
Oder in Raumschiff Enterprise, bei der eine KI installiert wird, die die Gefechtskontrolle übernehmen soll. Dann gibt es ein Manöver, was die KI aber fälschlich als echten Angriff interpretiert und mehrere Raumschiffe zerstört.
Eine Prüfung, wie plausibel es ist, das eigene Raumschiffe die Enterprise angreifen und zudem noch mit simulierten Treffern, hat die KI nicht gemacht.
Du hast völlig recht, jeder der sich auch nur ein halbes Stündchen mit den technischen Hintergründen von LLMs auseinandersetzt, wird das erkennen.
Nur leider tun und verstehen das sehr viele Menschen nicht bzw. wollen oder können es auch dank des Flächenbombardements diverser Medien bzgl. der "allmächtigen KI" nicht verstehen.
Betr. "Zu intelligentem Verhalten, wie z.B. Folgenabschätzung, Plausibilitätsprüfungen, etc. sind diese Systeme nicht fähig.":
Kann ich nur den Kopf schütteln. Mit der selben Argumentation hättest Du Dich zu Gutenbergs Zeiten vermutlich auch gegen die Einführung des Buchdrucks ausgesprochen. Die sog. KI (Name ist doch eigentlich wumpe, früher sprach man bspw. auch von Expertensystemen) kann Werkzeug für Folgenabschätzung und Plausibilitätsprüfungen sein, ebenso wie einschlägige Fachbücher – so einfach ist das. Dieses ständige 'ja aber die KI kann doch gar nicht denken' ist obsessiv, solche Mitarbeiter kann kein Betrieb gebrauchen.
Der Name/Typ der KI ist eben nicht egal. Ein LLM hat eine andere Funktionsweise und andere Schwachpunkte als ein Expertensystem.
Beide können übrigens nicht denken, haben aber einen sinnvollen Einsatzbereich. Und wer die Grenzen nicht kennt, wird damit auf die Nase fallen.
Um über den Effekt des – sich allgemein breit machenden – "Deskilling" Bescheid zu wissen benötigt's ja nicht wirklich einer Studie, da brauch' man bspw. nur beim Fußball auf das Thema VAR und Schiedsrichter (offiziell bez. als "Spielleiter") schauen – da ist solche Entwicklung mit falsch angewendeten Hilfsmitteln, die menschliche Tätigkeiten ersetzen, schon länger beobachtbar und offensichtlichst! 🤷♂️
In Albanien soll ein KI-Server zur neuen Ministerin werden:
https://www.n-tv.de/politik/Albaniens-Premier-will-KI-zu-Ministerin-machen-article26030310.html
Darüber sollte man in Deutschland auch mal nachdenken – da würden wohl ein KI-Server selbst mit einer i386 CPU von 1990 schon deutlich mehr Kompetenz besitzen, als im gesamten Bundeskabinett zusammen vorhanden ist. Und auch eine unausgereifte KI würde längst nicht so viel Unsinn wie unsere Minister von sich geben;)
Man sollte dann auch die Details angeben. Der Kern: Das AI-Modell soll Ausschreibungen abwickeln und die herrschende Korruption beenden. Drumherum hat man eine Legende für die Presse gestrickt, die das begeistert aufgegriffen hat. Ob das mit der Ministerin stimmt, kann ich nicht sagen, kann kein albanisch.
Nutz' doch die KI für die Übersetzung – ach nee, da war ja was in Teil 1… 😉
Mal davon abgesehen, dass das ein riesen PR-Gag ist, das ginge auch recht einfach mit gescheiten Algorithmen!
Das Problem, ob KI oder eben Algorithmen bei der "Auswahl" angewendet werden, am Ende sitzt immer noch ein Mensch!
Ergo, das alles ist einfach nur eine Show!
Das alles ist Teil der Show, zukünftig die "KI" überall als alles entscheidende und nicht zu hinterfragende und vorgeblich unabhängige Instanz zu etablieren (in der Realität dann mit kleinen Filterchen und Marionettenfädchen für doch steuernde graue Eminenzen im Hintergrund).
Das Zeug was es aktuell gibt, ist schon so viel besser, wie alles was vorher da war. Es wird nicht mehr verschwinden.
Habe gerade am Nachmittag ein Tool angepasst das PDF -> MarkDown konvertiert. Etwas was bis vor kurzem nur mühsam und via OCR ging, und dann für viele Dokumente gar nicht.
Ein Bekannter hat kürzlich automatisiert, alte Postkarten welche seine Grosseltern gesammelt hatten, digitalisiert. Handschrift.
Natürlich es gibt da eine Fehlerquote, die gibt es aber auch wenn es ein Mensch macht, wenn er überhaupt entziffern kann worum es ging.
Ob die KI auch 6fache Weber Doppel-Vergaser einstellen kann?
https://commons.wikimedia.org/wiki/File:1961_Ferrari_250_TR_61_Spyder_Fantuzzi_engine.jpg
Wäre sicher eine Erleichterung für Oldtimer-Fans.
Oder eine systematische Fehleranalyse machen bei Fehlern, die nicht im Fehlerspeicher drin stehen!
+ Grundsätzlich ja, es gibt iirc bei BMW (oder doch Audi?) eine Forschungssparte die den möglichen Einsatz humanoider (kein Scherz) Roboter in solchen Szenarien beackert. Kam mal im BR Fernsehen in 2023 oder 2024.
+ Betr. "Wäre sicher eine Erleichterung für Oldtimer-Fans.":
Sagen wir mal so: Wer keinen Ehrgeiz hat, das ohne KI zu machen, ist kein Oldtimer Fan.