Man darf die Diskussion zu KI nicht Big Tech überlassen, das ist der Ansatz, der die Zivilgesellschaft bewogen hat, ein Zeichen zu setzen. Mehr als 75 Organisationen aus der deutschen Zivilgesellschaft haben den von D64 – Zentrum für Digitalen Fortschritt – initiierten Code of Conduct "Demokratische KI" unterzeichnet. Das ist eine gemeinsame Selbstverpflichtung für den verantwortungsvollen Einsatz von Künstlicher Intelligenz. Auch an anderen Stellen regt sich Widerstand gegen einen undifferenzierten Einsatz von KI.
Es ist erneut Zeit, ein paar Worte über das Thema KI-Einsatz zu verlieren. Denn in den letzten Tagen sind mir einige Artikel und Stimmen untergekommen, die zum Nachdenken anregen könnten. Ja, KI kann in ausgewählten Bereichen, bei verantwortungsvollem Umgang, einen Beitrag leisten. Aber KI kann auch ins Abseits führen, wenn sie blauäugig umgesetzt wird.
Umfrage: Agentic AI wird zum Megatrend
Starten wir mit einer Meldung, die mir von Spitch, einem Schweizer Anbieter von Sprachdialogsystemen, zugegangen ist. Man hat 100 Führungskräfte aus der Wirtschaft Stellung zum Einsatz von KI-Agenten zur Kommunikation mit der Kundschaft nehmen lassen. Daraus hat man ein Marketing-Dokument fabriziert, aus dem ich mal zitiere.
Den "Führungskräften" zufolge ist Agentic AI ein Megatrend. Spitch beruft sich dabei auf die Aussage von mehr als zwei Drittel (68 Prozent) der gerade einmal 100 Befragten Führungskräfte aus Unternehmen in Deutschland, die ein Contact Center zur Kundenkommunikation betreiben. Rund 70 Prozent der Firmen unterhalten eigene Zentralen zur Kundenkommunikation, die restlichen 30 Prozent haben diese Funktion an externe Dienstleister ausgelagert.
Was ist Agentic AI genau?
Agentic AI bezeichnet eine neue Generation von KI-Systemen, die autonom handeln, um ein vorgegebenes Ziel zu erreichen, indem sie komplexe Aufgaben in eigenständige Schritte zerlegen, diese ausführen, das Ergebnis bewerten und sich bei Bedarf selbst korrigieren. Moderne Sprachdialogsysteme arbeiten mit Agentic AI, sodass sie sich in gesprochener Sprache mit Nutzern „unterhalten" und deren Anfragen verstehen und selbstständig beantworten können.
Skepsis gegenüber KI-Lösungen im Kundenservice verflogen
Laut Spitch zeigt die Befragung, dass sich die anfängliche Skepsis gegenüber KI-Lösungen im Kundenservice gelegt hat und einer breiten Überzeugung Platz macht: Über drei Viertel (77 Prozent) der Unternehmen sind überzeugt, dass Agentic AI den Einsatz von Künstlicher Intelligenz in der Kundenkommunikation "revolutioniert".
Diese Wahrnehmung geht weit über eine kurzfristige Modeerscheinung hinaus: 47 Prozent sind fest davon überzeugt, dass sich Agentic AI langfristig als Standard etablieren wird, heißt es in der Erklärung von Spitch. Weitere 52 Prozent der Befragten gehen zumindest davon aus, dass dies teilweise der Fall sein wird.
Agentic AI als strategisches Signal
Die nachfolgenden Ausführungen gebe ich unredigiert wieder, mag jeder Leser sich seine eigene Meinung zu den Sprachhülsen bilden. Der Einsatz autonomer KI-Systeme sei laut Spitch-Umfrage nicht nur eine Frage der Effizienz, sondern auch ein strategisches Signal.
- Für 93 Prozent der Befragten spielt die Wahrnehmung einer hohen Innovationskraft eine wichtige Rolle.
- Mehr als drei Viertel (77 Prozent) messen dem Einsatz von Agentic AI Vorteile für die Wettbewerbsfähigkeit der Unternehmen bei, wobei ein gutes Drittel (36 Prozent) dies sogar als einen entscheidenden Faktor im Wettbewerbsumfeld betrachtet.
- Die Vorteile werden dabei als unmittelbar spürbar eingeschätzt: Praktisch alle Befragten (97 Prozent) gehen von direkten oder indirekten Vorteilen durch Agentic AI aus, davon 42 Prozent von unmittelbaren Nutzeneffekten.
Als wichtigsten Vorteil sehen 64 Prozent der Befragten die flexible Skalierung bei erhöhtem Anfragevolumen oder saisonalen Spitzen an. Auch bei unvorhersehbaren Ereignissen ist die unmittelbare Skalierbarkeit von hohem Nutzen, meinen 59 Prozent (Mehrfachnennungen waren möglich). In die gleiche Richtung argumentieren 45 Prozent der von Spitch Kontaktierten, die die sofortige Reaktionsfähigkeit unabhängig von der Auslastung als zentralen Vorteil sehen.
- Die Hälfte (50 Prozent) der Befragten hält die durchgehende Erreichbarkeit ohne zusätzlichen Personalaufwand für besonders wichtig.
- Ähnlich denken offenbar 47 Prozent beim Thema Mehrsprachigkeit: KI-Agenten können einen mehrsprachigen Kundenservice leisten, ohne dass ein besonderer Übersetzungsaufwand anfällt.
Möglicherweise haben diese Aussagen sogar einen Kern Wahrheit – aus Sicht der Entscheidungsträger, bei denen Kundenservice als Kostenfaktor begriffen und ein fragender Kunde als lästiges Anhängsel gesehen wird. Wenn alle grottenschlecht in der Service-Qualität werden, brauchen wir nicht besser zu sein, scheint das Credo zu sein.
Hoher Nutzen für Kunden, Unternehmen und die Marke
Spitch versteigt sich zur Aussage, dass 71 Prozent der Befragten auf die Qualitätsvorteile für die Kunden, die anrufen, verweisen: die konsistente Servicequalität unabhängig vom Zeitpunkt des Anrufs oder dem Mitarbeitenden, der ans Telefon geht.
Die positiven Auswirkungen von Agentic AI beschränken sich laut Umfrage nicht nur auf die interne Effizienz und die Kundenzufriedenheit. Ein Großteil der Befragten sieht auch einen direkten Nutzen für das Markenimage. Für 46 Prozent ist klar, dass KI-Agenten die Marke stärken und die Brand Awareness erhöhen können, indem sie für eine konsistent positive und innovative Kundenkommunikation sorgen, heißt es.
Hybrides Ökosystem aus Mensch und Maschine
"Die Menschen werden dadurch in Contact Centern nicht etwa überflüssig, sondern ihre Rolle wandelt sich grundlegend", lässt sich Stephan Fehlmann, Vice President für die Region Deutschland, Österreich und Schweiz bei Spitch, zitieren. "Menschen übernehmen zunehmend die komplexen, strategischen und emotionalen Anliegen, die eine empathische menschliche Interaktion erfordern. Die Agentic AI automatisiert dagegen Standardanfragen und wiederkehrende Aufgaben. So entsteht ein hybrides Ökosystem, in dem die Stärken von Mensch und Maschine ideal kombiniert werden, um die Kundenzufriedenheit weiter zu stärken."
Bullshit-Marketing und blauäugige Führungskräfte?
Die obigen Spitch-Aussagen sind ein typisches Beispiel für Bullshit-Marketing vom Feinsten, wie es bei Führungskräften einschlägt. Eigenwahrnehmung und Fremdwahrnehmung scheinen arg auseinander zu driften – das ist zumindest mein persönlicher Eindruck.
Persönlich stehen mir einige dieser Erfolgsbomben an Unternehmen vor Augen. Bei Vodafone oder der Ing kommst Du mit diesen genialen KI-Agenten so gut wie nie zum Ziel. Inzwischen habe ich aus der Leserschaft mehrfach etwas von "sinkender Qualität" vernommen. Und dann gibt es noch die Techniker Krankenkasse als Positiv-Beispiel. Benötigst Du Hilfe und gehst auf deren Webseite, bist Du oft verloren und suchst dir einen Ast, bis Du dich bis zum entsprechenden Dokument gehangelt hast.
Aber die Techniker Krankenkasse hat einen exzellenten Telefon-Support, wenn ich anrufe, weil sich etwas auf deren Internetseiten nicht klären lässt, habe ich binnen kurzer Zeit einen Mitarbeiter am Telefon, der mir bisher in 100 % der Fälle verbindlich und kompetent weiter helfen konnte.
Wenn ich mir vorstelle, dass da ein KI-Agent vorgeschaltet wird, der mich in Schleifen von der Lösung meines Problems abhält, kann das in Sachen Kundenzufriedenheit nur im Desaster enden – mag das noch so progressiv aussehen. Schaue ich mir die KI-Lösungen im Kundenservice von Banken, Mobilfunkanbietern oder weiteren Unternehmen an, sind diese doch durchgehend Umschreibung für Katastrophe zu interpretieren. Vielleicht sollte ich auf Komiker umschulen – man braucht sich doch nur die KI-generierten Kundendialoge anzusehen, schon hat man Stoff für die schönsten Kalauer. Obwohl, diese Kalauer gab es bereits vor 20 Jahren – jetzt wird die Sau nur unter neuem Namen durch das Dorf getrieben.
Misstrauen der Kunden
Mir liegen noch Aussagen aus dem Qualtrics 2026 Consumer Experience Trends Report vor, nach denen nur 39 % der Verbraucher Unternehmen beim Umgang mit persönlichen Daten vertrauen. Für die Aussagen in diesem Report wurden 20.000 Personen in 14 Ländern befragt.
Der neue Qualtrics-Report offenbart die Kluft zwischen KI-Versprechen und Realität: KI im Kundenservice enttäuscht viermal häufiger als bei anderen Anwendungen, während für Unternehmen der Druck steigt, den ROI nachzuweisen. Isabelle Zdatny von Qualtrics mahnt: "Zu viele Unternehmen nutzen KI, um Kosten zu senken, statt Probleme zu lösen."
Meine in obigem Absatz anekdotisch eingeworfener Eindruck zu KI-Agenten im Kundenservice ird von Qualtrics in der Studie bestätigt. Fast jeder fünfte Verbraucher, der KI im Kundenservice nutzte, sah dadurch keinerlei Vorteile. Das ist ein viermal höherer Unzufriedenheitswert, als bei der KI-Nutzung im Allgemeinen. Die Ergebnisse des globalen 2026 Consumer Experience Trends Report von Qualtrics, enthalten auch Aussagen von 1.500 befragten Verbrauchern aus Deutschland.
Während der Druck auf Unternehmen steigt, greifbare Ergebnisse aus KI-Investitionen vorzuweisen, zeigt der Qualtrics-Report, dass die Bemühungen, Servicequalität mithilfe von KI zu skalieren, hinter den Erwartungen zurückbleiben. Gleichzeitig nehmen die Bedenken hinsichtlich der Verwendung von Kundendaten zu. Verbraucher bewerten KI-Anwendungen im Kundenservice als besonders schlecht in Bezug auf Komfort, Zeitersparnis und Nutzen. Nur der „Bau eines KI-Assistenten" schnitt noch schlechter ab.
Die missbräuchliche Verwendung persönlicher Daten ist mittlerweile die größte Sorge der Verbraucher bei KI-gestützten Interaktionen – 53 % teilen diese Angst, ein Anstieg um 8 Prozentpunkte im Vergleich zum Vorjahr. 50 % der Verbraucher befürchten, dass KI den Kontakt zu echten Menschen verhindert, und 47 % sorgen sich um den Verlust des eigenen Arbeitsplatzes. Fast die Hälfte der Befragten würde mehr Daten teilen, wenn klar wäre, was erhoben wird und wie sie selbst über Nutzung oder Löschung ihrer Daten entscheiden könnten. Und mit "KI außer Kontrolle" wird das keinesfalls besser – passt aber nicht zum Marketing-Bullshit der KI-Propagandisten.
Cohesity-Studie: Deutsche Skepsis als Stärke
Deutsche Unternehmen gelten oft als zögerlich beim Einsatz neuer digitaler Technologien, was ja auch für AI gilt. Kürzlich las ich in der Cohesity-Studie: Wie Cyberangriffe Aktienkurse beeinflussen und warum deutsche Skepsis eine Stärke sein kann den Gedanken, ob die deutsche Gründlichkeit, "alles erst einmal auf Risiken abzuklopfen" sich nicht mittelfristig sogar als strategischer Vorteil herausstellen könnte – nämlich dann, wenn der Hype kräftig schief und Sicherheitsvorfälle überhand nehmen geht.
In der Erläuterung der Studie wird angesprochen, dass diese Langsamkeit, die oft als Nachteil angesehen wird, in puncto Sicherheit tatsächlich eine Stärke sein kann. Während weltweit für 37 % der Befragten die Einführung von GenAI-Tools in ihren Unternehmen deutlich schneller voranschreitet, als sie es für sicher halten, sind es in Deutschland nur 29 %. Die "typisch deutsche" Zurückhaltung bremst also eine zu schnelle Einführung von Tools und Systemen, deren Sicherheitsstandards noch nicht ausreichend überprüft wurden, teilte mir Cohesitsy in den Erläuterungen zur Studie mit.
Die Studie basiert auf einer Umfrage unter 3.200 IT- und Sicherheitsverantwortlichen, davon 400 aus Deutschland, die von Cohesity in Auftrag gegeben und von Vanson Bourne im September 2025 durchgeführt wurde.
KI und die Arbeitsplatzlügen
In diesem Kontext der obigen Lobpreisungen vielleicht noch zwei Informationssplitter. The Register hatte Ende Oktober 2025 eine Analyse "Predictions 2026: The Future Of Work" von Forrester aufbereitet, in dem es um KI-bedingte Entlassungen ging. Die KI-bedingten Entlassungen der Unternehmen werden zwar großspurig gefeiert. Aber die Hälfte der Unternehmen wird das durch Neueinstellungen wieder rückgängig machen müssen. Allerdings gibt es den Trend, dass diese Neueinstellungen im Ausland erfolgen und das Personal zu geringeren Vergütungen eingestellt wird. Golem hatte das in diesem deutschsprachigen Beitrag aufgegriffen.
Zum Wochenende ist mir obiger Tweet untergekommen, der die Entwicklung ebenfalls aufgreift. Die Commonwealth Bank hat 45 Mitarbeiter entlassen und durch KI ersetzt. Öffentlich prahlte die Bank damit, 2.000 Anrufe pro Woche eingespart zu haben. Zwei Wochen später, heißt es, dass die Bank die Entlassenen bittet, zurückzukommen, weil die KI nichts auf die Reihe bekommt. Die Zahl der Kundenanrufe sei nicht zurückgegangen, sondern gestiegen. Die Manager machen Überstunden und Teamleiter beantworten Anrufe. Das ist Real World Experience statt Bullshit Marketing-Versprechen.
Und heise analysiert in diesem Beitrag die Folgen des KI-Hypes in Punkto Entlassungen in den USA. Da gibt es eine sehr ungesunde Entwicklung, Entlassungen, obwohl Rekordgewinne eingefahren werden. Vom "Jobless Boom" durch KI ist die Rede. Hinzu kommt, dass junge Studienabsolventen massive Probleme haben, eine Stelle zu finden (siehe diesen Artikel). Da wird momentan gerade ein riesiger "Schweinezyklus" aufgebaut, was uns allen gesellschaftlich noch arg auf die Füße fallen dürfte.
Die momentan stattfindenden Exzesse werden nicht ohne Folgen bleiben. Da ist der n-tv-Artikel hier äußerst spannend. Der Artikel analysiert, wie das Netzwerk der Tech-Riesen die KI-Blase durch Kreisgeschäfte aufpumpt haben. Die spannende Frage ist nicht ob, sondern wann es den großen Knall gibt und was nach der "Flurbereinigung" noch als Substanz übrig bleibt. Beruhigend finde ich die nachfolgenden Splitter, die in Richtung Besonnenheit und Vorsicht mahnen.
Code of Conduct "Demokratische KI"
"Wir dürfen die Diskussion zu KI nicht Big Tech überlassen", erklärt Monika Ilves, Vorstandsmitglied vom digitalpolitischen Verein D64. Daher hat der Verein D64 das Projekt "Demokratische KI" koordiniert.
Mehr als 75 Organisationen aus der deutschen Zivilgesellschaft haben den von D64 – Zentrum für Digitalen Fortschritt – initiierten Code of Conduct "Demokratische KI" unterzeichnet. Das ist eine gemeinsame Selbstverpflichtung für den verantwortungsvollen Einsatz von Künstlicher Intelligenz.
Die Erstunterzeichnenden repräsentieren zusammen 3 Millionen Mitglieder und spiegeln die Vielfalt der Zivilgesellschaft wider: Von der Arbeiterwohlfahrt (AWO), dem Naturschutzbund Deutschland (NABU), der Bundesarbeitsgemeinschaft der Seniorenorganisationen (BAGSO) über weitere Dachverbände bis hin zur Deutschen Schachjugend oder dem Netzwerk hamburg.global.
D64 hat den Code of Conduct in einem seit April 2024 laufenden partizipativen Prozess gemeinsam mit den beteiligten Organisationen koordiniert und erarbeitet. Im Zentrum stehen acht gleichberechtigte Grundprinzipien:
- Abwägung der Nutzung,
- Menschenzentrierung,
- Transparenz,
- Teilhabe und Partizipation,
- diskriminierungskritische Haltung,
- Verantwortung und Verantwortlichkeit,
- Kompetenzen sowie ökologische Nachhaltigkeit.
Die Selbstverpflichtung richtet sich explizit an gemeinwohlorientierte Organisationen und bietet ihnen einen praktischen Orientierungsrahmen; unabhängig davon, ob sie eigene KI-Systeme entwickeln, bestehende Anwendungen nutzen oder bewusst auf KI verzichten.
"Wir haben unterzeichnet, weil verantwortungsvolle KI-Nutzung sowohl eine kritische Auseinandersetzung mit der Technologie als auch entsprechende Kompetenzen erfordert", sagt Julia von Westerholt, Verbandsdirektorin des Deutschen Volkshochschul-Verbands e.V. "Der Code of Conduct bietet dafür einen Rahmen und Orientierung, wie wir KI so einsetzen können, dass sie Teilhabe stärkt und dem Gemeinwohl dient."
"Als Hilfs- und Wohlfahrtsorganisation setzt sich der ASB dafür ein, dass Künstliche Intelligenz im Sinne des Menschen eingesetzt wird. Mit der Unterzeichnung des Code of Conduct Demokratische KI von D64 e.V. bekräftigen wir unseren Anspruch, digitale Technologien demokratisch, transparent und sozial verantwortlich zu gestalten," sagt Dr. Uwe Martin Fichtmüller, Hauptgeschäftsführer des Arbeiter-Samariter-Bundes Deutschland e.V.
Der Code of Conduct versteht sich als Ergänzung zu bestehenden Rahmenwerken wie der KI-Verordnung der EU. Anders als andere Leitlinien wurde er explizit aus der Praxis der Zivilgesellschaft heraus entwickelt und orientiert sich an den konkreten Herausforderungen zivilgesellschaftlicher Organisationen. Die Organisationen, die unterzeichnen, verpflichten sich etwa dazu, die Chancen und Risiken des Einsatzes von KI-Anwendungen für ihre Arbeit und Zielgruppe abzuwägen, KI-generierte Inhalte transparent zu kennzeichnen, Beteiligungsmöglichkeiten für Mitarbeitende und Zielgruppen zu schaffen und durch Fortbildungen einen reflektierten Umgang mit KI zu fördern.
"Mit der Unterzeichnung verpflichten sich mehr als 75 Organisationen zu einem verantwortungsvollen Umgang mit KI-Systemen. Gemeinsam zeigen sie: Die Zivilgesellschaft kann und will mitgestalten: für eine demokratische digitale Zukunft." sagt Monika Ilves, Vorstandsmitglied vom digitalpolitischen Verein D64. Könnte von der politischen Ausrichtung, je nach eigenem Standpunkt, kritisieren. Aber ich finde diesen Ansatz auf jeden Fall bedenkenswert.
Governance: Wer kontrolliert KI-Agenten?
Markus Müller, Global Field CTO API Management bei Boomi hat sich einige Gedanken rund um das Thema KI-Agenten gemacht. Er sieht KI-Agenten zweifellos auf dem Vormarsch. Ihr Potenzial, Unternehmen zu transformieren, sei enorm, ist die weltweite Überzeugung von Experten. In einer repräsentativen Studie befragte Boomi 300 Führungskräfte aus Wirtschaft und Technologie, darunter auch welche aus Deutschland. Fast drei Viertel (73 Prozent) glauben, dass KI-Agenten die größte Veränderung für ihr Unternehmen in den letzten fünf Jahren darstellen werden. Gut, als Experten würde ich Führungskräfte nicht wirklich sehen – die werden von marketing-generierten Sprechblasen getrieben.
Aber die Studie von Boomi greift einen wesentlich interessanteren Aspekt auf. Laut Studie sind nur zwei Prozent der derzeit eingesetzten KI-Agenten sind vollständig für ihre Handlungen verantwortlich und unterliegen einer kontinuierlichen, konsistenten Governance.
Das bedeutet im Umkehrschluss, dass 98 Prozent der KI-Agenten, die in Unternehmen eingesetzt werden, frei drehen dürfen und keine oder zumindest keine ausreichenden Governance-Regeln besitzen. Blauäugigkeit bei den Entscheidern bis zum Abwinken. Und genau hier liegt die Gefahr für Unternehmen, schreibt Markus Müller, denn ohne Kontrolle kann die Leistungsfähigkeit von KI-Agenten nicht richtig kanalisiert werden. Nachfolgend wirft er einige Thesen und Fragen auf, die sich jeder Entscheidungsträger stellen sollte.
KI-Agenten bekommen immer mehr Verantwortung
War noch bis vor kurzem die Meinung vorherrschend, dass kritische Unternehmensbereiche wie das Managen von Sicherheitsrisiken oder die Genehmigung von Investitionen und Budgets allein menschliche Expertise benötigten, so hat sich das mit der raschen Weiterentwicklung von KI-Agenten gewandelt. Führungskräfte sind nun in immer größerem Maße bereit, auch diese Bereiche einem KI-Agenten zumindest teilweise anzuvertrauen.
Welch enorme Verantwortung damit auf dieser Technologie liegt, ist ersichtlich. Führungskräfte und IT-Teams sind nicht mehr über alle Arten der Nutzung sensibler Daten durch die Technologie informiert und dies kann zu potenziellen Verstößen gegen Sicherheits- oder Compliance-Vorschriften führen. Für jedes Unternehmen ist die unkontrollierte Autonomie von KI-Agenten ein inakzeptables Risiko.
Background Check für „digitale Mitarbeiter"
Müller schreibt, dass die aktuellen Standards für die Governance von KI-Agenten unzureichend sind. Oft werden bereits die Mindestanforderungen an eine Governance-Strategie für KI-Agenten nicht erfüllt.
- So verfügt weniger als ein Drittel der Unternehmen, die KI-Agenten einsetzen, über ein Governance-Framework für KI-Agenten.
- Und nur 29 Prozent der Unternehmen bieten regelmäßige Schulungen für Mitarbeiter und Führungskräfte zum verantwortungsvollen Umgang mit KI-Agenten an.
- Wenn es um spezifische Prozesse wie Protokolle zur Bewertung von Bias oder die Planung von Maßnahmen bei Ausfällen von KI-Agenten geht, sind noch weniger Unternehmen vorbereitet (jeweils nur rund ein Viertel).
Da herrschen Blauäugigkeit und Blindflug aller orten. Müller schreibt dazu: "Unternehmen müssen daher damit beginnen, digitale Mitarbeiter (KI-Agenten) genauso wie menschliche Mitarbeiter zu behandeln." Bei Menschen ist es Gang und Gäbe, ihre Fähigkeiten und ihre Vergangenheit auf ethische Verstöße hin zu überprüfen. KI-Agenten müssen nach denselben Standards behandelt werden und beispielsweise dahingehend überprüft werden, ob sie eine Vorgeschichte mit Voreingenommenheit oder Halluzinationen haben.
Eine universelle Governance ist unerlässlich
Die universelle Governance von KI-Agenten ist nicht nur ein nettes Extra, ist Müller überzeugt. Sie ist für die Datensicherheit und die Verbesserung der Unternehmensleistung unerlässlich. Unternehmen mit einer fortschrittlichen Governance schneiden in einer Vielzahl wichtiger Geschäftskennzahlen besser ab als Unternehmen, die nur über ein grundlegendes Niveau verfügen. Zudem sichern sie sich vor Compliance-Verstößen, Reputationsschäden und letztlich auch vor einem durch nicht geprüfte KI-Agenten ausgelösten Sicherheitsvorfall mit erheblichem finanziellen Schaden. Denn im aktuellen Wettbewerbsumfeld kann selbst ein kleiner Vorsprung den Unterschied zwischen Führungsposition und Rückstand ausmachen, so das Fazit von Müller.
Der KI-Einsatz separiert und ist manchmal blauäugig
Abschließend noch ein Lesesplitter zur Beruhigung der Gemüter, die glauben, dass wir gerade alle bezüglich KI in Deutschland zu kurz kommen. Bianca Kastl, die sich in Sicherheitsfragen engagiert, hat auf netzpolitik.org einen herrlichen Kommentar zur Dedigitalisierung verfasst und mahnt an, sich "wie ein Esel" zu verhalten.
Esel sind schlaue Tiere, die "nicht blind aufgescheuchten Herdentieren folgen", sondern stehen bleiben, die Situation analysieren und dann Entscheidungen treffen. Ist manchmal der bessere Ansatz – auch wenn "störrisch wie ein Esel" die "schnell-schnell" Fraktion der AI-Befürworter irgendwie zu ärgern scheint.
Paul Rohan hat die Themenfelder "AI und Roboter" wunderbar in einem Video aufgespießt – welches in obigem Tweet eingebunden ist und als Meme dafür herhalten kann, was AI und Roboter derzeit im Schnitt zu leisten vermögen.






MVP: 2013 – 2016




Dafür, dass so viele Menschen so wenig Vertrauen in Unternehmen und KI haben, gehen sie in der Masse doch sehr sorglos mit ihren Daten um.
"Deutsche Zivilgesellschaft" und "demokratische KI, sowie Code of Conduct" – mehr muss man eigentlich nicht lesen um zu wissen woher der Wind hier weht….
Oder man liest (leider) doch weiter:
"Teilhabe und Partizipation, diskriminierungskritische Haltung"
Jeder darf dann mitmischen, auch ohne Plan – wunderbar :D
Es darf dann kein Master und Slave mehr verwendet werden, könnte ja diskriminierend sein ;)
Mit u.a. genau solch geistigem Schwachfug macht man seit Jahren die IT kaputt – aber am Ende will es niemand gewesen sein, das wird sicher noch lustig!
Rette sich wer kann…
Mir ist deine Stoßrichtung klar – ging mir auch durch den Kopf und ich habe den Text schon "geschliffen". Aber abseits des ersten Reflexes lohnt es sich in meinen Augen durchaus über die angerissenen Punkte sehr detailliert nachzudenken. Ich formuliere es mal provokativ: Wenn eine KI einen negativen BIAS auf alles, was "alter weißer Mann" betrifft, mitbringt, werden einige Leute vermutlich eher weniger begeistert sein. Ich versuche ja hier im Blog auch Langzeitentwicklungen anzureißen. Wenn Du in 10 Jahren keine Risiko-Lebensversicherung mehr bekommst, weil eine KI deine 2025 freudig in die ePA eingespeisten Gesundheitsdaten ausgewertet hat und irgendwo nebulös einen damals eingetragenen Diagnoseschlüssel für die Krankenkassenabrechnung als internes Risiko klassifiziert, stellen sich genau die oben aufgeworfenen ethischen Fragen. Diese Gedankengänge ließen sich sehr schnell fortsetzen, ohne jetzt in politischer Richtung sehr weit rechts oder links zu schwenken.
"Wenn Du in 10 Jahren keine Risiko-Lebensversicherung mehr bekommst, weil eine KI deine 2025 freudig in die ePA eingespeisten Gesundheitsdaten ausgewertet hat und irgendwo nebulös einen damals eingetragenen Diagnoseschlüssel für die Krankenkassenabrechnung als internes Risiko klassifiziert, stellen sich genau die oben aufgeworfenen ethischen Fragen."
Das hat doch mit dem geistigem Schwachfug, der hier seit Jahren durchgedrückt werden soll und wird, nichts zu tun.
Natürlich würde ich solche Auswertungen nicht gut heissen, aber hier hatte jeder die Möglichkeit der ePA zu widersprechen – wie viele haben es getan?
Bzw. warum wird gibt es nur für Privatversicherte ein OptIn für die ePA? Es gab zur ePA schon genügend Beiträge, die das Ding auseinandernehmen, interessant ist auch dieser Beitrag dazu:
https://www.nachdenkseiten.de/?p=132188
Augenscheinlich ist jedoch, dass gesunder, rationaler (Sach)Verstand heutzutage immer mehr der Ideologie weichen, und das in immer mehr Lebensbereichen
Prinzipiell bin ich bei KI-Governence, wie es manche DLT-Anbieter vorhaben; zB
volle Nachvollziehbarkeit, woher Datenquellen stammen etc
Bayern hat den Chat verlassen. Milliardendeal mit Microsoft; hoffentlich mit mehr AI-MS-Copilot-Hirn bei Söders Social Media Feed.😉
der Markt wird es richten. Ist der Einsatz von KI oder auch KI Roboter günstiger als menschliche Arbeitskraft, wird es so Einsatz kommen. Alles andere wäre unlogisch.
Wenn die Europäer meinen, durch Datenschutz die Produktivitätsgewinne unterbinden zu wollen, werden Arbeitsplätze nur verlagert werden.
Verordneter Datenschutz ist nutzlos, Selbstverpflichtungen sind nur noch nutzloser.
Das ist die nüchterne Realität.
KI wird vieles verändern und sicher zügig die Arbeitswelt erfassen und umkrempeln. Alle Technologien haben sich irgendwann durchgesetzt, nur bei KI wird das deutlich schneller passieren. Wir können das Thema gerne in 5 Jahren nochmals betrachten und werden dann schon gravierende Veränderungen feststellen.
In fünf Jahren funktioniert der Kram also und ist zu wirklich intelligentem Handeln in der Lage? Das wird noch sehr viel länger dauern und bis dahin werden noch viele auf die Schnauze fallen damit.
Die aktuelle "KI" auf Basis von LLM ist technisch untauglich und kann systembedingt nicht besser werden, das merken mehr und mehr, inzwischen sogar auch die Tagesschau und das mag was heissen.
"KI-Chatbots machen bei 40 Prozent der Antworten Fehler … Das erschreckende Ergebnis: ChatGPT, Gemini und andere Chatbots erfinden bis zu 40 Prozent ihrer Antworten und stellen sie als Fakten dar."
https://www.tagesschau.de/wissen/technologie/kuenstliche-intelligenz-fakten-100.html
Leider schon zu spät – der Schaden ist bereits angerichtet und wird auch dadurch nicht mehr eingefangen! 🤷🏻♂️
Irgendwie unbegreiflich, wie mit offensichtlich unbedarfter Sorglosigkeit sowohl von seitens des Staates als auch vielen Nutzern in heutigen Zeiten der Umgang mit insbesondere persönlichen Daten zum immer priorisierten Narrativ des Wirtschaftswohls oder der Bequemlichkeit exekutiert wird. 🤨
welcher Schaden entsteht denn?
Zu hohe Produktionskosten führen zum Ende von Unternehmen, das ist nun mal so.
Ist es das Ziel, Menschen aus Lohn und Brot zu treiben, dann muss man so denken.
Wenn KI die Produktionskosten senken kann, dann wird sie sich durchsetzen. Es wird viele Branchen geben, wo dies funktioniert.
Wirtschaftswohl ist Gemeinwohl, einerseits können die Menschen für den eigenen Unterhalt sorgen, andererseits entstehen so Abgaben für den Staat, der uns (hoffentlich) Infrastruktur zur Verfügung stellt und erhält.
Aber erkläre das mal deutschen Schülern und Studenten, die von der ersten Klasse an über die Feindbilder: Wirtschaft!Manager!Kapitalismus!Gier! unterrichtet werden.
Deutschland auf dem Sonderweg;-)
Sollte man schon differenzieren: "Produktionskosten senken" so in den Raum gestellt, wird jeder nicken. Wenn es heißt "Produktionskosten senken" auf Kosten des "Personals" oder auf Kosten des Datenschutzes bzw. Kosten der Kunden, da wird die Zustimmung deutlich zurückgehen und man sollte bzgl. Personal dann auch die "gesellschaftliche Frage" stellen. Produktionskosten senken, aber bei gleichzeitigem Risiko, das Unternehmen durch sicherheitstechnische Vorfälle oder Abfluss von Geheimnissen und/oder Fehlinformationen an die Wand zu fahren, wird bei Anteilseignern eher auch nicht so auf Begeisterung stoßen.
Ich nehme an, dass der Vorposter mit "Schaden" genau auf diesen Spagat hinweisen wollte. Solange der "KI-Einsatz in der Produktion" das Spannungsfeld auslotet und Management sowie IT die Risiken benennen und minimieren können, wird es vermutlich funktionieren. Der obige Beitrag ist ja ein Kaleidoskop an Punkten, die bedacht sein wollen. Und die Marketing-Aussagen des Schweizer KI-Unternehmens an dem gespiegelt, was Kundenmeinung ist, zeigt doch wunderbar den Spagat, der sich auftut, auf.
So vom Bauchgefühl her: Ich habe den Eindruck, dass die Leserschaft (ähnlich wie es mir auch geht) sich dem Thema KI nicht per se verschließt. Wo es extreme Bauschmerzen gibt, ist halt die Hype-Geschichte – sprich überall blumige Versprechen oder Funktionalität aufgedrückt, die eigentlich ein Großteil der Informierten so nicht will. Die aus meiner Sicht extrem spannende Frage: Kollabiert die Blase, bevor alles den Bach runter geht, und kommen wir dann auf einen abgestimmten Pfad, wie KI einem sinnvollen Einsatzzweck zugeführt werden kann.
Du hast schon Recht. Mit geht es um den Grundtenor: "Wirtschaft ist böse". Das ist sehr ausgeprägt und spiegelt die Grundhaltung der Deutschen wieder, was auch mit unseren Lehrkräften im ÖD zu tun hat.
Noch ist es so, dass wir unser Brot erwerben müssen, darum ging es mir.
KI wird sich ohne Datensammlung und Cloudorientierung nicht weiterentwickeln entwickeln können, wie man hier Datenabgrenzung und Schutz erreichen soll, erschließt sich mir nicht.
Ein unmögliches Vorhaben. Man wird die Grenzen aufheben müssen. Oder die großen "freien" Staaten regulieren es strikter und schotten sich gegen die Herausforderer ab (China, Indien) und sei es durch Zölle. Im Grunde aber bringt KI weitere Automatisierung und Senkung von Kosten mit sich und davor wird man sich kaum verschließen können.
Die Blase wird den Kleinanlegern und Steuerzahlern schaden, so sieht es zumindest derzeit aus, alles andere würde mich wundern. Nach der Reinigung wird KI weiter existieren.
KI wird wie z.b. Excel Leute ersetzten.
Ganze Arbeitsplätze ersetzen oder "KI als Mitarbeiter" Konzepte werden fehlschlagen.
KI sollte man betrachten wie eine neue Software Kategorie, wir benutzen es um Mails von Kunden ins Ticketsystem zu packen. Die original Mail ist im Ticket zu sehen, aber das Ticket ist gepflegt und enthält alles relevante im sauberen Format. Und der Kunde bekommt es nicht mit.
Das führt technisch gesehen auch zum "ersetzen von menschlicher Arbeitskraft", die zu voll richtende Arbeit wird ja weniger. Aber nach dem Prinzip sollten wir alle Stift, Papier und abacus rausholen…..
Fortschritt macht fortschritt, adapt or perish
Man sollte schon drauf achten, aber das tot zu regulieren wird nicht funktionieren.
Leute, schaut euch doch nur die Kommentare bei z.B. Youtube an. Die Menschen können KI Videos nicht mehr von einem echtem Video unterscheiden. Na dann kontempliert mal darüber. Man wird psychisch krank. Eine Form der Schizophrenie und das ist nicht nur Nebeneffekt, sondern gewollt.