Gesellschaftliche Risiken durch KI fürs Lernen – werden wir immer dümmer?

CopilotVerlernt eine ganze Generation an Schülern und Studenten die Fähigkeiten zum Lernen durch die sich jetzt abzeichnenden AI-Lösungen? Ich füge mal einige Informationssplitter rund um das Thema Lernen, Wissen und KI zusammen, die mir kürzlich untergekommen sind, in einem Artikel zusammen.

Admin-Passwörter schützen mit Windows LAPS. eBook jetzt herunterladen » (Anzeige)

PIAAC-Studie: Gravierender Abfall der Lesekompetenz

Es war eine erschütternde Information, die die neuste PIAAC-Studie (wohl noch aus 2023) ergeben hat. Die Studie führt eine Art Pisa-Test für Erwachsene durch. Untersucht werden Lesekompetenzen, alltagsmathematische Kompetenzen sowie technologiebasierte Problemlösungskompetenzen Erwachsener. In diesem Test wurde auch das Verständnis einzelner Sätze wie in nachfolgendem Bild gezeigt, und im Hinblick auf das Leseverständnis abgeprüft. Die Ergebnisse für Deutschland, Österreich und die Schweiz sehen nicht gut aus.

 PIAAC-Studie: Aufgabe
Quelle: Screenshot Focus Online-Artikel

Die Uni Hamburg hat in dieser Mitteilung von September 2025 einige Ergebnisse zusammen getragen. Eine Erkenntnis: Der Anteil von Menschen mit geringen Lese- und Schreibkompetenzen, die die Botschaft auf obigem Zettel nicht verstehen können, stagniert in Deutschland bei 20 Prozent. Das sind 10,6 Millionen Erwachsene zwischen 16 und 65 Jahren.

Der Focus hat das Thema dann in diesem Artikel aufgegriffen und verdeutlicht, dass jeder fünfte Erwachsene in Deutschland erhebliche Probleme hat, gelesenes zu verstehen. Für eine hochdifferenzierte und digitalisierte Gesellschaft ist das ein Problem. Der Umgang mit Künstlicher Intelligenz, das Erkennen von Falschnachrichten oder auch die Bewältigung alltägliche Aufgaben ist ohne Lesekompetenz praktisch unmöglich. Wenn wir aber bereits 20 % der Bevölkerung auf diese Weise verlieren, ist das ein riesiges Problem.

Studenten verlieren mit KI wichtige Fähigkeiten

Schauen wir nun auf den "oberen Anteil" unserer zukünftigen Eliten, die heute als Oberstufenschüler und Studenten die "Schulbank drücken". Lesekompetenz darf man da voraussetzen. Aber wie sieht es mit der Lernkompetenz und dem vertiefenden Wissenserwerb, der eine akademische Laufbahn auszeichnen sollte, aus?

Es ist eigentlich eine alte Erfahrung: Man erlernt etwas nur durch Üben – das ist beim Spielen eines Musikinstruments, beim Programmieren, beim Fliesen-Legen, oder eben beim Lernen der Fall, wie vermutlich jeder aus der Leserschaft bestätigen kann. Die Älteren kennen vielleicht noch die Technik, sich etwas aufzuschreiben. Alleine dadurch bleiben Lerninhalte länger präsent und sitzen irgendwann. Hausarbeiten sollen die Möglichkeit geben, das Wissen zu erarbeiten und zu vertiefen.

Und es gibt die Erfahrung, dass Fähigkeiten auch verloren gehen, wenn sie nicht mehr gefordert werden. Ich denke gelegentlich arg frustriert daran, wie gut ich mal in Integral- und Differentialrechnung, im Lösen von Differentialgleichungen, in Physik und Elektrotechnik war.

Aber das Wissen habe ich seit 1979 – quasi 46 Jahre lang – praktisch nicht mehr benötigt, und alles ist weg. Mir ist aber auch noch der Spruch meiner Lehrer auf dem Weg zur Fachhochschulreife im Ohr: "Ihr müsst nicht selbst alles wissen, aber ihr müsst wissen, wo etwas steht und wie ihr euch dieses Wissen schnellstmöglich aneignet". Zur Aneignung des mathematischen Wissens währen heute bei mir erhebliche Anstrengungen erforderlich, da auch die Basics verlernt wurden.

Szenenwechsel: Anfang November 2025 bin ich bei The Register auf den Artikel mit dem bezeichnenden Titel Students using ChatGPT beware: Real learning takes legwork, study finds gestoßen. Wissenschaftler haben eine Reihe von Experimenten mit mehr als 10.000 Teilnehmern durchgeführt. Mit denen Experimenten sollte ermittelt werden,

  • wie sich das Verständnis der Menschen für ein Thema unterscheidet, wenn diese vorgefertigte Zusammenfassungen von KI-Chatbots verwenden,
  • oder wenn die Vergleichsgruppe, die Online-Informationen die durch traditionelle Websuchen finden mussten, unterscheiden.

The Register fasst die Erkenntnisse der in PNAS erschienenen Studie (ähnliches gibt es auch aus einer US-Studie an Oberstufenschülern) so zusammen: Teilnehmer, die ChatGPT und ähnliche Tools verwendeten, entwickelten ein oberflächlicheres Verständnis des ihnen zugewiesenen Themas als Teilnehmer, die selbst die Online-Informationen suchen mussten. Die ChatGPT & KI-Nutzer konnten auch weniger konkrete Fakten liefern  und neigten dazu, ähnliche Informationen wie andere Teilnehmer wiederzugeben, die KI-Tools verwendet hatten.

Die Forscher zogen aus den Experimenten den Schluss, dass große Sprachmodelle (LLMs) zwar flüssige Antworten quasi auf Knopfdruck auszuspucken. Aber Menschen, die sich bei ihrer Recherche auf synthetisierte KI-Zusammenfassungen verlassen, erwerben in der Regel kein wesentlich tieferes Wissen.

Die eigentlich zu erwartende Erkenntnis lautete: Nur wenn Menschen selbst in Quellen recherchieren und Informationen zusammenstellen, bauen sie in der Regel ein nachhaltiges Verständnis auf, welches dann auch den Leuten erhalten bleibt. Es ist die alte Erkenntnis: Wissen muss mühsam erarbeitet werden, in Schule, Studium und Beruf.

Die Vorstellung, das quasi auf Knopfdruck an ChatGPT & Co. auszulagern, wird keine "Experten" hervorbringen. Um ein Experte auf einem Gebiet zu sein, muss man Zeit mit Pauken verbringen. Die Forschung untermauert die wachsenden Bedenken hinsichtlich der Zuverlässigkeit von KI-generierten Zusammenfassungen.

Die akademische ChatGPT-Falle

Gerade Studenten sollen ja den Erwerb des Wissens lernen und das auch in Projekten oder Ausarbeitungen demonstrieren. Da ist oft die Versuchung groß, eine Studienaufgabe an ChatGPT auszulagern. Zu meiner Schul- und Studienzeit gab es noch kein ChatGPT & Co., sondern höchstens den "guten Freund, der wusste, wie etwas geht". Ich erinnere mich an zwei Fälle, in denen Mitschüler und Kommilitonen aufgeflogen sind, weil sie krachend dämlich waren. Eine in einer Studienarbeit gestellte Aufgabenstellung musste schriftlich als Projekt ausgearbeitet und abgegeben werden. Eine Studienarbeit bestand in der Lösung einer Programmieraufgabe in Fortran. Ein Oberschlauer reicht dann seine "Studienarbeit" beim Professor ein,  hatte aber nicht gerafft, dass sein Kumpel das Ganze in BASIC verfasst hatte. Der Professor war "not amused" und ließ den Kerl glatt durchfallen – und das mit Recht. Gut, die Ingenieure und Naturwissenschaftler kriegt man schnell wegen Schummelns an den Hammelbeinen. Bei Geisteswissenschaftlern und Juristen geht es eher um die "Kunst der Formulierung und Argumentation".

Studenten und KI

Kurz vor dem Verfassen dieses Beitrags bin ich über Facebook auf obigen Post gestoßen. Ein Professor baute in seine Studienprojekte eine Falle ein, die Studenten aufliegen ließ, wenn diese mittels AI zu betrügen versuchten. Der Mann schreibt hier: "Seit dem Frühjahrssemester 2023 ist zu beobachten, dass immer mehr Studierende mit KI erstellte Arbeiten einreichen. Ich bin es gewohnt, dass Schüler versuchen, sich durch Kopieren und Einfügen aus Wikipedia zu behelfen, aber die Einführung generativer KI hat ihnen völlig neue Möglichkeiten zum Schummeln eröffnet."

Plagiatsdetektoren sind schlecht darin, KI-generierte Arbeiten zu erkennen, heißt es. Aber der Professor wollte genauer schauen, ob KI-generierte Inhalte unerlaubt als Hausarbeiten eingereicht wurden. Einige Arbeiten seien durch den von ChatGPT verwendeten Stil (als seelenloses, langweiliges Gräuel mit Phrasen angereichert bezeichnet) leicht zu erkennen, heißt es.

Es bestehe jedoch ein Unterschied zwischen dem Erkennen der Verwendung von KI und dem Nachweisen ihrer Verwendung. Also hat der Professor ein Experiment versucht, und eine Art "Trojanisches Pferd" in die gestellten Aufgaben eingebaut, um den Betrug  durch die Verwendung von KI-Lösungen in den Hausaufgaben nachzuweisen.

In einem Überblickskurs für Studienanfänger lautete die Studienaufgabe einige der Hauptpunkte des Autors eines vorgegebenen Buches zu beschreiben. Von 122 eingereichten Studienarbeiten identifizierte das Trojanische Pferd mühelos 33 als von KI generiert. Der Professor gab allen Studierenden die Möglichkeit, die Verwendung von KI zuzugeben, bevor sie durch Nichtbestehen der Vorlesung bestraft wurden. Darauf gaben weitere 14 Studenten sich selbst zu erkennen. Das bittere Fazit: Fast 39 % der eingereichten Arbeiten waren zumindest teilweise von KI geschrieben worden. Mit anderen Worten: Da wächst die nächste Generation der Blender und nicht Wissenden heran, die die Gesellschaft die nächsten 30 Jahre tragen und weiter entwickeln soll. Keine berauschenden Aussichten – und nichts, was sich in den Hochglanz-Marketing-Broschüren der KI-Verfechter so findet.

Dieser Beitrag wurde unter AI abgelegt und mit , verschlagwortet. Setze ein Lesezeichen auf den Permalink.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Hinweis: Bitte beachtet die Regeln zum Kommentieren im Blog (Erstkommentare und Verlinktes landet in der Moderation, gebe ich alle paar Stunden frei, SEO-Posts/SPAM lösche ich rigoros. Kommentare abseits des Themas bitte unter Diskussion. Kommentare, die gegen die Regeln verstoßen, werden rigoros gelöscht.

Du findest den Blog gut, hast aber Werbung geblockt? Du kannst diesen Blog auch durch eine Spende unterstützen.