OpenAI stellt ChatGPT Agent vor; Sam Altman warnt vor Risiken

Copilot[English]OpenAI hat zum 17. Juli 2025 seinen "ChatGPT-Agenten" veröffentlicht. In einem längeren Post auf X greift OpenAI-Chef Sam Altman dies auf. Gleichzeitig warnt Altman vor potentiell großen Risiken beim Einsatz dieses ChatGPT-Agenten. Es sei alles immer noch experimentell.

Admin-Passwörter schützen mit Windows LAPS. eBook jetzt herunterladen » (Anzeige)

AI-Agenten sind Software-Programme, die autonom, auf Basis "künstlicher Intelligenz", Aufgaben im Namen eines Benutzers oder eines anderen Systems erledigen. Die Agenten können eigenständig Entscheidungen treffen, Aufgaben planen und ausführen, sowie mit ihrer Umgebung oder anderen Agenten interagieren, oft unter Verwendung von großen Sprachmodellen (LLMs). 

Sam Altman zum ChatGPT Agent

Der Anbieter OpenAI hat nun auch einen eigenen "ChatGPT Agent" als Produkt, und OpenAI-Chef Sam Altman hat dessen Freigabe zum 17. Juli 2025 in einem Tweet auf X angesprochen (via).

ChatGPT Agent announcement

Altman sieht den ChatGPT Agenten als eine neue Stufe der Leistungsfähigkeit von KI-Systemen, der angeblich komplexe Aufgaben für seine Nutzer ausführen kann. Klingt gut, aber die reale Welt sieht da für mich ernüchternd aus.

Von Microsoft und weiteren Protagonisten hört man, wenn gefragt wird, was man mit den Dingern anfangen könne, dass diese eine Reise oder einen Tisch in einem Restaurant buchen können. Und so wartet Sam Altman auch mit der "freudigen Botschaft" auf, dass bei der Einführung von ChatGPT Agent als Beispiel eine Demo zur Vorbereitung der Hochzeit eines Freundes gezeigt werde. Es geht um den Kauf eines Outfits, die Buchung einer Reise, Auswahl eines Geschenks usw.

Das hat natürlich "innovativen" Charakter, immerhin sind wir – nach Ansicht dieser Leute – täglich mit solchen Aufgaben befasst und wären ohne einen Agenten echt im Leben verloren. Zur Ehrenrettung von Altman muss ich sagen, dass er auch ein Beispiel für die Analyse von Daten und die Erstellung einer Präsentation für die Arbeit erwähnt. Aber auch das ist ein Bereich, wo die meisten Leute eher nicht unterwegs sind. Ich möchte es nicht weiter ausführen, Eva-Maria Weiß hat es gestern wunderbar in diesem heise-Kommentar aufgespießt.

Altmans-Warnung vor Risiken

Überrascht haben mich dann aber die Ausführungen von Sam Altman zu den Risiken des Einsatzes des ChatGPT Agent. Altman schreibt zwar, dass Agenten einen großen Nutzen haben können, aber auch mit großen potenziellen Risiken verbunden seien.

Altman sieht das Ganze als experimentell. Man habe zwar viele Sicherheitsvorkehrungen und Warnungen eingebaut, könne aber nicht alle Szenarien vorhersehen. Altman, der kein reiner Marketing-Mann ist, der alles negiert, was Probleme macht, warnt. Böswillige Akteure könnten versuchen, die KI-Agenten der Nutzer auszutricksen, damit die Software ungewollt private Informationen preisgibt, und/oder Aktionen durchführt, die keinesfalls gewollt sind und nicht vorhergesagt werden können.

Dann folgt eine fette und sehr deutliche Warnung. Altman schreibt, dass er seiner Familie  den ChatGPT Agenten als innovativ und experimentell erklären würde, als eine Chance, die Zukunft auszuprobieren. Aber das nicht etwas, was er für wichtige Anwendungen oder mit vielen persönlichen Daten verwenden würde. Oder in anderen, platteren Worten: Das Ganze ist ein Spielzeug, was man bei viel Zeit ausprobieren können, aber tunlichst aus dem geschäftlichen Bereich weg lassen solle.

Der Chef von OpenAI schreibt zwar dazu, dass man den ChatGPT Agent "in freier Wildbahn" testen wolle, um mehr herauszufinden. Aber momentan wissen die Entwickler nicht genau, welche Auswirkungen bestimmte Aktionen haben werden. Altman gibt als Beispiel an, dass der Agent keinen Zugriff auf einen persönlichen Kalender braucht, um Kleidung zu kaufen. Als riskant sieht Altman bereits die Freigabe des Agenten zum Zugriff und zur Analyse aller eingegangenen E-Mails mit automatischer Ausführung erforderlicher Aktionen. Dies könnte dazu führen, dass nicht vertrauenswürdige Inhalte aus einer bösartigen E-Mail das Modell dazu verleiten, Daten ungewollt weiterzugeben.

OpenAI empfiehlt, den Agenten nur den Mindestzugang auf Daten zu gewähren, der für die Erfüllung einer Aufgabe erforderlich ist, um Datenschutz- und Sicherheitsrisiken zu verringern. Er hegt das Bild, dass die Menschen diese Werkzeuge vorsichtig und langsam annehmen, während OpenAI sowie andere Entwickler die damit verbundenen potenziellen Risiken besser quantifizieren und entschärfen können. Wie bei anderen neuen Fähigkeiten müsse sich die Gesellschaft, die Technologie und die Strategie zur Risikominderung gemeinsam weiterentwickeln.

Meine Gedanken dazu

Als ich den Tweet von Altman gelesen habe, war ich platt. Da wägt jemand ab und schreibt: Wir haben etwas neues, wissen aber noch nicht, welche Risiken es gibt, aber der Ansatz kann möglicherweise sinnvoll sein. Testet das Zeug, aber setzt es extrem vorsichtig und abwägend ein. Das entspricht so gar nicht der Marktschreier-Mentalität Microsofts, die solche Funktion auf Teufel komm raus auf die Leute los lassen und das zwangsweise.

Und Altman spricht das an, was ich hier im Blog eigentlich seit Monaten propariere: LLMs können Sinn machen, wenn ich deren Einsatz im Griff habe und den Einsatzzweck begrenze sowie die Risiken im Griff habe. Wobei ich der Meinung bin, dass ich die Risiken schlicht niemals in den Griff bekomme – was der Agent an Dokumenten und Abläufen sieht, wird er verarbeiten und bei erfolgreichen Angriffen auch an unbefugte Dritte weiter geben.

Ich hatte vor einigen Tagen im Beitrag Energieverbrauch und funktionale Fails: KI auf dem Weg zum Crash? einige Aspekte im Themenumfeld aufgeworfen und auch die schlechte Bilanz der AI-Agenten angesprochen. So gesehen bestätigt Sam Altman die hier im Blog aufgeworfenen Fragestellungen und dass er kein Marketing-Vertreter ist, der die Risiken und Probleme mit Hochglanzfolien unter den Tisch quatscht.

Ähnliche Artikel:
Warnung: KI-Energiebedarf bald so hoch wie für die Niederlande
AI + Microsoft: Explodierende Energieverbräuche und Kosten
Auf dem Weg zur CO2-Neutralität? Microsofts CO2-Emissionen 2023 dank AI um 30% gestiegen
Microsoft und die Quatschmaschine Copilot
Microsoft, die AI, die Erfolge und die "Kosten" (Greenwashing)
Rechenzentrumskostenausgleich: Google, Amazon, Microsoft und Meta kämpfen gegen Vorschlag von Ohio
Der KI-Ressourcenverbrauch wird Stromnetze und Länder überfordern
Energieverbrauch und funktionale Fails: KI auf dem Weg zum Crash?
Lethal Injection: Microsoft AI-Bot für das Gesundheitswesen mal eben gehackt
EchoLeak: Erste AI 0-Click-Sicherheitslücke in Microsoft Copilot
Copilot+AI: Recall-Sicherheitsdesaster- KI-gestützter Diebstahl
ChatGPT: Scam Crypto-API in Quellcode-Vorschlag schädigt Opfer um 2.500 US-Dollar
ChatGPT & Co: Chance oder eher (DSGVO-)Risiko?
Doctolib will Patientendaten für KI-Training nutzen
Kriminelle Geschäfte und bösartige KI-Modellen im Darknet
KI im Alltag: Was Verbraucher wissen sollten

Dieser Beitrag wurde unter Sicherheit, Software abgelegt und mit , , , , verschlagwortet. Setze ein Lesezeichen auf den Permalink.

13 Antworten zu OpenAI stellt ChatGPT Agent vor; Sam Altman warnt vor Risiken

  1. KT sagt:

    KI zum automatischen Bearbeiten von Emails sehe ich ebenso als großes Risiko. Die derzeit einlaufenden Spam-Mails sind so vielfältig und tückisch, dass selbst versierte E-Mail Nutzer wie ich manchmal zwei mal schauen müssen. Wenn die Spam-Mails erstmal extra für das Austricksen von KI gemacht werden gibt es ein größeres Problem.

    • Chris sagt:

      Das Problem kenne ich.
      Normalerweise erkenne ich Spam Mails fast sofort.

      Einmal habe ich tatsächlich auf so einen (z.B. DHL) Link geklickt, weil ich zu dieser Zeit gerade etwas von DHL erwartet habe.

      Der Browser hat natürlich erst einmal nichts angezeigt, weil er enstprechend konfiguriert ist.

      So schnell geht das.
      Das Risiko besteht weniger dort wo man es erwartet sondern wo man es nicht erwartet. Viel schlimmer, obwohl man eigentlich mit diesem Risiko rechnet.

  2. MaxM sagt:

    "Look at my emails that came in overnight and do whatever you need to do to address them, don't ask any follow up questions".

    Würde man diesen Satz einem Passanten/seinem Nachbar/seiner Tochter/seiner Sekretärin sagen, ohne mit Konsequenzen zu rechnen?

  3. Gänseblümchen sagt:

    Dieser Agent ist bestimmt ein weiterer Schritt zur Singularität von KI. Wäre mal spannend zu erfahren, was dieser Agent alles kann – ohne es gleich selbst auszuprobieren…

  4. GüntherW sagt:

    Wo funktioniert den sowas? Ich verwende keine spezialisierte "KI/LLM"-Anwendung, aber alles was ich sehe sind Fails bei komplexen Aufgaben und teilweise richtig richtig große Fails.

    Diese Woche wieder 2x AI-Support-Antworten gehabt…. Der normale Support mit den Textbausteinen ist schon schlimm. Aber eine KI die Lösungen aufzählt, die keine sind und dann noch überzeugend wirkt.

    Dann die offensichtlichen Probleme, dass man die KI foppen könnte. Am Besten auch noch Instant-Antwort, damit es noch einfacher wird irgendwelche Datenleaks gegen den Support zu schießen.

    Wie ist das den eigentlich mit der Haftung wenn die AI was vorschlägt? Auf der einen Seite man dann "gezwungen" die Tipps vom Support auszuprobieren, auf der anderen Seite will man dann ggf. aber auch keine Verantwortung dafür übernehmen?

    • Chris sagt:

      Zitat :"Der normale Support mit den Textbausteinen ist schon schlimm. Aber eine KI die Lösungen aufzählt, die keine sind und dann noch überzeugend wirkt. "

      Schlimmer als der normale Support ist möglich ?

      Antwort Mails des normalen Supports sind bei mir sehr häufig am Thema vorbei oder es wird genau etwas aufegzählt bzw. begründet, was ich im Vorfeld schon ausgeschlossen hatte bzw. gegen argumentiert.

      Auch die Support Mitarbeiter sind nicht besser, auch aus deutschen Call Centern.
      Die Liste ist
      am Thema vorbei,
      offensichtlich falsche Auskunft (leicht zu recherchieren),
      Call Center Mitarbeiter widersprechen sich,
      Korrespondenz wird nicht gefunden, es sei denn, man nennt genaues Datum
      es wird einfach aufgelegt, ohne unfreundlich geworden zu sein

      Irgendwie sind das die gleichen Verahltensweisen, die bei einer KI bemängelt werden.

      • GüntherW sagt:

        "Irgendwie sind das die gleichen Verahltensweisen, die bei einer KI bemängelt werden."

        Neinb, eben nicht. Wenn man es ganz runterbricht dann ja, aber KI ist aus meiner Sicht noch eine Stufe schlimmer.

        Nachrichten vom Support sind oft am Thema vorbei, also wirklich oft KOMPLETT am Thema vorbei. Bei KI ist das tendenziell nicht so, die nimmt immer irgendwie bezug zum Thema. Auch wenn es inhaltlich dann komplett am Theam vorbei ist.

        Bei Mitarbeitern merkst du, wie die Sachen formulieren und schreiben. Du kannst daraus schon viel ableiten. Werden Textbausteine verwendet, dann erkennt man die oft auch. Bei KI istdas nicht so, die bildet korrekte Sätze und es wirkt alles auch sehr "hochgestochen" (normal).

        Der Support schlägt oft Sachen vor, die schon gemacht wurden und ich selber ausgeshclossen haben. Das macht auch die KI, aber anders. Das ist das Problem.

        Du hats einen korrekt formulieren Lösungsvorschlag, der an sich auch plausibel klingt und durch irgendwas auch begründet wird, auch irgendwie sein könnte. Ist aber am Ende totaler Stuss. Dann wird auch noch begründet, warum man etwas noch mal machen soll.

    • Anonym sagt:

      Lernen durch Schmerzen, anders geht es nicht (mehr) in die meisten marketingverblendeten Köpfe hinein.

      • Daniel A. sagt:

        Gefühlt ist da häufig nichts mit lernen, da bleibt nur Schmerz und der scheint nicht schlimm genug zu sein.
        Hat zwar nichts mit KI zu tun, aber es gab ja schon mehrfach Berichte zu Firmen, die mehrmals hintereinander gehackt bzw. mit Ransomware verschlüsselt wurden. Wenn ich sowas lese komm ich mir dann mitunter vor wie in dieser alten Sparkassenwerbung: "Wir machen das mit den Fähnchen".

  5. Peter Vorstatt sagt:

    Die NZZ führte kürzlich ein Interview (1) mit Karen Hao, der Autorin des vielbeachteten, im Mai 2025 erschienenen Buches "Empire of AI: Dreams and Nightmares in Sam Altman's OpenAI". Im Interview sagt sie: "Sam Altman ist ein Mensch, der Leuten das sagt, was sie hören wollen. So entstehen Konflikte, und jeder wähnt ihn auf seiner Seite. Bis einige merken, dass er anderen gegenüber das Gegenteil sagt. Sie fühlen sich manipuliert und angelogen."

    Diese Wechselhaftigkeit und unaufgelöste Ambivalenz sehe ich auch durch die Antwort 'der KI' auf Frage (2) bestätigt; Auszug: "Die Warnungen [Sam Altmans] haben eine klare Schutzwirkung – sowohl technisch als auch regulatorisch. Gleichzeitig erfüllt OpenAI damit wichtige Marketingziele: Das Unternehmen präsentiert sich als Pionier, der nicht nur funktionsstarke, sondern auch sichere KI liefert. Ein rein altruistisches Motiv erscheint ebenso unwahrscheinlich wie ein ausschließlich geschäftlicher Hintergedanke. Vielmehr handelt es sich um ein Zusammenspiel aus ernsthaftem Sicherheitsinteresse und strategischer Positionierung."

    Ich sehe in Altmans Warnung speziell vor ChatGPT Agent, den fadenscheinigen Versuch, experimentell-unausgegorene Crapware an den Kunden zu bringen und sich im Vorfeld eine moralische Haftungsfreistellung zu erschleichen.

    (1) Bezahlschranke: https://www.nzz.ch/technologie/diese-blase-wird-platzen-journalistin-karen-hao-sieht-im-ki-hype-ein-risiko-fuer-die-weltwirtschaft-ld.1892497
    (2) Frage: Sind die wiederholten, von Sam Altman in verschiedenen Zusammenhängen vorgebrachten Warnungen vor gefährlichen Entwicklungen in der KI, in Wirklichkeit ein Manöver, um die Öffentlichkeit abzustumpfen und den KI Produkten von OpenAI letztlich weitere Marktanteile und wachsende Umätze zu bescheren?

Schreibe einen Kommentar zu Chris Antwort abbrechen

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Hinweis: Bitte beachtet die Regeln zum Kommentieren im Blog (Erstkommentare und Verlinktes landet in der Moderation, gebe ich alle paar Stunden frei, SEO-Posts/SPAM lösche ich rigoros. Kommentare abseits des Themas bitte unter Diskussion. Kommentare, die gegen die Regeln verstoßen, werden rigoros gelöscht.

Du findest den Blog gut, hast aber Werbung geblockt? Du kannst diesen Blog auch durch eine Spende unterstützen.