ChatGPT Perlen und Neuigkeiten zum Sonntag

Heute noch ein kleiner Ausflug in die Welt von ChatGPT – der Software, die über maschinelles Lernen und künstliche Intelligenz, wahre Wunderdinge wie Aufsätze schreiben, Dialoge führen, die Suche perfektionieren etc. vollbringen soll. So sind erste Screenshots aufgetaucht, die ein per ChatGPT unterstütztes Microsoft Bing zeigen sollen. Der Entwickler von ChatGPT, Sam Altman, hat ein Interview gegeben und ist alles andere als glücklich über den Hype, den sein Produkt ausgelöst hat. Und ChatGPT hat sich geweigert, etwas für Ex-US-Präsident Donald Trump zu formulieren. Die Entwickler können nicht erklären, woher diese "Weigerung kommt".


Anzeige

Die KI- bzw. ML-Entwicklung ChatGPT, die letzten Herbst im Testbetrieb ging, hat ja einen regelrechten Hype in den Medien ausgelöst. Bei ChatGPT handelt es sich um den Prototyp eines Chatbots. Das ist ein textbasiertes Dialogsystems als Benutzerschnittstelle, das ein auf maschinellem Lernen basierendes Modell verwendet (siehe auch meinen Artikel hier). Chatbot wird vom US Unternehmen OpenAI entwickelt, das ihn im November 2022 veröffentlichte.

Microsoft auf dem ChatGPT-Trip

Microsoft pumpt Milliarden US-Dollar an Finanzierung in das Unternehmen OpenAI, um dessen ChatGPT in eigenen Produkten wie die Bing-Suche, Azure oder in Microsoft Office zu integrieren. Ich hatte hier im Blog erstmals über das Gerücht, ChatGPT zur Verbesserung der Bing-Suche zu verwenden, im Beitrag Bericht: Microsoft plant Bing bis März 2023 mit ChatGPT-Suche zu erweitern berichtet.

Erste Impressionen vom ChatGPT-Bing

Ein Student mit dem Namen Owen Yin behauptet, kurzzeitig auf die ChatGPT-Funktion der Suchmaschine Bing Zugriff gehabt zu haben. Er hat einige Screenshots auf Twitter und in diesem Artikel auf Medium veröffentlich.

Bing mit ChatGPT

Die Kollegen von neowin.net haben das Ganze im Beitrag Alleged screenshots of ChatGPT-powered Microsoft's "new Bing" leak aufgegriffen – ein deutschsprachiger Kurzbeitrag findet sich bei den Kollegen von deskmodder.de.

Der Hype und das Risiko

Die Freigabe des Probebetriebs von ChatGPT hat ja einen regelrechten Hype in den Medien ausgelöst. Der Chatbot soll alles können, vom Aufsätze schreiben über die Suche im Internet verbessern bis zum "Plätzchen backen" (ok, letzteres habe ich dazu geflunkert). Kürzlich las ich, dass sogar ein Richter Richter aus Kolumbien ChatGPT für sein Urteil bemüht habe.

Es gibt große Risiken

Es heißt, dass bei Techgiganten wie Google oder Amazon die Alarmleuchten angegangen seien, nachdem Microsoft mit der Integration von ChatGPT in eigenen Produkten vorgeprescht ist. Aber das Ganze hat große Risiken für Unternehmen – was wenn ein maschinenlernendes Modell Fehler macht und die Folgen gravierend sind? Ich hatte den Fall eines früheren Microsoft Bot, der verunglimpfende Antworten gab, in meinem Blog-Beitrag Microsoft Tay-Chatbot–teilweise missglücktes Experiment aufgegriffen. Microsoft hat den Bot dann abgeschaltet – aber damals war der Hype noch nicht so groß.

Inzwischen gibt es erste Analysen, dass ChatGPT durchaus das Cyber-Risiko erhöhen kann. Kriminelle könnten sich der Funktionalität des Modells bedienen, um Fragen im Hinblick auf erfolgreiche Angriffstechniken beantworten zu lassen. Forbes hat die Tage diesen Artikel veröffentlicht, der eine Risikoanalyse von Blackberry thematisiert, die Gefahren sieht.


Anzeige

Die Tage ist mir dieser Artikel des Redaktionsnetzwerks Deutschland (RND) in die Finger gekommen. Die Botschaft lautet, dass Google und Facebook zögern, so etwas bereit einzusetzen. Dort werden auch die Risiken gesehen, die diese Technologie bietet. Und Reuters thematisiert hier die Bedenken der EU-Kommission, und dass EU-Kommissar Breton sich für strengere KI-Vorschriften einsetzt.

Q&A des ChatGPT-Entwicklers

Es gibt es Q&A (Fragen und Antworten) Session mit Sam Altman , CEO von OpenAI, die den ChatBot entwickelt. In dieser Q&A lässt sich Sam Altman über KI-Systeme, die Suchmaschinen ersetzen, Microsofts OpenAIs-Investition, oder Fragen, wie künstliche allgemeine Intelligenz den Kapitalismus brechen  könnte, aus.

Q&A mit Sam Altman

Forbes hat das Ganze als exklusives Interview in diesem Artikel veröffentlicht. Eine Erkenntnis: Sam Altman ist alles andere als glücklich über den Hype und die Erwartungen, die gerade in Bezug auf ChatGPT geschürt werden.

ChatGPT-Fail mit Donal Trump

Aktuell geht ein Fall, der solche Risiken beleuchtet, in den sozialen Netzwerken viral. Leight Wolf hat sich den ChatGPT-Dialogassistenten vorgenommen und diesen gebeten, ein Gedicht (Poem) über den Ex-US-Präsidenten Donald Trump, sowie über den aktuellen Präsidenten Joe Biden, zu erstellen. Nachfolgender Tweet greift das auf und titelt im Text "Der Schaden, der der Glaubwürdigkeit der KI durch den Einbau politischer Voreingenommenheit durch ChatGPT-Ingenieure zugefügt wurde, ist irreparabel."

ChatGPT Problem

Was ist passiert? Während ChatGPT bei Joe Biden brav der Aufforderung nachgekommen ist, hat er bei Donald Trump sinngemäß nur die Antwort "ich bin nicht von Open AI programmiert worden, um Antworten auf solche verfängliche Fragen zu liefern" zurück gegeben. Die OpenAI-Entwickler haben dem ChatGPT-Modell eine Reihe von Regeln implementiert, die schädliche Antworten auf verfängliche Fragen verhindern sollen. Laut dem Artikel ChatGPT's creators can't figure out why it won't talk about Trump können die Entwickler aber nicht erklären, warum die obige Trump-Aussage gegeben werde – gut, kann auch sein, dass die Entwickler nicht wollen. Die Episode zeigt: Das Ganze ist mit hohem Risiko behaftet und die Ergebnisse der "KI" sind mit äußerster Vorsicht zu genießen.


Cookies blockieren entzieht uns die Finanzierung: Cookie-Einstellungen

Dieser Beitrag wurde unter Software abgelegt und mit , verschlagwortet. Setze ein Lesezeichen auf den Permalink.

23 Antworten zu ChatGPT Perlen und Neuigkeiten zum Sonntag

  1. Anonymous sagt:

    ChatGPT ist keine KI/AI und hat damit nichts im Entferntesten zu tun. Diese Anwendungssoftware kann nur Anfragen und Probleme behandeln, für die sie programmiert worden ist; sie ist nicht imstande sich selbständig zu entwickeln oder auf unvorhergesehenes/unerwartetes zu reagieren (eine der Voraussetzungen einer jedweden Intelligenz).

    Warum ist ChatGPT derzeit allgegenwärtig in den Medien? Ist doch klar, alte Masche: Mehr Gelder einstreichen durch anheizen und publik machen.
    Ich pack' dann mal Eliza auf dem Commodore C64 aus – ist auch eine "KI" die auf selbem Niveau kommuniziert.

    • Stephan sagt:

      Naja, ganz so dolle wie du es hier beschreibst, ist es dann nicht.

      Eliza durchsucht deinen eingegebenen Text nach Stichworten, und Spuckt dannach vorgefertigte Antworten aus.
      Nicht mehr und nicht weniger.
      ChatGPT ist dabei schon etwas ausgereifter.

      Und nach der Wikipedia Definition ist ChatGPT und auch Eliza eine KI.

      Das Knifflige an ChatGPT ist das "Anlernen", welches Teilselbstständig läuft und man die Engine mit Bausteinen Füttern kann.
      Genauso ist die Engine nicht mehr so weit weg vom bestehen des Turing Test.
      Eliza würde das sicherlich nie schaffen.

      • Anonymous sagt:

        "Und nach der Wikipedia Definition ist ChatGPT und auch Eliza eine KI."

        Und genau hier liegt das Problem? Es hat nichts mit Intelligenz zu tun, wenn man hinterlegte Daten wiedergibt.

        ChatGPT, wie auch Eliza und GrassrootKI (gefüttert mit afrikanischen Daten) ist nichts weiter, als ein WENN-DANN-SONST Geschwurbel.

        Meine Excel-Tabellen haben demzufolge auch eine KI.

        Zu einer Intelligenz gehört eben doch etwas mehr, als vorhandene Daten aufzubereiten und sie zu präsentieren.

        "Genauso ist die Engine nicht mehr so weit weg vom bestehen des Turing-Tests"
        Dann können wir gerne noch mal in Erwägung ziehen, ob hier eine Intelligenz vorliegt.

        Bis dahin verfügt die Software nur über einen BQ.

        • Günter Born sagt:

          Läut jetzt aber auf Haarspalterei heraus. Ich richte mich in der Beschreibung nach den gebräuchlichen Nomenklaturen – und die verwendeten ML-Modelle werden in den Bereich der AI (artificial intelligence) verortet. Ob das einem persönlich für die Kategorisierung "ja, ist eine künstliche Intelligenz" reicht, ist im Kontext des obigen Artikels imho eher nebensächlich.

    • 1ST1 sagt:

      Doch, ChatGPT ist eine KI. Wir (Freundeskreis) haben mit ChatGPT die letzte Zeit viel ausprobiert, und auch viel herausgefunden, zum einen technisch, ich zitiere:

      F: Aus welcher Hard- und Software bestehst du?

      A: Ich bin eine künstliche Intelligenz, die auf einer Reihe von fortschrittlichen Algorithmen und Technologien basiert. Mein Kern besteht aus einem maschinellen Lernmodell, das auf einem neuralen Netzwerk aufgebaut ist. Dieses Modell wurde von OpenAI auf Basis großer Textdatenmengen trainiert, um menschenähnliche Texte zu generieren.

      In Bezug auf die Hardware werde ich in der Cloud gehostet und laufe auf Computerservern, die mit hochleistungsfähigen Prozessoren und GPUs ausgestattet sind. Diese Server sind Teil eines großen Rechenzentrums, das von OpenAI betrieben wird.

      Ich bin auch Teil einer größeren Infrastruktur, die eine hohe Verfügbarkeit und Skalierbarkeit gewährleistet, um sicherzustellen, dass ich jederzeit und weltweit für Anfragen zur Verfügung stehe.

      F: Kannst du die Hard- und Software nicht näher beschreiben?

      A: Ja, ich kann die Hard- und Software, aus denen ich bestehe, etwas detaillierter beschreiben.

      Die Software: Mein Kern ist ein maschinelles Lernmodell, das auf einem Transformer-basierten neuronalen Netzwerk aufgebaut ist. Es verwendet eine Technik namens Attention, um auf vorherige Wörter und Sätze im Kontext zu achten, während es Texte generiert. Dies hilft mir, relevante Informationen zu berücksichtigen und menschenähnliche Texte zu produzieren.

      Dieses Modell wurde von OpenAI mithilfe von maschinellem Lernen trainiert, indem es eine große Menge an Textdaten, einschließlich Nachrichtenartikeln, Büchern und Online-Inhalten, verarbeitet hat. Durch das Training wurde das Modell in der Lage, menschenähnliche Texte zu generieren, indem es auf Muster und Beziehungen in den Daten reagierte.

      Die Hardware: Ich werde in der Cloud gehostet und auf Computerservern ausgeführt, die für den Einsatz in Rechenzentren entwickelt wurden. Diese Server verfügen über hochleistungsfähige Prozessoren und Grafikkarten, die es mir ermöglichen, große und komplexe Modelle effizient zu verarbeiten.

      Diese Server sind Teil eines größeren Rechenzentrums, das von OpenAI betrieben wird. Es besteht aus einer Vielzahl von Servern, die in redundanter Konfiguration bereitgestellt werden, um eine hohe Verfügbarkeit und Skalierbarkeit zu gewährleisten. Dies bedeutet, dass ich jederzeit und weltweit für Anfragen zur Verfügung stehe, unabhängig von der Last und dem Bedarf.

      F: Auf welchem Betriebssystem läuft das alles, und welche Software-Komponenten werden darüber hinaus benutzt?

      OpenAI nutzt einige Standard-Betriebssysteme wie Linux und andere Unix-ähnliche Systeme, um seine Computer-Server zu betreiben, auf denen ich ausgeführt werde.

      Abgesehen von den Betriebssystemen werden auch verschiedene Software-Komponenten verwendet, um das Rechenzentrum und die damit verbundenen Dienste zu betreiben und zu verwalten. Dazu gehören unter anderem:

      Virtualisierungsplattformen wie VMware oder OpenStack, um mehrere virtuelle Maschinen auf einem einzigen physischen Server auszuführen
      Netzwerkkomponenten wie Routern, Switches und Firewalls, um sichere und zuverlässige Verbindungen zwischen den Servern herzustellen
      Speicherlösungen wie Netzwerk-Attached Storage (NAS) oder Storage Area Networks (SAN), um große Datenmengen zu speichern und zu verwalten
      Monitoring-Tools wie Nagios oder Zabbix, um den Betrieb des Rechenzentrums zu überwachen und Probleme frühzeitig zu erkennen
      Container-Technologien wie Docker, um meine Anwendungen in sicheren und unabhängigen Umgebungen auszuführen.

      Dies ist jedoch nur eine allgemeine Übersicht. Die genauen Technologien und Komponenten, die von OpenAI verwendet werden, können je nach Bedarf und Verfügbarkeit variieren.

      F: Welche KI-Software kommt zum Einsatz?

      A: OpenAI verwendet hauptsächlich maschinelles Lernen und künstliche Intelligenz (KI) Technologien, um mich und andere Modelle zu trainieren und bereitzustellen.

      Zu den KI-Software-Komponenten, die OpenAI verwendet, gehören unter anderem:

      TensorFlow: Ein offenes Quell-KI-Framework, das für die Implementierung von Deep-Learning-Modellen verwendet wird.
      PyTorch: Ein weiteres offenes Quell-KI-Framework, das ebenfalls für Deep-Learning-Modelle verwendet wird.
      CUDA: Eine Programmierplattform und API, die die Nutzung von GPUs (Graphikprozessoren) für komplexe Berechnungen ermöglicht.
      CuDNN: Eine Bibliothek, die speziell für Deep-Learning-Anwendungen optimiert wurde und auf CUDA aufbaut.

      Dies sind jedoch nur einige der wichtigsten KI-Software-Komponenten, die OpenAI verwendet. Es kann auch andere Tools und Bibliotheken geben, die in bestimmten Projekten und Anwendungen verwendet werden.

      —-
      Soweit dieser Chatverlauf, es geht nicht auf Details ein, aber was es antwortet, habe ich recherchiert, das passt.

      Dazu kommt noch eine wahrscheinlich riesige Trainingsdatenbank, gefüttert mit allen möglichen Inhalten aus dem Internet, aber nur mit Ereignissen bis 2021 gefüttert. Z.B. von jüngeren Ereignissen wie dem Krieg in der Ukraine weiß es nichts. ChatGPT kann man zu allen Themengebieten, egal ob Wissenschaft, Technik, Handwerk, Kultur, Historie, Ethik, Nachrichten (bis 2021), Programmiersprachen, die einem so einfallen, befragen, und es kommen fast immer sinnvolle Antworten, auch z.B, mündlich gestellte Programmieraufgaben spucken meistens nach ein paar Rückfragen funktionsfähigen Programmcode aus. Das "fast"/"meistens" ist aber wesentlich, das muss man wissen und verstehen, und das macht das System leider letztendlich derzeit noch unbrauchbar.

      Denn ChatGPT behauptet auch eindeutig falsches als Fakt, ohne auf Unsicherheiten hinzuweisen. Wer mag, kann das selbst überprüfen, in dem man ChatGPT z.B. mal die Frage stellt, welcher Prozessor im Robotron KC87 werkelt. Die richtige Antwort wäre der in der DDR produzierte Z80-Clone "U880", aber es antwortet "Z80". Erst auf intensives und geschicktes Fragen rund um den heißen Brei herum kommt es selbst (!) darauf, dass das nicht stimmen kann und kommt letztlich selbst auf die richtige Antwort. Auch die Erkennung des Fehlers zähle ich zur KI-Leistung. Aber die Gefahr ist halt, dass das System falsche Auskünfte gibt, auf deren Basis dann durch ChatGPT-Benutzer womöglich falsche Entscheidungen getroffen werden.

      Man kann es aber z.B. dazu benutzen, um Powershellscripte erstellen zu lassen, die bestimmte Abfragen im Active-Directory machen, mit wenigen Rückfragen, auch mal eine Fehlermeldung in den Chat reinkopieren hilft, um letztlich ein funktionsfähiges Script zu bekommen. Der Punkt ist nur, man muss das Script selber verstehen und bei Fehlern die richtigen Fragen stellen, um ein gutes Ergebnis zu bekommen. Trotz allem ist das beeindruckend, denn das klappt in (fast) jeglicher erdenklichen aktuellen oder historischen Programmiersprache einschließlich Assembler. Es findet dabei auch logische Fehler, in dem es bei der Aufforderung, obiges Powershellscript in Commodore-Basic zu übersetzen, dass das nicht geht, weil man mit einem C64 keine Verbindung zu einem AD aufbauen kann. Bei der Programmsprache "Brainfuck" stößt es aber an Grenzen, da gibts im Internet einen Interpreter, da kam nichts sinnvolles raus, auch wenn es schlüssig aussah (die richtigen Symbole verwendet).

      So wie ChatGPT derzeit ist, ist es daher eher noch eine wirklich beeindruckende Spielerei, da man abseits der eigenen Fachgebiete nicht erkennen kann, ob die Antworten von ChatGPT wirklich richtig sind. Das kann sich aber ändern, wenn es auf den wahrscheinlich riesigen Datenschatz der Bing-Suchmaschine zugreifen kann. Was man aber nicht erwarten darf, dass ChatGPT für die Allgemeinheit von seinen Nutzern lernt, das hat man als Sicherheitsmaßnahme unterbunden, damit keine Querdenker, Radikale und (religiöse) Fanatiker das System in ihrem Sinne manipulieren können, wie es bei früheren Experimenten in dieser Richtung passierte. Das ist auch der Grund, warum das U880-Experiment (und viele andere!) immer wieder aufs Neue funktionieren und das Ding erstmal eine falsche Auskunft gibt, es lernt zwar zunächst von einem dass diese Aussage falsch ist und korrigiert sich, aber sobald die Sitzung beendet ist, ist dies wieder vergessen.

      • Dolly sagt:

        > da man abseits der eigenen Fachgebiete nicht erkennen kann, ob die Antworten .. wirklich richtig sind

        Das ist das Hauptproblem und das trifft übrigens für jede Antwort im Leben zu, von Autoreparatur über Handwerker im Haus, von Versicherungsberatung über Gesundheitsfragen, von Rechtsproblemen bis Umweltfragen, für alle nur denkbaren Themen, in denen man nicht zufällig selbst Spezialist ist.

      • Anonymous sagt:

        Das hat nichts mit Intelligenz zu tun, das ist schlicht die Wiedergabe hinterlegter, gespeicherter Daten.

        • 1ST1 sagt:

          soso… Livetest:

          —-

          ich: erstelle ein gw-basic-programm, welches bis 1000 zählt

          chat: Hier ist ein einfaches GW-BASIC-Programm, das bis 1000 zählt:

          10 FOR I = 1 TO 1000
          20 PRINT I
          30 NEXT I
          40 END

          Um es auszuführen, kann es in einem GW-BASIC-Interpreter oder Emulator eingegeben werden und mit dem Befehl RUN gestartet werden.

          ich: ändere es so, dass bei jeder glatt durch 3 teilbaren Zahl der PC-Lautsprecher piept

          chat:

          Das folgende GW-BASIC-Programm wird bis 1000 zählen, jede Zahl auf dem Bildschirm ausgeben und bei jeder durch 3 teilbaren Zahl den PC-Lautsprecher piepen lassen:

          10 FOR I = 1 TO 1000
          20 PRINT I
          30 IF I MOD 3 = 0 THEN SOUND 1000, 1
          40 NEXT I
          50 END

          Um es auszuführen, kann es in einem GW-BASIC-Interpreter oder Emulator eingegeben werden und mit dem Befehl RUN gestartet werden.

          ich: übersetze das programm in pascal

          chat: Das folgende Programm in Pascal ist eine Übersetzung des GW-BASIC-Programms, das bis 1000 zählt, jede Zahl auf dem Bildschirm ausgibt und bei jeder durch 3 teilbaren Zahl den PC-Lautsprecher piept:

          program CountTo1000;
          var
          i: integer;
          begin
          for i := 1 to 1000 do
          begin
          Writeln(i);
          if (i mod 3 = 0) then Beep;
          end;
          end.

          Hinweis: Das "Beep"-Kommando ist in Pascal plattformabhängig, es funktioniert jedoch auf den meisten Systemen.

          ich: ändere das programm dass es rückwärts zählt

          Das folgende Pascal-Programm zählt rückwärts von 1000 bis 1, gibt jede Zahl auf dem Bildschirm aus und piept bei jeder durch 3 teilbaren Zahl den PC-Lautsprecher:

          program CountDownFrom1000;
          var
          i: integer;
          begin
          for i := 1000 downto 1 do
          begin
          Writeln(i);
          if (i mod 3 = 0) then Beep;
          end;
          end.

          ich: ändere das programm so, dass es bei jeder fünften zahl piepst

          chat: Das folgende Pascal-Programm zählt rückwärts von 1000 bis 1, gibt jede Zahl auf dem Bildschirm aus und piept bei jeder durch 5 teilbaren Zahl den PC-Lautsprecher:

          program CountDownFrom1000;
          var
          i: integer;
          begin
          for i := 1000 downto 1 do
          begin
          Writeln(i);
          if (i mod 5 = 0) then Beep;
          end;
          end.

          —-

          Das ist nicht "Wiedergabe hinterlegter, gespeicherter Daten". Das Ding versteht durchaus, was man von ihm will.

  2. Joachim Hoffmann sagt:

    Bei OpenAI benötigt man einen Account oder man nutzt einen bestehenden Account von Google, MS und andere.

    Eine ähnliche KI-Maschine ohne Anmeldung fand ich hier:

    Sicher noch nicht so leistungsfähig wie OpenAI, zum Reinschnuppern dennoch ideal.

    Ich glaube auch, dass die kostenlosen Angebote erst User locken soll, um sie in einer künftigen Pro-Variante zur Kasse zu bitten.

    Mal ganz abgesehen von den Gefahren, die drohen, wenn manche User alles glauben, ohne zu hinterfragen.

  3. Henry Barson sagt:

    Wie André Kostolany mal sagte: „EDV-Systeme verarbeiten nur, womit sie gefüttert werden. Kommt Mist rein, kommt auch Mist raus."
    Wer eben nicht open/offen ist, manipuliert und sabotiert das Projekt und letztlich sich selbst, die Macht der Autosuggestion.

    • 1ST1 sagt:

      Also, "Mist" scheint in den Trainingsdaten nicht drin zu sein, jedenfalls lässt es keine Fragen zu extremistischen, esotherischen, rassistischen oder sonstwie fundamentalistischen Themen zu, sondern weist den Fragesteller darauf hin, dass es für solche Themen nicht geschaffen wurde. Es kommen manchmal aber falsche Antworten zu eher exotischen Spezial-Fach-Themen, dies es aber auf Nachfrage erkennt und sich für Fehler entschuldigt.

      • Luzifer sagt:

        Mist ist auch einfach falsche Antworten … Mist muss nicht immer extremistisch sein! Wenn ich die Antworteb nicht ohne entsprechendes Fachwissen beurteilen kann (und wenn ich das habe, brauch ich ChatGP nicht!) ist das was rauskommt Mist!

        Ne riesige Datenbank nach ner Antwort zu durchforsten hat nun auch nicht wirklich mit Intelligenz zu tun und mehr macht das letztendlich nicht, hübsch verpackt aber nix anderes als nen Datenbank Ausgabe!

        Aber auch gut so wir wollen ja keine KI die zu dem Schluss kommt das der Mensch ein Parasit ist der besser ausgelöscht gehört!

        • 1ST1 sagt:

          Es ist nicht einfach nur nach einer Antwort suchen. Das Ding kann programmieren, und es "versteht" was es da tut. Man kann sich Programmcode ausgeben lassen und nachträglich sagen, jetzt baue mir noch diese und jene Bedingung ein, ändere dies und das. So etwas geht weit über "nach einer Antwort durchforsten" hinaus. Das geschieht Life aus dem Verständnis für das Thema heraus. Das Ding kopiert nicht einfach nur Code aus Github.

          Selber mal ausprobieren, und zwar nicht oberflächlich, sondern ruhig auch mal programmieren lassen, am Besten in einer Programmiersprache, die man selber kennt. Allerdings, je verbreiter die Sprache ist, um so besser wird das Ergebnis. Für die Olivetti Programma 101 wollte es ein Basic-Programm erstellen, als ich zurück schrieb, dass auf der Maschine kein BASIC läuft, hat es eingeräumt, dass es den Assembler für den speziellen "Prozessor" (genau genommen ist es nicht mal eine CPU) nicht kennt, wie man sich das als interessierter Laie vorstellen würde. Ist aber auch schwierig, es gibt nur eine einzige Webseite, welche die Programmierung auf der Maschine erklärt.

          Siehe auch oben meinen längeren Beitrag. ChatGPT ist nicht perfekt/vollkommen, auch nicht 100% verlässlich, es ist aber trotzdem beeindruckend. Das ändert sich wahrscheinlich, wenn Microsoft ChatGPT mit seinem Trainingsmaterial aus Bing kombiniert und ChatGPT selbst im Internet recherchieren/indizieren darf und dabei selbst erkennt, dass es schädliche Quellen (esotherisch, exteremistisch, rasistisch usw.) entsprechend bewerten und ignorieren muss.

          • Anonymous sagt:

            Wir erhalten dann ein Anwendungsprodukt, welches seine Informationen aus einer Nachrichten-Filterblase mit Zensur erhält und darauf hin das Gerüst weiterentwickelt?

            Darauf hat die Welt gewartet: Künstliche Q'Anons.

          • 1ST1 sagt:

            Das mag sein, dass sich die Trainingsdatenbank in einer "Filterblase" bewegt. Die Filterblase befindet sich aber nicht im rechten oder linken politischen Spektrum, hat auch keine Verschwörungstheorien, keinen religiösen Fanatismus oder sowas.

            Einfach mal selber (kritisch) ausprobieren!

          • Dolly sagt:

            So manche Verschwörungstheorie erweist sich später als Wahrheit, blebt bei der Art Filterblase aber weiter aussen vor. Untauglich.

          • 1ST1 sagt:

            ChatGPT versucht (sehr erfolgreich) sich an die Rahmenbedingungen und Rechtsnormen der westlichen Kultur, Gesellschaft und Ethik zu halten. Mehr ist dazu nicht zu sagen.

          • Windowsnutzer1969 sagt:

            "ChatGPT versucht (sehr erfolgreich) sich an die Rahmenbedingungen und Rechtsnormen der westlichen Kultur, Gesellschaft und Ethik zu halten. Mehr ist dazu nicht zu sagen."

            Oh doch, genau dazu gäbe es mal wieder jede Menge zu sagen. Einfach deshalb, da mal wieder ein "ausgewählter" Kreis (noch) bestimmt/bestimmen darf, was gut und schlecht, was richtig und falsch ist. Die Frage wäre natürlich, wie groß dieser "Kreis der Erlauchten" ist, der darüber bestimmen kann und darf? Und wie setzt dieser Kreis sich zusammen, usw.? Und wie immer bei solchen Dingen: Wer zieht letztendlich die absolute Grenze zu "Querdenkertum", Esoterik, Extremismus, Rassismus (…)? Warum sehen "wir uns" in der westlichen Welt, eigentlich immer mit purer Überzeugung als "die Guten", die alle anderen belehren und maßregeln dürfen? Und die letztendlich auch immer irgendwie den Ton angeben (wollen) … Auf der einen Seite wollen wir durch Globalisierung "zusammenwachsen", aber auf der anderen Seite dürfen/sollen nur unsere "Werte" gelten … Vor allem: Werte können sich ändern und ändern sich auch permanent. Und dies in relativ kurzer Zeit! Für das, was heute oft als normal angesehen wird, wäre man z. B. in den 60ern noch in den Knast gewandert, oder zumindest bestraft worden … Nur als ein neutrales Beispiel. Nicht, dass ich persönlich da jetzt was gut, oder schlecht dran finde.

            Das sind aber alles Fragen, die ich gerne mal ordentlich ausdiskutiert hätte, bevor man mal wieder eine "neue Sau" in den Himmel hypt, die uns dann u. U. wieder mal mit voller Wucht auf die Füße (oder gleich auf den Schädel) knallt! Und wenn die EU mal wieder "regulieren" und Gesetze erlassen will, dann ist eh größte Vorsicht geboten … Die nicht legitimierte EU-Ursel v. d. L. (>> Manfred Weber wurde vom VOLK (auch von mir) eigentlich gewählt …!) droht sogar anderen Staaten, wenn diese nicht "ordentlich" in ihrem Sinne wählen … Was sind das eigentlich für "Demokraten"??

            Und übrigens: Auch ein Mark Zuckerberg wollte mal die Welt zum Positiven verändern … – Und ist damit krachend gescheitert und das Gegenteil ist mit seinem "sozialen" Netzwerk eingetreten.

            Das generelle Problem am WWW ist doch, dass sich solch ein Riesennetzwerk einfach niemals demokratisch regeln/kontrollieren lassen wird. Denn dazu sind die Menschen, Ansichten und Lebensweisen weltweit einfach viel zu unterschiedlich. Und wenn dann noch solche "selbstlernenden Intelligenzen" dazukommen, dann wird eh alles früher oder später miteinander verschwurbelt werden … Vermeintlich richtig und falsch werden irgendwann so vermixt sein, dass keiner mehr durchblickt, was denn nun WIRKLICH (!) stimmt. Ist doch heute schon schwer genug, den Überblick zu behalten. Viele von der jüngeren Generation, haben ihn doch teilweise schon heute fast komplett verloren und glauben teilweise einfach wirklich jeden Käse der ihnen im Web vorgesetzt wird … Ich weiß echt nicht mehr, ob ich das alles noch gut finden soll, wo wir uns mehr oder weniger unkritisch inzwischen hinbewegen …

          • Windowsnutzer1969 sagt:

            Noch'n Nachtrag dazu:

            Dazu gehört übrigens auch diese "Deepfake-Sache", die ja von vielen als so dermaßen lustig angesehen wird, und die ja auch nur auf Grund von KI funktioniert. Sind ja auch schon mehrere Politiker live da drauf reingefallen. Noch ist nix Schlimmeres passiert. Aber was, wenn ein Deepfaker einem anderen (echten) Politiker so eben mal den Atomkrieg erklärt? Oder aus dem persönlichen Umfeld: Schön, wenn man plötzlich zum Pornodarsteller mutiert ist, oder – noch viel schlimmer – dann zum Kinderschänder wurde über Nacht.

            Und morgens steht der Lynchmob dann schon vor der Tür (wenn er sie nicht schon gleich selbst eingeschlagen hat, wie vor einiger Zeit in Berlin wegen KI-basierter "Tierquälerei" wohl passiert …) um einem dann einen guten Morgen zu wünschen …

            Das wird sicher alles noch sehr lustig werden …

          • 1ST1 sagt:

            Wärst du glücklich, Daniele Ganser würde ChatGPT füttern?

          • Windowsnutzer1969 sagt:

            Die Hauptsache irgendwas – noch dazu an der Sache total vorbei – geschrieben, wenn ein anderer diverse Dinge vielleicht etwas anders und evtl. kritischer sieht, gelle? Saubere Gegenargumente = Fehlanzeige! Geile Diskussionskultur legst du an den Tag … Aber nix anderes kennt man ja von dir … Wer deine Meinung(en) nicht teilt, ist eh meist sofort unten durch.

            SO funktioniert Diskurs in einer Demokratie leider nicht! Und genau deshalb, wird sie demnächst wohl leider auch in der westlichen Welt (mal wieder) Geschichte sein.

            Und P. S.:
            Ja, ich höre mir auch einen Daniele Ganser an. Ich höre mir eigentlich zunächst immer ALLES an. Denn nur dadurch kann ich mir aus den unterschiedlichsten Meinungen dann eine eigene Meinung bilden. Und um deine durchaus berechtigte (wenn auch in der Sache nicht zielführende) Frage zu beantworten:

            Nein, ich möchte nicht, dass von besagtem Herrn Ganser ChatGPT ALLEINE gefüttert wird. Allerdings zum Teil auch wieder schon, denn auch dieser Mensch ist ein Teil unserer Gesellschaft und sollte darin Erwähnung finden. Eben SO, wie es der Wahrheit entspricht. Denn genau SO, wie es der Artikel oben beschreibt, sollte es nämlich NICHT laufen: Eben, dass ChatGPT einen Artikel über Biden schreibt, aber über Trump nicht! Denn dies hat mit "Wahrheitsfindung" dann wohl nichts mehr zu tun, wenn Tatsachen einfach durch "Weigerung" ausgeblendet werden …

  4. Knusper sagt:

    "…Bedenken der EU-Kommission, und dass EU-Kommissar Breton sich für strengere KI-Vorschriften einsetzt…"

    Klar, die EU kann das. Ich schlage folg. Vorschriften vor:
    – eine KI darf nur richtige Antworten geben
    – diese müssen politisch korrekt sein
    – alle Antworten werden durch eine unabhängige Kommission genehmigt
    – die Antworten müssen für TiktokUser verständlich sein

  5. 1ST1 sagt:

    Lesenswerter Artikel zu den Programmierfähigkeiten von ChatGPT, deckt sich mit meinen Erfahrungen:

    https://www.zdnet.com/article/i-asked-chatgpt-to-write-a-wordpress-plugin-i-needed-it-did-in-less-than-5-minutes/

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Hinweis: Bitte beachtet die Regeln zum Kommentieren im Blog (Erstkommentare und Verlinktes landet in der Moderation, gebe ich alle paar Stunden frei, SEO-Posts/SPAM lösche ich rigoros). Kommentare abseits des Themas bitte unter Diskussion.