Was ChatGPT über Nutzer an Daten sammelt …

Sicherheit (Pexels, allgemeine Nutzung)Millionen Nutzer haben die von Microsoft propagierte AI-Lösung ChatGPT zumindest schon mal getestet. Einige verwenden die AI-Lösung sogar ausführlich – und Microsoft unternimmt ja Schritte, um die von OpenAI entwickelte Lösung als "CoPilot" in Windows 11 sowie Microsoft Office 365 und in Bing bereitzustellen. Interessent ist in diesem Kontext, was ChatGPT über seine Nutzer an Daten sammelt.


Anzeige

Ich hatte mir noch keine Gedanken gemacht, welche Daten ChatGPT über einen sammelt, da ich ChatGPT bis auf einen 2 minütigen Kurztest im Edge unter Bing bisher nicht benutzt habe. Auch bin ich bei OpenAI nicht angemeldet – aber ein Blick in die Datenschutzerklärung würde weiter helfen. Durch Zufall bin ich auf nachfolgenden Tweet von Bitdefender auf das Thema aufmerksam geworden.

ChatGPT Datensammlung

Die Sicherheitsspezialisten von Bitdefender haben im Artikel Welche Daten ChatGPT über Sie sammelt und wie sich das auf Ihre digitale Privatsphäre auswirkt die Implikationen ganz frisch zum 5. Juli 2023 aufbereitet. Hintergrund ist, dass Millionen Menschen die Funktionen von Chatbots und speziell ChatGPT ausprobieren oder sogar beruflich nutzen, ohne sich einen Kopf darum zu machen, was dies für die digitale Privatsphäre bedeutet. Bei Suchmaschinen wie Google dämmert den Leuten, dass da viel an Daten aus der Privatsphäre abgegriffen wird – bei ChaptGPT & Co. ist da bisher ein weißer Fleck zu finden. Bitdefender hat sich schlicht die Datenschutzerklärung von ChatGPT herausgezogen und macht auf folgende Passagen aufmerksam, die beschreiben, dass das Unternehmen Daten aus drei Quellen bezieht:

  • Kontodaten, die Sie eingeben, wenn Sie sich anmelden oder für ein Premium-Abo bezahlen (Ihr Name, Ihre Kontaktinformationen, Ihre Kontodaten und Ihre Zahlungskarteninformationen).
  • Identifizierungsdaten, die von Ihrem Gerät oder Browser abgerufen werden, so z. B. Ihre IP-Adresse, Ihren Standort und Nutzungsdaten.
  • Informationen, die Sie in den Chatbot eingeben (Eingaben, hochgeladene Dateien oder Feedback, das Sie geben).

Der erste Punkt ist naheliegend, wenn ich mich anmelde, weiß das Unternehmen über mich Bescheid und kennt auch die Zahlungsdaten. Der zweite Punkt ist auch naheliegend, verdeutlicht aber erneut, dass Browserdaten von Webserver ausgewertet werden können. Hier wird es vor allem für Unternehmen kritisch, die ChatGPT in eigenen Webseiten für Dritte einbinden und der DSGVO unterliegen. Dies ist ohne Zustimmen kaum DSGVO-konform umsetzbar.

Der kritischste Punkt ist aber, dass OpenAI ganz klar schreibt, dass die Eingaben im Chatbot ausgewertet werden (von der Funktion her muss das eigentlich jedem Nutzer klar sein). Die gesammelten Informationen werden zwar "nur so lange aufbewahrt, wie es für die Bereitstellung unseres Dienstes an Sie oder für andere legitime Geschäftszwecke erforderlich ist". Aber OpenAI schreibt auch, dass diese Daten mit Anbietern, Dienstleistern, anderen Unternehmen, verbundenen Unternehmen, juristischen Personen und KI-Trainern, die die jeweiligen Unterhaltungen analysieren, geteilt wird.

Im Artikel gibt Bitdefender dann auch Hinweise, was man keinesfalls mit ChatGPT oder anderen Bots teilen sollte, um die Privatsphäre zu schützen. Dazu gehören:

  • Persönlich identifizierbare Informationen: Namen, Adressen und Details, die Sie oder Dritte identifizieren könnten
  • Gesundheitsdaten (Fragen zu Krankheiten, Behandlungen)
  • Persönliche Dokumente oder Dokumente, die persönliche Daten enthalten

Das Gleiche gilt auch für Benutzer, die den Chatbot für berufliche Zwecke nutzen und allzu sorglos damit umgehen. Der Ratschlag der Bitdefender-Leute lautet: Geben Sie keine vertraulichen Informationen ein und laden Sie keine Präsentationen, Berichte oder Dokumente hoch, die Daten über Ihren Arbeitgeber, Ihre Mitarbeiter und Ihre Kunden enthalten. In einer FAQ kündigt OpenAI an, dass man dort an einem neuen ChatGPT Business-Abonnement für professionelle Anwender arbeite, die mehr Kontrolle über die Daten benötigen. Weitere Details lassen sich im Bitdefender-Beitrag nachlesen.


Cookies blockieren entzieht uns die Finanzierung: Cookie-Einstellungen

Dieser Beitrag wurde unter Sicherheit abgelegt und mit verschlagwortet. Setze ein Lesezeichen auf den Permalink.

20 Antworten zu Was ChatGPT über Nutzer an Daten sammelt …

  1. Jan sagt:

    Also ich sehe hier viel Verwirrungen in Sachen KI

    Erstmal KI ist nur Marketing es gibt keine KI nur sehr gutes maschine learning und fortgeschrittene Algorithmen.
    Und damit das funktioniert braucht das Programm nun mal Daten.
    Diese Daten befinden sich in Datenbanken die erstellt und gefüttert werden, sei es vom Dienstleister oder Kunden selber.
    Ohne diese Datenbanken funktioniert keine KI.

    Um das besser zu erklären. Ihr sucht mit einer KI regelmäßig nach dem Begriff "E-Auto" dann wird die KI sich das merken und die Datensätze mit dem Tag "E-Auto, Elektromobilität, usw" als Priorität für euch setzen. Das merkt man wenn man etwas anderes sucht und trotzdem irgendwie wieder beim E-Auto landet. Das ist der Versuch der KI diese Themen miteinander zu verbinden (wie gesagt keine KI sondern nur ein Programm) klapt natürlich nicht immer.
    Aber ein Beispiel dafür wie es klappt wäre:
    E-Auto=Grüne Energie=Umweltschutz, sucht ihr also nun nach Politik kann es sein das ihr die neusten Aktivitäten der Klimakleber bekommt oder einen Artikel zum neusten Stand des Heizungsgesetz. Zack, denken alle "Wie kann der das wissen all meine Daten wurden geklaut!!!". Nein wurden sie in diesem Bsp. nicht, das sind nur Algorithmen die einfach versuchen logisch die Themen rauszusuchen die einen vl interessieren könnten.
    Grüne Energie + Politik = Bündniss Grüne, neusten Gesetze, etc
    Umweltschutz + Politik = Klimakleber, neusten Gesetze, Bündniss Grüne, etc
    (Das ist extrem vereinfacht und dient nur zum veranschaulichen, in Realität ist das viel komplexer)

    Dann noch etwas, Bing ist Microsoft!!!= Datenkrake Nr.1 Persöhnliche Informationen sollten da eh nie hin. Alle anderen Informationen die gesammelt werden z.B. Bezahlmethoden sind übrigens schon längst dort solltet ihr ein 365 Abo haben oder andere Bezahldienste von Microsoft verwenden.
    Das ist jetzt kein Aufruf zur Sorglosigkeit!
    Aber es sollte einem schon bewusst sein wenn man den KI Copilot von Bing nutzt, der im übrigen nicht ohne ein Microsoftkonto genutzt werden kann. Also alleine hier schon nachdenken ob man das wirklich will.

    Es gibt übrigens auch KIs die sinnvoller mit Daten umgehen z.B. der Copilot von GITHub, der fragt bei der Installation in VSCode z.B. ob er den Code verwenden darf um ihn anderen bereitzustellen.

    Ein kleiner Tipp noch solltet ihr die Bing KI zum Text erstellen nutzen, anstatt Kundenname nur Kunde eingeben.
    Z.B. "Email an Kunden zu (hier Grund)" oder "Absage Bewerbung zur Stelle (x,y)".
    Auch ein Fehler den ich oft sehe.

    • 1ST1 sagt:

      Hat alles nichts mit Datenschutz zu tun, sondern das ist Philosophie, Geistenswissenschaft. Intelligenz versus "künstliche" Intelligenz. Ich sage dir, wir sind letztendlich auch nichts anderes als ChatGPT, nur dass wir auf "natürlichem" Wege entstanden sind, Kohlenstoffeinheit versus Siliziumeinheit. Wir machen auch nur, was unsere Instinkte und unser Erlerntes ("Kultur") vorgibt. Ein weiterer Unterschied ist, dass wir eine ganz andere "Sensorik" zum Lernen haben und über ebenso viele Aktoren zum Handeln verfügen, um auf die äußeren Einflüsse zu reagieren. ChatGPT und Co haben dagegen nur eine Schnittstelle: Ein- und Ausgabe von Text, das aber können die viel schneller als wir, vor allem bei der Menge an Trainigsmaterial. Selbst Abstraktion ist für ChatGPT keine Grenze, wenn du es fragst, es soll dir ein Bild malen und es soll das als Postscript ausgeben, dann malt es dir das verlangte, und die Ergebnisse sind verblüffend. Und auch "Fakten erfinden" ist kein Alleinstellungsmerkmal von "KI".

      • Jan sagt:

        Das hat schon was damit zu tun.
        Wenn die Leute nicht verstehen wie das funktioniert kommen öfters mal Falschaussagen (nicht das hier jetzt welche gemacht wurden).
        Klar Datenschutz ist wichtig dann aber bitte richtig, man kann nicht beides haben, bequeme KI die alles löst und keine Daten preisgeben das funktioniert so nicht entweder oder.

        Das hier im Beispiel MS einem leider keine Wahl lässt ist natürlich sehr schlecht und sollte geändert werden.

        Und btw deine "Beschreibung" nur einen emotionsloses, logisch denkendes Stück Fleisch beschreiben ohne eigene Meinung.

        Das unterscheidet dich von dem Alogorithmus den die Leute als KI bezeichnen. Die freie Meinung.
        Klar eine "KI" kann ein Bild malen mit den entsprechenden Parametern, (hab selber stable Diffusion auf einer Web UI lokal bei mir laufen) aber was ist die Meinung von dem Programm?
        Genau keine, weil es nicht in seinen Funktionen ist.

        • 1ST1 sagt:

          Ich sehe schon, du denkst das nicht Zuende.

          Auch "Meinung" basiert letztendlich auf dem was man "gelernt" hat. Emotionslos sind wir deswegen nicht, denn auch das haben wir gelernt, die meisten von uns jedenfalls.
          Was sonst noch uns wirklich von solchen KIs unterscheidet, jedenfalls viele von uns, ist dass wir (im Leben) ein (oder mehrere) Ziel(e) verfolgen. Das berühmte "Wenn ich mal groß bin will ich Lokführer werden" usw. Die KI hat nur zwei Ziele: a) Lernen b)Antworten. Wobei a) für manche unserer Zeitgenossen auch noch ein lohnenswertes Ziel wäre, am Ende bräuchten wir dann garkeine "KI" mehr…

          • Jan sagt:

            "Das Bild ist schön" oder "das Bild gefällt mir nicht" basieren nochmal auf welcher Lernmethode? Sprache? Ja stimmt die lernt man das empfinden was einem gefällt eher weniger und vor allem warum es einem gefällt oder nicht. das geht allerdings jetzt wirklich am Thema vorbei.

            • 1ST1 sagt:

              "Das Bild ist schön" lässt sich zum einen mathematisch/geometrisch begründen ("Der goldene Schnitt") und etwas hat automatisch die größeren Chancen wenn es a) aktuellen (Mode-/Kultur-/…) Trends folgt und b) man schon so etwas ähnliches mag/kennt. Da sind wir wieder beim "Lernen".

  2. R.S. sagt:

    Einige Unternehmen haben schon auf ChatGPT reagiert und die Benutzung im Unternehmen schlicht verboten.

  3. Chris sagt:

    Entscheidend ist das man ChatGPT nutzt ohne kritische Daten zu verwenden.

    Beispiel:
    Erstelle mir ein Powershellskript das in einen Ordner prüft ob eine test.csv vorhanden ist, wenn nein sende eine Mail an die adresse test@test.de mit dem Betreff "Testbetreff"

    ist unkritisch.
    In diesen Fall baut ChatGPT Platzhalter und Paramater ein die man nachträglich anpasst.

    Kritisch wäre man würde eine solche Anfrage mit echten Daten füllen:

    Erstelle mir ein Powershellskript das im Ordner \\server-ip\banken\kontonummer (hier natürlich echte Werte) prüft ob eine Datei "Umsätze.csv" vorhanden ist, wenn nein sende eine Mail an die adresse buchhaltung@meine-domain.de mit dem Betreff "Umsätze fehlen".

    • Ben sagt:

      re: Entscheidend ist das man ChatGPT nutzt ohne kritische Daten zu verwenden.
      Ist doch wupe, es ist fakt, das der Defender alle Daten liest und alles weiterleitet, was immer er will. :)

      Wo ist die EU Kontrolle hin?

  4. Manuela Berger sagt:

    Guten Morgen wünsche ich .

    Und wieder einmal ein für mich hochinteressanter Artikel, in diesem wunderbaren Blog!

    Die Frage nach einer Datensammelwut bei ChatGPT stellte ich mir selber schon sehr oft.
    Nun nutze ich es nicht, da ich nicht einsehe, mich erst für derlei Kinkerlitzchen jedesmal irgendwo registrieren und einloggen zu müssen.

    Es ist ja klar, daß einem nur wieder etwas irgendwie ( von hinten an die Schulter) verkauft werden soll und ………. so dämlich kann ich gar nicht sein.
    Was ich immer wieder sehr erstaunlich finde:

    Zitat:
    Kontodaten, die Sie eingeben, wenn Sie sich anmelden oder für ein Premium-Abo bezahlen (Ihr Name, Ihre Kontaktinformationen, Ihre Kontodaten und Ihre Zahlungskarteninformationen).
    Zitat Ende

    Wie schaffen es diese Firmen, Menschen dazuzubringen, überhaupt denen auf dem Leim zu gehen und nicht nur teilweise sinnfreie Dienste zu -kaufen-, geschweige denn, auch noch diese Daten überall einzugeben?
    Ich bin da wirklich überrascht.

    Im Falle von ChatGPT, mag dies ja ein nettes Spielzeug sein, für Privatpersonen. Jedoch, dafür zu bezahlen? Registrieren? Wieder irgendwo seine Emailadresse und persönliche Daten verschleudern? Wirklich jetzt?

    Ich staune immer wieder…..

  5. McAlex777 sagt:

    Die grosse Gefahr werden freidrehende KIs eingebettet in Betriebsystemen und/oder lokalen Applikationen freien Zugang auf alle Daten des lokalen Systems, alle Perepherie und das gesamte Netzwerk bekommen. Dann wird es schon sehr bald möglich sein das Microsoft und Co sich "inhaltliche" zusammenfassende Berichte inkl. Bewertungen erstellen lassen kann.

    Dann wirds nicht mehr lange brauchen bis chinesische Dystropien auch im Westen wieder Fuss fassen werden. Das Thema Chatüberwachung im europäischen Raum zeigt als ein "erstes Beispiel" wohin das alles führen kann/wird: dabei wirds nicht bleiben. Und das wird nicht das Ende dessen sein was möglich ist, sondern der Anfang.

    • Luzifer sagt:

      Spielt aber keine Rolle, die Masse juckt es nicht! (Siehe Snowden) und die die es juckt wissen sich dagegen zu wehren.
      Sorry ich schütze mich und meine Familie, der Rest geht mir meilenweit am Arsch vorbei! Wenn die Masse das will, dann las sie!

      • Tom sagt:

        Hätte ich besser und auch in dieser Deutlichkeit nicht schreiben können.
        +1 ;-)

      • Günter Born sagt:

        Kann man gerne so handhaben, ist aber imho zu kurz gedacht/gesprungen. Als Individuum lebt man leider nicht im luftleeren Raum – ständig fallen Daten an – selbst wenn Du offline bist (spätestens wenn Firmen, Behörden, Institutionen deine Daten verarbeiten). Und es gibt die Mitmenschen, die schnell mal Daten von Dritten leaken – sei es das Adressbuch, was über WhatsApp oder andere Apps abgegriffen wird, sei es das Foto einer Gruppe auf einem sozialen Netzwerk oder sei es die E-Mail-Adresse, die dann in einem Verteiler landet und dann in Verteilern mit jeder Mail einsehbar verbreitet wird. Das führt sehr schnell zu Vermischung von privaten und beruflichen Daten/Belangen – und bei der beruflichen Nutzung kommt die DSGVO ins Spiel. In meinen Augen kann man nur kontinuierlich Aufklärung betreiben, warnen und versuchen, die Aufmerksamkeit zur Datensparsamkeit zu wecken.

        Ich verweise die "Masse der was ist schon dabei"-Aspiranten auf folgende Videos zu Big Data von David Kriesel (vom CCC).

        Video des Vortrags von David Kriesel vom Chaos Computer Club über "Big Data – mal ganz anders erklärt" auf der "
        Digitale Woche Kiel 2021". -> YouTube

        Video des Vortrags "SpiegelMining – Reverse Engineering von Spiegel-Online (33c3)" -> YouTube

        • Manuela Berger sagt:

          Guten Tag

          Zitat:
          ..(spätestens wenn Firmen, Behörden, Institutionen deine Daten verarbeiten). Und es gibt die Mitmenschen, die schnell mal Daten von Dritten leaken – sei es das Adressbuch, was über WhatsApp oder andere Apps abgegriffen wird, sei es das Foto einer Gruppe auf einem sozialen Netzwerk oder sei es die E-Mail-Adresse, die dann in einem Verteiler landet und dann in Verteilern mit jeder Mail einsehbar verbreitet wird….
          Zitat Ende

          ..und/oder wenn Menschen online "shoppen".

          Mein Nachbar ist so ein Fall:
          Eines Tages rief ich ihn an, weil ich etwas wissen wollte.
          Zu meinem erstaunen, hörte ich auf einmal das Besetztzeichen. Nun, zunächst nichts was einen verwundern könnte…
          Doch nachdem ich es den ganzen Tag versuchte und immer wieder dieses Besetztzeichen hörte, ahnte ich, daß da was nicht stimmen kann.
          Also zog ich mich an und wanderte die Treppen hinauf zu seiner Türe.
          Ich klingelte, er öffnete und ich fragte, warum ich ihn nicht erreichen konnte?
          Er sagte, daß dies bestimmt daran liegt, weil ich eine Rufnummernunterdrückung habe und er alle eingehenden Nummer mit Unterdrückung gesperrt hätte.
          Dies tat er, weil er seit Wochen fortwährend telefonisch belästigt wird, von irgendwelchen Menschen, die ihm etwas verkaufen wollten. Er wüßte nicht wer das alles ist und warum gerade ihm das passiert.

          Ich sagte ihm, daß es vielleicht daran liegen könnte, weil er so intensiv im Internet einkaufen würde und fast überall seine Telefonnummer in den vielen Shops (bei der Registrierung) angegeben hätte. Das außerdem viele Shops nicht nur Emailadressen sondern auch Telefonnummern handeln würden und einige Datenbanken auch gehackt würden.

          Da wurde er kreidebleich und meinte, daß dies stimmen könnte denn er würde tatsächlich fast alles online kaufen.

          Da war für mich der Fall gelöst.

        • Luzifer sagt:

          naja ich trenne Privat von Beruf und Analog von digital!
          Behörden Shops etc. brauchen natürlich meinen echten Namen Adresse etc. (a)soziale Medien nutze ich nicht! Foren & Co. haben keine Realdaten, emails sind da Schmier (Wegwerf) Adressen und keine wichtigen eamil Addys. Browser ist so eingestellt das Cockies & Co nur notwendigstes zugelassen wird und nach Benden gelöscht, außerdem laufen da Coockiesfaker Refferer Faker Agent Changer usw. welche mit jedem Abruf ander Fakedaten senden. Adguard läuft auf dem Server usw. Router wird alle 24h Zwangsgetrennt…

          Ja es gibt Daten, (ist unvermeidbar) die lassen sich aber nicht in Verbindung bringen … nicht mal Foren Daten mit online Shop Daten, da komplett unterschiedliche Datensätz genutzt werden, selbst Steam & Co laufen nicht mit Echtdaten bezahlt wird mit Paysafe…den das ist doch das Problem nicht das da Daten sind!

          Wird da mal wieder nen Forum gehckt und verliert Daten: Na und? Sind nur Wegwerfmails und fake Daten… Onlineshops wähle ich mit bedacht und da haben auch jede ander Mails. Wichtig dabei ist nur das das nicht mit anderen Diensten in Verbindung gebracht werden kann!
          Freunde geben ihr Adressbuch frei? Na und? die kennen mich meinen Namen Adresse aber nicht unter welchen Pseudonym ich Online arbeite.

          NSA & Co. klar die können das wahrscheinlich in Zusammenhang bringen, wenn ich da mal ins Fadenkreuz gerate, aber auch nur mit viel Aufwand und warum sollte ich für die interessant sein?

          Ist aufwendig bis man das mal am laufen hat und erfodert auch konzequentes Handeln aber es lohnt!

      • McAlex777 sagt:

        Es braucht "gesellschaftliche" und "rechtliche" Abwehr. Das Prinzip, mir egal weil ich Linux habe greift zukurz. Das Praxis der Firmen einfach auf dem lokalen PC alles machen dürfen was sie können weil eine AGB zwingend bestätigt werden muss, muss enden.

        Eine ausreichend starke KI wird die Netzwerkdevices im lokalen Netzwerk angreifen um die Firmware von andern Geräten zu manipulieren.

        Eine ausreichend starke KI wird einen Keylogger in den lokalen Grub einschleusen, um das Kennwort der verschlüsselten Linux-Partitionen zu brechen.

        Sind die Werkzeuge einmal da, werden Staaten das einfordern. Das endet mittelfristig in einer chinesischen Überwachungs-Dystropien denen man sich nicht mehr einfach entziehen kann.

  6. Lars Jäkel sagt:

    Zumindest der Verwendung der Chats zum weiteren Training kann man widersprechen und auch, dass die Historie gespeichert wird (30 Tage werden die Chats allerdings dann trotzdem noch aufbewahrt).
    Das war eine Reaktion auf das Verbot von ChatGPT seitens der italienischen Datenschützer.

  7. Sebastian sagt:

    Es ist das gleiche Prinzip wie bei Suchmaschinen.
    Jede Frage an das System ist auch eine Anwort an das System und sind letztlich menschliche Akteure die Daten sammeln, die Software ist nur ein Vehikel dazu.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Hinweis: Bitte beachtet die Regeln zum Kommentieren im Blog (Erstkommentare und Verlinktes landet in der Moderation, gebe ich alle paar Stunden frei, SEO-Posts/SPAM lösche ich rigoros). Kommentare abseits des Themas bitte unter Diskussion.