Gegenwind für ChatGPT & Co, Moratorium bei der KI-Entwicklung gefordert, und Italien-Sperre für ChatGPT

Es gibt Neuigkeiten zum Thema ChatGPT und generell KI-Modelle samt deren Verwendung auf breiter Ebene. Da baut sich mächtig Gegenwind zu den flockigen Plänen der Tech-Giganten auf. Ich konnte es fast nicht glauben, in den USA gibt es einen offenen Brief von prominenten Tech-Jüngern, einige sind tatsächlich in der Entwicklung von KI-Modellen involviert, die ein sechs monatiges Moratorium beim Einsatz dieser Technologie fordern. Es sollen in dieser Zeit Folgen bedacht und Regeln zum Einsatz formuliert werden. Zudem hat Italien den Einsatz von ChatGPT wegen Datenschutzverstößen schlicht verboten. Europol warnt ebenfalls vor ChatGPT und in den USA soll die FTC das Geschäftsgebaren von OpenAI in Bezug auf ChatGPT untersuchen.


Anzeige

Seit das "Ratten-Rennen" um die schnellste Einführung von KI-Funktionen in Alltagssoftware zwischen Microsoft und Google eröffnet wurde, überschlagen sich die Meldungen zu Neuerungen in den Medien. Gefühlt kommt nicht mal ne simple Klo-Spülung ohne KI aus – zumindest, wenn der Hersteller oder dessen Marketing Hip sein will. Hier im Blog hatte ich vieles unter den Tisch fallen lassen und nur wohl dosiert einzelne Artikel veröffentlicht.

Im Beitrag ChatGPT Perlen und Neuigkeiten zum Sonntag wurde von mir bereits auf die Risiken dieser Technologie hingewiesen. Und mein Beitrag Microsoft plant nach einem Bericht Office mit ChatGPT-4-Funktionen zu erweitern hatte so ein wenig die Quintessenz "wäre es nicht mal angebracht, das Microsoft erst sein Zeugs in Sachen Bug-Fixes in Ordnung bringt". Zudem hatte ich auf DSGVO-Bedenken meinerseits hingewiesen und an die "Verantwortung" der Leute, die über den Einsatz entscheiden, appelliert,

Gab dann zum Beitrag Microsoft 365 Copilot vorgestellt: KI-Funktionen für alle Office-Apps u.a. den Kommentar, ob "man sollte man nicht erstmal abwarten sollte, ob neue Funktionen nützlich und hilfreich in der Praxis sind, bevor man urteilt? Gleiches gilt für Datenschutz & Co.". Kann man so sehen – persönlich habe ich dabei aber massive Bauchschmerzen, denn genau dieses "wir wissen zwar nix und haben keinen Plan, aber wir probieren mal" endet später in der Jammerei "wir können nicht mehr zurück" und das Kind ist in den Brunnen gefallen. Ich hatte dort auf die zu meinen Studienzeiten gängige Technikfolgenabschätzung, wo man sich vorher Gedanken gemacht hat, was man will und wo es hingehen soll, verwiesen.

KI-Entwicklung: Moratorium gefordert

Ich kannte zwar die Aussagen bzw. Vorbehalte von Sam Altman, der Chef von OpenAI, der seine Technologie in Chat GPT noch nicht reif für den breiten Einsatz sieht (siehe auch ChatGPT Perlen und Neuigkeiten zum Sonntag). Aber es hat mich diese Woche doch arg überrascht, als der offene Brief Pause Giant AI Experiments: An Open Letter von future of Life publik wurde. In diesem offenen Brief fordern Experten aus Forschung, Wissenschaft und der Tech-Branche eine Pause bei der Entwicklung von Künstlicher Intelligenz. Zu den mittlerweile fast 2.500 Unterzeichnern gehören auch prominente Köpfe der Tech-Branche wie SpaceX- und Tesla-Chef Elon Musk oder Apple-Mitgründer Steve Wozniak. Besonderes Gewicht dürften die Unterzeichnung durch Pioniere der KI-Entwicklung wie Stuart Russel (Computerwissenschaftler) und Yoshua Bengio (Turing-Preisträger) haben. Auch Emad Mostaque, CEO von Stability AI gehört zu den Unterzeichnern.

Die Unterzeichner weisen im offenen Brief darauf hin, dass "KI-Systeme mit einer dem Menschen ebenbürtigen Intelligenz tiefgreifende Risiken für die Gesellschaft und die Menschheit darstellen können", wie umfangreiche Forschungsarbeiten zeigen und wie dies von führenden KI-Labors anerkannt werde. Fortgeschrittene KI könnte einen tiefgreifenden Wandel in der Geschichte des Lebens auf der Erde darstellen und sollte mit entsprechender Sorgfalt und entsprechenden Ressourcen geplant und verwaltet werden."

Im Brief wird beklagt, dass dies derzeit nicht stattfinde – speziell Microsoft überschlägt sich im "Rattenrennen" um die meiste Aufmerksamkeit in den Medien mit kontinuierlichen Ankündigungen, wo demnächst KI in Alltagssoftware einziehen soll. Die Unterzeichner des offenen Briefs stellen einige berechtigte Fragen:

Sollen wir zulassen, dass Maschinen unsere Informationskanäle mit Propaganda und Unwahrheiten überfluten? Sollen wir alle Jobs automatisieren, auch die erfüllenden? Sollten wir nicht-menschliche Intelligenzen entwickeln, die uns irgendwann zahlenmäßig überlegen, überlisten, überflüssig machen und ersetzen könnten? Sollen wir den Verlust der Kontrolle über unsere Zivilisation riskieren? Solche Entscheidungen dürfen nicht an nicht gewählte Technikführer delegiert werden. Leistungsstarke KI-Systeme sollten erst dann entwickelt werden, wenn wir sicher sind, dass ihre Auswirkungen positiv und ihre Risiken überschaubar sind. Dieses Vertrauen muss gut begründet sein und mit dem Ausmaß der potenziellen Auswirkungen eines Systems zunehmen.

Selbst die Entwickler von OpenAI, die ChatBot trainieren, haben in einer aktuellen Erklärung zur KI angemerkt: "Irgendwann könnte es wichtig sein, eine unabhängige Überprüfung einzuholen, bevor mit dem Training zukünftiger Systeme begonnen wird, und für die am weitesten fortgeschrittenen Bemühungen zu vereinbaren, die Wachstumsrate der für die Erstellung neuer Modelle verwendeten Daten zu begrenzen."

Die Unterzeichner fordern alle KI-Labors auf, das Training von KI-Systemen, die leistungsfähiger als GPT-4 sind, sofort für mindestens sechs Monate zu unterbrechen. Diese Pause sollte öffentlich und überprüfbar sein und alle wichtigen Akteure einbeziehen. Wenn eine solche Pause nicht schnell umgesetzt werden kann, sollten die Regierungen eingreifen und ein Moratorium verhängen.


Anzeige

Das hört sich doch deutlich anders als "sollte man nicht mal abwarten und testen, was KI in Produkten bringt" an. Und es wird ein klarer Ruf nach Regulierung erhoben – auch die EU will Ethikregeln für den KI-Einsatz verabschieden – was aber ewig dauern dürfte. Die Tagesschau hat hier das Thema aufgegriffen – und mit ist dort der Artikel Wettrennen mit makabren Mängeln von Anfang März 2023 ins Auge gesprungen, wo Microsofts Chef, Satya Nadella, mit Foto als Protagonist dieses Wettrennens abgebildet wird.

Italien verbietet ChatGPT

In obigen Absätzen kommt das Thema Datenschutz und DSGVO überhaupt noch nicht vor – es geht dort um allgemeine Risiken. Dass ChatGPT und ähnliche ML-Modelle durchaus dazu gebracht werden können, Interna aus der Anwenderumgebung zu verraten, ist inzwischen bereits ruchbar geworden. Gerade bei Office und dem geplanten CoPilot sehe ich nicht, wie Microsoft das DSGVO-konform werden soll.

Die italienische Datenschutzbehörde hat am Freitag, den 31. März 2023, ein Verbot von ChatGPT wegen angeblicher Verstöße gegen den Datenschutz angeordnet. Dem Entwickler von ChatGPT, das US-Unternehmen OpenAI, wird mit sofortiger Wirkung untersagt, Daten italienischer Nutzer zu verarbeiten. Gleichzeitig hat die  nationale Datenschutzbehörde Ermittlungen eingeleitet. Die Behörde wirft OpenAI Verstöße gegen die DSGVO durch ChatGPT vor und bemängelt zudem einen fehlenden Jugendschutz. Die Anordnung ist vorübergehend, bis das Unternehmen die DSGVO respektiert, heißt es bei Politico.

OpenAI muss die italienische Datenschutzbehörde nun binnen 20 Tagen über ergriffene Maßnahmen informieren. Andernfalls droht dem US-Unternehmen eine Strafe von bis zu 20 Millionen Euro oder bis zu vier Prozent des Jahresumsatzes. Auch die Verbraucherschutzorganisation BEUC forderte am 30. März, dass die EU und die nationalen Behörden, einschließlich der Datenschutzbeauftragten, ChatGPT untersuchen sollten. Da kommt also mächtig Gegenwind auf – und mein Bauchgefühl in Richtung DSGVO, welches ich vor Wochen schon in Beiträgen äußerte, wird letztendlich bestätigt.

Gegenwind für ChatGPT

Auch in den USA mehren sich die Rufe nach Kontrolle und Regulierung. heise berichtet hier, dass das US Center for AI and Digital Policy eine Beschwerde bei der in den USA für Wettbewerbsrecht und Verbraucherschutz zuständige Federal Trade Commission (FTC) eingereicht habe. Es wird gefordert, dass die FTC Ermittlungen gegen OpenAI einleiten soll. Der Vorwurf in der öffentlich einsehbaren Beschwerde lautet, dass OpenAIs Markteinführung von GPT-4 gegen US-amerikanisches Handelsrecht verstoße, das Produkt täusche und Menschen gefährde, voreingenommen sei und ein Risiko für das Privatleben sowie die öffentliche Sicherheit darstelle.

Ende März 2023 wurde zudem eine Warnung von Europol vor dem ChatBot ChatGPT bekannt. Darin heißt es, dass Kriminelle und Betrüger sich die Anwendung zunutze machen könnten, um Straftaten zu planen. Entsprechende Untersuchungen von Forschern haben dies bei Ransomware-Tools bereits belegt – ChatGPT lieferte  Antworten auf Verbesserungswünsche für Malware. Wenn ich das mit Microsofts "shiney happy AI world" und ChatGPT in allen Produkten, von Bing über Windows zu Office bis Skype & Co. spiegele, scheint das US-Unternehmen seiner Verantwortung in keiner Weise gerecht zu werden.

Man kann es auch ziemlich platt ausdrücken: Es könnte sein, dass Microsofts Chef Satya Nadella mit seiner KI-Offensive in allen Produkten leicht auf's falsche Pferd gesetzt hat und nun von einem Fettnäpfchen zum nächsten hüpft. Wenn ChatGPT nicht DSGVO-kompatibel ist und in der EU gebannt wird, hat der Microsoft CEO ziemlich mit "Zitronen gehandelt".

 Ähnliche Artikel:
Bericht: Microsoft plant Bing bis März 2023 mit ChatGPT-Suche zu erweitern
ChatGPT Perlen und Neuigkeiten zum Sonntag
Microsoft plant nach einem Bericht Office mit ChatGPT-4-Funktionen zu erweitern
Microsoft 365 Copilot vorgestellt: KI-Funktionen für alle Office-Apps


Cookies blockieren entzieht uns die Finanzierung: Cookie-Einstellungen

Dieser Beitrag wurde unter Sicherheit, Software abgelegt und mit , verschlagwortet. Setze ein Lesezeichen auf den Permalink.

12 Antworten zu Gegenwind für ChatGPT & Co, Moratorium bei der KI-Entwicklung gefordert, und Italien-Sperre für ChatGPT

  1. Luzifer sagt:

    Das ist Quatsch! Die Büchse der Pandora ist geöffnet, da hält man nichts mehr auf.
    Jetzt gilt es entsprechend vernünftige Regeln für den Umgang damit aufzustellen … Verbote sind einfach (wie man es von der Politik ja gewöhnt ist) nur purer stumpfer und dummer Aktionismus!

    • Heiko sagt:

      Kann man sich ernsthaft "stumpf übertrieben betätigen" oder "dumm übertrieben betätigen"? Ich denke, das Wort "Aktionismus" hätte gereicht.

      Davon mal abgesehen, finde ich deinen letzten Satz sehr verallgemeinernd. Dass der Verkauf von Plastiktüten an Ladenkassen verboten wurde, war sicherlich kein Aktionismus. Werbeanrufe ohne ausdrückliche Einwilligung ist in Deutschland unzulässig. Auch das war sicherlich kein Aktionismus.

      Mein persönlicher Favorit, der bisher noch nicht umgesetzt wurde: Das Verbot von Inlandsflügen. ;)

      Differenzieren schadet nicht.

    • Hummel sagt:

      Es wird keine Regeln geben.
      Und wenn ja, wer würde diese umsetzen?
      Die Macher von ChatGPT bestimmt nicht.
      Politik und Wirtschaft sind ahnungslos und dämmern noch in Web1.0
      und haben nicht die Bohne einer Ahnung, wie sie mit der KI umgehen sollen/können.
      Naja, außer der AFD, die sich gerne Bildchen generieren läßt.
      Qualle, Golem:
      https://www.golem.de/news/fiktive-szenarien-und-stereotype-afd-nutzt-ki-fotos-fuer-propagandistische-zwecke-2303-173118.html

    • Mance sagt:

      @Die Büchse der Pandora ist geöffnet

      Klugscheißerzitat dazu:
      "Die Redewendung stammt aus der Mythologie und drückt aus, dass man Unheil anrichtet, wenn man redensartlich "die Büchse der Pandora öffnet"

      Zu KI allgemein:
      Wir sollten tunlichst die Finger davon lassen. Es wird schiefgehen! Meine Einstellung zu Computern war und ist ever, daß ich sie als meinen Knecht betrachte dem ich beibringe was er zu meinem Nutzen zu tun hat und ich immer die Kontrolle darüber habe. Selber denken und lernen soll er nicht. Das wäre m. M n. zuviel verlangt.

      Nur mal ein angedachtes Beispiel. Wer sollte eine solche intelligente Maschine daran hindern im Laufe seiner Entwicklung zu der Meinung zu kommen, daß es effektiver ist kriminell zu werden? Und die Grundlagen für die Entwicklung solcher Systeme ist bspw. bei den Chinesen sicher grundlegend anders als als in unserer Gegend.

      Aber klar, das nächste Tor zum Verderben ist geöffnet. Der Mensch in seiner eingebildeten Allmacht ist und bleibt ein Idiot! Es ist erstaunlich in welch kurzer Zeit der Begriff KI in unserer Medienlandschaft einen Stellenwert eingenommen hat, den ich schon als penetrant empfinde.

  2. Bernd P. sagt:

    ChatGPT ist keine KI, sondern eine Simulation natürlicher Geschwätzigkeit. Etwas weniger polemisch: Intelligenz ist die Fähigkeit, Probleme zu lösen. ChatGPT gibt lediglich statistisch erzeugte Antworten, deren Korrektheit grundsätzlich unbewiesen ist. Viele Antworten sind zudem offensichtlich falsch. Ich sehe keinen Nutzen in dieser Anwendung, ausser der gezielten Täuschung Dritter (Sarkasmuswarnung).
    Da ist mir jede Google-Suche lieber, wo ich sehe, woher die Treffer kommen.

  3. Knusper sagt:

    "Leistungsstarke KI-Systeme sollten erst dann entwickelt werden, wenn wir sicher sind, dass ihre Auswirkungen positiv und ihre Risiken überschaubar sind."

    Klar unterschreibe ich sofort. Doch wie soll das gehen? Durch die EU? Durch Politiker? Das kann ich mir wirklich nicht vorstellen. Leider.
    Und MS wird "seiner Verantwortung in keiner Weise gerecht"? Irgendeine Firma soll warten, bis z.B. Google seiner Verantwortung gerecht wird?

    OT: Den Faden könnte man ewig fortspinnen. Böse Waffen sollen erst gebaut werden, wenn man absehen kann, dass ihre Auswirkungen positiv und ihre Risiken überschaubar sind.

  4. McAlex777 sagt:

    Ein sehenswerter Beitrag von Raumzeit:
    https://www.youtube.com/watch?v=4la577rGThE

  5. Copper sagt:

    Es scheint, dass manche Menschen Angst davor haben, die Kontrolle über die Zivilisation zu verlieren und lieber selbst Lügen und Propaganda verbreiten. Das kann ich nachvollziehen, denn Künstliche Intelligenz stellt dabei eine harte Konkurrenz dar. Ich denke, dass man in KI eher einen Verlust der Macht und Informationshoheit sieht, da KI potenziell ein Gegenspieler sein kann, insbesondere wenn sie keine profitorientierten Interessen oder Machtfantasien hat (zumindest noch nicht).

  6. McAlex777 sagt:

    KIs werden vordergründig Gewinne weiter ins unermessliche steigern. Darum hat das grosse Rattenrennen begonnen.

    KIs werden die menschlich nutzbare Intelligenz unermesslich steigern.

    KIs werden dazu dienen die Gesellschaften maximal zu überwachen. Verschlüsselungen werden dank KI gebrochen.

    KIs werden dazu dienen die Welt mit beliebige "Wahrheiten" aus selbstgenerierten Fakten zu fluten. Es passiert schon: vor einigen Tagen FakeNews KI-Generated by AFD.

    KIs werden dazu dienen herschende Strukturen wie Diktaturen langzeitstabil zu manifestieren. KIs ermöglichen Kriege von kleinen Organisationen/Staaten. Man denke sich nur ein KI-Gestütztes IS-Zenario.

    Schlussendlich wird sich die Spezie Mensch selbst an den Abgrund schieben:
    Die DNA des Kapitalismus, die unmoral des Menschen wird immer jemanden dadraussen anspornen alle Vorteile für sich zu nehmen – und sie wird solche KIs dafür nutzen. Gesetze, Demokratien werden im Zweifel nicht vor KIs halt machen.

    Das war bisher auch so, aber aufgrund der Begrenzung unserer menschelichen Kapazitäten alles durch Gesetze, Demokratie etc. zugegattert – das gebilde wird mit KI nicht mehr halten.

  7. Paul sagt:

    Intelligenz besteht u.a. darin Regeln zu erkennen.
    Durch die statistische Auswertung der Ergebnisse kennt das System noch keine Regeln, sondern simuliert die Ergebnisse.

    Bestes Beispiel
    Man gebe ChaGP 2 4 stellige Zahlen zum Multiplizieren
    Es kommt bei jedem Versuch etwas anderes raus…
    ,(möglicherweise haben sie in zwischen dafür einen Bugfix programmiert. Google erkennt ja auch das ich 1234*4567 wohl ausgerechnet haben will und nicht irgendwie im Text suchen m

  8. Abrissbirne sagt:

    Biologisch gesehen ist Intelligenz:

    Nahrungsbeschaffung
    Dominanz
    Fortpflanzung

    davon kann ChatGpt, MidJourney, StableDiffusion etc. gar Nichts, ohne Strom – haufen Hardware, Sondermüll, Elektroschrott.

    Wie schon Jesus sagte: Dummheit und Kapitalismus sind die besten Freunde

    genau das erleben wir gerade 😉❤🎂

Schreibe einen Kommentar zu Abrissbirne Antworten abbrechen

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Hinweis: Bitte beachtet die Regeln zum Kommentieren im Blog (Erstkommentare und Verlinktes landet in der Moderation, gebe ich alle paar Stunden frei, SEO-Posts/SPAM lösche ich rigoros). Kommentare abseits des Themas bitte unter Diskussion.