Die von Microsoft in Produkten eingesetzte AI-Lösung ChatGPT erweist sich als Bedrohung für Firmen, wie Samsung in einer internen Untersuchung herausgefunden hat. Ingenieure, die auf das Produkt gesetzt hatten, haben in mindestens drei Fälle unbeabsichtigt vertrauliche Firmeninterna verraten und an ChatGPT übertragen – das ist das Ergebnis einer internen Untersuchung. Und Experten weisen darauf hin, dass ChatGPT bei der Konfabulation auf Informationen zurückgreift, die nicht in seinen Trainingsdaten enthalten sind, und die Lücken mit plausibel klingenden Wörtern füllt – es ist also eine Fabuliermaschine.
Anzeige
Ich hatte bereits vor Wochen in einigen Blog-Beiträgen mein Bauchgrimmen vor dem Einsatz von ChatGPT in Produkten artikuliert, weil ich erstens Datenschutz- und Sicherheitslösungen sah. Und andererseits hegte ich die Befürchtungen, dass der Einsatz dieser Technologien zu gravierenden Fehlern führen und weitere Risiken bieten kann. Leser meinten "soll man nicht abwarten, wie sich das entwickelt, bevor man kritisiert". Ist ein Standpunkt, der leider zu häufig vorkommt – erst mal unbedarft machen – und dann ist das Kind in den Brunnen gefallen. Daher heute zwei Fundsplitter, die mir die Tage unter die Augen gekommen sind.
Samsung-Ingenieure leaken Interna an ChatGPT
Die Kollegen von Golem haben den Fall aufgegriffen, der sich bei Samsung abgespielt hat (siehe folgender Tweet). Im Beitrag Samsung-Ingenieure geben ChatGPT vertrauliche Daten preis wird das Ergebnis einer internen Untersuchung durch Samsung aufbereitet.
Deren Ingenieure und Manager waren offenbar auch so naiv aufgestellt und haben die Technologie einfach mal so ausprobiert. Nachdem Samsung Semiconductor seinen Fertigungsingenieuren ChatGPT zur Unterstützung überlassen hatte, begannen diese, es zur schnellen Behebung von Fehlern in ihrem Quellcode zu nutzen und gaben dabei vertrauliche Informationen wie Notizen aus internen Besprechungen und Daten über die Leistung und den Ertrag der Fertigungsanlagen preis.
Anzeige
Binnen 20 Tagen hat man gleich drei Fälle gefunden, wo vertrauliche Daten an ChatGPT gingen. Hier der Kurzauszug von drei Vorfällen bei Samsung, die der Economist in der koreanischen Ausgabe dokumentiert (ein englischer Beitrag findet sich hier):
- In einem Fall übermittelte ein Mitarbeiter von Samsung Semiconductor den Quellcode eines geschützten Programms an ChatGPT, um Fehler zu beheben. Dadurch wurde der Code einer streng geheimen Anwendung an eine künstliche Intelligenz weitergegeben, die von einem externen Unternehmen betrieben wurde.
- Im zweiten Fall gab ein anderer Mitarbeiter Testmuster bei ChatGPT ein, die defekte Chips identifizieren sollten, und forderte eine Optimierung. Testsequenzen zur Identifizierung von Fehlern sind streng vertraulich. Durch die Optimierung dieser Testsequenzen und die mögliche Verringerung ihrer Anzahl können die Siliziumtest- und -prüfverfahren beschleunigt werden, was die Kosten erheblich senkt.
- Ein anderer Mitarbeiter nutzte die Anwendung Naver Clova, um eine Sitzungsaufzeichnung in ein Dokument umzuwandeln, und übermittelte es dann an ChatGPT, um eine Präsentation vorzubereiten.
Die Erkenntnisse sind erschreckend und Verantwortliche in Firmen sollten schnellstmöglich einen Riegel bezüglich ChatGPT-Einsatz im Unternehmen vorschieben. Samsung warnt inzwischen intern seine Mitarbeiter vor den Gefahren von ChatGPT und plant eine eigene KI-Lösung für den Inhouse-Gebrauch zu entwickeln. Die Datenschutzimplikationen, die sich ergeben, sind hier noch gar nicht angesprochen.
Leider ist der Artikel nicht frei abrufbar, aber kürzlich habe ich aufgeschnappt, dass sowohl Microsoft als auch Google in Bezug auf AI ein verantwortungsvolles und vorsichtiges Handeln über Bord geworfen hätten, um sich einen Marktvorteil zu verschaffen. Die würden Risiken eingehen, die in anderen Bereich nicht akzeptiert würden.
Experten: ChatGPT Konfabuliert bei Lücken
Der Begriff Konfabulation bedeutet das Füllen von Gedächtnislücken durch frei erfundene Begebenheiten. Hat so mancher Kandidat schon mal in Prüfungen versucht, und ist in den meisten Fällen gnadenlos auf den Bauch bzw. durchgefallen. Arstechnica zitiert im Artikel Why ChatGPT and Bing Chat are so good at making things up Experten, die die Ergebnisse von "large language model" (LLM) Lösungen einordnen.
KI-Chatbots wie ChatGPT von OpenAI arbeiten mit "large language modellen" (LLM), um Antworten zu erzeugen. Ein LLM ist ein Computerprogramm, das auf Millionen von Textquellen trainiert wurde und Texte in "natürlicher Sprache" lesen und generieren kann. Leider neigen diese Modelle zu gravierenden Fehlern, die in der wissenschaftlichen Literatur von KI-Forschern oft als "Halluzinationen" bezeichnet werden.
Immer wenn das Modell keine Informationen in seinen Trainingsdaten findet, ergänzt es diese "Wissenslücken" mit zufälligen Textschnipseln, die nach dem Prinzip der Wahrscheinlichkeit gebildet werden. Entsprechend kommt Mist dabei heraus. Das führt dann zur Frage, ob die Entwickler von LLM-Lösungen für diese fehlerhaften Ergebnisse selbst die Verantwortung übernehmen, oder diese auf die Nutzer und die fehlerhaften Modelle schieben.
Für mich stellt sich die Frage, ob Microsoft da mit seinem Schweinsgalopp rein in die ChaptGPT-Integration in allen Produkten auf dem richtigen Weg ist? Ich hatte in diesem Kommentar mal den Begriff der Technikfolgenabschätzung, der zu meinen Studienzeiten vor 45 Jahren ein Begriff war, in den Raum geworfen. Hört sich arg nach old school an, macht doch keiner mehr. Die obigen Informationsschnipsel zeigen aber, wie naiv viele Protagonisten da heutzutage unterwegs sind. Oder wie seht ihr das?
Anzeige
bezüglich des Sourcecode abflusses kam mir der Gedanke:
Samsung hat große Geheimnisse, aber keine "leakage detection and prevention" ?
Wie man sieht passiert so etwas nicht mit Absicht.
ich würde mich auch bei jeder normalen Google Frage fragen was ein Dritter damit anfangen können. Genauso mit dem Testen des neuen Programds auf Virustotal.
Da stellt sich wieder mal die Frage wie weit man Microsoft noch über den Weg trauen kann. Warum werden solche Techniken in die Produkte integriert die Interna und Geschäftsgeheimnisse ausplaudern? Hat ein Firmenkunde verlangt dass Microsoft so etwas einbaut und ihnen Wettbewerbsvorteile gegenüber der Konkurrenz zunichte macht? Und mal zum Thema Datenschutz und DSGVO. Wer kann garantieren dass nicht schützenswerte Personaldaten oder Kundendaten ausgeplaudert werden? Hat darüber überhaupt mal jemand nachgedacht also jetzt aus Sicherheitssicht nicht aus "Weil es geht machen wirs" Sicht?
https://www.trendingtopics.eu/chatgpt-billigarbeiterinnen-filterten-schaedliche-inhalte-fuer-die-gehypte-ai/
Zitat: "[]…Auch seitens OpenAI, das Microsoft in einer neuen Finanzierungsrunde mit 29 Milliarden Dollar bewerten will, hat die Auslagerung der mühseligen Handarbeit bereits zugegeben. Den Arbeiter:innen in Kenia wurden je nach ihrer Performance zwischen 1,32 und 2 Dollar pro Stunde dafür bezahlt, um schädliche Inhalte aus den Datensets zu entfernen, mit denen ChatGPT ab 2021 zum Lernen gefüttert wurde…[]"
Für mich folgt aus der allgemeinen Diskussion: Viele Lesezeichen gelöscht, auch der hier, man spart enorm viel Zeit, das Analoge kommt mehr in den Vordergrund, eigene Gedanken gewinnen wieder an Wert, das Leben bekommt wieder mehr 'Qualität'.
Die gleichen Probleme können zumindest konzern- oder unternehmensintern entstehen wenn man Microsoft 365 nutzt und der Tennant in der Standardeinstellung belassen wurde. Da wird dann unter Umständen auch ein Korrekturvorschlag gemacht der nicht für jede Abteilung geeignet ist ;)
Gerade tauchen im Zusammenhang mit KI "neue" Probleme auf die meiner Meinung nach nur zeigen das diese Fehler auch schon in der Vergangenheit gemacht wurden, also gar nicht so neu sind. Einfach mal Gehirn einschalten und nicht jeden Mist im Browserfenster eingeben. Man muss sich vielleicht auch überlegen was man dann so bei DeppL übersetzten sollte und was nicht. Ich überlege auch wie ich Suchanfragen formuliere so das sie keinen Rückschluss auf meine Arbeit zulassen. So langsam bekomme ich aber das Gefühl das die KIs den Nutzenden immer mehr überlegen sind, dabei hab ich noch nichts gesehen was ich wirklich intelligent fand.
"konfabulieren": Gedächtnislücken oder Unverständliches mit erfundenen Aussagen erklären
Das ist leider das Problem der aktuellen 'KI' – oder besser gesagt, das Problem der 'DM' (dummen Menschen), die alles glauben, was diese KIs so von sich geben.
Ja, ChatGPT phantasiert sehr gekonnt, wenn es eine Antwort nicht kennt, das stimmt. Das konnte ich schon öfters nachvollziehen. Wer die eigentlich richtige Antwort nicht kennt, kann da sehr schnell in Probleme laufen. Nur mal angenommen, man würde eine falsche Entscheidung aufgrund dessen fällen, was ChatGPT so liefert. Wer das mal selbst testen will, auf spektrum.de gibt es immer wieder schöne Textaufgaben als Rätsel, einfach so was mal in ChatGPT einkippen und schauen was es daraus macht, und wie die tatsächlich richtige Lösung laut chatgpt ist.
An das Leaken von Informationen über ChatGPT glaube ich bisher nicht. Alles was man innerhalb einer Session ChatGPT so "beibringt", geht beim Beenden der Session wieder verloren. Das ist jedenfalls meine bisherige Beobachtung.
> Nur mal angenommen, man würde eine falsche Entscheidung aufgrund dessen fällen, was ChatGPT so liefert.
Richtig, ist aber genau die gleiche Situation wie „nur mal angenommen, man würde eine falsche Entscheidung aufgrund dessen fällen, was man bei Youtube gesehen hat". Insofern verstehe ich das Theater nicht, das man um diese Thematik macht.
> Alles was man innerhalb einer Session ChatGPT so "beibringt", geht beim Beenden der Session wieder verloren.
Mag sein, ändert aber nichts daran, dass diese Samsung-Mitarbeiterinnen anscheinend hochgeheimen Code auf einen fremden Server hochgeladen haben, ohne eine Kontrolle darüber zu haben, was weiter mit diesen Daten passiert.
Naja, wenn ein Samsung Mitarbeiter den Quellcode eines geschützten Programms an ChatGPT übermittelt, dann ist das aber keine Fehlfunktion von ChatGPT, sondern ein Fehlverhalten des Samsung Mitarbeiters.
Oder des Managements, das die Kosten für leakage detection prevention nicht bereit war zu tragen und wohl auch an der Mitarbeiter Schulung geknappst haben, wie sooft.
> geht beim Beenden der Session wieder verloren
Eher: Werden beim Beenden der Session für Dich unsichtbar. Alle Deine Fragen und die Antworten werden selbstverständlich irgendwo für immer gespeichert und weiterverarbeitet.
https://help.openai.com/en/articles/5722486-how-your-data-is-used-to-improve-model-performance
Ein Schelm, wer auf die Idee kommt, jetzt plausibel aussehende, aber falsche Daten bei ChatGPT ("nur zum Testen") einzugeben. Idealerweise sind diese Fakedaten geeignet, die Konkurrenz irre zu führen oder in einem ungünstigen Licht darzustellen.
Kein Problem, das wird dann manuell von IT Fachkräften in Kenia für unter $2 pro Stunde "korrigiert".
https://time.com/6247678/openai-chatgpt-kenya-workers/
Dieser Teil der "künstlichen" Intelligenz ist dem maximalen Teil von ChatGPT Jüngern natürlich nicht bekannt und in Medien hierzulande auch kaum präsent.
wie viele derzeitige Stellenausschreibungen, am Besten noch in der FAZ..
Wie naiv kann man sein, dass man streng vertrauliche Informationen von ChatGPT analysieren lässt? Die würden sicher auch Alexa & Co mit in den Swingerclub nehmen ;)
Richtig lustig wird es aber, wenn Microsoft soswas dann fest in Windows integriert, fliesst eh alles mit den Telemetriedaten ab – mehr als einen erhobenen Zeigefinger müssen sie aus Erfahrung ja eh nicht berfürchten…
Für meinen Geschmack ist diese KI noch lange nicht ausgereift.
Habe das soweit wie möglich abgestellt.
Ich hab da mal so ein paar Wärmebedarfsberechnungen für Wohnäuser ausprobiert, die aber schon mit einem richtigen Programm berechnet wurden. (brauche ich grade wegen diverser Neuberechnung des Bedarfs & Einbaus von Wärmepumpen)
Das Ergebnis kann man voll vergessen.
Mit anderen Fragen hab ich es auch versucht, bei den Antworten muss man sich manchmal am Stuhl festhalten vor lachen.
Mittlerweile hat ChatGPT-4 Plugins frei geschaltet, unter anderem "Wolfram" für mathematische Berechnungen und verlässliche Daten. Damit müsste das besser klappen!
könnte man nicht Mal die sowieso öffentlichen Codes von Open source projecten in chatGPT füttern und so den Code komplett entbuggen?
chatGPT das bessere Lint?
oder Binaries mit der Bitte den Sourecode zuliefern?
und dann chstGPT bitten, alle Fehler zu finden..
Man muß ja nicht gleich mit Windows anfangen…
Wer es mal ohne Anmeldung und ohne die Angabe der Telefonnummer nutzen möchte.
https://seoschmiede.at/aitools/chatgpt/
"CHATGPT OHNE TELEFONNUMMER
Unser ChatGPT-Tool verwendet aktuell das openAI Modell GPT-3.5-Turbo. Es ist in der Lage, den Chatverlauf bis zu einem gewissen Grad nachzuvollziehen."
Ich bin mir nicht sicher ob das an diese Stelle passt, aber AI.exe der MS Office Suite
hat meine System seit dem letzten Update permanent hoch ausgelastet.
Das wurde ungefragt und ohne Auswahloptionen mit installiert, noch kann man es irgendwo wieder per Option deaktivieren bzw. deinstallieren.
Es erfreut sich auch bei anderen Usern großer Beliebtheit:
https://answers.microsoft.com/en-us/msoffice/forum/all/how-do-i-disable-the-artificial-intelligence-ai/743603b5-202e-47fd-87ab-c04f86fe463e?page=1
Ich habe nur im Outlook meine Mails geprüft, dafür sollte dann nicht nach dem Schließen des Programms dauernd eine ai.exe das System sinnlos auslasten.
Nach dem Kill im Process Explorer ist die CPU-Temp direkt von über 50°C auf 40°C runter gegangen.
Danke für die Information – hab da noch was in Petto, da passt da gut.
Ergänzung: ist im Artikel Microsoft integriert die ai.exe in Office 365-Produkte, was Ärger machen kann angesprochen
Das Kernproblem ist wieder einmal, dass KI nichts mit Intelligenz zu tun hat. Es ist ein sehr elaborierter Taschenspielertrick, der dies vortäuscht. Am Ende ist es aber nur ein LLM, dass das nächste am wahrscheinlichsten auftretende Wort ausgibt.
"Glitch Token" sind da ein vielsagendes Phänomen. Computerphile hat ein paar aufschlussreiche Videos zu z.B.:
https://www.youtube.com/watch?v=WO2X3oZEJOA
Gemeint war, dass Menschen sofort dazu neigen inanimierte Objekten wie bewusst agierende Personen zu behandeln uns das setzt Vertrauen voraus. Wenn auf diese Prädisposition nun nicht vertrauenswürdige Konstrukte wie LLMs treffen, die auch noch unter der Kontrolle von Dritten stehen, dann ist das Desaster vorprogrammiert.
Wir werden uns irgendwann eingestehen müssen, dass wir (Menschen) letztendlich genauso funktionieren, wie ChatGPT, nur dass unsere neuronalen Netze und die ganze Sensorik noch wesentlich komplexer sind. Wir haben zusätzlich "nur" mehr Ein- und Ausgabemöglichkeiten als diese Text-basierten Systeme wie ChatGPT. Aber unser Verhalten, unsere Antworten, unser Verhalten basiert letztendlich auch nur auf dem was wir über all unsere Sinne zuvor gelernt haben.
Ob KI oder "nur" Cloud:
Die Mitarbeiter (eigentlich alle Menschen) müssen besser darin geschult werden, dass alle Daten, die sie in irgendwelchen Webformularen eingeben, direkt auf den Rechnern von Konzernen landen und von dort auch nie mehr verschwinden.
Ähnliches gilt ja inzwischen sogar schon für Daten, die man in Micro$oft-Office-Dokumenten oder der Windows-Suche eingibt.
KI bla bla bla, aber die Ki hat nichts Falsch gemacht.
Auch wenn man es noch so oft wiederholt.
Die KI ist so Entwickelt, sich weiterzu entwickeln.
Das Macht sie auch, indem sie aus gegebenen dingen Lernt.
Wenn das problem vor dem Compuert Geheime Daten preisgibt, dann ist das kein Problem der KI, sondern der Bediener.
Ja, so wird es sein: Das Problem ist der Bediener, der ahnungslos vor der Maschine sitzt und nicht weiß, was er tut. Zeigt der Kommentar beispielhaft. Keine KI hätte derart viele und abstruse Rechtschreib-, Zeichensetzungs- und Grammatikfehler in einen Kommentar gepackt, das können echt nur Menschen … Super!
Tolles Argument!
Du bist sicher der Held in deiner Whatsapp Gruppe.
Ändert nichts an der richtigkeit meiner Aussage, und das man die Dummheit der Benutzer wie so oft und gerne auf andere schiebt.
Ich kann ChatGPT auch sagen, dass es bei einer Antwort typische Rechtschreibfehler einbauen soll, das funktioniert ganz toll.
Kann schon sein, dass ChatGPT einen Kommentar voller typischer Rechtschreibfehler produzieren kann – wenn man sagt, dass es das tun soll. Ist halt eine Maschine ohne freien Willen. Stephan hat seinen Kommentar geschrieben, nicht weil ihm irgendwer gesagt hat, dass er das tun soll (vermute ich mal), sondern weil er das wollte. Es ist Ausdruck seines freien Willens und einer spontanen situativen Kreativität. Das erstaunlich konsequente Fehlerbild seines Kommentars ist vermutlich entstanden, weil er beim Schreiben entweder wenig Zeit hatte oder anderweitig beschäftigt war – oder weil ihm Rechtschreibung scheißegal ist. Ganz egal, was es war, es ist zutiefst menschlich. Maschinen sind indifferent.
Er hat es so gut getan, wie er es konnte. Wenn er es vorher nicht besser gelernt hat, oder seine Sprachfunktionen Schwächen aufweist (z.B. Legastemie), kann er es nicht besser. Siehst du die Paralelle?
Wie jede neue Errungenschaft, muss der Mensch lernen damit umzugehen.
Im besten Fall, gehört es dazu, bestimmte Regeln zu erarbeiten und diese auch zu standardisieren.
Das dies vor allem vor der Einführung passieren sollte, ist erstrebenswert und aus Sicht des Datenschutzes (drei Schutzziele) unumgänglich.
Auch das dies vor der (öffentlichen) Einführung in geschäftlichen und privaten Sektor (als Beispiel im Betriebssystem und bzw. oder Buissness Anwendungen) passieren muss, sehe ich persönlich auch so.
Im Bereich der Forschung (kenne da nur als alte Beispiele die NASA und die experimentelle Physik) wird dies doch auch schon für umfassende Simulationen ausgeführt.
Dort wird auch im dreistelligen Bereich von Petabyte Berechnungen (Entstehung des Weltalls) Berechnungen ausgeführt, welche einzelne (geniale) Menschen / Gehirne gar nicht mehr berechnen können / nachvollziehen können.
Aber auch da / gerade deswegen bleiben die Ergebnisse reine Spekulationen und können doch auch so gar nicht mehr nachvollzogen werden.
In anderen Bereichen, bieten andere Hersteller ähnliche kleine Modelle in der (agilen) Softwareentwicklung an und selbst da, muss man einfach Gefahren und Nutzen als Unternehmen soweit wie möglich abwägen (falls dies überhaupt möglich ist) und ansonsten den Einsatz untersagen / den möglichen Vorteilen Quellcode Prüfung) entsagen.
Warum wird den UL / UML Modelle so gehypt?
Weil die Möglichkeiten und Einsatzgebiete (scheinbar) unendlich wirken.
Daher, klare Regeln zu dem Einsatz und der Verwendung (zugestimmter) persönlicher oder kritischer (Geschäfts-) Daten und dem dazugehörigen Ergebnis sind m.E. unabdingbar.
Man müsste strenggenommen ja kein Modell aus der Cloud beziehen und vor allem die Daten nicht bei einem Hersteller lagern.
Dies würde ja auch bei einem selbst funktionieren.
Jedoch sind es wie immer vor allem die Kosten, das geschulte und teure Personal dazu erforderlich.
Die dazugehörige Infrastruktur (und je nach Menge der Daten) der sehr hohe Speicherplatzbedarf, die Compute Leistung und auch der Wille auch eine Fehl Invest mit den dazugehörigen Risiko zu tragen.
Das alles trifft auch auf jedes Unternehmen zu, welche cloud basierte Lösungen bevorzugt / bevorzugen (scheinbar) muss, um ggfls. zu überleben und die Chancen höher beweren6, als die dazugehörigen Risiken (welche uns allen geläufig sind, wie z.B. Abhängigkeiten, Verschiebung der Arbeit / andere Arbeitsweisen, Verzahnung der Produkte etc.).
Ursprünglich wollte ich mich gar nicht mit diesem ChatGPT-Blödsinn beschäftigen. Aber es machte mich neugierig, nachdem ich hier so einiges im Blog gelesen habe. Alle Medien und ihre ahnungslosen Schreiberlinge, die einfach etwas aufschnappen, von dem sie nicht annähernd verstehen, worum es geht (meine persönliche Meinung!), "spielen" dieses Thema exzessiv, als sei es die universelle Lösung aller Probleme dieser Welt. Das geht mir alles viel zu schnell … erschreckend.
Ich habe daher einfach mal die Frage "Hast Du ein Selbstbewusstsein?" unter dem von JG genannten Link gestellt. Die Antwort überrascht mich überhaupt nicht:
"Als KI besitze ich kein Selbstbewusstsein im herkömmlichen Sinne. Ich bin ein Programm und wurde dafür entworfen, bestimmte Aufgaben zu erfüllen. Meine Fähigkeiten hängen von meiner Programmierung und den Datenquellen ab, die ich nutzen kann. Ich habe kein Bewusstsein oder Empfindungen, wie es bei menschlichen Wesen der Fall ist."
AI ist aktuell ein verrückter Hype, ein Rattenfänger der heutigen Zeit.
Es ist weder aus ethischer, philosophischer, technischer, noch aus intellektueller Sicht auch nur annähernd einsatzbereit, geschweige denn sicher in der Anwendung.
Während meines Studiums der Astrophysik und Kosmologie gab es eine Kooperation mit dem MIT, um Möglichkeiten zu erforschen, wie uns Computer durch ihre "(künstliche) Intelligenz" bei der Überwindung der damaligen physikalischen Grenzen unterstützen und astrophysikalische Modelle entwickeln können, etc. etc. Zwangsläufig entstand auch der Kontakt zu Joseph Weizenbaum, der zu dem Zeitpunkt soeben die Professur für Computerwissenschaften (neudeutsch: Informatik) erhalten hatte.
Den älteren Semestern unter uns dürfte das Programm ELIZA ein Begriff sein. Obwohl dieses Programm nichts anderes tat, als auf Grundlage eines Wörterbuches und einem Algorithmus dem Benutzer vorzugaukeln, er würde mit einem Menschen kommunizieren, wurde es aus damaliger Sicht als "Künstliche Intelligenz" gefeiert. Heute feiern wir ChatGPT ebenfalls. Nur schlimmer.
Per definitionem ist (künstliche) Intelligenz nicht anderes, als "die Eigenschaft, die ein Wesen befähigt, angemessen und vorausschauend in seiner Umgebung zu agieren; dazu gehört die Fähigkeit, Sinneseindrücke wahrzunehmen und darauf zu reagieren, Informationen aufzunehmen, zu verarbeiten und als Wissen zu speichern, Sprache zu verstehen und zu erzeugen, Probleme zu lösen und Ziele zu erreichen." (aus Wikipedia)
Weizenbaum erklärte uns damals, dass unser Gehirn aus nichts anderem als Informationen besteht, die in einer Form vernetzt sind, die uns genau das ermöglichen, was den Begriff "Intelligenz" definiert. Wir "lernen", speichern, vernetzen neu, kommen zu neuen Ergebnissen. Wir haben nur aufgrund dieser gesammelten Informationen ein Bewusstsein. Genau das könne man auch einem Computer beibringen. Und dann hätte dieser ebenfalls ein Bewusstsein.
Und dieser Computer könne dann aufgrund der Informationen, die er sammelt und auf Basis programmierter, physikalisch-mathematischer Formeln auch Modelle berechnen, auf die ein menschliches Gehirn möglicherweise nie kommen kann.
In der Zusammenarbeit mit dem MIT hat sich auch gezeigt, dass es durchaus Vorteile hatte, "intelligente" Computerprogramme einzusetzen.
Es hat uns in der Forschung wirklich interessante Ergebnisse geliefert.
Ein wissenschaftlicher Mitarbeiter stellte damals die Frage, ob es denn auch noch eine KI gäbe, die die andere KI kontrolliere und überprüfe?
Daraufhin soll Weizenbaum ihn angeschaut und nur gelächelt haben.
Denn Weizenbaum hatte damals bereits Bedenken zu diesem ganzen KI-Wahn geäußert. Ich verweise diesbezgl. auf Wikipedia (h_ttp_s[://]de.wikipedia.org/wiki/Joseph_Weizenbaum), um diesen Kommentar nicht noch mehr in die Länge zu ziehen.
Dort findet man auch einen Verweis zu seinem hervorragenden und zum Nachdenken anregenden Werk "Die Macht der Computer und die Ohnmacht der Vernunft". Ich erinnere mich daran, mich beeindruckt zu haben.
In diesem Zusammenhang darf der Hinweis auf ein wirklich hervorragendes Werk von Douglas R. Hofstadter "Ein Endloses Geflochtenes Band" nicht fehlen. Wer es gelesen hat, wird sich unter anderem fragen: "Wollen wir diese komplizierten Prozesse, die in unserem Gehirn stattfinden, wirklich einer KI zumuten ;-) "
Sicherlich wird die Zeit kommen, die Menschheit wird sich weiterentwickeln, ebenso die technischen Möglichenkeiten.
Als Wissenschaftler habe ich mich noch nie gegen den Fortschritt gewandt.
Aber eben als solcher Wissenschaftler muss man mit "Sinn und Verstand" an die Dinge herangehen. Ich habe meinen Studenten immer gesagt, trial and error gehören zur Wissenschaft dazu, um Fortschritte zu erlangen. Jedoch immer mit Netz und doppeltem Boden.
Zitat: "Dass es jemals "denkende" Computer geben wird, ist nicht ausgeschlossen; sollte das aber der Fall sein, werden wir sie genauso wenig vollständig verstehen wie uns selbst."
Gute Nacht,
Günter P.
Vielen Dank, damit dürfte das meiste zu diesem Thema gesagt sein.
In einem Punkt möchte ich jedoch widersprechen:
Meiner Meinung nach, entwickelt sich die (zumindest westliche) Menschheit eben nicht mehr weiter, sondern ist aktuell gesellschaftlich, gesellschaftspolitisch und auch weltpolitisch auf einem Weg des Zurück. Kann man aktuell in sehr vielen (fast allen) Bereichen sehr gut sehen und bekommt es auch zu spüren. Wir sind wohl auf einem Höhepunkt der Entwicklung(en) angekommen und "schnappen" aktuell immer mehr über. Mehr oder weniger alle Hochkulturen der Vergangenheit, sind früher oder später an ihrer eigenen Überheblichkeit und Dekadenz untergegangen – meist eben kurz nachdem der Höhepunkt der sinnvollen (!) Entwicklungen überschritten war, fing man an, das Erreichte mehr oder weniger gegen sich selbst zu verwenden. Alleine die in den letzten Jahren sehr oft bemühte Aussage, "folgt der Wissenschaft", zeugt doch von unendlicher Dummheit und auch irgendwo Überheblichkeit. Denn "die" Wissenschaft gibt es nun mal nicht. Die Wissenschaft besteht aus sehr vielen Personen, die u. U. ein sehr breites Meinungsspektrum abbilden. Von Meinung A bis Meinung Z kann, darf und sollte alles vertreten sein. Und erst nachdem sich alle (!) Meinungen mehr oder weniger übereinstimmend "geeinigt" haben, kann man von einem wissenschaftlichen Konsens reden. Und selbst dieser Konsens unterliegt dann meist der ständigen Falsifikation: Also Widerlegung, Revidierung, Richtigstellung, Erneuerung, Abänderung (…) Somit kann "die Wissenschaft" i. d. R. auch immer nur ein Baustein der Wahrheitsfindung sein und sollte im eigenen Interesse eben lieber nicht 1 : 1 blind übernommen, aber eben auch nicht generell abgelehnt werden. Ein (mein ;-)) persönliches "Kochrezept" lautet: Ein Teil Wissenschaft, ein Teil gesunder Menschenverstand (also "Hirn einschalten"), ein Teil Misstrauen/kritisches Hinterfragen, ein Teil persönliche Einstellung, ein Teil Lebenserfahrung.
Aber "blind" der Wissenschaft (und deren ja oft angeblich unumstößlichen Wahrheit …) folgen, kann sehr schnell böse enden. Vor allem, wenn diverse Ideologen sich "die Wissenschaft" mal wieder zum nützlichen Idioten machen … Kann man aktuell leider mal wieder verstärkt feststellen. Und leider ist die Wissenschaft auch immer unfreier, unterliegt diversen Geldströmen (was absolut nicht sein sollte) und meint, sich verstärkt gesellschaftlichen Entwicklungen andienen zu müssen. Sind alles keine sehr guten Entwicklungen für die Wissenschaft …
Danke für den Widerspruch.
Widersprüche und sachliche Kritik sind etwas Wundervolles. Sie sind eine substanzielle Basis der mutualen Kommunikation und eine der treibenden Kräfte, die nicht nur uns Wissenschaftler dazu verleiten sollten, Vorangegangenes zu hinterfragen und Zukünftiges zu überdenken.
Ich respektiere andere Meinungen, solange diese dazu führen, eine Situation unmittel- oder auch mittelbar zu optimieren. Und dies nicht nur zum Wohle einiger weniger Nutznießer, sondern möglichst aller Menschen.
Leider gibt es genügend Beispiele auf dieser Welt, sowohl in der Vergangenheit, als leider auch noch in unserer Gegenwart, die zeigen, dass offene und ehrliche Kommunikation nicht wirklich erwünscht war und ist.
Ich stimme Deinen obigen Ausführungen in allen Punkten zu, möchte jedoch noch etwas zur Verteidigung der Person des Wisenscaftlers anführen, also auch Dir in einem Punkt widersprechen.
Bitte sieh es mir nach, dass ich Wikipedia bemühe, damit ich nicht zu viel selbst schreiben muss. Wird vermutlich eh wieder ein längerer Kommentar ;-)
Eine genaue Definition der Wissenschaft gibt es in der Tat nicht.
Diese Wikipedia-Definition trifft den Kern jedoch recht gut (h_tt_p[s://]de.wikipedia.org/wiki/Wissenschaft#Begriffsbestimmung).
DER Wissenschaftler hat in der Regel nichts anderes tun, als eine von Werten befreite, neutrale, sachlich präzise, durch Fakten belegbare, verlässliche und transparente Beschreibung des Erforschten "abzuliefern".
DER Wissenschaftler hat nichts anderes im Sinn, als nach den Grundsätzen und Werten der Wissenschaft zu forschen (h_tt_p[s://]de.wikipedia.org/wiki/Wissenschaft#Werte_der_Wissenschaft)
Er lebt in "seiner" Welt und ist begeistert, einen kleinen Teil zum positiven Fortscritt in diesem Universum beizutragen.
Ich weiß nach über 50 Jahren aktivem "Dienst", wovon ich rede ;-)
Jetzt die Kehrseite der Medaille. Ich meine, schon einmal in einem anderen Kommentar zu einem anderen Thema (weiß jetzt nicht mehr wann und in welchem Blog das war) bereits etwas zum Thema Lobbyismus, Korruption, Wahrheitsfälschung, Zurückhalten von wertvollen Forschungsergebnissen etc. innerhalb der Wissenschaftskreise geschrieben zu haben. Und auch dazu, dass vielen Wissenschaftlern der Mut fehlt(e), sich gegen dieses Konstrukt zur Wehr zu setzen.
Leider gibt es natürlich, wie in allen Bereichen des Lebens, Menschen, also auch Wissenschaftler, die sich von der dunklen Seite der Macht blenden und verleiten lassen. (Sorry, ich bin auch noch mit 82 ausgesprochener Star Wars-Fan :-)
Worauf ich letztendlich hinaus will, ist, dass DER Wissenschaftler nicht DIE Wissenschaft macht. DER Wissenschaftler ist nicht überheblich, er will überhaupt nicht, dass man ihm blind folgt!
Er kocht genau nach Deinem persönlichen Kochrezept … seit Jahrtausenden.
DER Wissenschaftler liefert ausschließlich die Wahrheit. Das ist sein einziges Bestreben.
Es sind leider übergeordnete Institutionen und deren Vertreter und Unterstützer, die aus genau dieser Wahrheit im ungünstigsten Fall eben das machen, was die Menschheit zu hören und sehen bekommen soll.
Zu Deinem letzten Absatz:
Nein, die Wahrheit ist nicht nur angeblich, sie ist grundsätzlich per definitionem unumstößlich.
Was dann ggfs. daraus gemacht wird, hängt von denen ab, die entscheiden, ob sie diese akzeptieren wollen oder nicht.
Wir Wissenschaftler sind nur kleine Lichter, die ihre Arbeit machen. Auch als Professor musste ich nach der Pfeife Anderer tanzen. Ich habe es mit mir machen lassen, da ich einfach Sorge hatte, nicht mehr dazu gehören zu dürfen. Es war möglicherweise feige von mir. Man könnte sagen, "Mitgehangen, mitgefangen .. Du bist Teil des Systems, für das Du arbeitest, also mitschuldig!". Ich sage Nein, so einfach ist es nicht.
Ich habe mich der Wissenschaft gewidmet, um einen winzig kleinen Teil dazu beizutragen (insbesondere in den 60er Jahren), das Image unseres Landes zu verbessern, die Forschung zu unterstützen, nie selbstsüchtig den Blick immer darauf gerichtet, dass meine Arbeit gemeinsam mit vielen anderen Wissenschaftlern etwas Nützliches für alle hervorbringt.
So, wie viele Aber-Millionen andere Menschen auch, die jeden Tag ihre Arbeit verrichten und ihren Teil dazu beitragen, dass das Rad sich weiter dreht.
Ich habe in meinem Leben gelernt, dass es keine Minderheiten gibt, sondern dass wir alle gleichwertige Menschen sind, von denen jeder eine Chance hat, zu beweisen, dass gegenseitige Hochachtung und Unterstützung die Basis des Menschseins sein muss. Ich habe nach der Devise gelebt: Du kannst alles tun, solange du niemandem damit schadest.
Ich lerne auch heute noch immer dazu, weil es wichtig ist, über den Tellerrand zu schauen, offen zu sein für Andersdenkende. Hätte es diese Offenheit z.B. in meiner Wissenschaft nicht gegeben, würden wir heute noch das Universum offenen Mundes verständnislos bestaunen (tue ich eigentlich heute noch immer ;-) oder Sonnenauf-/untergangs-Sonnenwende-Sonstwas-Rituale durchführen (welche in der Vergangenheit auch nur dazu genutzt wurden, seine Untertanen in welcher Form auch immer "in Schach" zu halten).
Ich bin mittlerweile zu alt und müde geworden, diesen riesigen Komplex von Ursache und Wirkung auf dieser Welt zu ergründen.
Es ist traurig, dass wir dabei zuscauen müssen, wie verhältnismäßig wenige machthungrige, egoistische Verursacher in vielen Bereichen, ob Soziales, Finanzen, Politik, Wirtschaft, Energie, Wissenschaft und Naturschutz, eine überproportional große Wirkung auf uns, unsere Gesellschaft und auf unseren Planeten haben. Ja, mittlerweile sogar auf den Weltenraum.
Uns Wissenschaftlern vorzuwerfen, wir nähmen zu sehr Einfluss auf die Politik, weil meine Kollegen auf der Klimaerwärmung herumreiten oder ein Meteoriten-Abwehrkonzept absolut sinnvoll ist etc. etc., ist das absurd.
Das hat nichts, aber auch gar nichts mit Selbstdarstellung oder übertriebenem Aktionismus zu tun, sondern mit dringenden Empfehlungen aufgrund der Ergebnisse unserer Forscungen!
Ich werde eine positive Veränderung sicherlich nicht mehr erleben. Aber ich wünsche es den nachfolgenden Generationen von Herzen.
Gute Nacht,
Günther P.
P.S.: Das "h" meiner Tastatur funktioniert nicht mehr so richtig. Ich habe meinen Kommentar zwar noch einmal überprüft, es können dennoch irgendwo noch h´s fehlen.
Erneut herzlichen Dank für diesen sehr offenen, interessanten und vor allem sachlich-wertschätzenden Meinungsaustausch. Findet man ja leider nicht allzu oft im weiten Web … Es gäbe noch sehr viel zu allem zu sagen und zu schreiben, aber das würde hier nun leider den (schriftlichen) Rahmen sprengen. Deshalb:
Danke nochmals und alles Gute für Dich!
Dem stimme ich zu, liegt vermutlich an meinem Alter ;-)
Nein, Spaß, diesen "sehr offenen, interessanten und vor allem sachlich-wertschätzenden Meinungsaustausch" habe ich mein ganzes Leben lang "gelebt". Und damals gab es noch gar kein Web ;-)
Mein ausdrücklicher und ehrlicher Dank zurück.
Ja, in der Tat, es gäbe noch unendlich viel zu allem zu sagen.
Ich darf diesen wundervollen Austausch mit einem Satz meines im September 2022 verstorbenen und sehr geschätzten Kollegen Prof. Dr. Frank D. Drake beenden:
"Nur wenn wir mit dem Besten, was eine Epoche zu bieten hat, das Allerbeste machen, finden wir einen Weg, um es in Zukunft besser zu machen." (frei übersetzt aus dem im Original:
"Only by doing the best we can with the very best that an era offers, do we find the way to do better in the future."
(aus Cosmic Search Vol. 1, No. 1,
A Reminiscence of Project Ozma / by Frank D. Drake 1979)
Persönlich finde ich, das ist keine"Künstliche Intelligenz", sondern nur ein Name für programmierten Code, mit dem Kasse generiert werden soll.
Man könnte es auch Weiterentwicklung von Software nennen und ich finde, man sollte es auch so benennen.
"… die Lücken mit plausibel klingenden Wörtern füllt – es ist also eine Fabuliermaschine."
Erschreckend ist wirklich, dass Viele das nicht erkennen, obwohl es so offensichtlich ist. Eigentlich müsset man nach kurzen "Gesprächen" direkt mitbekommen, dass ChatGPT oft einfach nur "Scheiße labert" und "keinen Plan hat". Das wäre noch halb so schlimm, aber ChatGPT ist dann auch so von sich überzeugt. Ich versteh nicht wie man den kleinen Scheißer so hypen kann.
Man bekommt Antworten auf Fragen die man sich auch selber problemlos hätte beantworten könnte, auf die Fragen wo man wirklich eine Antwort bräuchte bekommt man nichts. Im Grunde googelt das Ding nur und nicht mal besonders gut und man bekommt nicht mal wirklich eine Quelle zu sehen. ChatGPT ist sicher hilfreich, aber nur in ganz begrenzten Maße..
Der Hammer war wirklich, dass ChatGPT Paragraphen zitiert…die es gar nicht gibt. Das denkt sich wirklich ganze Gesetzesbücher aus. Teilweise auch noch so, dass man nicht mal direkt merkt, weil die Überschriften wirklich wie in tatsächlich existierenden Gesetzen klingen. War zumindest vor 2 Monaten so…
Bei Mainstream-Themen funktioniert ChatGPT schon ziemlich gut, da kommen eher selten Falschantworten. Aber je spezieller das Thema wird, um so schlimmer…