KI-Irrsinn Teil 1: Wenn ChaptGPT, Copilot & Co. dich zu Fake-Orten locken

CopilotIn Zeiten des AI-Einsatzes von ChatGPT und anderer Lösungen laufen Touristen in ein bisher unbekanntes Problem. Sie werden durch Berichte im Internet zu Fake-Locations gelockt, die gar nicht existieren. Dank KI wurden Berichte und Videos gefälscht. Das könnte ein wachsendes Problem werden.

Admin-Passwörter schützen mit Windows LAPS. eBook jetzt herunterladen » (Anzeige)

Copilot, buche mir eine Reise

Wenn ich die Erzählungen Microsofts zu Copilot so verfolge, wird doch immer damit geworben, dass diese KI-Lösung oder Agenten mir einen Tisch in einem tollen Restaurant reservieren oder eine Reise planen und dann Unterkünfte, Ausflüge etc. auch mit buchen können sollen. Dass dies irgendwie funktioniert, daran habe ich weniger Zweifel. Ob das Gebuchte aber immer im Sinne des Nutzers ist, da bin ich mir nicht so sicher.

Die KI-Fakes werden zum Problem

Ich bin die Tage bei Focus Online im Artikel Fake-Orte und KI-Videos: Wie ChatGPT und Co. Touristen in die Irre führen auf den Sachverhalt gestoßen.

Fake Seilbahn "Kuak Skyride" in Malaysia

Skizziert wird ein Fall, bei dem ein älteres Ehepaar in Malaysia eine Fahrt von drei Stunden und mehr als 370 km von Kuala Lumpur aus nach Pengkalan Hulu im westlichen Bundesstaat Perak unternommen habe, um eine "atemberaubende Seilbahn" sehen und erleben zu können. Sie hatten ein Video zur "Kuak Skyride"-Sehenswürdigkeit gesehen. Der britische Independent berichtete in diesem Artikel über den Sachverhalt, der in Asien in Social Media einige Wellen schlug.

Vor Ort traf das Ehepaar auf eine Hotelangestellte der Anlage Gerik Perak, und befragte diese nach der Sehenswürdigkeit. Die Hotelangestellte teilte das Erlebnis am 30. Juni 2025 auf Threads geteilt hat. Das Paar erzählte ihr, dass sie die Seilbahn in einem Video gesehen hätten, das in einer Nachrichtensendung eines lokalen Senders gezeigt wurde.

Am Ende des Tages stellte sich heraus, dass das Video mit künstlicher Intelligenz (KI) erstellt worden und die gesamte "Attraktion" ein kompletter Fake war. Im per KI generierten Video stellte eine Frau mit einem Mikrofon die "Kuak Skyride" vor – eine angeblich malerische Seilbahnfahrt in der Stadt Kuak Hulu. Das Video zeigte Menschen, die sich vor einem Ticketschalter anstellten, während Touristen Fotos von der Attraktion machten.

Das KI-generierte Video zeigte die „Reporterin", wie sie Besucher, darunter auch Touristen aus Thailand, interviewte und ein luxuriöses Essen genoss. Die Seilbahnfahrt vor der malerischen Bergkulisse gipfelt in dem KI-generierten Video in einem Streichelzoo mit Rehen.

Die Geschichte machte im Sommer die Runde durch einige Webseiten. Das KI-Video veranlasste die lokalen Behörden zu einer Klarstellung, dass es diese Seilbahn nicht gebe und auch keine solche Anlage geplant sei.

Fake Sehenswürdigkeit in Peru

Ein weiterer Fall wird auch bei t3N aufgegriffen. Ein lokaler Tourguide namens Miguel Angel Gongora Meza musste zwei Touristinnen warnen, die in den Anden auf dem Weg zu einem "Heiligen Canyon von Humantay" waren. Diesen Ort gibt es nicht, er ist eine reine Fiktion. Eine KI hatte den Leuten den Besuch dieser "Attraktion" empfohlen und das Ganze aus einer Kombination aus existierenden Namen und frei erfundenen Beschreibungen generiert.

Laut Focus Online hatten die Touristen bereits 160 US-Dollar bezahlt, um zu diesem nicht-existenten Ort zu gelangen. Als "Nachweis", dass es diesen Canyon gebe, zeigten die Leute dem Guide einen Screenshot. Gegenüber der BBC erklärte der Tourguide, dass eine solche Falschinformation in den Anden lebensgefährlich sein könne. Ohne lokalen Führer können sich die Leute schnell in 4.000 Metern Höhe ohne Sauerstoff und Mobilfunknetz wiederfinden. Eine Rettung ist dann kaum möglich.

Auf einem Berg in Japan gefangen

Eine weitere Geschichte ereignete sich in Japan, wo Reisebloggerin Dana Yao eine Exkursion mit ChatGPT plante. Sie wollte mit ihrem Mann eine romantische Wanderung zum Berg Misen in Japan erleben. ChatGPT schlug vor, um 15 Uhr aufzubrechen, um den Sonnenuntergang vom Gipfel zu genießen. Da der moderne Mensch sich auf so einen Vorschlag verlässt und nicht weiter recherchiert, bekam die Reisebloggerin nicht mit, dass die Seilbahn für die Talfahrt um 17:30 Uhr schließt. "Also saßen wir am Berggipfel fest", erzählt Yao, über deren Fall diverse Medien berichteten.

Ein wachsendes Problem im Tourismus

Das Thema dürfte in naher Zukunft noch eine unrühmliche Rolle spielen. Laut Focus-Artikel erzeuge die KI etwa 3 % Halluzinationen, und die Zahl der Deep-Fake-Angriffe sie in drei Jahren von 0,1 Prozent auf aktuell 6,5 Prozent gestiegen.

Hinzu kommen AI-Reise-Influenzer, Avatare, die KI-gestützte Inhalte mit Reiseempfehlungen erstellen. Die Modelle wissen aber nicht, was eine Empfehlung, eine Wegbeschreibung oder sonst etwas sei. Zusammen mit Halluzinationen braucht es nicht einmal Böswilligkeit, um Katastrophen auszulösen.

T3n schreibt, dass nach aktuellen Untersuchungen (August 2025) des Reisedienstleisters Global Rescue aus Boston rund 24 Prozent der US-Touristen bereits KI für ihre Reiseplanung nutzen. In Europa ist der Trend verhaltener. Harding Bush, seines Zeichens  Sicherheitsdirektor bei Global Rescue, bezeichnet die Verbreitung von KI-Reiseinformationen und -empfehlungen als eine "unmittelbare Bedrohung für das Reisen.

Der Artikel hier befasst sich ebenfalls mit dem fatalen Trend des "Selfie-Tourismus", bei dem Reisende nur noch Orte aufsuchen, die Instagram-taugliche Aufnahmen versprechen. Inzwischen sind eine Reihe lokaler Sehenswürdigkeiten in Deutschland aus diesen Gründen für Besucher gesperrt. Dort wird auch der Aufstieg KI-generierter Reise-Influencer, die selbst fiktive Charaktere sind und Video-Reiseempfehlungen verbreiten, als neues Problem angesprochen. Aber selbst die Deutsche Zentrale für Tourismus habe 2024 künstliche Persönlichkeiten in einer Online-Marketingkampagne zur Bewerbung von Reisezielen in Deutschland eingesetzt, heißt es.

Und das Ganze beschränkt sich nicht nur auf Routenbeschreibungen, sondern ggf. auf Hotelanlagen oder Reiseangebote. Fake-Reiseangebote, die ahnungslose Urlauber bezüglich der Buchung abzocken, dürften bald an der Tagesordnung sein. Im Sommer habe ich bei einer Buchung einer lokalen Unterkunft über ein renommiertes Buchungsportal erstmals direkt bei der Unterkunft die Kontendaten per SMS abgeglichen, um eine Umleitung des beglichenen Reisepreises auf ein Fake-Konto auszuschließen. Sieht so aus, als ob KI da die Büchse der Pandora aufgesperrt hat und die Leute bereitwillig in die Falle tapsen.

Dieser Beitrag wurde unter AI, Problem, Sicherheit abgelegt und mit , verschlagwortet. Setze ein Lesezeichen auf den Permalink.

46 Antworten zu KI-Irrsinn Teil 1: Wenn ChaptGPT, Copilot & Co. dich zu Fake-Orten locken

  1. Anonym sagt:

    Wer die hinter ChatGPT liegende Technik der Wahrscheinlichkeitsbrerechnung zum Vorkommen von Wörtern/Tokens in einer bestimmten Nähe zueinander in allen möglichen Dokumenten und dem Basteln von Antworten aus weiteren dort in der Nähe vorkommenden Wörtern/Tokens in einigermassen verständliche Grammatik Augaben verstanden hat, der begreift sehr schnell, dass es dabei IMMER zu KI-Halluzinationen kommen wird.

    • Günter Born sagt:

      Die Nutzer von ChatGPT begreifen das aber in der Masse leider nicht – oder vergessen es. Daher kippe ich ja solche Artikel hier im Blog ein, um einfach das Bewusstsein immer wieder zu schärfen, mit was wir es bei LLMs zu tun haben.

      • noway sagt:

        …und wir lesen es dann und nicken. Wie bekommt man die anderen dazu, das zu lesen und zu begreifen?

        Wobei ich es absolut notwendig finde, über diesen Wahnsinn regelmäßig zu berichten!

        Nur leider gibt es Menschen, die das nicht wissen wollen. Und die würden den LLM-Schmarrn vermutlich noch verteidigen, wenn sie selbst zu einer Fake-Attraktion gereist wären.

        • Günter Born sagt:

          Ich persönlich bin da etwas ratlos – mehr als drüber bloggen kann ich nicht. Gerade wieder mein deja vue-Erlebnis gehabt. Ich habe bei der Senioren-Community feierabend.de einen kurzen Text einstellen lassen, wie man mit seinem Computer Windows 10 weiter nutzen kann (ich begleite das Projekt des Gründers seit ca. 2000). Die Antworten ließen mich schon nachdenken, ob ich nicht auf dem falschen Planeten lebe und irgendwann falsch abgebogen bin. Gut, einige schrieben, dass sie zu Linux gewechselt sind. Es gab aber auch gleich mehrere Stimmen, die sich feierten, gleich auf Windows 11 umgestiegen zu sein und fragten, warum man noch "warten solle", wer wisse schon, ob das im nächsten Jahr noch kostenlos sei. Zeigt mir, dass wir (ich als Autor, und die Leserschaft des Blogs) in einer Blase unterwegs sind, deren Sichtweise nicht mit "dem draußen" übereinstimmen muss.

          • noway sagt:

            Mir geht es ja genauso… aber mehr als weitermachen können wir nicht. Wenn's nur einen doch mal zum Nachdenken bringt, ist das schon ein Erfolg.

            • red++ sagt:

              Habe mir feierabend.de eben mal angesehen, die Seite wird mir unverständlicherweise im Firefox Blockiert, erst wenn ich auf Mitglied werden drücke und anschließend des Popups bekomme ich die Seite richtig angezeigt.
              Ich hoffe bloß, wenn ich zu den Senioren zähle, sind so kleine Fehler längst Geschichte sonst steht man wie der Ochs vorm Berg.

          • Olli sagt:

            >>> Ich persönlich bin da etwas ratlos

            Die Antwort wird dir nicht gefallen: Die meisten Menschen sind nicht in der Lage die aktuelle Digitalisierung zu verstehen und werden es wohl auch künftig nicht sein. in einem einzelnen Detail vielleicht noch, aber nicht in der Breite die nötig wäre.

            Jetzt das böse Wort dazu: Evolution!

      • Rolf sagt:

        Günter LLMs sind auch nicht viel schlechter als ein Reisebüro, brauchte 37 Std. von Frankfurt am Main nach Honolulu. xd

    • Peter Vorstatt sagt:

      Unsinn, das Kernproblem ist die Quellenlage insb. der fehlende redaktionelle Rechtsrahmen für die Erstellung und Veröffentlichung von Dokumenten (Kuratierung). Die Realität ist 'Garbage in, Garbage out' weil sich Hinz und Kunz voraussetzungslos im Internet verbreiten dürfen. Ich hatte Dir schon vor Monaten mit einschlägigem Literaturtip empfohlen, Dich Deiner Vorurteile gegenüber den Algorithmen zu entledigen. Du glaubst Doch nicht, dass Unternehmen Abermillionen ausgeben, um über ihre internen Daten eine KI zu spannen, und sich am Ende von dieser mit Halluzinationen abspeisen lassen.

      • Günter Born sagt:

        Ich kann mich des Eindrucks nicht erwehren, dass dein letzter Satz doch nicht wirklich zutreffend ist. Unternehmen verbrennen derzeit Millionen für AI-Anwendungen, werfen Leute raus, um diese nach kurzer Zeit wieder einzustellen, das Halluzinationen und Fehlfunktionen leider das Personal nicht ersetzen konnten.

        • Peter Vorstatt sagt:

          + Für allle Fälle: Mein Posting betraf nicht Sie sondern " Anonym sagt: 3. November 2025 um 10:19 Uhr ", der sich so gebetsmühlenartig wie uninformiert abfällig über die unbestreitbaren Errungenschaften maschineller Textanalyse erhebt. Der soll uns hier in Ruhe lassen und mit den LLM-Koryphäen in den Ring steigen; die werden ihm dann schon den Kopf waschen.

          + Betr. "Unternehmen verbrennen derzeit Millionen für AI-Anwendungen, werfen Leute raus, um diese nach kurzer Zeit wieder einzustellen, das Halluzinationen und Fehlfunktionen leider das Personal nicht ersetzen konnten.":

          Und dann gibt es eben noch die Unternehmen, bei denen es nicht so läuft, weil sie wissen wie man KI implementiert. Es ist wie immer im Leben: Gewusst wie!

          • Anonym sagt:

            Lesen Sie mal wenigstens eine halbe Stunde in Fachliteratur nach, wie genau es technisch zu KI Halluzinationen kommt, das wird eine grosse Erkenntnis.

      • Anonym sagt:

        Ok, Sie wissen also nicht wie die Technik hinter LLM "KI" funktioniert. Vielleicht mal etwas informieren.

  2. Anonymous sagt:

    Wie bestellt, so bekommen!

  3. Anonym sagt:

    Auch auf bedrucktes Papier kann man sich teilweise nicht mehr verlassen:
    https://www.shetnews.co.uk/2025/09/16/author-says-travel-guides-flooding/

  4. Sandra sagt:

    Mir ist diesen Sommer auch so etwas untergekommen. Ich war mit der Familie in Kroatien unterwegs und wir wollten die Insel Lokrum bei Dubrovnik besuchen.

    Ich wollte von ChatGPT wissen, ob Hunde auf der Insel zugelassen sind. Da es sich um ein Naturschutzgebiet handelt, wäre es durchaus möglich, dass die Vierbeiner dort verboden sind. ChatGPT sagte mir dann mir voller Überzeugung, dass Hunde dort zugelassen sind.

    Zum Glück war ich immer noch skeptisch und habe schlussendlich die offizielle Seite der Insel besucht. Dort war ganz klar angegeben, dass keine Hunde erlaubt sind.

    Also, ich prüfe KI Aussagen immer nochmals nach, sehr viele Antworten sind leider nur teilweise oder gar nicht richtig.

    • McAlex777 sagt:

      > Also, ich prüfe KI Aussagen immer nochmals nach, sehr viele Antworten sind leider nur teilweise oder gar nicht richtig.

      Was nützt der Service für sowas, wenn man ihn jedesmal nochmal prüfen muss? Dann kann man gleich zur originalen Seite.

      • Thomas sagt:

        "Was nützt der Service für sowas, wenn man ihn jedesmal nochmal prüfen muss? Dann kann man gleich zur originalen Seite."

        Genau so ist es und darum ist KI auch aktuell keineswegs I, sondern nur K. Ich nutze bspw. ChatGPT bei einigen IT-technischen Sachen, aber regelmäßig nur als "Einstiegshilfe". meistens ist der Großteil der KI-Infos schlicht unbrauchbar und falsch, schlimmstenfalls sogar schädlich.

        • McAlex777 sagt:

          >> Genau so ist es und darum ist KI auch aktuell keineswegs I, sondern nur K. Ich nutze bspw. ChatGPT bei einigen IT-technischen Sachen, aber regelmäßig nur als "Einstiegshilfe". meistens ist der Großteil der KI-Infos schlicht unbrauchbar und falsch, schlimmstenfalls sogar schädlich.<<

          Genau meine Erfahrung:

          Vorab Erst-Recherchen via KI sind gut.
          Ein-Zwei-Drei Zeiler unter Linux sind auch klasse via KI.

          Wenns dann aber um Fehleranalysen, oder komplexeres geht strotzt der Kram nur so von Fehlern – da kann ichs auch gleich selbst machen.

          Vielleicht auch ganz gut so:
          Sobald KI funktionieren wird, werden Arbeitskräfte zu nicht weiter benötigten Kostenfaktoren.

  5. Thomas sagt:

    Wer sich das Seilbahn-Video auf Youtube mit wachem Blick ansieht, der bemerkt eigentlich sehr schnell einige Punkte, die es als Fake verraten. Der deutlichste davon ist die Fahrtrichtung der Kabinen: in mehreren Szenen fahren sowohl die rechts- als auch die linksseitige Kabine in die gleiche Richtung.
    Aber zugegebenermaßen schaut man natürlich nach dem Lesen dieses Blogs genauer und aufmerksamer hin und darüber hinaus ist ja auch nicht jeder Mensch mit den notwendigen technisch-physikalischen Kenntnissen ausgestattet, solche Unmöglichkeiten erkennen zu können.
    Trotzdem sollte es doch auch ohne diese spezielle Kenntnis eine Selbstverständlichkeit sein, dass man sein Reiseziel vor der Buchung prüft und nicht nur aufgrund eines Videos Zeit und Geld verplant…

    • Günter Born sagt:

      Das Zauberwort ist doch: KI-Agenten nehmen dir diese stressige Antwort ab – dafür hast Du doch keine Zeit und zahlst das Abo doch gerne. Wer bitte zahlt und überprüft dann noch die Ergebnisse – dann könnte man sich das Ganze doch selbst zusammen stellen. Und die KI wird immer besser … wir stehen am Anfang einer Entwicklung und sehen schon die ersten Katastrophen. Warte noch einige Jahre ab …

      • Luzifer sagt:

        natürliche Auslese? Das hat aber doch schon lange vor KI angefangen und gipfelt höchsten in dieser.
        Wer kennt und versteht den Technik die er nutzt überhaupt noch? Dumb User sind seit Jahrzehnten die übliche Klientel und zwar gewollt! Von der Politik und der Wirtschaft!

  6. R.S. sagt:

    KI, das ist die Abkürzung für "Künstlicher Irrsinn", alternativ "Künstliche Idiotie" oder "Keine Intelligenz".

  7. GüntherW sagt:

    Es sind ja nicht mal "Fake"-Sachen, sondern die KI erfindet auch von selbst Orte oder nennt falsche Öffnungszeiten.

    Das Problem fing ja z.B. schon vor Jahren/Jahrzehnt mit Software an, die alte Fotos "nachkoloriert" hat. Es war halt nicht immer gewährleistet, dass hier die "Farben" stimmten. Jetzt kann der Rest auch noch gefälscht werden und wenn man sich auf SocialMedia (Facebook, YouTube, Instagram) umschaut, dann WERDEN hier auch aktiv Fotos/Videos aus dem WK2 "erfunden".

    Wir sind strenggenommen an einen Punkt wo es jetzt wirklich praktisch nicht mehr möglich ist irgendwelche Fotos ohne aufwendige Recherche zu übernehmen. Das Vorgehen war vorher schon nicht gut, aber jetzt geht es in Richtung "GameOver". Hier kann man froh sein wenn Archive die Originale (Bücher/Fotos) aufheben. Sobald AI-Content auch in die Literatur schwappt….

    Mit der KI hat man im Grunde einen riesigen "Spam-Bot" geschaffen, der wirklich alles spammen und massiv "poisoning" betreiben kann. Du kannst falsche Geschäfte erfinden, mit falschen Adresse, Einträgen, Bewertungen auf den ganzen Plattformen und Foren…. Gezielt Produkte hoch- und runtervoten, insb. wenn man auch an die Fake-Bewertungen denkt die bisher oft noch von bezahlten Menschen verfasst wurden….Das war vorher auch alles möglich, aber jetzt kommt die richtige Industrialisierung.

    Ich weiß auch nicht wo das hinführen soll, weil wenn man Informationen "vergiftet" die man im Netz findet, dann vergiftet man auch die Infos welche die KI selber nutzt. Es ist möglich die KI "schach-matt" zu setzen, bis zur totalen Unbrauchbarkeit in einigen Bereichen.

  8. red++ sagt:

    Meiner Meinung nach steckt die KI noch in den Kinderschuhen und sollte keinesfalls auf die Menschheit losgelassen werden, aber nun gut jetzt ist sie da und verhält sich genauso wie wir auch, Lügt, betrügt und Gaukelt uns Sachen vor, die gar nicht existieren.

  9. M.D. sagt:

    Wer meint zwecks Reiseplanung die KI zu benötigen, sollte ernsthaft in Betracht ziehen eine VR-Brille zu kaufen. Das ist auf lange Sicht gesehen die beste Lösung. Wo man damit überall hin kommt, ohne dahin zu müssen …

    /sarcasm OFF

    • Thomas sagt:

      LOL

      Großartiger Beitrag. Frei nach einem großen deutschen Spitzbart: "Ankommen ohne hinzukommen."

      Aber genau so ist es und ich fürchte, dass dein Beitrag in nicht allzu ferner Zukunft ohne "/sarcasm OFF" erscheinen könnte.

  10. nook sagt:

    Interessante Doku zu Slop, Ki und Internet:

    https://www.arte.tv/de/videos/122187-000-A/ki-der-tod-des-internets/

    Ich lebe in einer Blase, soviel Mist habe ich noch nie gesehen wie da gezeigt wird.

  11. Charlie sagt:

    Das blinde Vertrauen in KI ist erschreckend.
    Reisen unternehmen ohne sich noch selbst zu informieren, nur weil die KI ein einzelnes Video gezeigt hat.
    Auf einen Berg klettern wollen, weil die KI es empfiehlt, ohne sich Gedanken zu machen, ob und welche Ausrüstung man benötigt oder welche Gefahren lauern.
    Zu den Selfie Touristen fällt mir nichts mehr ein.

  12. Basti sagt:

    Wer das Video bis zum Ende schaut, erkennt den Fehler: TikTok.
    Mein Mitleid hält sich da stark in Grenzen.

    • Günter Born sagt:

      Das Leid wird spürbar steigen,wenn man selbst betroffen ist. Ich blogge ja noch für die 50 Plus Klientel, und das kommt es immer gut, wenn ich Fake-Meldungen sezieren und entlarven kann. Aus diesem Bereich kann ich nur feststellen, dass es Videos gibt, wo man sehr genau schauen muss, ob es Fake oder Realität ist. Von daher wäre ich mit der Aussage vorsichtig, und einem Betroffenen hilft es in der Situation auch Null.

      • Luzifer sagt:

        Naja das man Bildern/Videos/Audio nicht blindlinks trauen darf, war aber vor KI schon so, nur waren da halt Profis notwendig was heute nen scriptkiddie kann.

        Wenn man nicht selbst dabei war, war Skepsis schon immer angebracht und wenn man das verinnerlicht hat, bekommt man auch keine Probleme
        im Leben! Und dies gilt auch im analogen Leben nicht nur im digitalen Leben.
        Zum Opfer macht man sich selbst!

  13. Tomas Jakobs sagt:

    Alles Nominierte für den Charles Darwin Award. Irgendwie fehlt mir da das Verständnis und der Mitleid mit den Betroffenen, die dann im Nirgendwo irgendwo stecken bleiben und ihr Leben gefährden.

    Richtig sauer werde ich dann wieder, wenn das Familien sind und depperte Eltern Ihre Kinder (mit)gefährden. Denn die können für die Dummheit Ihrer Eltern nichts.

  14. FriedeFreudeEierkuchen sagt:

    "Laut Focus-Artikel erzeuge die KI etwa 3 % Halluzinationen"
    Ich weiß nicht woher Focus diese Zahlen hat. Nach allem was ich den letzten Monaten gelesen habe, geht man immer noch von deutlich höheren Zahlen aus. Die Zahlenangaben schwanken zwar, aber unter 20% habe ich noch nirgends gesehen.
    In meiner praktischen Arbeit mit Chatbots sehe ich so viele Fehler, dass die Zahl auf jeden Fall höher liegen muss.
    Hier noch eine schöne Studie von openAI zum Thema "warum LLMs halluzinieren":
    https://openai.com/de-DE/index/why-language-models-hallucinate/

    • Martin B sagt:

      das ist doch auch logisch: Stuss^2 ergibt noch mehr Stuss.

      Wenn Ki von unsinnigen Ergebnissen lernt, kann das Ergebnis statistisch nicht besser werden.

  15. Martin B sagt:

    ach was, KI ist goil, nicht alles schlechtreden!

    Honks gab es schon immer, diese sind nun Ki verifiziert, das ist alles.

    Ca. 20-30% der Bevölkerung sind in der Lage selbstständig zu denken, Autoritäten in Frage zu stellen und halbwegs unabhängig Entscheidungen zu treffen.

    Das Problem existierte vor als auch nach Einführung von KI, es hat sich daher rein gar nichts verändert.

    Außer eine Sache vielleicht: In Bremen und NRW z.B. erfüllen fast 50% der 9. Klässler nicht die Mindestanforderung an Mathematik, in Deutsch sieht es kaum besser aus.

    D.h., bei uns werden bald deutlich weniger als die 20-30% der Bevölkerung noch in der Lage sein, vernünftige Entscheidungen zu treffen.

    • red++ sagt:

      Da haste was verschwurbelt, das nennt sich nicht Honks, sondern Hoax.

      Laut Wikipedia: >>Als Hoax wird heute meist eine Falschmeldung bezeichnet, die in Büchern, Zeitschriften oder Zeitungen, per E-Mail, Instant Messenger oder auf anderen Wegen verbreitet, von vielen für wahr gehalten und daher an Freunde, Kollegen, Verwandte und andere Personen weitergeleitet wird.<<

      Stimmt so etwas gab es auch schon vor der KI, zum Teil schlechter gemacht, wodurch ein Hoax aber einfacher als solches zu erkennen war, mittlerweile ist es aber Schwieriger geworden einen KI generierten Hoax als sochen zu erkennen und zu entlarfen, da wir mittlerweile auch wissen das sich KI Abschreibt, also OpenAI von ChatGPT und Gemini usw. wird es immer schrieriger eine Falschmeldung von einer echten Meldung zu unterscheiden.
      Und weil die Leute zu dumm sich mal selbst zu suchen oder sich auf alt hergebrachtes wissen zu stützen.

  16. Anonym sagt:

    Sogar die tagesschau hat erkannt, dass 40% der KI-Chatbot Antworten Müll sind:

    "KI-Chatbots machen bei 40 Prozent der Antworten Fehler … alarmierende Fehlerquoten bei populären KI-Chatbots. Die Systeme erfinden regelmäßig Informationen und geben sogar falsche Quellen an."

    https://www.tagesschau.de/wissen/technologie/kuenstliche-intelligenz-fakten-100.html

    Leider gibt es weiterhin "KI" gläubige, die LLM Modellen in den Halluzinationsabgrund hinterherrennen wollen wie die Lemminge.

  17. Manuel sagt:

    Drei Bewerbungen für den diesjährigen Darwin-Award

  18. user sagt:

    Hier noch ein Artikel aus der Schweiz:
    ChatGPT plante unseren Wochenendtrip: Es war gar nicht so übel
    https://www.watson.ch/leben/kuenstliche-intelligenz/744661672-chatgpt-plante-unseren-wochenendtrip-es-war-gar-nicht-so-uebel

  19. Compeff-Blog.cf2.de sagt:

    Lemming-Tours neu gedacht. Endlich gibt es Reiseführer nach dem Motto "Der Weg ist das Ziel".
    /sarcasm off

    Man möchte sich gar nicht vorstellen, was es da an KI-generierten Kochbüchern oder Gesundheitspublikationen gibt…

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Hinweis: Bitte beachtet die Regeln zum Kommentieren im Blog (Erstkommentare und Verlinktes landet in der Moderation, gebe ich alle paar Stunden frei, SEO-Posts/SPAM lösche ich rigoros. Kommentare abseits des Themas bitte unter Diskussion. Kommentare, die gegen die Regeln verstoßen, werden rigoros gelöscht.

Du findest den Blog gut, hast aber Werbung geblockt? Du kannst diesen Blog auch durch eine Spende unterstützen.