KI-Irrsinn Teil 1: Wenn ChaptGPT, Copilot & Co. dich zu Fake-Orten locken

CopilotIn Zeiten des AI-Einsatzes von ChatGPT und anderer Lösungen laufen Touristen in ein bisher unbekanntes Problem. Sie werden durch Berichte im Internet zu Fake-Locations gelockt, die gar nicht existieren. Dank KI wurden Berichte und Videos gefälscht. Das könnte ein wachsendes Problem werden.

Admin-Passwörter schützen mit Windows LAPS. eBook jetzt herunterladen » (Anzeige)

Copilot, buche mir eine Reise

Wenn ich die Erzählungen Microsofts zu Copilot so verfolge, wird doch immer damit geworben, dass diese KI-Lösung oder Agenten mir einen Tisch in einem tollen Restaurant reservieren oder eine Reise planen und dann Unterkünfte, Ausflüge etc. auch mit buchen können sollen. Dass dies irgendwie funktioniert, daran habe ich weniger Zweifel. Ob das Gebuchte aber immer im Sinne des Nutzers ist, da bin ich mir nicht so sicher.

Die KI-Fakes werden zum Problem

Ich bin die Tage bei Focus Online im Artikel Fake-Orte und KI-Videos: Wie ChatGPT und Co. Touristen in die Irre führen auf den Sachverhalt gestoßen.

Fake Seilbahn "Kuak Skyride" in Malaysia

Skizziert wird ein Fall, bei dem ein älteres Ehepaar in Malaysia eine Fahrt von drei Stunden und mehr als 370 km von Kuala Lumpur aus nach Pengkalan Hulu im westlichen Bundesstaat Perak unternommen habe, um eine "atemberaubende Seilbahn" sehen und erleben zu können. Sie hatten ein Video zur "Kuak Skyride"-Sehenswürdigkeit gesehen. Der britische Independent berichtete in diesem Artikel über den Sachverhalt, der in Asien in Social Media einige Wellen schlug.

Vor Ort traf das Ehepaar auf eine Hotelangestellte der Anlage Gerik Perak, und befragte diese nach der Sehenswürdigkeit. Die Hotelangestellte teilte das Erlebnis am 30. Juni 2025 auf Threads geteilt hat. Das Paar erzählte ihr, dass sie die Seilbahn in einem Video gesehen hätten, das in einer Nachrichtensendung eines lokalen Senders gezeigt wurde.

Am Ende des Tages stellte sich heraus, dass das Video mit künstlicher Intelligenz (KI) erstellt worden und die gesamte "Attraktion" ein kompletter Fake war. Im per KI generierten Video stellte eine Frau mit einem Mikrofon die "Kuak Skyride" vor – eine angeblich malerische Seilbahnfahrt in der Stadt Kuak Hulu. Das Video zeigte Menschen, die sich vor einem Ticketschalter anstellten, während Touristen Fotos von der Attraktion machten.

Das KI-generierte Video zeigte die „Reporterin", wie sie Besucher, darunter auch Touristen aus Thailand, interviewte und ein luxuriöses Essen genoss. Die Seilbahnfahrt vor der malerischen Bergkulisse gipfelt in dem KI-generierten Video in einem Streichelzoo mit Rehen.

Die Geschichte machte im Sommer die Runde durch einige Webseiten. Das KI-Video veranlasste die lokalen Behörden zu einer Klarstellung, dass es diese Seilbahn nicht gebe und auch keine solche Anlage geplant sei.

Fake Sehenswürdigkeit in Peru

Ein weiterer Fall wird auch bei t3N aufgegriffen. Ein lokaler Tourguide namens Miguel Angel Gongora Meza musste zwei Touristinnen warnen, die in den Anden auf dem Weg zu einem "Heiligen Canyon von Humantay" waren. Diesen Ort gibt es nicht, er ist eine reine Fiktion. Eine KI hatte den Leuten den Besuch dieser "Attraktion" empfohlen und das Ganze aus einer Kombination aus existierenden Namen und frei erfundenen Beschreibungen generiert.

Laut Focus Online hatten die Touristen bereits 160 US-Dollar bezahlt, um zu diesem nicht-existenten Ort zu gelangen. Als "Nachweis", dass es diesen Canyon gebe, zeigten die Leute dem Guide einen Screenshot. Gegenüber der BBC erklärte der Tourguide, dass eine solche Falschinformation in den Anden lebensgefährlich sein könne. Ohne lokalen Führer können sich die Leute schnell in 4.000 Metern Höhe ohne Sauerstoff und Mobilfunknetz wiederfinden. Eine Rettung ist dann kaum möglich.

Auf einem Berg in Japan gefangen

Eine weitere Geschichte ereignete sich in Japan, wo Reisebloggerin Dana Yao eine Exkursion mit ChatGPT plante. Sie wollte mit ihrem Mann eine romantische Wanderung zum Berg Misen in Japan erleben. ChatGPT schlug vor, um 15 Uhr aufzubrechen, um den Sonnenuntergang vom Gipfel zu genießen. Da der moderne Mensch sich auf so einen Vorschlag verlässt und nicht weiter recherchiert, bekam die Reisebloggerin nicht mit, dass die Seilbahn für die Talfahrt um 17:30 Uhr schließt. "Also saßen wir am Berggipfel fest", erzählt Yao, über deren Fall diverse Medien berichteten.

Ein wachsendes Problem im Tourismus

Das Thema dürfte in naher Zukunft noch eine unrühmliche Rolle spielen. Laut Focus-Artikel erzeuge die KI etwa 3 % Halluzinationen, und die Zahl der Deep-Fake-Angriffe sie in drei Jahren von 0,1 Prozent auf aktuell 6,5 Prozent gestiegen.

Hinzu kommen AI-Reise-Influenzer, Avatare, die KI-gestützte Inhalte mit Reiseempfehlungen erstellen. Die Modelle wissen aber nicht, was eine Empfehlung, eine Wegbeschreibung oder sonst etwas sei. Zusammen mit Halluzinationen braucht es nicht einmal Böswilligkeit, um Katastrophen auszulösen.

T3n schreibt, dass nach aktuellen Untersuchungen (August 2025) des Reisedienstleisters Global Rescue aus Boston rund 24 Prozent der US-Touristen bereits KI für ihre Reiseplanung nutzen. In Europa ist der Trend verhaltener. Harding Bush, seines Zeichens  Sicherheitsdirektor bei Global Rescue, bezeichnet die Verbreitung von KI-Reiseinformationen und -empfehlungen als eine "unmittelbare Bedrohung für das Reisen.

Der Artikel hier befasst sich ebenfalls mit dem fatalen Trend des "Selfie-Tourismus", bei dem Reisende nur noch Orte aufsuchen, die Instagram-taugliche Aufnahmen versprechen. Inzwischen sind eine Reihe lokaler Sehenswürdigkeiten in Deutschland aus diesen Gründen für Besucher gesperrt. Dort wird auch der Aufstieg KI-generierter Reise-Influencer, die selbst fiktive Charaktere sind und Video-Reiseempfehlungen verbreiten, als neues Problem angesprochen. Aber selbst die Deutsche Zentrale für Tourismus habe 2024 künstliche Persönlichkeiten in einer Online-Marketingkampagne zur Bewerbung von Reisezielen in Deutschland eingesetzt, heißt es.

Und das Ganze beschränkt sich nicht nur auf Routenbeschreibungen, sondern ggf. auf Hotelanlagen oder Reiseangebote. Fake-Reiseangebote, die ahnungslose Urlauber bezüglich der Buchung abzocken, dürften bald an der Tagesordnung sein. Im Sommer habe ich bei einer Buchung einer lokalen Unterkunft über ein renommiertes Buchungsportal erstmals direkt bei der Unterkunft die Kontendaten per SMS abgeglichen, um eine Umleitung des beglichenen Reisepreises auf ein Fake-Konto auszuschließen. Sieht so aus, als ob KI da die Büchse der Pandora aufgesperrt hat und die Leute bereitwillig in die Falle tapsen.

Ähnliche Artikel:
KI-Irrsinn Teil 2: Amazon schickt Unterlassungserklärung an Perplexity AI für Einkäufe über Comet
KI-Irrsinn Teil 3: KI-generiere "Nichtigkeitsklage" vom Gericht abgewiesen
KI-Irrsinn Teil 4: Wenn die Anwender mal selber machen
KI-Irrsinn Teil 5: Deloitte, die KI und der versemmelte Report in Australien

Dieser Beitrag wurde unter AI, Problem, Sicherheit abgelegt und mit , verschlagwortet. Setze ein Lesezeichen auf den Permalink.

63 Antworten zu KI-Irrsinn Teil 1: Wenn ChaptGPT, Copilot & Co. dich zu Fake-Orten locken

  1. Anonym sagt:

    Wer die hinter ChatGPT liegende Technik der Wahrscheinlichkeitsbrerechnung zum Vorkommen von Wörtern/Tokens in einer bestimmten Nähe zueinander in allen möglichen Dokumenten und dem Basteln von Antworten aus weiteren dort in der Nähe vorkommenden Wörtern/Tokens in einigermassen verständliche Grammatik Augaben verstanden hat, der begreift sehr schnell, dass es dabei IMMER zu KI-Halluzinationen kommen wird.

    • Günter Born sagt:

      Die Nutzer von ChatGPT begreifen das aber in der Masse leider nicht – oder vergessen es. Daher kippe ich ja solche Artikel hier im Blog ein, um einfach das Bewusstsein immer wieder zu schärfen, mit was wir es bei LLMs zu tun haben.

      • noway sagt:

        …und wir lesen es dann und nicken. Wie bekommt man die anderen dazu, das zu lesen und zu begreifen?

        Wobei ich es absolut notwendig finde, über diesen Wahnsinn regelmäßig zu berichten!

        Nur leider gibt es Menschen, die das nicht wissen wollen. Und die würden den LLM-Schmarrn vermutlich noch verteidigen, wenn sie selbst zu einer Fake-Attraktion gereist wären.

        • Günter Born sagt:

          Ich persönlich bin da etwas ratlos – mehr als drüber bloggen kann ich nicht. Gerade wieder mein deja vue-Erlebnis gehabt. Ich habe bei der Senioren-Community feierabend.de einen kurzen Text einstellen lassen, wie man mit seinem Computer Windows 10 weiter nutzen kann (ich begleite das Projekt des Gründers seit ca. 2000). Die Antworten ließen mich schon nachdenken, ob ich nicht auf dem falschen Planeten lebe und irgendwann falsch abgebogen bin. Gut, einige schrieben, dass sie zu Linux gewechselt sind. Es gab aber auch gleich mehrere Stimmen, die sich feierten, gleich auf Windows 11 umgestiegen zu sein und fragten, warum man noch "warten solle", wer wisse schon, ob das im nächsten Jahr noch kostenlos sei. Zeigt mir, dass wir (ich als Autor, und die Leserschaft des Blogs) in einer Blase unterwegs sind, deren Sichtweise nicht mit "dem draußen" übereinstimmen muss.

          • noway sagt:

            Mir geht es ja genauso… aber mehr als weitermachen können wir nicht. Wenn's nur einen doch mal zum Nachdenken bringt, ist das schon ein Erfolg.

            • red++ sagt:

              Habe mir feierabend.de eben mal angesehen, die Seite wird mir unverständlicherweise im Firefox Blockiert, erst wenn ich auf Mitglied werden drücke und anschließend des Popups bekomme ich die Seite richtig angezeigt.
              Ich hoffe bloß, wenn ich zu den Senioren zähle, sind so kleine Fehler längst Geschichte sonst steht man wie der Ochs vorm Berg.

              • Thomas sagt:

                In meinem Firefox ging's ohne Mitglied werden zu müssen. Nur das übliche Pop-Up.

              • SB sagt:

                Bei meinem Firefox (142.0.1) ohne Javascript-Erlaubnis wird die Seite angezeigt. Aber die Kommentare sind so nicht abrufbar. Es könnte bei dir vielleicht an der "Anregung" "xxx-Spielzeuge – kleine Helfer mit großer Wirkung!" liegen? (xxx = Selbstzensur, auf der Seite steht es im Klartext)

          • Olli sagt:

            >>> Ich persönlich bin da etwas ratlos

            Die Antwort wird dir nicht gefallen: Die meisten Menschen sind nicht in der Lage die aktuelle Digitalisierung zu verstehen und werden es wohl auch künftig nicht sein. in einem einzelnen Detail vielleicht noch, aber nicht in der Breite die nötig wäre.

            Jetzt das böse Wort dazu: Evolution!

          • viebrix sagt:

            Ich bin selbst privat schon vor Jahren auf Linux umgestiegen. Aber ich verstehe die Sichtweise schon, dass man den Umstieg auf W11 gar nicht erst hinauszögern möchte.
            Entscheidet man sich bei Windows zu bleiben, so ist das wohl für User die Windows nur nutzen wollen (und keine Spezialisten werden wollen) – ein logischer Schritt.
            W10 hat sowieso schon Telemetrie. Mit einem MS Konto muss man sich auch irgendwann einmal verbinden (sei es wegen einer Office Lizenz – sei es wegen Bitlocker – sei es wegen ESU).
            Wenn man ein W11 Upgrade macht, dann dauert das gar nicht so lange, weil sowieso vieles schon in W10 enthalten ist.
            Wenn man die KI Entwicklungen und die MS Entwicklungen generell kritisch sieht und da nicht mit möchte, dann ist eine komplette Abkehr von MS nur der einzig logische Schritt. Denn so wie mit jedem Update in W11, ein Umgehung der Upgradesperre (W10 auf W11) zurückgenommen werden kann – können auch mit jedem weiteren Update in W10, KI und sonstige W11 Features, installiert werden.
            Spezial Versionen von W10 – sind für di breite Masse nichts und können oft nicht von einer alten W10 Installation upgegraded werden.

      • Rolf sagt:

        Günter LLMs sind auch nicht viel schlechter als ein Reisebüro, brauchte 37 Std. von Frankfurt am Main nach Honolulu. xd

    • Peter Vorstatt sagt:

      Unsinn, das Kernproblem ist die Quellenlage insb. der fehlende redaktionelle Rechtsrahmen für die Erstellung und Veröffentlichung von Dokumenten (Kuratierung). Die Realität ist 'Garbage in, Garbage out' weil sich Hinz und Kunz voraussetzungslos im Internet verbreiten dürfen. Ich hatte Dir schon vor Monaten mit einschlägigem Literaturtip empfohlen, Dich Deiner Vorurteile gegenüber den Algorithmen zu entledigen. Du glaubst Doch nicht, dass Unternehmen Abermillionen ausgeben, um über ihre internen Daten eine KI zu spannen, und sich am Ende von dieser mit Halluzinationen abspeisen lassen.

      • Günter Born sagt:

        Ich kann mich des Eindrucks nicht erwehren, dass dein letzter Satz doch nicht wirklich zutreffend ist. Unternehmen verbrennen derzeit Millionen für AI-Anwendungen, werfen Leute raus, um diese nach kurzer Zeit wieder einzustellen, das Halluzinationen und Fehlfunktionen leider das Personal nicht ersetzen konnten.

        • Peter Vorstatt sagt:

          + Für allle Fälle: Mein Posting betraf nicht Sie sondern " Anonym sagt: 3. November 2025 um 10:19 Uhr ", der sich so gebetsmühlenartig wie uninformiert abfällig über die unbestreitbaren Errungenschaften maschineller Textanalyse erhebt. Der soll uns hier in Ruhe lassen und mit den LLM-Koryphäen in den Ring steigen; die werden ihm dann schon den Kopf waschen.

          + Betr. "Unternehmen verbrennen derzeit Millionen für AI-Anwendungen, werfen Leute raus, um diese nach kurzer Zeit wieder einzustellen, das Halluzinationen und Fehlfunktionen leider das Personal nicht ersetzen konnten.":

          Und dann gibt es eben noch die Unternehmen, bei denen es nicht so läuft, weil sie wissen wie man KI implementiert. Es ist wie immer im Leben: Gewusst wie!

          • Anonym sagt:

            Lesen Sie mal wenigstens eine halbe Stunde in Fachliteratur nach, wie genau es technisch zu KI Halluzinationen kommt, das wird eine grosse Erkenntnis.

            • Peter Vorstatt sagt:

              Na dann schiessen Sie doch mal los, welche 'Fachliteratur' Ihnen so am Herzen liegt. Hat die P.M. denn schon ein Sonderheft KI herausgebracht?

              • Anonym sagt:

                Geben Sie einfach mal "Wie funktioniert generative KI" in eine Suchmaschine Ihrer Wahl ein und lesen dann etwas mehr als drei Zeilen Zusammenfassung.

      • Anonym sagt:

        Ok, Sie wissen also nicht wie die Technik hinter LLM "KI" funktioniert. Vielleicht mal etwas informieren.

        • Peter Vorstatt sagt:

          Bei Ihnen reicht es offenbar nicht einmal zum Verständnis der Funktionsweise eines IT-Blogs mit Kommentar-Option. Mit obigem " so gebetsmühlenartig wie uninformiert" waren genau Sie und Ihr inhaltsleeres Geraune von der 'Technik hinter LLM 'gemeint.

          • Günter Born sagt:

            Da der Thread inzwischen in persönliche Beharkungen ausufert, sollte er bitte auslaufen. Es bringt keinen Mitleser weiter – danke für das Verständnis.

            • Anonym sagt:

              Es bringt Mitleser weiter in der Erkenntnis, dass einige Menschen bereits völlig in der "KI" Bubble gefangen sind und jeglicher Zweifel daran sie augenscheinlich über den Rand jeglicher Contenance treibt.

              • Günter Born sagt:

                Ich denke, diese Erkenntnis sind den kontinuierlichen Mitlesern bereits gegenwärtig – was problematisch ist, sind gegenseitige Beharkungen – daher einfach auslaufen lassen. Notfalls muss ich hat eine bestimmte Person wieder auf Moderation setzen und ggf. Kommentare löschen.

      • Georg sagt:

        Achwas… die tauschen nur die Halluzinationen aus: von Unternehmensberatern, beratungsresitenten Managern und KI.

        Dass Unternehmen stets rational handeln ist ein Märchen des Kapitalismus!

  2. Anonymous sagt:

    Wie bestellt, so bekommen!

  3. Anonym sagt:

    Auch auf bedrucktes Papier kann man sich teilweise nicht mehr verlassen:
    https://www.shetnews.co.uk/2025/09/16/author-says-travel-guides-flooding/

  4. Sandra sagt:

    Mir ist diesen Sommer auch so etwas untergekommen. Ich war mit der Familie in Kroatien unterwegs und wir wollten die Insel Lokrum bei Dubrovnik besuchen.

    Ich wollte von ChatGPT wissen, ob Hunde auf der Insel zugelassen sind. Da es sich um ein Naturschutzgebiet handelt, wäre es durchaus möglich, dass die Vierbeiner dort verboden sind. ChatGPT sagte mir dann mir voller Überzeugung, dass Hunde dort zugelassen sind.

    Zum Glück war ich immer noch skeptisch und habe schlussendlich die offizielle Seite der Insel besucht. Dort war ganz klar angegeben, dass keine Hunde erlaubt sind.

    Also, ich prüfe KI Aussagen immer nochmals nach, sehr viele Antworten sind leider nur teilweise oder gar nicht richtig.

    • McAlex777 sagt:

      > Also, ich prüfe KI Aussagen immer nochmals nach, sehr viele Antworten sind leider nur teilweise oder gar nicht richtig.

      Was nützt der Service für sowas, wenn man ihn jedesmal nochmal prüfen muss? Dann kann man gleich zur originalen Seite.

      • Thomas sagt:

        "Was nützt der Service für sowas, wenn man ihn jedesmal nochmal prüfen muss? Dann kann man gleich zur originalen Seite."

        Genau so ist es und darum ist KI auch aktuell keineswegs I, sondern nur K. Ich nutze bspw. ChatGPT bei einigen IT-technischen Sachen, aber regelmäßig nur als "Einstiegshilfe". meistens ist der Großteil der KI-Infos schlicht unbrauchbar und falsch, schlimmstenfalls sogar schädlich.

        • McAlex777 sagt:

          >> Genau so ist es und darum ist KI auch aktuell keineswegs I, sondern nur K. Ich nutze bspw. ChatGPT bei einigen IT-technischen Sachen, aber regelmäßig nur als "Einstiegshilfe". meistens ist der Großteil der KI-Infos schlicht unbrauchbar und falsch, schlimmstenfalls sogar schädlich.<<

          Genau meine Erfahrung:

          Vorab Erst-Recherchen via KI sind gut.
          Ein-Zwei-Drei Zeiler unter Linux sind auch klasse via KI.

          Wenns dann aber um Fehleranalysen, oder komplexeres geht strotzt der Kram nur so von Fehlern – da kann ichs auch gleich selbst machen.

          Vielleicht auch ganz gut so:
          Sobald KI funktionieren wird, werden Arbeitskräfte zu nicht weiter benötigten Kostenfaktoren.

    • Jonathan sagt:

      Ja, das habe ich auch schon mehrfach erlebt, auch selbst als Anbieter von Leistungen. Da kommen Leute zu dir, die dir erzählen, dass ihre KI ihnen erzählt hat, dass du deine Leistungen (teilweise) umsonst erbringst… Und die Leute glauben das.

  5. Thomas sagt:

    Wer sich das Seilbahn-Video auf Youtube mit wachem Blick ansieht, der bemerkt eigentlich sehr schnell einige Punkte, die es als Fake verraten. Der deutlichste davon ist die Fahrtrichtung der Kabinen: in mehreren Szenen fahren sowohl die rechts- als auch die linksseitige Kabine in die gleiche Richtung.
    Aber zugegebenermaßen schaut man natürlich nach dem Lesen dieses Blogs genauer und aufmerksamer hin und darüber hinaus ist ja auch nicht jeder Mensch mit den notwendigen technisch-physikalischen Kenntnissen ausgestattet, solche Unmöglichkeiten erkennen zu können.
    Trotzdem sollte es doch auch ohne diese spezielle Kenntnis eine Selbstverständlichkeit sein, dass man sein Reiseziel vor der Buchung prüft und nicht nur aufgrund eines Videos Zeit und Geld verplant…

    • Günter Born sagt:

      Das Zauberwort ist doch: KI-Agenten nehmen dir diese stressige Antwort ab – dafür hast Du doch keine Zeit und zahlst das Abo doch gerne. Wer bitte zahlt und überprüft dann noch die Ergebnisse – dann könnte man sich das Ganze doch selbst zusammen stellen. Und die KI wird immer besser … wir stehen am Anfang einer Entwicklung und sehen schon die ersten Katastrophen. Warte noch einige Jahre ab …

      • Luzifer sagt:

        natürliche Auslese? Das hat aber doch schon lange vor KI angefangen und gipfelt höchsten in dieser.
        Wer kennt und versteht den Technik die er nutzt überhaupt noch? Dumb User sind seit Jahrzehnten die übliche Klientel und zwar gewollt! Von der Politik und der Wirtschaft!

  6. R.S. sagt:

    KI, das ist die Abkürzung für "Künstlicher Irrsinn", alternativ "Künstliche Idiotie" oder "Keine Intelligenz".

  7. GüntherW sagt:

    Es sind ja nicht mal "Fake"-Sachen, sondern die KI erfindet auch von selbst Orte oder nennt falsche Öffnungszeiten.

    Das Problem fing ja z.B. schon vor Jahren/Jahrzehnt mit Software an, die alte Fotos "nachkoloriert" hat. Es war halt nicht immer gewährleistet, dass hier die "Farben" stimmten. Jetzt kann der Rest auch noch gefälscht werden und wenn man sich auf SocialMedia (Facebook, YouTube, Instagram) umschaut, dann WERDEN hier auch aktiv Fotos/Videos aus dem WK2 "erfunden".

    Wir sind strenggenommen an einen Punkt wo es jetzt wirklich praktisch nicht mehr möglich ist irgendwelche Fotos ohne aufwendige Recherche zu übernehmen. Das Vorgehen war vorher schon nicht gut, aber jetzt geht es in Richtung "GameOver". Hier kann man froh sein wenn Archive die Originale (Bücher/Fotos) aufheben. Sobald AI-Content auch in die Literatur schwappt….

    Mit der KI hat man im Grunde einen riesigen "Spam-Bot" geschaffen, der wirklich alles spammen und massiv "poisoning" betreiben kann. Du kannst falsche Geschäfte erfinden, mit falschen Adresse, Einträgen, Bewertungen auf den ganzen Plattformen und Foren…. Gezielt Produkte hoch- und runtervoten, insb. wenn man auch an die Fake-Bewertungen denkt die bisher oft noch von bezahlten Menschen verfasst wurden….Das war vorher auch alles möglich, aber jetzt kommt die richtige Industrialisierung.

    Ich weiß auch nicht wo das hinführen soll, weil wenn man Informationen "vergiftet" die man im Netz findet, dann vergiftet man auch die Infos welche die KI selber nutzt. Es ist möglich die KI "schach-matt" zu setzen, bis zur totalen Unbrauchbarkeit in einigen Bereichen.

  8. red++ sagt:

    Meiner Meinung nach steckt die KI noch in den Kinderschuhen und sollte keinesfalls auf die Menschheit losgelassen werden, aber nun gut jetzt ist sie da und verhält sich genauso wie wir auch, Lügt, betrügt und Gaukelt uns Sachen vor, die gar nicht existieren.

  9. M.D. sagt:

    Wer meint zwecks Reiseplanung die KI zu benötigen, sollte ernsthaft in Betracht ziehen eine VR-Brille zu kaufen. Das ist auf lange Sicht gesehen die beste Lösung. Wo man damit überall hin kommt, ohne dahin zu müssen …

    /sarcasm OFF

    • Thomas sagt:

      LOL

      Großartiger Beitrag. Frei nach einem großen deutschen Spitzbart: "Ankommen ohne hinzukommen."

      Aber genau so ist es und ich fürchte, dass dein Beitrag in nicht allzu ferner Zukunft ohne "/sarcasm OFF" erscheinen könnte.

  10. nook sagt:

    Interessante Doku zu Slop, Ki und Internet:

    https://www.arte.tv/de/videos/122187-000-A/ki-der-tod-des-internets/

    Ich lebe in einer Blase, soviel Mist habe ich noch nie gesehen wie da gezeigt wird.

  11. Charlie sagt:

    Das blinde Vertrauen in KI ist erschreckend.
    Reisen unternehmen ohne sich noch selbst zu informieren, nur weil die KI ein einzelnes Video gezeigt hat.
    Auf einen Berg klettern wollen, weil die KI es empfiehlt, ohne sich Gedanken zu machen, ob und welche Ausrüstung man benötigt oder welche Gefahren lauern.
    Zu den Selfie Touristen fällt mir nichts mehr ein.

  12. Basti sagt:

    Wer das Video bis zum Ende schaut, erkennt den Fehler: TikTok.
    Mein Mitleid hält sich da stark in Grenzen.

    • Günter Born sagt:

      Das Leid wird spürbar steigen,wenn man selbst betroffen ist. Ich blogge ja noch für die 50 Plus Klientel, und das kommt es immer gut, wenn ich Fake-Meldungen sezieren und entlarven kann. Aus diesem Bereich kann ich nur feststellen, dass es Videos gibt, wo man sehr genau schauen muss, ob es Fake oder Realität ist. Von daher wäre ich mit der Aussage vorsichtig, und einem Betroffenen hilft es in der Situation auch Null.

      • Luzifer sagt:

        Naja das man Bildern/Videos/Audio nicht blindlinks trauen darf, war aber vor KI schon so, nur waren da halt Profis notwendig was heute nen scriptkiddie kann.

        Wenn man nicht selbst dabei war, war Skepsis schon immer angebracht und wenn man das verinnerlicht hat, bekommt man auch keine Probleme
        im Leben! Und dies gilt auch im analogen Leben nicht nur im digitalen Leben.
        Zum Opfer macht man sich selbst!

  13. Tomas Jakobs sagt:

    Alles Nominierte für den Charles Darwin Award. Irgendwie fehlt mir da das Verständnis und der Mitleid mit den Betroffenen, die dann im Nirgendwo irgendwo stecken bleiben und ihr Leben gefährden.

    Richtig sauer werde ich dann wieder, wenn das Familien sind und depperte Eltern Ihre Kinder (mit)gefährden. Denn die können für die Dummheit Ihrer Eltern nichts.

  14. FriedeFreudeEierkuchen sagt:

    "Laut Focus-Artikel erzeuge die KI etwa 3 % Halluzinationen"
    Ich weiß nicht woher Focus diese Zahlen hat. Nach allem was ich den letzten Monaten gelesen habe, geht man immer noch von deutlich höheren Zahlen aus. Die Zahlenangaben schwanken zwar, aber unter 20% habe ich noch nirgends gesehen.
    In meiner praktischen Arbeit mit Chatbots sehe ich so viele Fehler, dass die Zahl auf jeden Fall höher liegen muss.
    Hier noch eine schöne Studie von openAI zum Thema "warum LLMs halluzinieren":
    https://openai.com/de-DE/index/why-language-models-hallucinate/

    • Martin B sagt:

      das ist doch auch logisch: Stuss^2 ergibt noch mehr Stuss.

      Wenn Ki von unsinnigen Ergebnissen lernt, kann das Ergebnis statistisch nicht besser werden.

      • red++ sagt:

        Alkohol und andere Substanzen erzeugen auch Halluzinationen, da hat sich noch nie jemand Beschwert.

        Die Menschheit verblödet zusehend, je mehr Selbstdenken und handeln nicht mehr gefragt sind, ich habe lange Zeit in einer Kaufmännischen Berufsschule Gearbeitet und musste dabei immer wieder feststellen, dass die Leute ohne Taschenrechner oder Smartphone komplett überfordert sind.

        Ich denke, das ist eben auch nicht besser geworden und wenn die KI nun alles vorkaut, wird es davon nicht viel besser.

  15. Martin B sagt:

    ach was, KI ist goil, nicht alles schlechtreden!

    Honks gab es schon immer, diese sind nun Ki verifiziert, das ist alles.

    Ca. 20-30% der Bevölkerung sind in der Lage selbstständig zu denken, Autoritäten in Frage zu stellen und halbwegs unabhängig Entscheidungen zu treffen.

    Das Problem existierte vor als auch nach Einführung von KI, es hat sich daher rein gar nichts verändert.

    Außer eine Sache vielleicht: In Bremen und NRW z.B. erfüllen fast 50% der 9. Klässler nicht die Mindestanforderung an Mathematik, in Deutsch sieht es kaum besser aus.

    D.h., bei uns werden bald deutlich weniger als die 20-30% der Bevölkerung noch in der Lage sein, vernünftige Entscheidungen zu treffen.

    • red++ sagt:

      Da haste was verschwurbelt, das nennt sich nicht Honks, sondern Hoax.

      Laut Wikipedia: >>Als Hoax wird heute meist eine Falschmeldung bezeichnet, die in Büchern, Zeitschriften oder Zeitungen, per E-Mail, Instant Messenger oder auf anderen Wegen verbreitet, von vielen für wahr gehalten und daher an Freunde, Kollegen, Verwandte und andere Personen weitergeleitet wird.<<

      Stimmt so etwas gab es auch schon vor der KI, zum Teil schlechter gemacht, wodurch ein Hoax aber einfacher als solches zu erkennen war, mittlerweile ist es aber Schwieriger geworden einen KI generierten Hoax als sochen zu erkennen und zu entlarfen, da wir mittlerweile auch wissen das sich KI Abschreibt, also OpenAI von ChatGPT und Gemini usw. wird es immer schrieriger eine Falschmeldung von einer echten Meldung zu unterscheiden.
      Und weil die Leute zu dumm sich mal selbst zu suchen oder sich auf alt hergebrachtes wissen zu stützen.

  16. Anonym sagt:

    Sogar die tagesschau hat erkannt, dass 40% der KI-Chatbot Antworten Müll sind:

    "KI-Chatbots machen bei 40 Prozent der Antworten Fehler … alarmierende Fehlerquoten bei populären KI-Chatbots. Die Systeme erfinden regelmäßig Informationen und geben sogar falsche Quellen an."

    https://www.tagesschau.de/wissen/technologie/kuenstliche-intelligenz-fakten-100.html

    Leider gibt es weiterhin "KI" gläubige, die LLM Modellen in den Halluzinationsabgrund hinterherrennen wollen wie die Lemminge.

  17. Manuel sagt:

    Drei Bewerbungen für den diesjährigen Darwin-Award

  18. user sagt:

    Hier noch ein Artikel aus der Schweiz:
    ChatGPT plante unseren Wochenendtrip: Es war gar nicht so übel
    https://www.watson.ch/leben/kuenstliche-intelligenz/744661672-chatgpt-plante-unseren-wochenendtrip-es-war-gar-nicht-so-uebel

  19. Compeff-Blog.cf2.de sagt:

    Lemming-Tours neu gedacht. Endlich gibt es Reiseführer nach dem Motto "Der Weg ist das Ziel".
    /sarcasm off

    Man möchte sich gar nicht vorstellen, was es da an KI-generierten Kochbüchern oder Gesundheitspublikationen gibt…

  20. viebrix sagt:

    Erinnert mich tlw. an die Geschichten von den NAVI's in den 2000er. Da sind manche mit den Autos auf Bergwegen gestrandet und konnten nicht mehr umkehren – mussten von der Bergrettung geborgen werden. Andere wollten über eine Brücke fahren – die es nicht gab. Es sind manche mit dem Auto im Wasser gelandet…

    Ich denke fast jeder hat ein NAVI im Auto oder Handy .. und viele benutzen es auch heutzutage…

    Umgekehrt ChatGPT zu fragen wo man wie im Urlaub hinfahren soll und das nicht gegen zu checken ist ungefähr so wie: irgendwo auf der Welt ein x-beliebiges kleines Kind das selbe zu fragen und dann aufs gerade wohl dort hin zu fahren… Vor allem wenn die Antwort ist: Dort müssen sie hin, dort ist das Feenland mit dem Märchenschloss und Einhörnern…

  21. Georg sagt:

    Und das ist erst der Anfang, denn wenn LLMs anfangen von sich selbst zu lernen, weil's kaum noch originären Content gibt, dann gibt's Halluzinationen von Halluzinationen… von Halluzinationen…

    Wo ich's drei Mal geschrieben habe: Was, zum Teufel, sind Halluzi-Nationen?

Schreibe einen Kommentar zu Basti Antwort abbrechen

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Hinweis: Bitte beachtet die Regeln zum Kommentieren im Blog (Erstkommentare und Verlinktes landet in der Moderation, gebe ich alle paar Stunden frei, SEO-Posts/SPAM lösche ich rigoros. Kommentare abseits des Themas bitte unter Diskussion. Kommentare, die gegen die Regeln verstoßen, werden rigoros gelöscht.

Du findest den Blog gut, hast aber Werbung geblockt? Du kannst diesen Blog auch durch eine Spende unterstützen.