Ein australisches Reiseunternehmen hat mit KI-generierten Inhalten für paradiesische Thermalquellen in Tasmanien geworben, die es gar nicht gibt. Seitdem pilgern täglich verwirrte Urlauber in die abgelegene Region, was die Pubwirtin Kristy Probert des historischen Weldborough Hotels bestätigt. Der Vorfall ist ein deutliches Warnsignal für die gesamte Tourismusbranche bezüglich des unkritischen Einsatzes von Künstlicher Intelligenz.
KI-Halluzinationen sorgen für Verwirrung
Die Webseite „Tasmania Tours“ bewarb die „Weldborough Hot Springs“ als eines der „sieben besten Thermalquellen-Erlebnisse Tasmaniens für 2026“. Tatsächlich fanden die Touristen vor Ort nur einen eiskalten Fluss und dichten Wald. Der Betreiber, Scott Hennessy von „Australian Tours and Cruises“, räumte ein, dass die irreführenden Inhalte durch KI-Software eines Drittanbieters entstanden sind. Er sprach von einer „Halluzination“ der Künstlichen Intelligenz.
Hennessy erklärte, dass der Einsatz von KI-generierten Artikeln notwendig sei, um mit größeren Konkurrenten mithalten zu können, da das Unternehmen nicht genug Kapazität für die eigene Content-Erstellung habe. Normalerweise würden alle KI-generierten Beiträge vor der Veröffentlichung überprüft, doch einige seien versehentlich online gegangen.
Tourismusexpertin warnt vor zunehmendem Problem
Die australische Tourismusforscherin Anne Hardy sieht in dem Vorfall ein Warnsignal. Sie mahnt zu verstärkter Aufmerksamkeit gegenüber „KI-Halluzinationen“, da der Einsatz der Technologie immer weiter zunehme. Hardy zufolge enthalten etwa 90 Prozent der von ChatGPT erstellten Reiserouten mindestens einen Fehler. Gleichzeitig verlassen sich bereits 37 Prozent der Reisenden auf KI-Systeme bei der Urlaubsplanung. Häufige Fehlerquellen sind falsche Öffnungszeiten, unzutreffende Ortsbeschreibungen oder irreführende Angaben zu Wanderwegen.







