Madrid Times

España Viva: Your Window to Madrid and Beyond
Wednesday, Feb 04, 2026

La IA Inventó “Aguas Termales” — Los Turistas Llegaron y Quedaron Shockeados

Cientos de visitantes en Tasmania fueron engañados después de que un artículo de viaje generado por IA promoviera unos "manantiales calientes de Weldborough" que no existen, lo que provocó confusión, quejas y la eliminación del contenido falso.
No hay nada más frustrante que el momento en que nos damos cuenta de que la inteligencia artificial simplemente ha inventado información en la que confiábamos, solo para descubrir que no tiene conexión con la realidad.

¿Y qué es aún más frustrante?

No hay a quién reprender ni a quién culpar, excepto a nosotros mismos ( entenderás por qué más adelante en el artículo).

Para cientos de turistas en Tasmania, esta se convirtió en la decepcionante realidad de las vacaciones que habían planeado.

El sitio web de viajes “Tasmania Tours” utilizó inteligencia artificial (IA) para generar contenido e imágenes para su sitio, y creó erróneamente una atracción natural que no existe en absoluto: las “Aguas termales de Weldborough”.

El artículo problemático se publicó en julio de 2025 y desde entonces ha atraído un tráfico web significativo.

Junto a una imagen atractiva, describía las fuentes imaginarias como un “retiro pacífico en el corazón del bosque” y un lugar que ofrecía una “conexión auténtica con la naturaleza”. El texto seductor prometía a los visitantes un baño en aguas “ricas en minerales terapéuticos”, e incluso clasificó el lugar como uno de los “siete mejores sitios de aguas termales en Tasmania para 2026”.

“En el auge de la locura, recibía alrededor de cinco llamadas telefónicas al día, y grupos enteros venían al hotel preguntando dónde estaban las fuentes”, dijo el dueño de un bar local.

“Les dije: ‘Si encuentras las aguas termales, vuelve y dímelo, y me encargaré de tu cerveza toda la noche por cuenta de la casa.’ Nadie volvió”.

Lo que hizo que los turistas cayeran en la trampa fue el hecho de que la IA era lo suficientemente sofisticada como para mezclar verdad y falsedad: las fuentes inventadas aparecieron en una lista junto a atracciones completamente reales y bien conocidas, como las Cuevas de Hastings, lo que le dio a la información un alto nivel de credibilidad.

El artículo iba acompañado de imágenes pastorales generadas por IA de piscinas humeantes en la naturaleza, que finalmente convencieron incluso a los más indecisos.

La realidad en el terreno en Weldborough, un pueblo rural en el noreste de la isla, era completamente diferente.

No hay aguas termales allí, y nunca las ha habido.

Las únicas atracciones en la zona son bosques, un bar local y un río cuya agua está helada.

Christie Probert, la dueña del bar local, se vio obligada a lidiar con una ola de turistas desamparados.

“En el pico de esto, estaba recibiendo alrededor de cinco llamadas telefónicas al día, y todos los días dos o tres grupos venían al hotel preguntando dónde estaban las fuentes”, dijo Probert.

“El Río Salvaje que fluye por aquí está absolutamente helado. Honestamente, tienes más posibilidades de encontrar un diamante en el río que agua caliente”.

Según ella, el error de la IA creó un caos local.

“Hace dos días, un grupo de veinticuatro conductores vino desde el continente, haciendo un desvío especial de su ruta solo para llegar a las fuentes. Les dije: ‘Si encuentras las aguas termales, vuelve y dímelo, y me encargaré de tu cerveza toda la noche por cuenta de la casa.’ Nadie volvió”.

Tras las numerosas consultas, la compañía “Australian Tours and Cruises”, que opera el sitio, eliminó el contenido falso.

El dueño, Scott Hensy, admitió el colosal fracaso y habló del alto costo personal.

“El odio que recibimos en línea fue devastador para el alma”, dijo Hensy en entrevistas con los medios globales.

“Somos solo una pareja casada tratando de seguir adelante con nuestras vidas”.

Hensy explicó que la empresa externalizó la redacción de contenido debido a una “falta de mano de obra” para producir suficiente material de manera independiente, en un esfuerzo por “competir con los grandes jugadores en Google”. Dijo que los materiales se publicaron sin suficiente supervisión humana mientras él estaba en el extranjero.

“A veces funciona maravillosamente, y a veces falla de manera masiva”, añadió Hensy.

“Vi al software generar animales que nunca había visto antes, como un wómbat con tres patas o criaturas que parecían una extraña combinación de un cocodrilo”. La empresa se disculpó y aclaró que es un negocio legítimo, y que ahora se está llevando a cabo una revisión manual exhaustiva de todo el contenido del sitio web. El caso de Weldborough es un ejemplo extremo de un fenómeno más amplio conocido como “alucinaciones de IA”, en el que los generadores de texto inventan hechos con total confianza.

La profesora Anne Hardy, experta en turismo, advierte que la dependencia ciega de la tecnología puede arruinar las vacaciones.

“Sabemos que hoy, alrededor del noventa por ciento de los itinerarios de viaje generados por inteligencia artificial contienen al menos un error”, dice Hardy.

“A pesar de eso, alrededor del treinta y siete por ciento de los viajeros confían en la IA para planificar sus viajes”. El caso de Tasmania sirve como un doloroso recordatorio: antes de empacar un traje de baño basado en una recomendación en línea, vale la pena asegurarse de que un humano haya verificado que el destino realmente existe.

Este no es el primer caso en el último año en el que la inteligencia artificial ha enviado a las personas en misiones absurdas o peligrosas.

A finales de 2025, se informó que dos turistas en Perú habían ido en busca del “Cañón Sagrado de Humantay” siguiendo la recomendación de un chatbot.

Se encontraron escalando a una altitud de cuatro mil metros sin recepción celular, solo para descubrir que el lugar no existía y que estaban en serio peligro.

Otro fenómeno que atormentó a los viajeros en 2025 fue la inundación de Amazon con guías de viaje falsas escritas por IA bajo nombres de autores ficticios.

Las guías, vendidas por miles, contenían recomendaciones para restaurantes que habían cerrado años antes y consejos sin sentido.

Incluso la cadena de comida rápida Taco Bell experimentó la fuerza de la tecnología, cuando su nuevo sistema de pedidos por voz falló y realizó un pedido de nada menos que dieciocho mil vasos de agua para un solo cliente.
AI Disclaimer: An advanced artificial intelligence (AI) system generated the content of this page on its own. This innovative technology conducts extensive research from a variety of reliable sources, performs rigorous fact-checking and verification, cleans up and balances biased or manipulated content, and presents a minimal factual summary that is just enough yet essential for you to function as an informed and educated citizen. Please keep in mind, however, that this system is an evolving technology, and as a result, the article may contain accidental inaccuracies or errors. We urge you to help us improve our site by reporting any inaccuracies you find using the "Contact Us" link at the bottom of this page. Your helpful feedback helps us improve our system and deliver more precise content. When you find an article of interest here, please look for the full and extensive coverage of this topic in traditional news sources, as they are written by professional journalists that we try to support, not replace. We appreciate your understanding and assistance.
Newsletter

Related Articles

Madrid Times
×