Фото: Serenity Strull
Искусственный интеллект всё чаще используется туристами для поиска идей маршрутов и планирования поездок. Но вместе с удобством приходят и серьёзные риски: иногда программы вроде ChatGPT или Google Gemini советуют места, которых не существует, или дают неточные сведения, из-за которых путешественники оказываются в опасности.
Несуществующие направления и опасные маршруты
Мигель Анхель Гонгора Меса, основатель Evolution Treks Peru, рассказал, как встретил двух туристов, собиравшихся отправиться в поход к «Священному каньону Хумантай». Они показали ему маршрут, созданный ИИ. Проблема заключалась в том, что такого каньона вовсе не существует. По его словам, ошибка могла стоить людям жизни: на высоте 4000 метров без кислорода и связи риски огромны.
Похожие ситуации происходят и в других странах. Так, блогерша Дана Яо со своим мужем воспользовалась ChatGPT для планирования восхождения на гору Мисэн в Японии. Программа уверенно сообщила им расписание работы канатной дороги, но в реальности она закрывалась раньше. Пара оказалась запертой на вершине.
В 2024 году BBC писала о том, что один сервис ИИ «нашёл» Эйфелеву башню в Пекине, а британцу предложил абсурдный маршрут марафона по северной Италии, где на дорогу уходило больше времени, чем на само путешествие.
Почему ИИ ошибается?
Причина в устройстве языковых моделей. Они не проверяют факты, а лишь подбирают наиболее вероятные слова на основе анализа текста. Иногда это даёт верные ответы, но нередко рождает так называемые «галлюцинации» — выдуманные данные, которые звучат правдоподобно.
Профессор машинного обучения Университета Карнеги-Мелон Райид Гани поясняет:
«ИИ не понимает разницы между советом путешественнику, инструкцией или рецептом. Он просто выдаёт слова, которые выглядят реалистично»
Поэтому в его ответах могут переплетаться названия, изображения и детали, которые в действительности не связаны.
Когда ИИ меняет реальность
Речь идёт не только о маршрутах. В Малайзии пара туристов отправилась к «живописной канатной дороге», увиденной в TikTok, и обнаружила, что она полностью сгенерирована ИИ. Похожая тенденция проявляется и в других сферах: YouTube, например, незаметно изменял видео пользователей с помощью алгоритмов, а попытки Netflix «улучшить» старые сериалы с помощью ИИ привели к искажению лиц актёров.
По словам психотерапевта Хавьера Лабурта, подобные случаи подрывают саму суть путешествий: «Люди едут, чтобы узнать другую культуру, встретить новых людей и развить эмпатию. Но дезинформация ИИ создаёт ложные ожидания ещё до того, как человек покидает дом».
Попытки регулирования
ЕС и США уже обсуждают правила, которые обязали бы помечать сгенерированные изображения или тексты водяными знаками. Но пока что это касается лишь контента в интернете. В случае с чат-ботами, которые «выдумывают» данные в реальном времени, защита путешественников остаётся сложной задачей.
Даже глава Google Сундар Пичаи признал, что галлюцинации ИИ — врождённая особенность таких моделей. Это значит, что пользователям остаётся только быть бдительными.
Как обезопасить себя
Эксперты советуют:
- проверяйте любую информацию из ИИ с помощью надёжных источников;
- будьте максимально конкретны в запросах;
- не доверяйте слишком «идеальным» маршрутам;
- сохраняйте гибкость и готовность адаптироваться.