
Seyahat planlarını oluşturmak için yapay zeka kullanan gezginlerin ekstra dikkatli olmaları ve her şeyi doğrulamaları tavsiye ediliyor (Kaynak: Serenity Strull)
Peru’da hayal edilen bir kasaba, Pekin’de bir Eyfel Kulesi: Gezginler, seyahat fikirleri için ChatGPT gibi araçları giderek daha fazla kullanıyor ve var olmayan yerlere gönderiliyorlar.
Evolution Treks Peru’nun kurucusu ve yöneticisi Miguel Angel Gongora Meza, And Dağları’nda yapacağı bir yürüyüşe hazırlık yaparken kırsal bir Peru kasabasında ilginç bir sohbete kulak misafiri oldu. Refakatsiz iki turist, dağlarda tek başlarına “Humantay Kutsal Kanyonu”na yürüyüş yapma planları hakkında dostça sohbet ediyorlardı.
“Bana kendinden emin bir şekilde yazılmış ve canlı sıfatlarla dolu ekran görüntüsünü gösterdiler, [ama] doğru değildi. Humantay’ın Kutsal Kanyonu diye bir şey yok!” dedi Gongora Meza. “İsim, açıklamayla hiçbir ilgisi olmayan iki yerin birleşiminden oluşuyor. Turist, Mollepata civarındaki kırsal bir yola rehbersiz veya [bir varış noktası] olmadan ulaşmak için yaklaşık 160 dolar (118 sterlin) ödedi.”
Dahası, Gongora Meza, bu görünüşte masum hatanın bu gezginlerin hayatlarına mal olabileceği konusunda ısrarcıydı. “Bu tür yanlış bilgilendirmeler Peru’da tehlikelidir,” diye açıkladı. “Yolların yüksekliği, iklim değişiklikleri ve erişilebilirliği planlanmalıdır. Resimleri ve isimleri birleştirerek bir fantezi yaratan [ChatGPT gibi] bir program [kullandığında], kendinizi oksijen ve [telefon] sinyali olmadan 4.000 m yükseklikte bulabilirsiniz.”
ChatGPT, Microsoft Copilot ve Google Gemini gibi yapay zeka (YZ) araçları, yalnızca birkaç yıl içinde milyonlarca insan için sıradan bir yenilik olmaktan çıkıp seyahat planlamasının ayrılmaz bir parçası haline geldi. Bir ankete göre, uluslararası gezginlerin %30’u artık seyahatlerini organize etmek için Wonderplan ve Layla gibi üretken YZ araçlarını ve özel seyahat YZ sitelerini kullanıyor .
Bu programlar düzgün çalıştıklarında değerli seyahat ipuçları sunabilseler de, düzgün çalışmadıklarında insanları sinir bozucu hatta tehlikeli durumlara da sürükleyebilirler. Bu, bazı gezginlerin, varmak istedikleri yere vardıklarında, kendilerine yanlış bilgi verildiğini veya yalnızca bir robotun hayal gücünde var olan bir yere yönlendirildiklerini fark ettiklerinde öğrendikleri bir derstir.
Dana Yao ve eşi yakın zamanda bunu bizzat deneyimledi. Çift, bu yılın başlarında Japonya’nın Itsukushima adasındaki Misen Dağı’nın zirvesine romantik bir yürüyüş planlamak için ChatGPT’yi kullandı. Miyajima kasabasını sorunsuz bir şekilde keşfettikten sonra, ChatGPT’nin kendilerine söylediği gibi, tam da gün batımına yetişecek şekilde dağın zirvesine tırmanmak için saat 15:00’te yola çıktılar.
Japonya’da seyahat hakkında bir blog yazan içerik üreticisi Yao, “Sorun tam da o zaman ortaya çıktı,” dedi . “Teleferik istasyonundan [dağa] inmeye hazır olduğumuzda. ChatGPT, son teleferiğin 17:30’da ineceğini söyledi, ancak gerçekte teleferik çoktan kapanmıştı. Yani dağın tepesinde mahsur kaldık.”

2024 tarihli bir BBC makalesinde , Layla’nın kullanıcılara Pekin’de bir Eyfel Kulesi olduğunu ve bir İngiliz gezgine Kuzey İtalya’da tamamen uygulanamaz bir maraton rotası önerdiğini bildirmişti. Gezgin, “Rotalar pek mantıklı değildi,” dedi. “Ulaşıma her şeyden daha fazla zaman harcardık.”
2024 yılında yapılan bir ankete göre , seyahatlerini planlamak için yapay zeka kullananların %37’si, yapay zekanın yeterli bilgi sağlayamadığını belirtirken, yaklaşık %33’ü yapay zeka tarafından oluşturulan önerilerin yanlış bilgiler içerdiğini söyledi.
Bu sorunlar, yapay zekanın cevapları nasıl ürettiğinden kaynaklanıyor. Carnegie Melon Üniversitesi’nde makine öğrenimi alanında seçkin bir profesör olan Rayid Ghani’ye göre , ChatGPT gibi programlar size mantıklı ve faydalı tavsiyeler veriyor gibi görünse de, bu bilgileri edinme şekli, size doğruyu söyleyip söylemediğinden asla tam olarak emin olamayacağınız anlamına geliyor.
“Seyahat tavsiyeleri, yol tarifleri veya tarifler arasındaki farkı bilmiyor,” dedi Ghani. “Sadece kelimeleri biliyor. Bu yüzden, size söylediği her şeyi gerçekçi kılan kelimeler kusuyor ve temeldeki sorunların çoğu da buradan kaynaklanıyor.”
ChatGPT gibi büyük dil modelleri, devasa metin koleksiyonlarını analiz ederek ve istatistiksel olarak uygun yanıtlar gibi görünen kelime ve ifadeleri bir araya getirerek çalışır. Bazen bu, tamamen doğru bilgiler sağlar. Bazen de yapay zeka uzmanlarının “halüsinasyon” dediği şeye maruz kalırsınız, çünkü bu araçlar sadece uydurma şeylerdir. Ancak yapay zeka programları halüsinasyonlarını ve gerçekçi yanıtlarını aynı şekilde sunduğundan, kullanıcıların neyin gerçek neyin gerçek olmadığını ayırt etmesi genellikle zordur.
“Humantay Kutsal Kanyonu” örneğinde, Ghani yapay zeka programının muhtemelen bölgeye uygun görünen birkaç kelimeyi bir araya getirdiğine inanıyor. Benzer şekilde, tüm bu verileri analiz etmek, ChatGPT gibi bir araca fiziksel dünya hakkında faydalı bir anlayış kazandırmıyor. Bir şehirde 4.000 metrelik rahat bir yürüyüşü, bir dağın yamacına 4.000 metrelik bir tırmanışla kolayca karıştırabilir; üstelik gerçek yanlış bilgi sorunu ortaya çıkmadan önce.

Birçok hükümet, yanlış bilgilerin viral hale gelmeden önce tespit edilmesine yardımcı olacak yapay zeka düzenlemeleri üzerinde çalışıyor (Kaynak: Getty Images)
Fast Company’nin yakın tarihli bir makalesinde , bir çiftin TikTok’ta gördükleri Malezya’daki manzaralı bir teleferiğe bindikleri ve böyle bir yapının olmadığını fark ettikleri bir olay anlatıldı. İzledikleri video, ya etkileşim yaratmak ya da başka tuhaf bir amaç için tamamen yapay zeka tarafından üretilmişti.
Bu gibi olaylar, dünyaya bakış açımızı gizlice veya o kadar da gizlice değiştirebilecek daha geniş bir yapay zeka uygulamaları trendinin bir parçası. Son bir örnek, Ağustos ayında içerik üreticilerinin YouTube’un videolarındaki gerçek kişilerin kıyafetleri, saçları ve yüzleri gibi şeyleri gizlice “düzenleyerek”, izin almadan yapay zekayı kullanarak videolarını değiştirdiğini fark etmesiyle yaşandı. Netflix, eski sitcom’ları “yeniden düzenleme” çabalarının sevilen 1980’ler ve 90’lar televizyon yıldızlarının yüzlerinde gerçeküstü bozulmalar bırakmasının ardından, 2025’in başlarında kendi yapay zeka kullanımı nedeniyle eleştiri yağmuruna tutuldu. Yapay zeka, bilgimiz olmadan bu tür küçük değişiklikler yapmak için giderek daha fazla kullanıldıkça, gerçeklik ile cilalanmış bir yapay zeka rüya dünyası arasındaki çizgiler gezginler için de bulanıklaşmaya başlıyor olabilir.
Lisanslı klinik psikoterapist ve seyahatin genel ruh sağlığımızı ve bağ duygumuzu güçlendirmeye nasıl yardımcı olabileceğini savunan Javier Labourt , bu sorunların yaygınlaşmasının seyahatin sunduğu faydaların kendisini olumsuz etkileyebileceğinden endişe ediyor. Labourt, seyahatin insanlara normalde tanışamayacakları kişilerle etkileşim kurmaları ve farklı kültürleri ilk elden öğrenmeleri için eşsiz bir fırsat sunduğuna inanıyor; bunların hepsi daha fazla empati ve anlayışa yol açabilir. Ancak yapay zeka halüsinasyonları kullanıcılara yanlış bilgi verdiğinde, gezginler daha evlerinden ayrılmadan bir yer hakkında yanlış bir anlatı sunuyor.
Buna benzer daha fazlası:
- 2025’i şekillendirecek yedi seyahat trendi
- Bollywood yıldızları, deepfake akımının artmasıyla kişilik hakları için mücadele ediyor
- Dijital göçebelik trendi yıllar içinde nasıl gelişti?
Yapay zekânın kullanıcılara bilgi sunma biçimini düzenlemeye yönelik girişimler mevcut. Bunlar arasında, AB ve ABD’den gelen ve izleyicilerin bir şeyin yapay zekâ tarafından değiştirildiğini veya oluşturulduğunu bilmeleri için filigran veya diğer ayırt edici özelliklerin eklenmesini öneren birkaç öneri de yer alıyor. Ancak Ghani’ye göre bu zorlu bir mücadele: “Yanlış bilgi konusunda çok fazla çalışma var: Bunu nasıl tespit edersiniz? İnsanların [tanımlamasına] nasıl yardımcı olursunuz? [Ancak] azaltma, bugün önlemeden daha güvenilir bir çözüm.”
Bu tür düzenlemeler yürürlüğe girerse, gezginlerin yapay zeka tarafından oluşturulan görüntü veya videoları tespit etmesi kolaylaşabilir. Ancak yeni kurallar, bir yapay zeka sohbet robotunun konuşmanın ortasında bir şeyler uydurması durumunda size pek yardımcı olmayacaktır. Google CEO’su Sundar Pichai de dahil olmak üzere uzmanlar, halüsinasyonların ChatGPT veya Google’ın Gemini gibi büyük dil modellerinin “doğal bir özelliği” olabileceğini söyledi. Yapay zeka kullanacaksanız, kendinizi korumanın tek yolunun tetikte olmak olduğu anlamına gelir.
Ghani’nin önerdiği bir şey, sorularınızda mümkün olduğunca spesifik olmanız ve her şeyi mutlaka doğrulamanızdır. Ancak, gezginlerin genellikle aşina olmadıkları yerler hakkında sorular sorması nedeniyle, bu yöntemin seyahat açısından benzersiz bir sorun yarattığını da kabul ediyor. Ancak bir yapay zeka aracı size biraz fazla mükemmel görünen bir seyahat önerisi verirse, tekrar kontrol edin. Sonuç olarak Ghani, yapay zeka bilgilerini doğrulamak için harcanan zamanın, bazı durumlarda süreci eski usul planlama kadar zahmetli hale getirebileceğini söylüyor.
Labourt’a göre, yapay zekayla veya yapay zekasız iyi seyahat etmenin anahtarı, açık fikirli olmak ve işler ters gittiğinde uyum sağlayabilmektir. “Biri tarafından aldatılmış olmanın yarattığı hayal kırıklığını başka yöne çevirmeye çalışın,” diye önerdi. “Eğer oradaysanız, bunu nasıl düzelteceksiniz? Zaten harika bir yolculuktasınız, biliyorsunuz.”