Etiket: Microsoft

  • Bir sonraki seyahatinizi yapay zekanın planlamasına izin vermenin tehlikeleri

    Seyahat planlarını oluşturmak için yapay zeka kullanan gezginlerin ekstra dikkatli olmaları ve her şeyi doğrulamaları tavsiye ediliyor (Kaynak: Serenity Strull)

    Peru’da hayal edilen bir kasaba, Pekin’de bir Eyfel Kulesi: Gezginler, seyahat fikirleri için ChatGPT gibi araçları giderek daha fazla kullanıyor ve var olmayan yerlere gönderiliyorlar.

    Evolution Treks Peru’nun kurucusu ve yöneticisi Miguel Angel Gongora Meza, And Dağları’nda yapacağı bir yürüyüşe hazırlık yaparken kırsal bir Peru kasabasında ilginç bir sohbete kulak misafiri oldu. Refakatsiz iki turist, dağlarda tek başlarına “Humantay Kutsal Kanyonu”na yürüyüş yapma planları hakkında dostça sohbet ediyorlardı.

    “Bana kendinden emin bir şekilde yazılmış ve canlı sıfatlarla dolu ekran görüntüsünü gösterdiler, [ama] doğru değildi. Humantay’ın Kutsal Kanyonu diye bir şey yok!” dedi Gongora Meza. “İsim, açıklamayla hiçbir ilgisi olmayan iki yerin birleşiminden oluşuyor. Turist, Mollepata civarındaki kırsal bir yola rehbersiz veya [bir varış noktası] olmadan ulaşmak için yaklaşık 160 dolar (118 sterlin) ödedi.”

    Dahası, Gongora Meza, bu görünüşte masum hatanın bu gezginlerin hayatlarına mal olabileceği konusunda ısrarcıydı. “Bu tür yanlış bilgilendirmeler Peru’da tehlikelidir,” diye açıkladı. “Yolların yüksekliği, iklim değişiklikleri ve erişilebilirliği planlanmalıdır. Resimleri ve isimleri birleştirerek bir fantezi yaratan [ChatGPT gibi] bir program [kullandığında], kendinizi oksijen ve [telefon] sinyali olmadan 4.000 m yükseklikte bulabilirsiniz.”

    ChatGPT, Microsoft Copilot ve Google Gemini gibi yapay zeka (YZ) araçları, yalnızca birkaç yıl içinde milyonlarca insan için sıradan bir yenilik olmaktan çıkıp seyahat planlamasının ayrılmaz bir parçası haline geldi. Bir ankete göre, uluslararası gezginlerin %30’u artık seyahatlerini organize etmek için Wonderplan ve Layla gibi üretken YZ araçlarını ve özel seyahat YZ sitelerini kullanıyor .

    Bu programlar düzgün çalıştıklarında değerli seyahat ipuçları sunabilseler de, düzgün çalışmadıklarında insanları sinir bozucu hatta tehlikeli durumlara da sürükleyebilirler. Bu, bazı gezginlerin, varmak istedikleri yere vardıklarında, kendilerine yanlış bilgi verildiğini veya yalnızca bir robotun hayal gücünde var olan bir yere yönlendirildiklerini fark ettiklerinde öğrendikleri bir derstir.

    Dana Yao ve eşi yakın zamanda bunu bizzat deneyimledi. Çift, bu yılın başlarında Japonya’nın Itsukushima adasındaki Misen Dağı’nın zirvesine romantik bir yürüyüş planlamak için ChatGPT’yi kullandı. Miyajima kasabasını sorunsuz bir şekilde keşfettikten sonra, ChatGPT’nin kendilerine söylediği gibi, tam da gün batımına yetişecek şekilde dağın zirvesine tırmanmak için saat 15:00’te yola çıktılar.

    Japonya’da seyahat hakkında bir blog yazan içerik üreticisi Yao, “Sorun tam da o zaman ortaya çıktı,” dedi . “Teleferik istasyonundan [dağa] inmeye hazır olduğumuzda. ChatGPT, son teleferiğin 17:30’da ineceğini söyledi, ancak gerçekte teleferik çoktan kapanmıştı. Yani dağın tepesinde mahsur kaldık.”

    2024 tarihli bir BBC makalesinde , Layla’nın kullanıcılara Pekin’de bir Eyfel Kulesi olduğunu ve bir İngiliz gezgine Kuzey İtalya’da tamamen uygulanamaz bir maraton rotası önerdiğini bildirmişti. Gezgin, “Rotalar pek mantıklı değildi,” dedi. “Ulaşıma her şeyden daha fazla zaman harcardık.”
    2024 yılında yapılan bir ankete göre , seyahatlerini planlamak için yapay zeka kullananların %37’si, yapay zekanın yeterli bilgi sağlayamadığını belirtirken, yaklaşık %33’ü yapay zeka tarafından oluşturulan önerilerin yanlış bilgiler içerdiğini söyledi.

    Bu sorunlar, yapay zekanın cevapları nasıl ürettiğinden kaynaklanıyor. Carnegie Melon Üniversitesi’nde makine öğrenimi alanında seçkin bir profesör olan Rayid Ghani’ye göre , ChatGPT gibi programlar size mantıklı ve faydalı tavsiyeler veriyor gibi görünse de, bu bilgileri edinme şekli, size doğruyu söyleyip söylemediğinden asla tam olarak emin olamayacağınız anlamına geliyor.

    “Seyahat tavsiyeleri, yol tarifleri veya tarifler arasındaki farkı bilmiyor,” dedi Ghani. “Sadece kelimeleri biliyor. Bu yüzden, size söylediği her şeyi gerçekçi kılan kelimeler kusuyor ve temeldeki sorunların çoğu da buradan kaynaklanıyor.”

    ChatGPT gibi büyük dil modelleri, devasa metin koleksiyonlarını analiz ederek ve istatistiksel olarak uygun yanıtlar gibi görünen kelime ve ifadeleri bir araya getirerek çalışır. Bazen bu, tamamen doğru bilgiler sağlar. Bazen de yapay zeka uzmanlarının “halüsinasyon” dediği şeye maruz kalırsınız, çünkü bu araçlar sadece uydurma şeylerdir. Ancak yapay zeka programları halüsinasyonlarını ve gerçekçi yanıtlarını aynı şekilde sunduğundan, kullanıcıların neyin gerçek neyin gerçek olmadığını ayırt etmesi genellikle zordur.

    “Humantay Kutsal Kanyonu” örneğinde, Ghani yapay zeka programının muhtemelen bölgeye uygun görünen birkaç kelimeyi bir araya getirdiğine inanıyor. Benzer şekilde, tüm bu verileri analiz etmek, ChatGPT gibi bir araca fiziksel dünya hakkında faydalı bir anlayış kazandırmıyor. Bir şehirde 4.000 metrelik rahat bir yürüyüşü, bir dağın yamacına 4.000 metrelik bir tırmanışla kolayca karıştırabilir; üstelik gerçek yanlış bilgi sorunu ortaya çıkmadan önce.

    Birçok hükümet, yanlış bilgilerin viral hale gelmeden önce tespit edilmesine yardımcı olacak yapay zeka düzenlemeleri üzerinde çalışıyor (Kaynak: Getty Images)
    Fast Company’nin yakın tarihli bir makalesinde , bir çiftin TikTok’ta gördükleri Malezya’daki manzaralı bir teleferiğe bindikleri ve böyle bir yapının olmadığını fark ettikleri bir olay anlatıldı. İzledikleri video, ya etkileşim yaratmak ya da başka tuhaf bir amaç için tamamen yapay zeka tarafından üretilmişti.

    Bu gibi olaylar, dünyaya bakış açımızı gizlice veya o kadar da gizlice değiştirebilecek daha geniş bir yapay zeka uygulamaları trendinin bir parçası. Son bir örnek, Ağustos ayında içerik üreticilerinin YouTube’un videolarındaki gerçek kişilerin kıyafetleri, saçları ve yüzleri gibi şeyleri gizlice “düzenleyerek”, izin almadan yapay zekayı kullanarak videolarını değiştirdiğini fark etmesiyle yaşandı. Netflix, eski sitcom’ları “yeniden düzenleme” çabalarının sevilen 1980’ler ve 90’lar televizyon yıldızlarının yüzlerinde gerçeküstü bozulmalar bırakmasının ardından, 2025’in başlarında kendi yapay zeka kullanımı nedeniyle eleştiri yağmuruna tutuldu. Yapay zeka, bilgimiz olmadan bu tür küçük değişiklikler yapmak için giderek daha fazla kullanıldıkça, gerçeklik ile cilalanmış bir yapay zeka rüya dünyası arasındaki çizgiler gezginler için de bulanıklaşmaya başlıyor olabilir.

    Lisanslı klinik psikoterapist ve seyahatin genel ruh sağlığımızı ve bağ duygumuzu güçlendirmeye nasıl yardımcı olabileceğini savunan Javier Labourt , bu sorunların yaygınlaşmasının seyahatin sunduğu faydaların kendisini olumsuz etkileyebileceğinden endişe ediyor. Labourt, seyahatin insanlara normalde tanışamayacakları kişilerle etkileşim kurmaları ve farklı kültürleri ilk elden öğrenmeleri için eşsiz bir fırsat sunduğuna inanıyor; bunların hepsi daha fazla empati ve anlayışa yol açabilir. Ancak yapay zeka halüsinasyonları kullanıcılara yanlış bilgi verdiğinde, gezginler daha evlerinden ayrılmadan bir yer hakkında yanlış bir anlatı sunuyor.

    Buna benzer daha fazlası:

    • 2025’i şekillendirecek yedi seyahat trendi
    • Bollywood yıldızları, deepfake akımının artmasıyla kişilik hakları için mücadele ediyor
    • Dijital göçebelik trendi yıllar içinde nasıl gelişti?

    Yapay zekânın kullanıcılara bilgi sunma biçimini düzenlemeye yönelik girişimler mevcut. Bunlar arasında, AB ve ABD’den gelen ve izleyicilerin bir şeyin yapay zekâ tarafından değiştirildiğini veya oluşturulduğunu bilmeleri için filigran veya diğer ayırt edici özelliklerin eklenmesini öneren birkaç öneri de yer alıyor. Ancak Ghani’ye göre bu zorlu bir mücadele: “Yanlış bilgi konusunda çok fazla çalışma var: Bunu nasıl tespit edersiniz? İnsanların [tanımlamasına] nasıl yardımcı olursunuz? [Ancak] azaltma, bugün önlemeden daha güvenilir bir çözüm.”

    Bu tür düzenlemeler yürürlüğe girerse, gezginlerin yapay zeka tarafından oluşturulan görüntü veya videoları tespit etmesi kolaylaşabilir. Ancak yeni kurallar, bir yapay zeka sohbet robotunun konuşmanın ortasında bir şeyler uydurması durumunda size pek yardımcı olmayacaktır. Google CEO’su Sundar Pichai de dahil olmak üzere uzmanlar, halüsinasyonların ChatGPT veya Google’ın Gemini gibi büyük dil modellerinin “doğal bir özelliği” olabileceğini söyledi. Yapay zeka kullanacaksanız, kendinizi korumanın tek yolunun tetikte olmak olduğu anlamına gelir.

    Ghani’nin önerdiği bir şey, sorularınızda mümkün olduğunca spesifik olmanız ve her şeyi mutlaka doğrulamanızdır. Ancak, gezginlerin genellikle aşina olmadıkları yerler hakkında sorular sorması nedeniyle, bu yöntemin seyahat açısından benzersiz bir sorun yarattığını da kabul ediyor. Ancak bir yapay zeka aracı size biraz fazla mükemmel görünen bir seyahat önerisi verirse, tekrar kontrol edin. Sonuç olarak Ghani, yapay zeka bilgilerini doğrulamak için harcanan zamanın, bazı durumlarda süreci eski usul planlama kadar zahmetli hale getirebileceğini söylüyor.

    Labourt’a göre, yapay zekayla veya yapay zekasız iyi seyahat etmenin anahtarı, açık fikirli olmak ve işler ters gittiğinde uyum sağlayabilmektir. “Biri tarafından aldatılmış olmanın yarattığı hayal kırıklığını başka yöne çevirmeye çalışın,” diye önerdi. “Eğer oradaysanız, bunu nasıl düzelteceksiniz? Zaten harika bir yolculuktasınız, biliyorsunuz.”

  • Bill Gates servetinin yüzde 99’unu bağışlıyor

    Microsoft’un kurucusu Bill Gates, önümüzdeki 20 yıl içinde devasa servetinin yüzde 99’unu bağışlamayı planladığını söyledi.

    Gates, vakfı aracılığıyla bağış yapmayı hızlandıracağını ve vakfın 2045 yılında faaliyetlerini sonlandırmayı planladığını söyledi.

    Perşembe günü yayımladığı blog yazısında, “Öldüğümde insanlar benim hakkımda çok şey söyleyecek, ama ‘zengin öldü’ ifadesinin bunlardan biri olmayacağına kararlıyım” ifadesini kullandı.

    69 yaşındaki Gates, kendi adını taşıyan vakfının sağlık ve kalkınma projelerine bugüne kadar 100 milyar dolar bağışta bulunduğunu, önümüzdeki yirmi yıl içinde piyasalara ve enflasyona bağlı olarak 200 milyar dolar daha harcamayı öngördüğünü söyledi.

    Gates, blog yazısında, varlıklı İskoç-Amerikalı iş adamı Andrew Carnegie’nin 1889 tarihli Zenginliğin İncili adlı makalesinden alıntı yaptı. Makalede, zengin insanların servetlerini topluma geri verme görevi olduğu savunuluyor.

    Gates, Carnegie’nin, “Zengin ölen adam, itibarsızlaşmış olarak ölür” sözlerini alıntıladı.

    Son vaadi, bağış yapma konusunda bir ivme anlamına geliyor. Başlangıçta, eski eşi Melinda ile birlikte, Gates Vakfı’nın ölümlerinden sonra birkaç on yıl daha çalışmaya devam etmesini planlamışlardı.

    Gates, Perşembe günü BBC’nin Newshour programında bu değişiklikle ilgili bir soruya verdiği yanıtta, 20 yıl sonra gelecekteki zorluklarla daha iyi başa çıkabilecek başka zenginlerin olacağını söyledi.

    “Asıl mesele aciliyet. Ebedi olmaya çalışmıyorsak çok daha fazla para harcayabiliriz ve harcamanın benim değerlerimle uyumlu olacağını biliyorum” dedi.

    Servetinin %99’unu bağışlaması halinde de Gates, Bloomberg’e göre hâlâ milyarder olabilir. Microsoft’un kurucusu, dünyanın en zengin beşinci kişisi.

    Blog yazısında servetinin zaman çizelgesini paylaşan yazar, mevcut net servetinin 108 milyar dolar olduğunu söylüyor. Elle çizilmiş büyük bir okla 2045 yılında sıfıra yakın bir değere ulaşacağını gösteriyor.

    Gates ayrıca vakfın varlıklarından 200 milyar dolar bağışlayacağını söyledi.

    Gates, Paul Allen ile birlikte 1975’te Microsoft’u kurdu ve şirket bilgisayar yazılımı ve diğer teknoloji sektörlerinde baskın bir güç haline geldi.

    Gates şirketten kademeli olarak çekildi, 2000’de CEO’luktan ve 2014’te yönetim başkanlığından istifa etti.

    Gates, bağış konusunda yatırımcı Warren Buffett ve diğer hayırseverlerden ilham aldığını söyledi. Ancak vakfını eleştirenler, Gates’in hayır kurumu statüsünü vergi kaçırmak için kullandığını ve küresel sağlık sistemi üzerinde haksız bir etkiye sahip olduğunu söylüyor.

    Blog yazısında vakfının üç temel amacını şöyle sıralıyor: Anneleri ve çocukları öldüren önlenebilir hastalıkları ortadan kaldırmak; sıtma ve kızamık gibi bulaşıcı hastalıkları ortadan kaldırmak ve yüz milyonlarca insanın yoksulluğunu ortadan kaldırmak.

    Gates, ABD, Birleşik Krallık ve Fransa’nın dış yardım bütçelerini kısmalarını eleştirdi.

    “Dünyanın en zengin ülkelerinin en fakir insanlarına destek olmaya devam edip etmeyeceği belirsiz. Ancak garanti edebileceğimiz tek şey, Gates Vakfı’nın tüm çalışmalarımızda insanların ve ülkelerin kendilerini yoksulluktan kurtarmalarına yardımcı olma çabalarını destekleyeceğidir” diye yazdı.

    Newshour’a verdiği röportajda, teknoloji milyarderi Elon Musk’ın ABD’deki Hükümet Verimliliği Bakanlığı (Doge) tarafından yapılan kesintiler nedeniyle çocukları öldürdüğü yönündeki iddialarına ilişkin yaptığı yorumlar sorulduğunda daha da net konuştu.

    Gates, “Bu kesintiler sadece çocukları değil, milyonlarca çocuğu öldürecek. Dünyanın en zengin insanının bunu yapacağını beklemezdiniz” diye yanıt verdi.

    İngiliz Financial Times gazetesine verdiği bir röportajda Gates, Mozambik’teki Gazze Eyaletindeki bir hastaneye verilen hibelerin iptal edilmesi konusunu gündeme getirdi.

    Donald Trump bu hastaneyle ilgili olarak Gazze Şeridi’ndeki “Hamas için” prezervatif fonladığı gibi hatalı bir iddiada bulunmuştu.

    Musk daha sonra iddianın yanlış olduğunu kabul etti ve “hatalar yapacağız” dedi, ancak kesintiler devam etti.

    Gates, Financial Times gazetesine yaptığı açıklamada, “Musk’ın gidip Aids’e yakalanan çocuklarla tanışmasını çok isterdim çünkü o parayı o kesti” dedi.

    BBC Musk ile iletişime geçti ancak yanıt alamadı.

    Gates Vakfı, BBC’nin habercilik faaliyetlerinden ayrı bir kolu olan hayır amaçlı BBC Media Action’a bağışta bulunuyor.

    Bu haber, BBC gazetecileri tarafından hazırlandı ve kontrol edildi. Bir pilot proje kapsamında çevirisi için yapay zekadan da faydalanıldı.