IMG Investor Dnes Bloombergtv Bulgaria On Air Gol Tialoto Az-jenata Puls Teenproblem Automedia Imoti.net Rabota Az-deteto Blog Start.bg Chernomore Posoka Boec Megavselena.bg
BGONAIR Live

ChatGPT изпраща пътешествениците до дестинации... които не съществуват

Защо това е опасно?

Снимка: БГНЕС

Снимка: БГНЕС

Въображаем град в Перу, Айфелова кула в Пекин: пътешествениците все по-често използват инструменти като ChatGPT за идеи за маршрути – и биват изпращани до дестинации, които не съществуват.

Мигел Анхел Гонгора Меза, основател и директор на Evolution Treks Peru, бил в селски перуански град, подготвяйки се за преход през Андите, когато подслушвал любопитен разговор. Двама непридружени туристи си разговаряли приятелски за плановете си да се отправят сами в планината към „Свещения каньон на Хумантай“.

„Те ми показаха екранната снимка, написана уверено и пълна с ярки прилагателни, но всъщност информацията в нея не беше вярна. Няма Свещен каньон на Хумантай!“, казва Гонгора Меза. „Името е комбинация от две места, които нямат връзка с описанието. Туристът беше платил близо 160 долара, за да стигне до селски път в околностите на Моллепата без водач или дестинация.“

Нещо повече, Гонгора Меза настоял, че тази на пръв поглед невинна грешка е могла да струва живота на тези пътешественици.

„Този ​​вид дезинформация е опасна в Перу“, обяснява той пред BBC „Надморската височина, климатичните фактори и достъпността на пътеките трябва да бъдат планирани. Когато използвате програма, като ChatGPT, която комбинира снимки и имена, за да създаде фантазия, тогава можете да се озовете на височина от 4000 м без кислород и телефонен сигнал.“

Само за няколко години инструменти с изкуствен интелект (ИИ) като ChatGPT, Microsoft Copilot и Google Gemini са се превърнали от обикновена новост в неразделна част от планирането на пътувания за милиони хора. Според едно проучване, 30% от международните туристи вече използват генеративни инструменти с ИИ и специализирани сайтове за пътуване с ИИ като Wonderplan и Layla, за да им помогнат да организират пътуванията си.

Въпреки че тези програми могат да предложат ценни съвети за пътуване, когато работят правилно, те могат да доведат хората до някои разочароващи или дори опасни ситуации, когато не работят. Това е урок, който някои пътешественици научават, когато пристигнат на желаната си дестинация, само за да открият, че са получили невярна информация или са били насочени към място, което съществува само във въображението на робот.

Дана Яо и съпругът ѝ наскоро преживяха това от първа ръка. Двойката използва ChatGPT, за да планира романтичен поход до върха на планината Мисен на японския остров Ицукушима по-рано тази година. След като разгледаха град Мияджима без проблеми, те тръгнаха в 15:00 часа, за да се изкачат до върха на планината навреме за залез слънце, точно както ги беше инструктирал ChatGPT.

„Тогава се появи проблемът“, разказва Яо, създател, който пише блог за пътуване в Япония. "Бяхме готови да слезем от планината през станцията на въжената линия. ChatGPT каза, че последното спускане на въжената линия е в 17:30 часа, но в действителност въжената линия вече беше затворена. Така че бяхме заседнали на върха на планината.

Статия на BBC от 2024 г. съобщава, че Лейла накратко е казала на потребителите, че в Пекин има Айфелова кула и е предложила на британски пътешественик маратонски маршрут през Северна Италия, който е бил напълно неосъществим.

„Маршрутите нямаха много логичен смисъл“, каза тогава пътешественикът. „Щяхме да прекараме повече време в транспорт, отколкото в каквото и да е друго.“

Според проучване от 2024 г., 37% от анкетираните, които са използвали изкуствен интелект, за да планират пътуванията си, съобщават, че той не може да предостави достатъчно информация, докато около 33% казват, че техните препоръки, генерирани от изкуствен интелект, включват невярна информация.

Тези проблеми произтичат от начина, по който изкуственият интелект генерира отговорите си. Според Райид Гани, изтъкнат професор по машинно обучение в университета Карнеги Мелън, макар програми като ChatGPT да изглеждат като рационални и полезни съвети, начинът, по който получават тази информация, означава, че никога не можете да бъдете напълно сигурни дали ви казват истината.

„ChatGPT не прави разлика между съвети за пътуване, упътвания или рецепти“, казва Гани. „Програмата просто знае думи. Така че, тя продължава да изрича думи, които правят това, което ви казва, да звучи реалистично, и оттам идват много от основните проблеми.“

Големи езикови модели като ChatGPT работят, като анализират огромни колекции от текст и събират думи и фрази, които статистически се усещат като подходящи отговори. Понякога това предоставя напълно точна информация. Друг път получавате това, което експертите по изкуствен интелект наричат ​​„халюцинация“, тъй като тези инструменти просто си измислят нещата. Но тъй като програмите с изкуствен интелект представят своите халюцинации и фактически отговори по един и същи начин, често е трудно за потребителите да различат кое е реално от кое не е.

В случая със „Свещения каньон на Хумантай“, Гани смята, че програмата с изкуствен интелект вероятно е съставила само няколко думи, които са изглеждали подходящи за региона. По подобен начин, анализът на всички тези данни не дава непременно полезна представа на инструмент като ChatGPT за разбиране на физическия свят.

Лесно би могло да се обърка спокойна 4000-метрова разходка през града с 4000-метрово изкачване по склона на планина – и това е преди да се появи проблемът с действителната дезинформация.

Неотдавнашна статия на Fast Company разказва за инцидент, при който двойка се е отправила към живописен въжеен лифт в Малайзия, който е видяла в TikTok, само за да открие, че такава структура не съществува. Видеото, което са гледали, е било изцяло генерирано от изкуствен интелект, или за да се повиши ангажираността, или за някаква друга странна цел.

Инциденти като този са част от по-голяма тенденция на внедряване на изкуствен интелект, която може фино – или не толкова фино – да промени нашето усещане за света. Скорошен пример дойде през август, когато създателите на съдържание осъзнаха, че YouTube използва изкуствен интелект, за да променя видеоклиповете им без разрешение, като фино „редактира“ неща като дрехите, косата и лицата на реални хора във видеоклиповете.

Netflix се озова в затруднено положение заради собственото си използване на изкуствен интелект в началото на 2025 г., след като усилията за „ремастериране“ на стари ситкоми оставиха сюрреалистични изкривявания в лицата на обичани телевизионни звезди от 80-те и 90-те години. Тъй като изкуственият интелект все по-често се използва за извършване на подобни малки промени без наше знание, границите между реалността и изпипания свят на мечтите, създаден с изкуствен интелект, може да започнат да се размиват и за пътуващите.

Хавиер Лабурт, лицензиран клиничен психотерапевт и защитник на начина, по който пътуването може да помогне за подобряване на цялостното ни психично здраве и чувството за връзка, се притеснява, че разпространението на тези проблеми може да противодейства на самите ползи, които пътуването може да предложи. Той смята, че пътуването предлага уникална възможност на хората да взаимодействат с хора, които иначе не биха срещнали, и да научат за различни култури от първа ръка – всичко това може да доведе до по-голяма емпатия и разбиране. Но когато халюцинациите, причинени от изкуствен интелект, захранват потребителите с дезинформация, те предлагат фалшив разказ за дадено място, преди пътуващите дори да напуснат дома си.

В момента се правят опити за регулиране на начина, по който изкуственият интелект представя информация на потребителите, включително няколко предложения от ЕС и САЩ за включване на водни знаци или други отличителни характеристики, така че зрителите да знаят кога нещо е било променено или генерирано от изкуствен интелект. Но според Гани това е трудна битка:

„Има много работа около дезинформацията: Как да я откриете? Как да помогнете на хората да я идентифицират? Но смекчаването на последиците е по-надеждно решение днес от превенцията.“

Ако този вид регулации бъдат приети, те биха могли да улеснят пътуващите в откриването на генерирани от изкуствен интелект изображения или видеоклипове. Но новите правила вероятно няма да ви помогнат, когато чатбот с изкуствен интелект измисля нещо по средата на разговор. Експерти, включително главният изпълнителен директор на Google Сундар Пичай, казват, че халюцинациите може да са „присъща характеристика“ на големи езикови модели като ChatGPT или Gemini на Google. Ако ще използвате изкуствен интелект, това означава, че единственият начин да се предпазите е да бъдете бдителни.

Едно нещо, което Гани предлага, е да бъдете възможно най-конкретни в запитванията си и да проверявате абсолютно всичко. Той обаче признава уникалния проблем, който пътуването създава за този метод, тъй като пътуващите често питат за дестинации, с които не са запознати. Но ако инструмент с изкуствен интелект ви даде предложение за пътуване, което звучи малко прекалено перфектно, проверете го отново. В крайна сметка Гани казва, че времето, прекарано в проверка на информацията от изкуствен интелект, в някои случаи може да направи процеса също толкова трудоемък, колкото и планирането по старомодния начин.

За Лабурт ключът към доброто пътуване – със или без изкуствен интелект – е да запазите отворен ум и да бъдете адаптивни, когато нещата се объркат.

Опитайте се да отместите разочарованието далеч от това да бъдете измамени от някого“, предложи той. „Ако си там, как ще обърнеш нещата? Вече си на страхотно пътуване, нали знаеш?“

Това се случи Dnes, за важното през деня ни последвайте и в Google News Showcase.
Новини
Технологии
Водещи
Последни новини
Четени
Най-четени за седмицата