IMG Investor Dnes Bloombergtv Bulgaria On Air Gol Tialoto Az-jenata Puls Teenproblem Automedia Imoti.net Rabota Az-deteto Blog Start.bg Chernomore Posoka Boec Megavselena.bg
BGONAIR Live

Защо компаниите, разработващи ИИ, искат да се страхувате от тях?

За компаниите за ИИ е от полза да ви държат фиксирани върху апокалипсиса

Снимки: Getty

Снимки: Getty

Те го създадоха. Страхуват се от него. Но така или иначе го продават.

Навярно сте чували това преди: технологична компания твърди, че е построила нов изкуствен интелект, който е толкова мощен, че е страшен. Очевидно е твърде опасно да се пусне в света - последствията биха били катастрофални. За наш късмет, засега го държат в тайна. Просто искаха да знаете.

Точно това заяви компанията за изкуствен интелект Anthropic за най-новия си модел, Claude Mythos. Компанията казва, че способността на Mythos да открива грешки в киберсигурността далеч надминава човешките експерти и може да има промени в света, ако подобна технология попадне в грешни ръце.

"Последствията - за икономиките, обществената безопасност и националната сигурност - могат да бъдат тежки", написаха от Anthropic в публикация в блога си в началото на април.

Някои задъхани наблюдатели побързаха да предупредят, че Mythos скоро ще ви принуди да замените всяка технология в живота си, чак до вашата микровълнова печка с WiFi, за да се предпазите от дигиталната лудост.

Някои експерти по сигурността се съмняват в тези твърдения, но нека оставим това настрана. Това не е ново. Ръководители на водещи доставчици на ИИ редовно отправят предупреждения за това как продуктите на тяхната индустрия могат да унищожат човечеството.

Защо компаниите с ИИ искат да се страхуваме от тях?

Това е странен начин всяка компания да говори за собствената си работа. Не чувате McDonald's да обявява, че е създал бургер, толкова ужасяващо вкусен, че би било неетично да го приготви на скара за обществеността.

Ето една теория:

Според критиците, за компаниите за ИИ е от полза да ви държат фиксирани върху апокалипсиса, защото това отвлича вниманието от другите щети, които вече нанасят на света. Технологичните лидери казват, че просто ни предупреждават за неизбежно бъдеще, а безопасността е основен приоритет, независимо дали е сега или по-късно. Но други твърдят, че това, което всъщност виждаме, е всяване на страх, което преувеличава потенциала на технологията и служи за повишаване на цените на акциите. И насърчава разказа, че регулаторите трябва да стоят настрана, защото тези компании с ИИ са единствените, които могат да спрат лошите и да изградят тази технология отговорно.

"Ако представите тези технологии като някак си почти свръхестествени в тяхната опасност, това ни кара да се чувстваме сякаш сме безсилни, сякаш сме надминати", казва Шанън Валор, професор по етика на данните и изкуствения интелект в Университета в Единбург, Великобритания, пред BBC. "Сякаш единствените хора, към които евентуално бихме могли да се обърнем, са самите компании."

Някой да ме спре

Говорител на Anthropic заяви пред BBC, че компанията е била ясна по тези въпроси. Те са споделили публикации в блогове от други организации, подкрепящи кибервъзможностите на Mythos, но не са казали нищо, за да отговорят на точките в тази статия, освен един коментар, който е включен по-долу.

Това не е първият път, когато ръководителят на Anthropic Дарио Амодей работи върху инструмент, който е обявен за твърде опасен за обществеността от компанията, за която е работил. През 2019 г., когато Амодей е бил изпълнителен директор в OpenAI, компанията обяви GPT-2. Той и други ръководители на компанията заявиха, че просто не могат да пуснат GPT-2 поради "опасявания относно злонамерени приложения на технологията". Това е инструмент, далеч по-малко сложен от ChatGPT. А месеци по-късно те все пак го пуснаха. (Главният изпълнителен директор на OpenAI, Сам Алтман, публикува публикация в блога си, в която се казва, че компанията приема несигурността, признавайки, че страховете относно GPT-2 са били "неоснователни".)

Алтман критикува "маркетинга, основан на страх" на Anthropic в скорошно интервю за подкаст. Но неговият собствен наръчник "Създадох чудовище" датира отпреди години.

"Изкуственият интелект вероятно най-вероятно ще доведе до края на света, но междувременно ще има страхотни компании", каза Алтман през 2015 г.

Години по-късно Алтман твърди, че губи съня си, чудейки се дали е "направил нещо наистина лошо, като е стартирал ChatGPT". Само да го беше предупредил някой.

Стотици технологични лидери, включително Алтман, Амодей, Бил Гейтс и Демис Хасабис, главен изпълнителен директор на Google DeepMind, подкрепиха кратко изявление през 2023 г., в което се казваше:

"Намаляването на риска от изчезване от изкуствен интелект трябва да бъде глобален приоритет, наред с други рискове в обществен мащаб, като пандемии и ядрена война."

Същата година магнати, включително Илон Мъск, подписаха писмо, призоваващо за шестмесечна пауза в изграждането на усъвършенстван изкуствен интелект. Мъск обяви новата си компания за изкуствен интелект xAI по-малко от шест месеца по-късно.

"Това е просто част от този модел на необосновани претенции за власт", ​​казва Емили М. Бендър, професор по компютърна лингвистика и обработка на естествен език в Университета на Вашингтон и съавтор на книгата The AI ​​Con.

Това не се ограничава само до OpenAI и Anthropic, казва тя, това е стандартната позиция за цялата индустрия на изкуствения интелект.

"Те казват "вижте тук", нека не говорим за унищожаването на околната среда и експлоатацията на труда, и всички тези системи, които разрушаваме в обществото. Просто трябва да се тревожим дали това нещо няма да се превърне в лошото, което унищожава човечеството."

Попитан за всичко това, говорител на OpenAI споделя с BBC скорошна публикация в блога на Алтман, където той пише, че OpenAI ще "се противопостави на потенциала на тази технология да консолидира властта в ръцете на малцина", добавяйки, че "ключовите решения за ИИ се вземат чрез демократични процеси и с егалитарни принципи, а не само от лаборатории за ИИ".

Наистина ли Mythos е толкова опасен?

Anthropic казва, че новият им модел вече е открил хиляди "високосериозни" уязвимости в технологичния пейзаж на ниво, което надминава човешките експерти. Компанията също така обяви ново партньорство с повече от 40 компании и групи в "спешен опит" за отстраняване на уязвимости, преди хакерите да получат шанс. Говорител на компанията ми каза, че Anthropic е умишлено си партнирала с организации, за да поправи основните изчислителни системи, които представляват "лъвския пай" от проблема.

Но има значителни съмнения относно тези твърдения и Хайди Клааф, главен учен по ИИ в Института AI Now, не е била впечатлена. Тя е прекарала изграждането на кариерата си и одитирането на точните видове инструменти за анализ на код, които Anthropic предполага, че са надминати. Тя е работила и по дигитална безопасност в ядрени съоръжения.

Хлааф казва, че най-големият червен флаг е липсата на фалшиво положителни нива - стандартна за индустрията мярка за това колко често инструмент за сигурност сигнализира за нещо, което не е реален проблем.

"Това не е някаква неизвестна метрика", казва Хлааф. "Това е един вид най-големият индикатор за това колко полезен е вашият инструмент."

От Anthropic не споменават това и избягват въпроса, когато BBC иска коментар от тях. Нито пък Anthropic сравнява Mythos със съществуващи инструменти, на които инженерите по сигурността разчитат от десетилетия.

Имаше и някои твърдения, че Anthropic може да е възпрепятствала широкото пускане на Mythos, защото не е могла да си позволи необходимата изчислителна мощност. Anthropic не отговарят и на този въпрос.

Нищо от това не означава, че заплахата е въображаема.

"Mythos може да е способен", отбелязва Хлааф.

Инструментите с изкуствен интелект са наистина подходящи за сканиране на масивни кодови бази, а автоматичното намиране на уязвимости в сигурността е реално и... непосредствена опасност. Но Хлааф е скептичена към твърденията на Anthropic, без компанията да е в състояние да ги обоснове.

"Мисля, че има много пукнатини в този разказ, че Mythos е всемогъщ и не трябва да бъде освободен."

Защо е толкова сериозно?

Предотвратяването на края на света е причината OpenAI и Anthropic да твърдят, че съществуват на първо място. OpenAI е основан като организация с нестопанска цел, обещаваща да изгради ИИ по безопасен начин, преди уж по-малко отговорните технологични гиганти като Google и Meta да стигнат първи дотам. По-късно отцепническа група напуска OpenAI, за да сформира Anthropic, защото казват, че старият им работодател не е бил достатъчно отдаден на безопасността. Сега и двете организации работят, за да станат публично търгувани компании и да продават акции на фондовия пазар.

"Ако искате да разберете как ще се държи една организация, особено корпорация, вижте какви са нейните стимули", казва Валор.

Google премахна червените си линии около създаването на оръжия с изкуствен интелект. OpenAI води съдебна битка, за да се откаже от статута си на организация с нестопанска цел. Anthropic се отказа от водещата си политика никога да не обучава модел с изкуствен интелект, ако компанията не може да гарантира адекватни мерки за безопасност.

"Не бих разчитала на нито една от тези компании да се откаже от възможността да доминира на пазара, за да остане добър човек", казва Валор.

Междувременно има тласък за изкуствен интелект в здравеопазването, въпреки сериозните опасения относно погрешни диагнози. Центровете за данни, захранвани с газ, биха могли да отделят повече парникови газове от цели държави. Според съобщенията, изкуственият интелект довежда маси от уязвими хора до степен на психоза и дори самоубийство. Все повече изследвания предполагат възможна връзка между изкуствения интелект и когнитивния упадък. Дийпфейковете са преминали точката на безвъзвратност.

Компаниите, разработващи изкуствен интелект казват, че приемат тези проблеми сериозно. OpenAI изпраща на BBC връзки към позицията си относно психичното здраве, точността на изкуствения интелект, измамите и измамите, а Алтман казва, че компанията е ангажирана да се справи с проблемите на всеки етап от развитието на изкуствения интелект.

Но има причина тези компании да бият тревога само за евентуалния апокалипсис, казва Валор. Ако изкуственият интелект може да унищожи обществото, тези други проблеми изглеждат много по-маловажни.

"Стратегията проработи", казва тя. "Говоренето за техните продукти, сякаш те могат да сложат край на света, не е навредило на тези компании. Не е ограничило властта им. Ако не друго, кара хората да се чувстват така, сякаш единствените, към които евентуално биха могли да се обърнат за защита, са самите компании."

Демони или месии

Почти едновременно някои от хората, които предупреждават за унищожение, обещават и спасение. В есе от 2024 г. Алтман предсказва "удивително триумфално, че оправянето на климата, създаването на космическа колония и откриването на цялата физика - в крайна сметка ще станат нещо обичайно“. Амодей обеща "страна на гении в център за данни".

Утопията и апокалипсисът са само две страни на една и съща монета, според Валор.

"И в двата случая мащабът е твърде грандиозен и митичен, за да изглежда, че неща като регулиране, управление или съдебно право могат да се купят от него", обяснява тя. "Това кара хората да вярват, че всичко, което могат да направят, е да седнат и да чакат да разберат дали тези технологии ще се окажат демони, унищожаващи цивилизацията, или месии, даряващи утопия."

"Дори името "Митос" изглежда е предназначено да вдъхновява религиозно страхопочитание.

Но това не са богове, те са продукти, създадени от компании, с цел печалба, припомня Валор.

"И ние регулирахме неща, които са много по-заплашителни. отколкото чатботове.Всяка технология, с изключение на тази, дори ядрени, дори биологични оръжия, в никой друг случай не сме позволили на тези наративи да ни накарат да мислим, че това са сили извън човешкия контрол", казва тя. "Нищо в тях не е неуправляемо. Освен ако не изберем да не ги управляваме."

Нека бъдем ясни: теоретично е възможно изкуственият интелект да завладее света. Но се запитайте, звучи ли ви тази идея подобно на други истории, които сте чували от Силициевата долина в миналото?

Не трябваше ли всички да живеем в Метавселена на Марк Зукърбърг досега? Нямаше ли Биткойн да замени цялата световна валута? Спомняте ли си през 2010-те, когато чухме как социалните медии ще спасят демокрацията? Всички тези неща все още могат да се случат. Или може би няма да се случат.

Анализът е на Томас Жермен

Това се случи Dnes, за важното през деня ни последвайте и в Google News Showcase.
Новини
Технологии
Водещи
Последни новини
Четени
Най-четени за седмицата