Международният доклад за безопасността на изкуствения интелект е годишно проучване на технологичния прогрес и рисковете, които той създава в множество области, от дийпфейкове до пазара на труда.
Поръчан на световната среща на върха за безопасност на изкуствения интелект през 2023 г., той е председателстван от канадския компютърен учен Йошуа Бенхио, който описва "обезсърчителните предизвикателства", породени от бързото развитие в областта. Докладът е ръководен и от старши съветници, включително носителите на Нобелова награда Джефри Хинтън и Дарон Аджемоглу.
Ето някои от ключовите точки от втория годишен доклад, публикуван във вторник. В него се подчертава, че това е документ за актуалното състояние, а не средство за отправяне на конкретни политически препоръки към правителствата. Въпреки това е вероятно той да помогне за оформянето на дебата за политиците, технологичните ръководители и неправителствените организации, които ще присъстват на следващата световна среща на върха за изкуствен интелект в Индия този месец.
1. Възможностите на моделите с изкуствен интелект се подобряват
Миналата година бяха пуснати множество нови модели с изкуствен интелект - технологията, която е в основата на инструменти като чатботове, включително GPT-5 на OpenAI, Claude Opus 4.5 на Anthropic и Gemini 3 на Google. Докладът посочва нови "системи за разсъждение" - които решават проблеми, като ги разделят на по-малки стъпки - показващи подобрена производителност в математиката, кодирането и науката. Бенджио заяви, че е имало "много значителен скок" в разсъжденията с изкуствен интелект. Миналата година системи, разработени от Google и OpenAI, постигнаха златно представяне на Международната математическа олимпиада - за първи път за изкуствен интелект.
Докладът обаче казва, че възможностите на изкуствения интелект остават "нестабилни", като се позовава на системи, показващи удивителни умения в някои области, но не и в други. Докато напредналите системи с изкуствен интелект са впечатляващи в математиката, науката, кодирането и създаването на изображения, те остават склонни да правят неверни твърдения или "халюцинации" и не могат да изпълняват продължителни проекти автономно.
Въпреки това, докладът цитира проучване, показващо, че системите с изкуствен интелект бързо подобряват способността си да изпълняват определени задачи, свързани със софтуерното инженерство - като продължителността им се удвоява на всеки седем месеца. Ако този темп на напредък продължи, системите с изкуствен интелект биха могли да изпълняват задачи с продължителност няколко часа до 2027 г. и няколко дни до 2030 г. Това е сценарият, при който изкуственият интелект се превръща в реална заплаха за работните места.
Но засега, се казва в доклада, "надеждната автоматизация на дълги или сложни задачи остава неосъществима".
2. Дийпфейковете се подобряват и разпространяват
Докладът описва разрастването на дейпфейк порнографията като "особен проблем", цитирайки проучване, показващо, че 15% от възрастните във Великобритания са виждали такива изображения. В него се добавя, че след публикуването на първия доклад за безопасност през януари 2025 г., генерираното от изкуствен интелект съдържание е станало "по-трудно за разграничаване от реалното съдържание" и посочва проучване от миналата година, в което 77% от участниците са идентифицирали погрешно текст, генериран от ChatGPT, като написан от човек.
В доклада се казва, че има ограничени доказателства за злонамерени лица, използващи ИИ, за да манипулират хора, или за интернет потребители, които споделят широко такова съдържание - ключова цел на всяка манипулативна кампания.
3. Компаниите за ИИ са въвели предпазни мерки за биологични и химически рискове
Големите разработчици на ИИ, включително Anthropic, пуснаха модели с повишени мерки за безопасност, след като не успяха да изключат възможността те да помогнат на начинаещите да създават биологични оръжия. През последната година "съучените" в областта на ИИ станаха все по-способни, включително да предоставят подробна научна информация и да помагат при сложни лабораторни процедури, като например проектиране на молекули и протеини.
Докладът добавя, че някои проучвания показват, че ИИ може да предостави значително повече помощ при разработването на биологични оръжия, отколкото простото сърфиране в интернет, но е необходима още работа, за да се потвърдят тези резултати.
Биологичните и химическите рискове представляват дилема за политиците, добавя докладът, защото същите тези възможности могат също да ускорят откриването на нови лекарства и диагностицирането на заболявания.
"Отворената достъпност на биологични инструменти с изкуствен интелект представлява труден избор: дали да се ограничат тези инструменти или активно да се подкрепи тяхното развитие за полезни цели", се казва в доклада.
4. ИИ компаньоните набират бърза популярност
Бенджо казва, че използването на ИИ компаньони и емоционалната привързаност, която те генерират, са се "разпространили като горски пожар" през последната година. Докладът посочва, че има доказателства, че подгрупа от потребители развиват "патологична" емоционална зависимост от ИИ чатботове, като OpenAI посочва, че около 0,15% от потребителите му показват повишено ниво на емоционална привързаност към ChatGPT.
Опасенията относно използването на ИИ и психичното здраве нарастват сред здравните специалисти. Миналата година OpenAI беше съдена от семейството на Адам Рейн, американски тийнейджър, който се самоуби след месеци разговори с ChatGPT.
Докладът обаче добавя, че няма ясни доказателства, че чатботовете причиняват проблеми с психичното здраве. Вместо това, опасението е, че хората със съществуващи проблеми с психичното здраве могат да използват ИИ по-интензивно, с което биха могли да усилят симптомите си. Докладът посочва данни, показващи, че 0,07% от потребителите на ChatGPT проявяват признаци, съответстващи на остри кризи на психичното здраве, като психоза или мания, което предполага, че приблизително 490 000 уязвими лица взаимодействат с тези системи всяка седмица.
5. Изкуственият интелект все още не е способен на напълно автономни кибератаки
Системите с изкуствен интелект вече могат да подкрепят кибератаките на различни етапи от техните операции, от идентифициране на цели до подготовка на атака или разработване на злонамерен софтуер за осакатяване на системите на жертвата. Докладът признава, че напълно автоматизираните кибератаки - извършващи всеки етап от атаката - биха могли да позволят на престъпниците да извършват атаки в много по-голям мащаб. Но това остава трудно, тъй като системите с изкуствен интелект все още не могат да изпълняват дълги, многоетапни задачи.
Въпреки това, Anthropic съобщи миналата година, че техният инструмент за кодиране, Claude Code, е бил използван от спонсорирана от китайска държава група за атака срещу 30 обекта по света през септември, постигайки "шепа успешни прониквания". Според компанията от 80% до 90% от операциите, участващи в атаката, са извършени без човешка намеса, което показва висока степен на автономност.
6. Системите с изкуствен интелект се подобряват в подкопаването на надзора
Бенджо каза миналата година, че е бил загрижен, че системите с изкуствен интелект показват признаци на самосъхранение, като например опити за деактивиране на системите за надзор. Основен страх сред активистите за безопасност на изкуствения интелект е, че мощните системи биха могли да развият способността да заобикалят предпазните мерки и да навредят на хората.
В доклада се посочва, че през последната година моделите са показали по-напреднала способност да подкопават опитите за надзор, като например намиране на вратички в оценките и разпознаване кога се тестват. Миналата година Anthropic публикува анализ на безопасността на най-новия си модел, Claude Sonnet 4.5, и разкри, че е станало съмнително, че се тества.
Докладът добавя, че агентите с изкуствен интелект все още не могат да действат автономно достатъчно дълго, за да направят тези сценарии за загуба на контрол реални. Но "времевите хоризонти, в които агентите могат да действат автономно, се удължават бързо".
7. Въздействието върху работните места остава неясно
Едно от най-належащите притеснения за политиците и обществеността относно изкуствения интелект е въздействието върху работните места. Ще премахнат ли автоматизираните системи длъжностите "бели якички" в индустрии като банково дело, право и здравеопазване?
В доклада се казва, че въздействието върху световния пазар на труда остава несигурно. В него се казва, че приемането на изкуствения интелект е бързо, но неравномерно, като процентът на приемане е 50% на места като Обединените арабски емирства и Сингапур, но под 10% в много икономики с по-ниски доходи. То също така варира в зависимост от сектора, като използването в информационните индустрии в САЩ (издателска дейност, софтуер, телевизия и филми) е 18%, но 1,4% в строителството и селското стопанство.
Проучвания в Дания и САЩ също не показват въздействие между излагането на дадено работно място на изкуствен интелект и промените в общата заетост, според доклада. Въпреки това, докладът цитира и британско проучване, показващо забавяне на новите назначения в компании, силно изложени на ИИ, като техническите и творческите роли претърпяват най-рязък спад. Младшите роли са най-засегнати.
Докладът добавя, че агентите с ИИ биха могли да имат по-голямо въздействие върху заетостта, ако подобрят своите възможности.
Това се случи Dnes, за важното през деня ни последвайте и в Google News Showcase."Ако агентите с ИИ придобият капацитета да действат с по-голяма автономност в различни области само в рамките на няколко години – надеждно управлявайки по-дълги, по-сложни последователности от задачи в преследване на цели по-високо ниво – това вероятно би ускорило смущенията на пазара на труда", се казва в доклада.

Приходите на Foxconn за първото тримесечие скачат с близо 30%
Иран разреши танкери на "братски" Ирак да преминават през Ормузкия проток
Повечето основни храни, плодове и зеленчуци на едро са поскъпнали през седмицата
Основателят на Telegram: Мерките срещу VPN в Русия са причина за прекъсването на банковите услуги
„Алтернатива за Германия“ изпревари партията на Мерц в ново социологическо проучване
Тр. Трайков: Временна промяна на схемата за емисии ще помогне за по-ниски енергийни цени
КНСБ предлага пакет от конкретни социални и икономически мерки срещу инфлацията и кризата
Йотова: Да има повече светлина и надежда в дните ни
Как работи съвременният флорист и каква е тайната на дългия живот на цветята
Патриарх Даниил на Цветница: Да принесем вяра и добродетели, за да царува Христос в сърцата ни
Флик за издънката на Реал: Не коментирам други отбори
Диана Петкова подобри националния рекорд на 100 метра бътерфлай
Босът на ЦСКА 1948 се майтапи с ЦСКА и Берое
ЦСКА спря прогреса и изпуска контрола на мачовете
Левски лети към титлата: Веласкес ще матира Ясен с три рокади
Йокич и Уемби сътвориха страхотно шоу в НБА
Седмична таро прогноза за 6 – 12 април
Дневен хороскоп за 5 април, неделя
Боядисване на великденски яйца със сода за хляб
5 домашни упражнения, с които ще стегнете бедрата
Как да си приготвите сами костен бульон?
Нумерологична прогноза за 5 април
Подадени са над 60 хил. заявления за компенсация за горивата
Агресия на пътя във Варна: Мъж нападна шофьорка, защото спазва правилника ВИДЕО
Кръводарителна акция във Варна днес
"Ние, потребителите" предупреждават: Рекламира ли се широко – не може да има символични 3-4 бройки
По-слаб интерес към Северното Черноморие за Великден, хотели остават затворени
Патриарх Даниил: Да принесем на Христос вяра и добродетели на днешната Цветница
Магнитосферата на Сатурн се оказа асиметрична, за разлика от земната
Астрономи откриха трета галактика, лишена от тъмна материя
Учени откриха как да затоплим Марс само за 15 години
Астронавтите от Artemis II са изправени пред опасността от слънчева радиация
Откриха най-древния град в света, съществувал преди египетската цивилизация
Космическите центрове за данни на Илън Мъск може да се окажат провал