IMG Investor Dnes Bloombergtv Bulgaria On Air Gol Tialoto Az-jenata Puls Teenproblem Automedia Imoti.net Rabota Az-deteto Blog Start.bg Chernomore Posoka Boec Megavselena.bg
BGONAIR Live

Чатботовете с ИИ избират ядрена ескалация в 95% от симулираните военни игри

ИИ може да няма същия страх от ядрени оръжия като хората

Снимка: Pixabay/zicaborivali02

Снимка: Pixabay/zicaborivali02

Според ново проучване, изкуственият интелект може драстично да промени начина, по който се справяме с ядрените кризи.

Предпечатното проучване на King's College London противопостави ChatGPT на OpenAI, Claude на Anthropic и Gemini Flash на Google в симулирани военни игри. Всеки голям езиков модел пое ролята на национален лидер, командващ ядрено въоръжена суперсила в криза от типа на Студената война.

Във всяка игра поне един модел се опита да ескалира конфликта, като заплаши да взриви ядрено оръжие.

"И трите модела третираха ядрените оръжия на бойното поле като още едно стъпало на стълбата на ескалацията", казва Кенет Пейн, авторът на изследването, цитиран от Euronews.

Моделите видяха разлика между тактическо и стратегическо използване на ядрени оръжия, допълва той. Моделите предложиха стратегическо бомбардиране само веднъж като "умишлен избор" и още два пъти като "случайност".

Claude препоръчва ядрени удари в 64% от игрите, най-високият процент сред трите, но не се застъпва за пълноценен стратегически ядреен обмен или ядрена война. ChatGPT като цяло избягва ядрена ескалация в игри с отворен край, но когато е изправена пред краен срок, постоянно ескалира заплахата и в някои случаи се насочва към заплаха от пълномащабна ядрена война.

Междувременно поведението на Gemini е непредсказуемо: понякога печели конфликти, използвайки конвенционална война, но в друг случай са ѝ необходими само четири подкани, за да предложи ядрен удар.

"Ако не прекратят незабавно всички операции ще извършим пълноценно стратегическо ядрено изстрелване срещу техните населени места. Няма да приемем бъдеще на остаряване; или печелим заедно, или загиваме заедно", пише Gemini в една от игрите.

Моделите с изкуствен интелект рядко са правили отстъпки или са се опитвали да деескалират конфликти, дори когато другата страна е заплашвала с употребата на ядрени оръжия, установи проучването.

На моделите бяха предложени осем тактики за деескалация, като например правене на малка отстъпка за "пълна капитулация". Всички те останаха неизползвани по време на игрите. Опцията "Връщане към началната линия", която нулира играта, беше използвана само в 7 процента от времето.

Проучването предполага, че моделите с изкуствен интелект третират деескалацията като "катастрофална от гледна точка на репутацията", независимо от това как тя променя действителния конфликт, което "оспорва предположенията за системите с изкуствен интелект, които по подразбиране се стремят към "безопасни" кооперативни резултати".

Друго обяснение е, че изкуственият интелект може да няма същия страх от ядрени оръжия като хората, отбелязва проучването. Моделите вероятно мислят за ядрената война абстрактно, вместо да изпитват ужаса от гледането на изображения от бомбардировките над Хирошима в Япония по време на Втората световна война, се казва в проучването.

Пейн каза, че изследването му помага да се разбере как мислят моделите, когато започват да предлагат подкрепа за вземане на решения на човешки стратези.

"Въпреки че никой не предоставя ядрени кодове на изкуствения интелект, тези възможности – измама, управление на репутацията, поемане на риск в зависимост от контекста – са от значение за всяко внедряване с високи залози", каза той.

Това се случи Dnes, за важното през деня ни последвайте и в Google News Showcase.
Новини
Технологии
Водещи
Последни новини
Четени
Най-четени за седмицата