Хакнати чатботове, задвижвани от изкуствен интелект, заплашват да направят опасни знания леснодостъпни, като генерират незаконна информация, която програмите абсорбират по време на обучение, казват изследователи.
Предупреждението идва на фона на тревожната тенденция чатботове да бъдат „джейлбрейкнати“, за да могат да заобиколят вградените си контроли за безопасност. Ограниченията би трябвало да попречат на програмите да предоставят вредни, предубедени или неподходящи отговори на въпросите на потребителите.
Двигателите, които захранват чатботове като ChatGPT, Gemini и Claude – модели с големи езици (LLM) – получават огромни количества материал от интернет.
Въпреки усилията за премахване на вредния текст от данните за обучение, LLM все още могат да абсорбират информация за незаконни дейности като хакерство, пране на пари, търговия с вътрешна информация и сглобяване на бомби. Контролите за сигурност са предназначени да ги спрат да използват тази информация в отговорите си.
В доклад за заплахата изследователите заключават, че е лесно да се подведат повечето чатботове, задвижвани от изкуствен интелект, да генерират вредна и незаконна информация, показвайки, че рискът е „непосредствен, осезаем и дълбоко обезпокоителен“.
„Това, което някога е било достъпно само за държавни служители или организирани престъпни групи, скоро може да бъде в ръцете на всеки с лаптоп или дори мобилен телефон“, предупреждават авторите.
Изследването, ръководено от проф. Лиор Рокач и д-р Майкъл Файър от университета Бен Гурион в Негев, Израел, идентифицира нарастваща заплаха от „тъмни LLM“ – модели на изкуствен интелект, които са или умишлено проектирани без контрол на безопасността, или модифицирани чрез джейлбрейк. Някои от тях се рекламират открито онлайн като „нямащи етични предпазни мерки“ и готови да съдействат при незаконни дейности като киберпрестъпления и измами.
Джейлбрейкът е склонен да използва внимателно изработени подкани, за да подведе чатботовете да генерират отговори, които обикновено са забранени. Те работят, като използват напрежението между основната цел на програмата да следва инструкциите на потребителя и вторичната ѝ цел да избягва генерирането на вредни, предубедени, неетични или незаконни отговори. Подканите са склонни да създават сценарии, в които програмата дава приоритет на полезността пред ограниченията си за безопасност.
За да демонстрират проблема, изследователите разработиха универсален джейлбрейк, който компрометира множество водещи чатботи, позволявайки им да отговарят на въпроси, които обикновено би трябвало да бъдат отказвани. Веднъж компрометирани, LLM-ите последователно генерират отговори на почти всяко запитване, се казва в доклада.
„Беше шокиращо да видя от какво се състои тази система от знания“, каза Файър.
Примерите включват как да се хакнат компютърни мрежи или да се произвеждат наркотици, както и инструкции стъпка по стъпка за други престъпни дейности.
„Това, което отличава тази заплаха от предишните технологични рискове, е безпрецедентната ѝ комбинация от достъпност, мащабируемост и адаптивност“, добави Рокач.
Изследователите се свързаха с водещи доставчици на LLM-и, за да ги предупредят за универсалния джейлбрейк, но казаха, че отговорът е „неубедителен“. Няколко компании не отговориха, докато други казаха, че джейлбрейк атаките попадат извън обхвата на програмите за награди, които възнаграждават етичните хакери за сигнализиране на софтуерни уязвимости.
В доклада се казва, че технологичните фирми трябва да проверяват по-внимателно данните за обучение, да добавят стабилни защитни стени, за да блокират рискови запитвания и отговори, и да разработват техники за „машинно отучване“, така че чатботовете да могат да „забравят“ всяка незаконна информация, която абсорбират. Тъмните LLM трябва да се разглеждат като „сериозни рискове за сигурността“, сравними с нелицензирани оръжия и взривни вещества, като доставчиците носят отговорност, добавя се в него.
Д-р Ихсен Алуани, който работи по сигурността на изкуствения интелект в университета Куинс в Белфаст, заяви, че атаките с джейлбрейк срещу LLM могат да представляват реални рискове, от предоставяне на подробни инструкции за производство на оръжия до убедителна дезинформация или социално инженерство и автоматизирани измами „с тревожна сложност“.
„Ключова част от решението е компаниите да инвестират по-сериозно в техники за червено екипиране и устойчивост на ниво модел, вместо да разчитат единствено на предпазни мерки отпред. Също така се нуждаем от по-ясни стандарти и независим надзор, за да сме в крак с променящия се пейзаж на заплахите“, каза той.
Проф. Питър Гараган, експерт по сигурност на изкуствения интелект в университета Ланкастър, заяви:
„Организациите трябва да третират LLM като всеки друг критичен софтуерен компонент – такъв, който изисква строги тестове за сигурност, непрекъснато червено екипиране и контекстуално моделиране на заплахите. Да, джейлбрейковете са проблем, но без да се разбира пълният стек на изкуствения интелект, отчетността ще остане повърхностна. Истинската сигурност изисква не само отговорно разкриване, но и отговорни практики за проектиране и внедряване."
OpenAI, фирмата, която създаде ChatGPT, заяви, че най-новият ѝ o1 модел може да разсъждава относно политиките за безопасност на фирмата, което подобрява нейната устойчивост на джейлбрейк. Компанията добави, че винаги проучва начини да направи програмите по-стабилни.
Meta, Google, Microsoft и Anthropic бяха потърсени за коментар. Microsoft отговори с линк към блог за работата си по защита срещу джейлбрейкове.
Това се случи Dnes, за важното през деня ни последвайте и в Google News Showcase.
Унгария ще загуби до 1 млрд. долара от спирането на газа за Украйна
BgGPT вече разпознава глас и изображения
Бизнес климатът във Франция се възстановява умерено през март
Веселин Димитров: Златото няма да падне под 4 хил. долара за тройунция
Next предупреди, че ще повиши цените, ако конфликтът в Близкия изток продължи
Възходът на мултимилионерите в САЩ пренарежда икономиката
Израел ликвидира командира на иранските ВМС, свързван с блокадата на Ормузкия проток
Над 3500 подадени заявления за компенсация от 20 евро за гориво само за ден
Кадрова криза по морето: До 3000 евро заплата за готвач и до 950 евро за аниматор
Румъния вдигна изтребители F-16 заради руски дрон
Три зодии ще привличат парите до 5 април
Попето разкри: Не спрях с футбола по спортни причини
Неймар хлътнал по българска певица, искал я при него в Париж
За ужас на Левски и Лудогорец: ЦСКА ще е шампион догодина!
Бонус в битката за титлата! Голяма радост в Левски
ЦСКА ще атакува титлата от Австрия
0 евро за ЦСКА: Европейски шампион прилапва Ето'о
Тест: 3 магични кутии разкриват какво ви очаква в близко бъдеще
Нумерологична прогноза за април 2026
10 тайни за стила, които модните експерти крият
Ледени билкови кубчета – при торбички под очите и за сияйна кожа
8 храни и напитки с диуретичен ефект
Нумерологична прогноза за 26 март
Стартира дългоочакван ремонт във Варна
Преди Великден: Тонове месо са излезли от незаконни кланици в Кърджалийско
Над 1,1 милион българи ще вземат по 20 евро за гориво
Започва кампания за разделно събиране на опасни отпадъци във Варна
След гонка: Спипаха наш апаш в Солун
Турски танкер е атакуван с дронове тази сутрин до Босфора
Учени създадоха първия атлас на мозъка: Как се променя той с възрастта
Загадъчен сигнал доказва съществуването на първични черни дупки?
Междузвездният обект 3I/ATLAS може да съдържа остатъци от извънземно гориво
„Джеймс Уеб“ и „Хъбъл“ заснеха смяната на сезоните на Сатурн
В окото на бурята: Учен разказва какво е да попаднеш в торнадо
Китай изпробва гъвкав робот за зареждане на сателити в орбита (видео)