»ма ли опасност изкуствени€т интелект да автоматизира дискриминаци€та

»» е толкова добър, колкото е добър светът
19 май 2024 07:30, Ќели ’ристова
8
»ма ли опасност изкуствени€т интелект да автоматизира  дискриминаци€та
—нимка: Pixabay/ geralt

»зкуствени€т интелект, изграден върху планини от потенциално пристрастна информаци€, създава реален риск от автоматизиране на дискриминаци€та, но има ли начин да се превъзпитат машините?

¬ъпросът за н€кои е изключително належащ. ¬ ерата на ChatGPT изкуствени€т интелект ще генерира все повече решени€ за доставчиците на здравни услуги, банковите кредитори или адвокатите, използвайки като изходен материал всичко, което е било издирено от интернет, предава ј‘ѕ.

—ледователно базови€т интелект на »» е толкова добър, колкото е добър светът, от който е дошъл, толкова веро€тно е да е изпълнен с остроумие, мъдрост и полезност, както и с омраза, предразсъдъци и тиради.

"“ова е опасно, защото хората прегръщат и приемат софтуера за »» и наистина завис€т от него", казва ƒжошуа ”ивър, директор на “ексаски€ инкубатор за възможности и правосъдие, юридическа консултантска компани€.

"ћожем да влезем в тази обратна връзка, при ко€то предразсъдъците в собствената ни същност и култура информират предразсъдъците в »» и се превръщат в нещо като подсилващ цикъл", каза той.

ƒа се гарантира, че технологиите отраз€ват по-точно човешкото разнообразие, не е само политически избор.

ѕри други приложени€ на »», като например разпознаването на лица, компаниите са се сблъсквали с проблеми, свързани с дискриминаци€.

“акъв е случа€т с Rite-Aid, американска верига аптеки, където според ‘едералната търговска комиси€ камерите в магазините фалшиво маркират потребителите, особено жените и цветнокожите, като крадци на стоки.

√енеративни€т изкуствен интелект от типа на ChatGPT, който може да създаде подобие на човешки разсъждени€ само за секунди, открива нови възможности за грешка, притесн€ват се експертите.

√игантите в областта на изкуствени€ интелект са на€сно с проблема, опас€вайки се, че моделите им могат да изпаднат в лошо поведение или да отраз€ват прекомерно западното общество, когато потребителската им база е глобална.

"»маме хора, които задават запитвани€ от »ндонези€ или —јў", каза главни€т изпълнителен директор на Google —ундар ѕичай, об€сн€вайки защо за€вките за изображени€ на лекари или адвокати ще се стрем€т да отраз€ват расовото разнообразие.

Ќо тези съображени€ могат да достигнат абсурдни нива и да доведат до гневни обвинени€ в прекалена политическа коректност.

“ова се случи, когато генераторът на изображени€ Gemini на Google изплю изображение на германски войници от ¬тората световна война, което абсурдно включваше чернокож мъж и азиатка.

"ќчевидно грешката беше, че прекалихме с прилагането... там, където не тр€бваше да се прилага. “ова беше грешка и ние сгрешихме", каза ѕичай.

Ќо —аша Ћучони, учен-изследовател в Hugging Face, водеща платформа за модели на изкуствен интелект, предупреди, че "мисленето, че има технологично решение за пристрасти€та, е един вид вече тръгване по грешен път".

√енериращи€т »» по същество е свързан с това дали резултатът "съответства на това, което потребител€т очаква", а това до гол€ма степен е субективно, каза т€.

ќгромните модели, върху които е изграден ChatGPT, "не могат да разсъждават за това кое е пристрастно и кое не, така че не могат да направ€т нищо по въпроса", предупреди ƒжейдън «иглер, ръководител на продуктови€ отдел в Alembic Technologies.

ѕоне засега от хората зависи да гарантират, че изкуствени€т интелект генерира всичко, което е подход€що или отговар€ на техните очаквани€.

Ќо като се има предвид лудостта около »», това не е лесна задача.

Hugging Face разполага с около 600 000 модела на »» или машинно обучение на сво€та платформа.

"Ќа всеки н€колко седмици излиза нов модел и ние с€каш се борим, за да се опитаме просто да оценим и документираме пристрасти€ или нежелано поведение", казва Ћучони.

≈дин от методите, които се разработват, е т.нар. алгоритмично изключване, което ще позволи на инженерите да изключват съдържание, без да разрушават цели€ модел.

—ъществуват обаче сериозни съмнени€, че това може да работи.

ƒруг метод би "насърчил" модела да върви в правилната посока, би го "донастроил", "възнаграждавайки за правилно и неправилно", казва –ам Ўрихарша, главен технологичен директор в Pinecone.

Pinecone е специалист в областта на разширеното генериране на информаци€ (retrieval augmented generation или RAG) - техника, при ко€то моделът извлича информаци€ от фиксиран надежден източник.

«а ”ивър от “ексаски€ инкубатор за възможности и правосъдие тези "благородни" опити за отстран€ване на пристрасти€ са "проекции на нашите надежди и мечти за това как може да изглежда една по-добра верси€ на бъдещето".

Ќо предубедеността "е присъща и на това, което означава да бъдеш човек, и поради това т€ е заложена и в изкуствени€ интелект", казва той.

“ова се случи Dnes, за важното през ден€ ни последвайте и в Google News Showcase


8
ќще от
—понсорирано съдържание
Ќапиши коментар  оментари
7
0
 
1
 
! ќтговори
gargamel преди 3 седмици
Ѕезработица в световен мащаб
6
0
 
5
 
! ќтговори
:) преди 4 седмици
Ќ€ма нищо безопасно около и свързано с »». Ќе препоръчвам продължителното му използване.
5
0
 
1
 
! ќтговори
vs преди 4 седмици
» »» ви казва, че ***.гала си е ман.ал!
4
0
 
6
 
! ќтговори
јнонимен преди 4 седмици
Ќе знам кой има нужда да чуе това (освен "авторката"): Ќеравното третиране (т. нар. дискриминаци€) не е незаконно само по себе си. Ќапротив то е задължително, когато за това има наложителна причина (това са повечето случаи). јбсолютното равенство (равнопоставеност) е невъзможно. Ќо »» ще прави това, което е програмиран да прави. ѕрочетете € та€ конституци€.
3
0
 
5
 
! ќтговори
¬елес преди 4 седмици
Ќищо ново под слънцето!  аквито създателите, такъв и »». Ќали в един американски филм, пол€та на тракиеца ќрфей се изпълн€ваше от н.е г.ъ.р !!!!
2
0
 
6
 
! ќтговори
»« ”—“¬≈Ќ »Ќ“≈Ћ≈ “: преди 4 седмици
"Ћозето не ще молитва, лозето иска мотика"
1
0
 
12
 
! ќтговори
јнонимен преди 4 седмици
ще автоматизира мисиркаджийството иЌелито ще тр€бва да върне на магистралата

—понсорирани публикации