Помощ, компютърът ми е расист! Имайте едно наум с машините

Изкуственият интелект няма мечти за светло бъдеще
4 фев 2019 15:07, Джесика Вълчева
50
Помощ, компютърът ми е расист! Имайте едно наум с машините
Снимка: techcrunch

Новите технологии все повече улесняват живота ни. Само с едно просто търсене в Google намираме онова, което ни трябва. Замисляли ли сме се обаче как работи? Как търсачката показва резултатите, които наистина търсим?

Пишем "куче" и изкуственият интелект (ИИ) знае какво трябва да ни предостави. Защото изкуственият интелект е наясно как би трябвало да изглежда едно куче и ние не се съмняваме в истинността на това, защото машината е направена така, че да ни служи.

Това чудо на съвременното технологично общество е резултат от така нареченото машинно обучение - форма на изкуствен интелект, която се състои от поредица от програми, способни да обработват милиони тонове информация и да правят връзки между нея. Така машините се оказват способни да използват суровите данни и да взимат решения, които могат да бъдат по-точни дори от тези на човешкия вид.

Машинното обучение, обаче, има и тъмна страна. Ако ИИ не бъде използван с внимание, ако изпуснем юздата, нещата могат да тръгнат рязко надолу. Така изкуственият интелект може да се превърне в расист и сексист. Ксенофоб, ако щете. Машинното обучение може да направи заключения, които имитират вече съществуващи обществени предразсъдъци. Причината за това не е, че компютрите са расисти, а в това, че хората са. Машините анализират реалността такава, каквато е, а не такава, каквато на нас ни се иска да бъде.

Прогнозата за близкото бъдеще, в което компютрите са най-големите ксенофоби, беше направена от Александрия Окасио-Кортес - най-младият политик в Конгреса на САЩ.

"Алгоритмите все още се правят от човешки същества и все още са необратимо свързани с елементарните изводи, които хората правят. Просто машините ги правят автоматично. Ако не оправим проблема с предразсъдъците в обществото, то изкуственият интелект ще използват същите предразсъдъци, за да си прави изводи за света", споделя 29-годишната латиноамериканка.

Вземете Google преводач, например. Никой не е обучил софтуера как да превежда от  гръцки на френски, а след това на английски. Машината сама се е научила да го прави, след безброй комбинации от текстове. В други случаи пък, програмите преценяват кое CV е по-подходящо при кандидатстване за работа или как пациент ще реагира на определен медикамент. Машинното обучение дава резултатът, но никой не е наясно как точно програмата стига до него.

През 2016 година неправителствената организация ProPublica, носител на награда Пулицър, разследва начина, по който работи програма, използвана от съдебната система на САЩ, за да се прецени кои криминално проявени лица могат повторно да извършат престъпление, след като бъдат пуснати на свобода. Програмата, която работи на базата на машинното обучение, дала интересен резултат. Процентът на чернокожите, които повторно ще извършат престъпление, бил много по-висок от този на белите американци.

Софтуерът се научил да разбира кой е по-вероятно да попадне в затвора, след като анализирал вече съществуваща база данни с реални съдебни дела. Мнозина смятат, че съдебната система в САЩ е била (или все още е) една от най-несправедливите - в исторически план броят на осъдените чернокожи американци е много по-голям от този на белите.

И тук анализаторите намират пробойната в изкуственият интелект, който уж би трябвало да реши всички проблеми на човечеството. Смяташе се, че компютрите могат да взимат решения самостоятелно и напълно безпристрастно - машините ще направят съдебната система и целият процес много по-справедлив, защото за машините няма да има значение дали си бял или черен, дали си мъж или жена, дали си гей или си хетеросексуален.

Това, което се случва на практика, обаче, е съвсем различно. Програмите, които работят на принципа на машинното обучение, се учат от нас, нашите предразсъдъци, нашето поведение. Оказва се много важно с каква точно информация "храниш" алгоритмите, за да ги научиш кого точно да дискриминират.

През 2017 година компютърният учен Айлин Калискан публикуват данните от проведен експеримент, който показва по какъв начин компютърът научава английски език. Използвана е елементарна програма, която работи на базата на машинното обучение и с чиято помощ са прегледали 840 милиарда думи. Програмата анализирала думи, които често се появяват една до друга, за да разбере какво означават. Методът е сходен с когнитивните науки и начина, по който децата се учат да говорят.

След като компютърът научил думите, изследователите започнали асоциативни тестове, които се провеждат на базата на човешките възприятия. Така една простичка дума "инженер", която асоциативно се свързва с думата "мъж" много по-често, научава машината сама да има предразсъдъци. Защото според резултатите, думите "жена" и "инженер" не се срещат толкова често една до друга.

Компютърът научил също така, че до думата "афроамериканец" много по-рядко може да стои думата “приятен”, която пък се намирала често до тази на "бяла раса". Причината за това не е, че машината смята, че чернокожите са неприятни, а че хората използват неприятни думи, когато говорят за тях в интернет.

Какви последствия може да има това за нашия живот? Сравнително сериозни, смятат учените. Много големи компании разчитат на програми с изкуствен интелект, когато наемат хора на работа. Машината селектира най-подходящите резюмета на базата на определени алгоритми. Представете си, че сте жена, която кандидатства за работа като софтуерен инженер. А сега се сетете за асоциативното мислене. Така вашето CV може да бъде сметнато като неподходящо от компютъра, който просто няма да го предостави на ръководството и така вие няма да получите обаждане за интервю. А сега си представете какво ще се случи със системите на здравеопазването, които все повече започват да внедряват новите технологии в работата си.

Затова експертите съветват да бъдем внимателни що се касае до изкуствения интелект. Да не приемаме данните, които компютърът ни предоставя, за чиста монета и винаги да се питаме - как и защо машината е стигнала до този резултат. ИИ учи за света такъв, какъвто е бил. Той възприема тенденциите на статуквото. Компютърът не знае какъв би трябвало да бъде светът и няма мечти за по-светло бъдеще. Това все още го можем само ние, хората.


50
Още от
Спонсорирано съдържание
Напиши коментар Коментари
40
0
 
0
 
! Отговори
Анонимен преди 5 месеца
ДО 39

Аз па съм!
39
1
 
1
 
! Отговори
Анонимен преди 5 месеца
Аз лично не съм расист, сексист или каквото и да е било. Обаче никой не може да ме накара да пренебрегна личния си опит. А ако някой нарече личния ми опит по какъвто и да е начин, може да си завре каквото иска където иска и аз удоволствие ще му го донабутам с личния си опит и други лични работи накуп. Опитвам се да бъда културен. И смятам, че го постигам максимално ;)))
38
1
 
1
 
! Отговори
В България ... преди 5 месеца
... всички подкрепят расизъма, докато някой не им каже, че не са бели хора ... Тогава почват с обяснения и прочие.
37
1
 
2
 
! Отговори
Диабло преди 5 месеца
Там където интелекта е водещ има расизъм!
36
1
 
4
 
! Отговори
Тъпанар преди 5 месеца
Винаги съм бил против расизма! Но защо няма дискриминация срещу жълтите хора, а само срещу черните? Бруталната истина - ако на света останат само черни хора, ще се случат 2 неща:
1. Ще се появи дискриминация, срещу малкото представители на расата, които са умни и образовани и ще бъдат отстранени.
2. За по-малко от 100 г., човечеството ще се върне 3000 г. назад...
35
0
 
5
 
! Отговори
71897 преди 5 месеца
Или иначе казано, когато се цели запушване на устата на някого думата расизъм влиза в действие.
34
1
 
2
 
! Отговори
71897 преди 5 месеца
Алгоритмите започват началнто си състояние с входни данни и след n на брой стъпки без да навлизаме в подробности достигат до крайното си състояние т.е. извеждане на крайния резултат. За да бъде един алогоритъм расист, трябва или входните данни да съдържат расистко съдържание или автора на алгоритъма било той човек или друга програма да вложат елемент на расизъм.
33
0
 
3
 
! Отговори
Анонимен преди 5 месеца
Предлагам да се приеме закон за криминално наказание за хора, подкрепящи истамбулската конвенция. 10 години ефективно за пасивна поддръжка, 20 години до доживотна за активна. Смятам справедливо ще е. В сравнение с това, което се опитват да ни причинят дори е малко. А като се замисля, че дори за малко да успеят... Мисля, трябва да върнем смъртното наказание...
32
1
 
4
 
! Отговори
Анонимен преди 5 месеца
Ако някой ми каже още веднъж, че личния ми опит и преживявания са предразсъдък, ще го пратя в детската градина. Защото интелектуалното му развитие е за там. Ако изобщо е за някъде. Има си световни статистики и от съвсем скоро някои хора се опитват да превърнат публикуването им в престъпление. Това няма да промени нещата. Само ще направи света и хората неадекватни. Което ще ги направи слаби и лесни за побеждаване. Което е и крайната цел на всички тези феминистки излияния и истамбулски конвенции.
31
1
 
6
 
! Отговори
Анонимен преди 5 месеца
Тази 29 годишна латино американка е явно, че никога не е виждала и ред код. Защо пускате коментари на лаици по силно професионални теми? Или пак сте преписали статия от някой американски средношколски вестник?
30
0
 
6
 
! Отговори
Анонимен преди 5 месеца
"Затова експертите съветват да бъдем внимателни що се касае до изкуствения интелект. Да"

Слувайни хора, гледали Терминатор 2, ви приказват глупсоти ;)
29
0
 
0
 
! Отговори
Анонимен преди 5 месеца
До Анонимен 15

Така е! Аз съм на теб. На колеенеееее, робееее! :)

Ко? Нали не бяхме равни?
28
1
 
2
 
! Отговори
Анонимен преди 5 месеца
До BARABATA

Окди-какво?
27
4
 
1
 
! Отговори
BARABATA преди 5 месеца
БЪЛГАРИ И БЕЛИ ХАХАХА ДУМИ ОКДИМОРОН
26
1
 
14
 
! Отговори
Бай Иван преди 5 месеца
Престъпленията в световен мащаб се извършват на 90% от хора с повишени нива на меланин в кожата ,всеки човек трезво мислещ ,трябва да има предразсъдъци ;) !!!
25
2
 
17
 
! Отговори
съвет преди 5 месеца
Расизъм съществува и той е породен от предубежденията на тъмнокожите.
Така те опавдават своето невежество, недисциплинираност или просто зла умисъл.
Така че като бели хора, трябва много да внимаваме при взаимоотношенията си с цветнокожи.
24
2
 
12
 
! Отговори
House M.D. преди 5 месеца
Джеси, в преведената от теб статия няма нито един верен факт. Напр. ако алгоритъмът свързва инженера с мъжа, това е защото жените по-рядко кандидатстват за инж. специалности.
23
1
 
4
 
! Отговори
Анонимен преди 5 месеца
Значи трябва да се промени човешката природа, или ората да изчезнат, то така или инначе вървим на затриванне.
22
1
 
15
 
! Отговори
Трудовакъ преди 5 месеца
Компютърът не е расист, със сигурност. Прочел е разказа "Неизбежният бял" от Джек Лондон, някои от трудовете и речите на д-р Хендрик Фервурд, заинтересувал се е от развитието на Родезия след ерата на Ян Смит и "чудесата", които е натворил "гениалният" президент Робърт Мугабе и колегата му от ЮАР - комунистическият терорист Нелсън Мандела, и си е направил надлежните за целта изводи! А за това, защо са такива - въпросът трябва да се адресира другаде! Повод за размисъл има, особено за някои НПО-та.
21
1
 
16
 
! Отговори
Поручик Ржевски преди 5 месеца
Предразсъдъците са другото име на обществената памет.
Няма как ако в софтуерната индустрия съм видял 1000 гениални мъже и 2 гениални жени, да не ми се оформи известен предразсъдък.
Но аз не смея да го кажа на глас, защото може да ме уволнят.
Но на ИИ му дреме на полупроводниците...