Новите технологии все повече улесняват живота ни. Само с едно просто търсене в Google намираме онова, което ни трябва. Замисляли ли сме се обаче как работи? Как търсачката показва резултатите, които наистина търсим?
Пишем "куче" и изкуственият интелект (ИИ) знае какво трябва да ни предостави. Защото изкуственият интелект е наясно как би трябвало да изглежда едно куче и ние не се съмняваме в истинността на това, защото машината е направена така, че да ни служи.
Това чудо на съвременното технологично общество е резултат от така нареченото машинно обучение - форма на изкуствен интелект, която се състои от поредица от програми, способни да обработват милиони тонове информация и да правят връзки между нея. Така машините се оказват способни да използват суровите данни и да взимат решения, които могат да бъдат по-точни дори от тези на човешкия вид.
Машинното обучение, обаче, има и тъмна страна. Ако ИИ не бъде използван с внимание, ако изпуснем юздата, нещата могат да тръгнат рязко надолу. Така изкуственият интелект може да се превърне в расист и сексист. Ксенофоб, ако щете. Машинното обучение може да направи заключения, които имитират вече съществуващи обществени предразсъдъци. Причината за това не е, че компютрите са расисти, а в това, че хората са. Машините анализират реалността такава, каквато е, а не такава, каквато на нас ни се иска да бъде.
Прогнозата за близкото бъдеще, в което компютрите са най-големите ксенофоби, беше направена от Александрия Окасио-Кортес - най-младият политик в Конгреса на САЩ.
"Алгоритмите все още се правят от човешки същества и все още са необратимо свързани с елементарните изводи, които хората правят. Просто машините ги правят автоматично. Ако не оправим проблема с предразсъдъците в обществото, то изкуственият интелект ще използват същите предразсъдъци, за да си прави изводи за света", споделя 29-годишната латиноамериканка.
Вземете Google преводач, например. Никой не е обучил софтуера как да превежда от гръцки на френски, а след това на английски. Машината сама се е научила да го прави, след безброй комбинации от текстове. В други случаи пък, програмите преценяват кое CV е по-подходящо при кандидатстване за работа или как пациент ще реагира на определен медикамент. Машинното обучение дава резултатът, но никой не е наясно как точно програмата стига до него.
През 2016 година неправителствената организация ProPublica, носител на награда Пулицър, разследва начина, по който работи програма, използвана от съдебната система на САЩ, за да се прецени кои криминално проявени лица могат повторно да извършат престъпление, след като бъдат пуснати на свобода. Програмата, която работи на базата на машинното обучение, дала интересен резултат. Процентът на чернокожите, които повторно ще извършат престъпление, бил много по-висок от този на белите американци.
Софтуерът се научил да разбира кой е по-вероятно да попадне в затвора, след като анализирал вече съществуваща база данни с реални съдебни дела. Мнозина смятат, че съдебната система в САЩ е била (или все още е) една от най-несправедливите - в исторически план броят на осъдените чернокожи американци е много по-голям от този на белите.
И тук анализаторите намират пробойната в изкуственият интелект, който уж би трябвало да реши всички проблеми на човечеството. Смяташе се, че компютрите могат да взимат решения самостоятелно и напълно безпристрастно - машините ще направят съдебната система и целият процес много по-справедлив, защото за машините няма да има значение дали си бял или черен, дали си мъж или жена, дали си гей или си хетеросексуален.
Това, което се случва на практика, обаче, е съвсем различно. Програмите, които работят на принципа на машинното обучение, се учат от нас, нашите предразсъдъци, нашето поведение. Оказва се много важно с каква точно информация "храниш" алгоритмите, за да ги научиш кого точно да дискриминират.
През 2017 година компютърният учен Айлин Калискан публикуват данните от проведен експеримент, който показва по какъв начин компютърът научава английски език. Използвана е елементарна програма, която работи на базата на машинното обучение и с чиято помощ са прегледали 840 милиарда думи. Програмата анализирала думи, които често се появяват една до друга, за да разбере какво означават. Методът е сходен с когнитивните науки и начина, по който децата се учат да говорят.
След като компютърът научил думите, изследователите започнали асоциативни тестове, които се провеждат на базата на човешките възприятия. Така една простичка дума "инженер", която асоциативно се свързва с думата "мъж" много по-често, научава машината сама да има предразсъдъци. Защото според резултатите, думите "жена" и "инженер" не се срещат толкова често една до друга.
Компютърът научил също така, че до думата "афроамериканец" много по-рядко може да стои думата “приятен”, която пък се намирала често до тази на "бяла раса". Причината за това не е, че машината смята, че чернокожите са неприятни, а че хората използват неприятни думи, когато говорят за тях в интернет.
Какви последствия може да има това за нашия живот? Сравнително сериозни, смятат учените. Много големи компании разчитат на програми с изкуствен интелект, когато наемат хора на работа. Машината селектира най-подходящите резюмета на базата на определени алгоритми. Представете си, че сте жена, която кандидатства за работа като софтуерен инженер. А сега се сетете за асоциативното мислене. Така вашето CV може да бъде сметнато като неподходящо от компютъра, който просто няма да го предостави на ръководството и така вие няма да получите обаждане за интервю. А сега си представете какво ще се случи със системите на здравеопазването, които все повече започват да внедряват новите технологии в работата си.
Затова експертите съветват да бъдем внимателни що се касае до изкуствения интелект. Да не приемаме данните, които компютърът ни предоставя, за чиста монета и винаги да се питаме - как и защо машината е стигнала до този резултат. ИИ учи за света такъв, какъвто е бил. Той възприема тенденциите на статуквото. Компютърът не знае какъв би трябвало да бъде светът и няма мечти за по-светло бъдеще. Това все още го можем само ние, хората.
Това се случи Dnes, за важното през деня ни последвайте и в Google News Showcase.
Уорш трябва да се изправи пред рисковете от несъгласие при първото си гласуване във Фед
Доналд Тръмп разбива вероятно завинаги съюз, изграден от няколко поколения
Украйна заложи всичко на дроновете, в Европа се чудят ще им продават ли оръжия САЩ
ОПЕК+ постигна предварително споразумение за увеличение на квотите през юни
Американската авиокомпания Spirit прекратява дейност заради кризата с горивата
Кадър на деня за 2 май
В "България сутрин" на 4 май от 9:30 часа: Какви са приоритетите на новите управляващи?
Цените на плодовете тръгнаха нагоре, зеленчуците поевтиняват рязко
БАБХ спипа фъстъци с токсични плесени на митницата във Варна
Никола Цолов след триумфа: Беше много трудно
Цял свят гърми за "синия" фурор: Левски е шампион на България!
Тримата, избутали ЦСКА до финала за Купата
Капитан на Левски: Една от най-сладките титли!
0 от 7: ЦСКА с осми опит за бой над Лудогорец на "Васил Левски"
Дядо, успяхме! Татко плаче, Левски отново е шампион!
Дон Хулио: Сменяме шиб*н*та цифра на автобуса на Левски! + ВИДЕО
Седмична таро прогноза за 4 – 10 май
Задължителни ястия за Гергьовден
Нумерологична прогноза за 3 май
Рецептата на баба за пресни картофи с подправки
Дневен хороскоп за 3 май, неделя
Агнешки котлет с булгур за Гергьовден
Свлачището на пътя Пампорово-Смолян остава активно
Гърция забранява шезлонги и барове на 251 плажа в борба със свръхтуризма
Голям пожар изпепели къща във Варна
След 17-годишна пауза "Левски" отново е шампион на България
Цените на зеленчуците падат, а на плодовете - скачат
Три зодии, при които любовта ще се появи по силен и запомнящ се начин
Нов онлайн инструмент показва къде се е намирал домът ви преди 320 млн. години
Земята се „разцепва“ под Тихия океан: Какво всъщност се случва
Астероидната заплаха от 2029 г.: Как светът се готви за приближаването на Апофис
Какво оставиха хората на Луната?
Биолози откриха зачатъци на интелект у най-простите микроби
Разкриха мистерията на „малките червени точки“ в ранната Вселена