Новите технологии все повече улесняват живота ни. Само с едно просто търсене в Google намираме онова, което ни трябва. Замисляли ли сме се обаче как работи? Как търсачката показва резултатите, които наистина търсим?
Пишем "куче" и изкуственият интелект (ИИ) знае какво трябва да ни предостави. Защото изкуственият интелект е наясно как би трябвало да изглежда едно куче и ние не се съмняваме в истинността на това, защото машината е направена така, че да ни служи.
Това чудо на съвременното технологично общество е резултат от така нареченото машинно обучение - форма на изкуствен интелект, която се състои от поредица от програми, способни да обработват милиони тонове информация и да правят връзки между нея. Така машините се оказват способни да използват суровите данни и да взимат решения, които могат да бъдат по-точни дори от тези на човешкия вид.
Машинното обучение, обаче, има и тъмна страна. Ако ИИ не бъде използван с внимание, ако изпуснем юздата, нещата могат да тръгнат рязко надолу. Така изкуственият интелект може да се превърне в расист и сексист. Ксенофоб, ако щете. Машинното обучение може да направи заключения, които имитират вече съществуващи обществени предразсъдъци. Причината за това не е, че компютрите са расисти, а в това, че хората са. Машините анализират реалността такава, каквато е, а не такава, каквато на нас ни се иска да бъде.
Прогнозата за близкото бъдеще, в което компютрите са най-големите ксенофоби, беше направена от Александрия Окасио-Кортес - най-младият политик в Конгреса на САЩ.
"Алгоритмите все още се правят от човешки същества и все още са необратимо свързани с елементарните изводи, които хората правят. Просто машините ги правят автоматично. Ако не оправим проблема с предразсъдъците в обществото, то изкуственият интелект ще използват същите предразсъдъци, за да си прави изводи за света", споделя 29-годишната латиноамериканка.
Вземете Google преводач, например. Никой не е обучил софтуера как да превежда от гръцки на френски, а след това на английски. Машината сама се е научила да го прави, след безброй комбинации от текстове. В други случаи пък, програмите преценяват кое CV е по-подходящо при кандидатстване за работа или как пациент ще реагира на определен медикамент. Машинното обучение дава резултатът, но никой не е наясно как точно програмата стига до него.
През 2016 година неправителствената организация ProPublica, носител на награда Пулицър, разследва начина, по който работи програма, използвана от съдебната система на САЩ, за да се прецени кои криминално проявени лица могат повторно да извършат престъпление, след като бъдат пуснати на свобода. Програмата, която работи на базата на машинното обучение, дала интересен резултат. Процентът на чернокожите, които повторно ще извършат престъпление, бил много по-висок от този на белите американци.
Софтуерът се научил да разбира кой е по-вероятно да попадне в затвора, след като анализирал вече съществуваща база данни с реални съдебни дела. Мнозина смятат, че съдебната система в САЩ е била (или все още е) една от най-несправедливите - в исторически план броят на осъдените чернокожи американци е много по-голям от този на белите.
И тук анализаторите намират пробойната в изкуственият интелект, който уж би трябвало да реши всички проблеми на човечеството. Смяташе се, че компютрите могат да взимат решения самостоятелно и напълно безпристрастно - машините ще направят съдебната система и целият процес много по-справедлив, защото за машините няма да има значение дали си бял или черен, дали си мъж или жена, дали си гей или си хетеросексуален.
Това, което се случва на практика, обаче, е съвсем различно. Програмите, които работят на принципа на машинното обучение, се учат от нас, нашите предразсъдъци, нашето поведение. Оказва се много важно с каква точно информация "храниш" алгоритмите, за да ги научиш кого точно да дискриминират.
През 2017 година компютърният учен Айлин Калискан публикуват данните от проведен експеримент, който показва по какъв начин компютърът научава английски език. Използвана е елементарна програма, която работи на базата на машинното обучение и с чиято помощ са прегледали 840 милиарда думи. Програмата анализирала думи, които често се появяват една до друга, за да разбере какво означават. Методът е сходен с когнитивните науки и начина, по който децата се учат да говорят.
След като компютърът научил думите, изследователите започнали асоциативни тестове, които се провеждат на базата на човешките възприятия. Така една простичка дума "инженер", която асоциативно се свързва с думата "мъж" много по-често, научава машината сама да има предразсъдъци. Защото според резултатите, думите "жена" и "инженер" не се срещат толкова често една до друга.
Компютърът научил също така, че до думата "афроамериканец" много по-рядко може да стои думата “приятен”, която пък се намирала често до тази на "бяла раса". Причината за това не е, че машината смята, че чернокожите са неприятни, а че хората използват неприятни думи, когато говорят за тях в интернет.
Какви последствия може да има това за нашия живот? Сравнително сериозни, смятат учените. Много големи компании разчитат на програми с изкуствен интелект, когато наемат хора на работа. Машината селектира най-подходящите резюмета на базата на определени алгоритми. Представете си, че сте жена, която кандидатства за работа като софтуерен инженер. А сега се сетете за асоциативното мислене. Така вашето CV може да бъде сметнато като неподходящо от компютъра, който просто няма да го предостави на ръководството и така вие няма да получите обаждане за интервю. А сега си представете какво ще се случи със системите на здравеопазването, които все повече започват да внедряват новите технологии в работата си.
Затова експертите съветват да бъдем внимателни що се касае до изкуствения интелект. Да не приемаме данните, които компютърът ни предоставя, за чиста монета и винаги да се питаме - как и защо машината е стигнала до този резултат. ИИ учи за света такъв, какъвто е бил. Той възприема тенденциите на статуквото. Компютърът не знае какъв би трябвало да бъде светът и няма мечти за по-светло бъдеще. Това все още го можем само ние, хората.
Това се случи Dnes, за важното през деня ни последвайте и в Google News Showcase.
BMW се стреми към възстановяване в Китай чрез своята серия Neue Klasse
Тръмп замрази 106-годишен закон в САЩ, за да намали цените на бензина
Най-слабото място на бизнеса у нас са процесите и координацията между екипите
Атаката срещу газово находище в Иран оцвети в червено европейските борси
Иран състави списък с ключови петролни цели в съседните държави
Фед остави непроменена основната лихва и очаква само едно понижение тази година
Рецепта за пилешка кавърма по селски
Късна емисия
Късмет и благополучие за три зодии по време на Луната в Овен на 19 март
Кендра Лъст
Левски се издъни, извъртя 1:1 със Септември
Нова драма с оставката на Стефка Костадинова
Вихрушката на “Камп Ноу” помете Нюкасъл
Лудогорец ще гони Левски с бой във Варна
Вечното дерби наближава! Размяна на звезди между Левски и ЦСКА
Дневен хороскоп за 19 март, четвъртък
Новолуние в Риби на 19 март – мечтаем смело, но не бързаме
Таро карти за април за всяка зодия
Ново начало за 3 зодии на 20 март – пролетното равноденствие
„От семенцето до чинията“ от Мишел Дормъди
5 минималистични хит тенденции в маникюра за 2026
Литературно събитие събира над 30 артиста в близо 50 срещи във Варна и страната
Деца се запознаха с интересни легенди от Североизтока
Над 1100 учители се обучиха да използват изкуствен интелект в учебния процес
Пета гимназия е №1 по мини футбол за VIII-X клас в „Ученическа купа Варна 2026“
Има ли риск за овошки тази година?
Живопис, музика на живо и триизмерни прожекции при откриването на изложба във Варна
Рядко явление в Атлантическия океан: Морски гиганти са забелязани на неочаквано място
НАСА с необичаен призив: Снимайте градушките!
Ще се превръщат ли роботите-фермери в тор след края на експлоатацията си?
Мощна магнитна буря ще удари Земята между 19 и 22 март
НАСА планира ежемесечни кацания на Луната през 2027 г.
Възможен ли е извънземен живот на луни, реещи се в мрака на Космоса?