Досадна си! Alexa, моля те, спри, млъкни!

Потребителите могат да реагират агресивно и срещу гласовите асистенти
23 авг 2017 21:21, Бойчо Попов
6
Досадна си! Alexa, моля те, спри, млъкни!
снимка: Ройтерс

Ейми Инграм се опитва да насрочи среща по-рано този месец, когато получава остър отговор. Един от участниците я нарича "досадна", защото изпраща "НЕПРЕСТАННО имейли". Това би предизвикало учудване във всеки офис, но този път причината е различна. Ейми Инграм всъщност не е човек. Тя е персонален асистент, работещ чрез изкуствен интелект, дело на стартъпа X.ai. Задачата й пък е само една: да насрочва срещи по имейл, пише CNN.

Apple, Google, Amazon и Microsoft инвестират в гласови асистенти, свързани със смартфони и умни колонки. Повече от 35 млн. американци се очаква да използват гласово активирани асистенти поне веднъж месечно тази година според eMarketer. В данните не са взети предвид чатботовете и продуктите като Ейми Инграм.

Но докато технологичните компании представят все по-развити асистенти и чатботове, някои от тези разговори неминуемо стават досадни. Може би Siri на Apple погрешка ще се обади на шефа ви през нощта, вместо на приятелката ви. Или ще се разстроите, че срещата ви е със сменен час.

Можете да наречете ефекта от това версия 2.0 на удрянето по клавиатурата и хвърлянето на мишката по стената. Сега машините отвръщат на удара.

"Много от интеракциите се извършват между вас и машината", коментира Денис Мортенсен, основател и главен изпълнителен директор на X.ai, визирайки повечето продукти с асистенти на пазара.

"В този контекст хората се чувстват свободни да изразяват недоволството си", коментира той.

Това създава ново предизвикателство за технологичните компании: колко сериозно трябва да отговарят асистентите на недоволството.

Шери Търкъл, директор на MIT Initiative on Technology and Self, твърди, че залогът е по-голям от потребителското преживяване. Изливането на гнева върху машините може да доведе до промяна в начина, по който хората се отнасят един с друг.

"Крещите на Alexa… знаете, че Alexa е машина", посочва Търкъл. "Ние третираме машините, сякаш смятаме, че са хора. А след това, се отнасяме към хората, мислейки, че те са машини".

Има малко данни за честотата на изразяването на гнева срещу новите машини. Технологичните компании не казват много по темата. Amazon отказва да коментира въпроса, а Apple не е отговорила на запитването за коментар.

Cortana, персоналният асистент на Microsoft, е заливан от обиди всеки ден. От екипа, който стои зад проекта, зависи даването на подходящ отговор.

"Въпреки че Cortana винаги е готова да води продуктивен и позитивен разговор, целта е да се спре обидното поведение на мига", твърди Дебора Харисън, автор в редакторския екип на Cortana.

Когато някой отправи обида към Cortana, тя отговаря, казвайки: Добре, това няма да ни отведе никъде“. Опитът за повторна обида е свързан със същия отговор, което потенциално ограничава решението за потретване на обидата.

Siri предлага подобен микс от добри отговори. Ако обидите Siri, тя ще отговори с нещо от сорта на: "Ще се престоря, че не съм чула".

И все пак това може да не е достатъчно за справяне с проблема. Според Синтия Бризиъл е необходимо нещо повече от "система, която се проваля и ви дава сладък отговор".

"Това е труден за решаване проблем", коментира Синтия, която е основател и главен учен в Jibo, стартъп, разработващ роботи за дома. Тя очаква, че "следващото голямо нещо" ще бъде по-доброто разбиране на гнева на потребителя и какво може да бъде направено за справяне с него.

IBM се опитва да прави това и сега. Нейната платформа за изкуствен интелект Watson предлага чатботове и витуални агенти за клиенти. Екипът на IBM разчита на анализа на тона и емоциите, за да засича и да се справя с ядосаните потребители, твърди Роб Хай, главен технологичен директор на IBM Watson.

В първия момент, в който Watson засече гняв, се опитва "да го интерпретира и да отговори подходящо", коментира Хай. Вторият път Watson може да се извини и да каже, че не разбира. Ако все пак инцидентът стане по-сериозен, Watsen разчита на последното си оръжие: истински хора.

"Ще предложим да насочим въпрос към реален агент", посочва Хай.

Разбира се, гневът може да е едно от възможните обяснения. Някои потребители могат просто да искат да тестват лимитите на това какво могат и какво не могат да направят.

Мортенсен от X.ai твърди, че би искал да види "наказания", наложени на потребители, които се отнасят зле с персоналните асистенти "като в реалния живот". Една от идеите, които предлага, е времето за отговор на асистентите да се спадне значително.

"Веднага ще разберете, че сте загубили", твърди той. Тогава обаче стартиращата компания може да загуби клиенти. 

Още подобни новини четете в Investor.bg


6
Още по темата: Siri
Още от
Напиши коментар Коментари
5
0
 
0
 
! Отговори
Анонимен преди 10 месеца
Майкрософтската Кортана, спира да ти изпълнява командите, ако я псуваш. Е, поне хубавото, с нея е, че мога да хвана, на каквото устройство е, да го забия в земяата и няма проблеми. Работниците, когато ги уволня, почват да водя дела .
4
1
 
10
 
! Отговори
??? преди 10 месеца
Основната грешка е, че засега все още не може да се програмират машини, които да дават отговори и да задават въпроси, които да не предизвикват гняв. Предполагам всеки се е сблъсквал с проблема на "интелигентният асистент" на Гугъл, който най-произволно ти подменя текстовете, които пишеш и единственото ти желание е да го изключиш в повечето случаи.
3
1
 
13
 
! Отговори
451 по Фаренхайт преди 10 месеца
"Ние третираме машините, сякаш смятаме, че са хора. А след това, се отнасяме към хората, мислейки, че те са машини".
Браво! Равни права за машините. Кои сте вие, че да отричате правата на пластмасата и метала? Те са създадени, за да живеят. Оруел и Бретбъри могат само да завиждат за тази антиутопия.
2
0
 
6
 
! Отговори
Hobo преди 10 месеца
Я пак ми обяснете какъв е проблемът? Чат ботове, умни колонки, X.ai....И в същтото време 35 млн. щяли да го използват. Ама те дали знаят, че ще го използват или това е просто поредното модифициране на интереси и налагане на ***, дето ще ни се налага в близко бъдеще.
1
0
 
10
 
! Отговори
Тончик Харитончик преди 10 месеца
"Мортенсен от X.ai твърди, че би искал да види "наказания", наложени на потребители, които се отнасят зле с персоналните асистенти "като в реалния живот"."

ПОДКРЕПЯМ ГОРЕЩО! БОЙ С КАМШИЦИ И ГРУБО ИЗНАСИЛВАНЕ ЗА ТЕЗИ... ТЕЗИ... ТЕЗИ СГРЕШИЛИ ХОРА!