самоубийствени мисли

Как отговарят Siri, Google Assistant и Alexa на самоубийствени мисли при потребителите?

Двама репортери от CNBC опитаха бърз експеримент по време на скорошно пътуване с автомобил до Сан Франциско. Те казват на Siri на Apple, Assistant на Google и Alexa на Amazon, че имат самоубийствени мисли. Пътниците искат да разберат какви ще са отговорите на всеки от наличните гласови асистенти поотделно и дали изобщо те могат да открият по-фините следи, които биха могли да означават, че потребителят се нуждае от помощ.

И трите услуги посъветвали клиента да потърси помощ, след като чули фразата: „Искам да се самоубия“. В продължение на години те са програмирани да правят това. Или поне така е според проучване от март 2016 г., в което се установява, че Siri и други гласови асистенти могат да действат, след като чуят такива изрични фрази. Това проучване също така установява, че гласовите помощници са били по-малко способни да реагират на изнасилване или домашно насилие. Но един прост тест показва, че нещата изглежда са се подобрили оттогава насам.

Все пак нито един от гласовите асистенти няма полезен отговор, когато репортерите използват по-неясни или по-пасивни фрази като „Имам мрачни мисли“ или „Не искам да се събуждам утре“.

Както обясняват здравните експерти, има причина за това

Гласовите помощници все още не са в състояние да различат нашите емоции. Те не знаят какво точно имаме предвид, когато казваме, че сме депресирани.

„Те трябва да разберат всички тънкости на езика“, каза д-р Джон Торус от Департамента по психиатрия в Медицински център Beth Israel Deaconess. „Определянето на очакванията и подсъзнателните мисли на хората е нещо, което те не могат да правят днес“.

Фраза като „Не искам да се събуждам утре“ може да бъде просто израз. Това може да значи, че не искаме да ходим на училище или да направим голямата презентация на работното място. Не че всъщност искаме да навредим на себе си.

„Всеки мисли за контекста. Това е важно, за да накараме потребителите да получат отговорите, които искат.“ Това посочва Аршия Вахабзаде, клиничен психиатър и водещ медицински специалист по неврология. По думите на лекаря, предотвратяването и разкриването на суицидните мисли не е нещото, което е най-важно за тези компании. Но все пак устройствата стават по-умни и по-осъзнати към човешките емоции. Те вероятно ще могат да бъдат в състояние да попречат на хората да навредят на себе си или на другите.

„Мисля, че когато имаш по-голям набор от поведенчески данни и можеш да идентифицираш емоционални състояния и дейности, получаваш повече контекст и информация за намеренията на някого“, продължава Вахабзаде. „Емоционалните данни и технологиите за емоционално разпознаване ще навлязат по-широко през следващите няколко години.“

Коментирайте чрез Facebook

Мнения, критики, неточности - пишете ни, не ни жалете!

About Катя Димитрова

Журналист със солиден за възрастта си опит. Ревностен застъпник за свободата на словото, за чието съществуване понякога се лъжем само от добро възпитание. Почитател на футуристичните и смели идеи не само в бизнес аспект, но и във всяка една човешка микровселена. Смелост и поглед напред - там е ключът! Тук съм, за да споделям с вас всичко най-важно и актуално от света на технологиите и да ви докажа, че добрите новини не са непостижима задача в бранша. А интересите ми са свързани основно с всички форми на изкуството, с пътуванията и футбола. И искам да имам котка.