Знаете ли, че Google и Оксфордският университет са разработили съвместно нов вид изкуствен интелект(AI)?
Той е известен със съкращението WLAS и представлява система, която може лесно да чете по устните, дори от необработено видео. Изследователите от девизията на изкуствения интелект DeepMind на Google, който също е разработен в Оксфордския университет, създадоха система за четене по устните. Тя надхвърля с лекота анализа и тълкуването, които човек е способен да направи.
Как Google научи новото си творение на това изкуство?
Отговорът е много прост. Британското разделение на интернет гиганта е дало достъп на DeepMind до стотици часове от телевизионното съдържание на BBC.
Общо екипът е обучил AI с повече от 5000 часа видео, в които са влючени 110 000 фрази и 17 500 думи. Целта е компютърът да се научи да разбира по-добре човешкия език при наличие или отсъствие на звук.
Резултатите на системата дават точност от 46,8%. На пръв поглед процентите може да изглеждат ниски, но категорично бият резултатите от 12,4%, които успяват да постигнат професионалистите.
За основа на експеримента е послужило изследване на Оксфордския университет. По време на опита, софтуер с наименованието LipNet, е трябвало да чете по устните с възможно най-голяма точност. Тестовете тогава са проведени с 57 думи.
Според изследователите, системата за наблюдение, слушане, присъствие и правопис (WLAS) значително е надминала постиженията на всички предишни трудове в тази област. Системата вече анализира повече от 118 000 различни фрази и 17 500 уникални думи.
Какво може да е приложението на създадената система?
Този тип изкуствен интелект може да има различни приложения, използвани за да помагат на хората със слухови увреждания. Например с негова помощ те могат да прочетат по устните думите на говорещия. Освен това тази система за четене по устните може да се използва и като даде възможност на потребителите с виртуални асистенти като Siri и Cortana да комуникират по-пълноценно.