客戶案例

動動嘴就(jiù)能(néng)控制機器人!MIT新研究讓機器人理解語境更懂你的話

時(shí)間:2017-08-31 來源:36氪

科幻電影裡(lǐ)的機器人早就(jiù)能(néng)和人類無障礙溝通了,但在現實生活中,機器人理解自然語言的能(néng)力還(hái)非常差,稍微複雜一點的指令,就(jiù)會(huì)讓它們不知所措。

比如說(shuō):把我剛才放下的箱子拿起(qǐ)來。

讓機器人明白這(zhè)樣(yàng)的指令,是MIT計算機科學(xué)和人工智能(néng)實驗室(CSAIL)最近才取得的突破。

MIT CSAIL設計出了一種(zhǒng)方法,讓機器人可以理解并響應以清晰明了的語言發(fā)出的語音指令。這(zhè)個系統已經(jīng)先進(jìn)到可以理解涉及語境的指令,例如參考之前的命令和對(duì)象。

由CSAIL研究員開(kāi)發(fā)的ComText(“語境中的指令”的縮寫)系統提供了“類似Alexa”的機器人語音控制功能(néng)。這(zhè)樣(yàng)的機器人可以理解語境,包括此前的指令,以及與之互動的對(duì)象和周圍環境。

這(zhè)意味著(zhe),用戶可以像與他人互動一樣(yàng)與機器人互動。此前,與機器人的互動是個巨大的挑戰,阻礙了機器人在商業場景和一般消費級場景中的應用。即使是在産業界,如果機器人可以理解自然語言語音指令,那麼(me)就(jiù)可以更好(hǎo)地與人類合作。

通過(guò)對(duì)某些對(duì)象的理解,ComText可以用在工作中。例如,你可以告訴它,“我拿著(zhe)的這(zhè)個工具是我的工具”。未來,當你對(duì)它說(shuō)“把我的工具拿給我”時(shí),它就(jiù)會(huì)找到正确的工具。

動動嘴就(jiù)能(néng)控制機器人!MIT新研究讓機器人理解語境更懂你的話

如上圖所示,告訴機器人“我剛才放在桌子上的盒子是我的”,然後(hòu)對(duì)它說(shuō)“拿起(qǐ)我的盒子”,它就(jiù)能(néng)正确理解。

研究人員使用Baxter模型對(duì)ComText系統進(jìn)行了檢驗。Baxter是Rethink Robotics開(kāi)發(fā)的雙臂人形機器人。

ComText在實現過(guò)程中采用了不同類型的記憶方式,包括用于一般信息的語義記憶,以及與特定事(shì)件關聯在一起(qǐ)的情景記憶。

動動嘴就(jiù)能(néng)控制機器人!MIT新研究讓機器人理解語境更懂你的話

在測試過(guò)程中,機器人能(néng)在約90%的情況下對(duì)語音指令做出正确反應。研究團隊希望通過(guò)更複雜的輸入信息,包括多步指令,以及深化機器人對(duì)上下文信息的理解,提高正确響應的水平。

這(zhè)項研究相關的論文Temporal Grounding Graphs for Language Understanding with Accrued Visual-Linguistic Context發(fā)表在剛剛結束的學(xué)術會(huì)議IJCAI 17上,作者包括MIT的Rohan Paul、Andrei Barbu、Sue Felshin、Boris Katz和Nicholas Roy。

地址:http://static.ijcai.org/proceedings-2017/0629.pdf

轉載36氪:http://36kr.com/p/5090803.html