計世網

MIT最新AI研究,讓機器人利用觸覺感知物體
作者:佚名 | 來源:獵云網
2019-06-17
隨著人工智能技術的進步,模擬視覺和聽覺的技術發展迅速,但嗅覺、味覺、觸覺方面則出現“瘸腿走路”的狀況。

 

麻省理工學院計算機科學及人工智能實驗室(CSAIL)的研究人員表示,在不久的將來,機器人將能夠通過觸覺來感知物體。一篇最新的相關論文將于下周在加利福尼亞長灘市的計算機視覺與模式識別會議上公開,這篇論文描述了一種人工智能系統,它可以通過觸覺信號生成觸摸物的視覺形象,還能根據視覺數據來預測物體的觸感。

“通過觀察物體的表面,我們的模型可以預測某個平面或棱角的觸感。通過觸摸物體,我們的人工智能模型可以根據觸感來構建感知到的環境。將這兩種感知數據相結合,機器人的性能就會得到優化,它在搬運或抓取某個物體時所需的數據就更少,”CSAIL博士生Yunzhu Li說道,他與他的導師Russ Tedrake、Antonio Torralba以及另一位博士后Jun-Yan Zhu一起撰寫了本篇論文。

這支團隊的系統采用了生成式對抗神經網絡(GAN),這種神經網絡包含了生成模型和判別模型,前者負責生成樣本,后者負責辨別生成樣本和現實樣本的不同。該系統能將觸覺數據產生的圖像拼接起來。訓練時它采用了VisGel的數據,該數據庫擁有300萬組視覺和觸覺的配套數據,其中包含1.2萬個視頻片段,對象多達200種(包括工具、織物和家具產品等)。它會預測出形狀和接觸點的材料,然后與參考圖片進行對比。

例如你給出一只鞋子上某個點的觸覺數據,這個模型就能確定出這個接觸點到底在什么地方。

這些參考圖片能為目標物體或環境的細節進行編碼,讓機器學習模型不斷自我完善。

這些研究人員指出,目前的數據集還非常有限,對于現有的系統而言,物體的顏色、柔軟度等細節還很難預測。但很顯然他們的研究會為更多的人機一體化打下基礎,尤其是針對光線昏暗甚至黑暗密閉空間中的任務。

責任編輯:何周重

天津11选5开奖结果查询