本發(fā)明公開的屬于機器人運動技術(shù)領(lǐng)域,具體為一種基于人類行為模擬的移動機器人實時運動規(guī)劃方法,在機器人上安裝至少兩臺可旋轉(zhuǎn)和移動的CCD相機,獲取機器人外部環(huán)境監(jiān)測圖像,對一個空間中的某一點的三維坐標(biāo)與相應(yīng)的二維坐標(biāo)得到對應(yīng),本發(fā)明中的機器人通過觀察人體特征動作,機器人快速模仿學(xué)習(xí),使其通過別的人類個體學(xué)習(xí)新的行為來適應(yīng)新的環(huán)境,提高智能機器人與人類的交流效率,通過采集并建立人體骨骼運動信息庫,運用運動學(xué)和動力學(xué)匹配將其轉(zhuǎn)化為機器人的運動角度信息,根據(jù)機器人與運動物體的距離與角度信息,控制機器人到指定坐標(biāo)位置,利用強化學(xué)習(xí)模擬人類抓取過程,實現(xiàn)行為模仿抓取。
聲明:
“基于人類行為模擬的移動機器人實時運動規(guī)劃方法” 該技術(shù)專利(論文)所有權(quán)利歸屬于技術(shù)(論文)所有人。僅供學(xué)習(xí)研究,如用于商業(yè)用途,請聯(lián)系該技術(shù)所有人。
我是此專利(論文)的發(fā)明人(作者)