本發(fā)明涉及一種基于多傳感器融合的多機(jī)器人相對(duì)定位方法,旨在實(shí)現(xiàn)多無(wú)人機(jī)協(xié)同運(yùn)輸時(shí)的構(gòu)型感知功能,為控制模塊進(jìn)行陣型保持提供位姿信息。所采用的技術(shù)方案包括以下步驟:?jiǎn)螜C(jī)對(duì)視覺(jué)可見(jiàn)范圍內(nèi)其他無(wú)人機(jī)的視覺(jué)位姿估計(jì);IMU信息與視覺(jué)估計(jì)和UWB測(cè)距信息融合;多機(jī)間定位結(jié)果融合。由于采用了確定尺寸的合作標(biāo)識(shí),使得視覺(jué)定位的魯棒性、精度和計(jì)算速度均得以提高,加快觀測(cè)更新頻率;采用了IMU預(yù)測(cè)+UWB測(cè)距+視覺(jué)圖像觀測(cè)的多傳感器組合解算,使得多機(jī)器人間的定位精度得以進(jìn)一步提高,并且可以在不依靠GPS信息的情況下保持系統(tǒng)相對(duì)構(gòu)型。采用了環(huán)形網(wǎng)絡(luò)拓?fù)溥M(jìn)行陣型估計(jì),使得系統(tǒng)在部分觀測(cè)失效的情況下仍能保持運(yùn)作,具有一定的冗余性。
聲明:
“基于多傳感器融合的多機(jī)器人相對(duì)定位方法” 該技術(shù)專利(論文)所有權(quán)利歸屬于技術(shù)(論文)所有人。僅供學(xué)習(xí)研究,如用于商業(yè)用途,請(qǐng)聯(lián)系該技術(shù)所有人。
我是此專利(論文)的發(fā)明人(作者)