本發(fā)明公開(kāi)了一種基于掩碼感知深度強(qiáng)化學(xué)習(xí)的多人物姿態(tài)估計(jì)方法,該方法首先構(gòu)建多人物姿態(tài)估計(jì)模型,所述多人物姿態(tài)估計(jì)模型由獲取檢測(cè)框和掩碼的檢測(cè)網(wǎng)絡(luò)、提高定位準(zhǔn)確性的深度強(qiáng)化學(xué)習(xí)網(wǎng)絡(luò)和單人姿態(tài)估計(jì)網(wǎng)絡(luò)三個(gè)子網(wǎng)絡(luò)組成;然后利用訓(xùn)練樣本對(duì)多人物姿態(tài)估計(jì)模型進(jìn)行訓(xùn)練;測(cè)試時(shí)將待檢測(cè)圖像輸入訓(xùn)練好的多人物姿態(tài)估計(jì)模型中,得到待檢測(cè)圖像所有檢測(cè)框中的人物姿態(tài)。本發(fā)明方法將掩碼信息引入深度強(qiáng)化學(xué)習(xí)網(wǎng)絡(luò)與單人姿態(tài)估計(jì)網(wǎng)絡(luò),改善了這兩個(gè)階段的效果,并引用殘差結(jié)構(gòu)解決了梯度消失和梯度爆炸問(wèn)題。本發(fā)明方法與其他先進(jìn)的多人物姿態(tài)估計(jì)方法相比更具有競(jìng)爭(zhēng)力。
聲明:
“基于掩碼感知深度強(qiáng)化學(xué)習(xí)的多人物姿態(tài)估計(jì)方法” 該技術(shù)專(zhuān)利(論文)所有權(quán)利歸屬于技術(shù)(論文)所有人。僅供學(xué)習(xí)研究,如用于商業(yè)用途,請(qǐng)聯(lián)系該技術(shù)所有人。
我是此專(zhuān)利(論文)的發(fā)明人(作者)