本發(fā)明提供一種基于多任務(wù)深度學(xué)習(xí)的圖像檢索方法、模型及其構(gòu)建方法,依據(jù)標(biāo)簽與標(biāo)簽的關(guān)系,以及標(biāo)簽與圖像視覺內(nèi)容的關(guān)系,設(shè)計(jì)損失函數(shù)指導(dǎo)標(biāo)簽的優(yōu)化,在去除噪聲標(biāo)簽,補(bǔ)全缺失標(biāo)簽,減少語(yǔ)義模糊標(biāo)簽的同時(shí),并進(jìn)一步精確地匹配每個(gè)圖像區(qū)域的對(duì)應(yīng)標(biāo)簽,從而用這些標(biāo)簽為哈希學(xué)習(xí)提供更精確地語(yǔ)義指導(dǎo)。為了高效地進(jìn)行標(biāo)簽優(yōu)化學(xué)習(xí)和哈希學(xué)習(xí),提出一個(gè)端到端的聯(lián)合學(xué)習(xí)框架,在標(biāo)簽學(xué)習(xí)的同時(shí)也進(jìn)行哈希學(xué)習(xí),兩種學(xué)習(xí)相互受益;設(shè)計(jì)最終損失函數(shù)來共同指導(dǎo)標(biāo)簽學(xué)習(xí)和哈希學(xué)習(xí),并使用動(dòng)量的隨機(jī)梯度下降法優(yōu)化模型參數(shù)從而得到圖像檢索模型以及圖像中的每個(gè)目標(biāo)精細(xì)化的哈希表達(dá)。
聲明:
“基于多任務(wù)深度學(xué)習(xí)的圖像檢索方法、模型及其構(gòu)建方法” 該技術(shù)專利(論文)所有權(quán)利歸屬于技術(shù)(論文)所有人。僅供學(xué)習(xí)研究,如用于商業(yè)用途,請(qǐng)聯(lián)系該技術(shù)所有人。
我是此專利(論文)的發(fā)明人(作者)