本發(fā)明公開了一種基于PPO算法的強化學習智能體訓練方法,包括仿真配置管理、訓練環(huán)境配置、超參選擇PPO算法、智能體訓練、訓練結(jié)果分析、模型生成。本發(fā)明的有益效果是:所搭建的平臺可以解析環(huán)境的關(guān)鍵信息,提供自動模型生成功能,根據(jù)環(huán)境中各智能體狀態(tài)空間和動作空間的特性、數(shù)據(jù)類型、以及仿真環(huán)境提供的“得分”,自動地選擇系統(tǒng)內(nèi)置的深度網(wǎng)絡(luò)模型來表達策略模型和價值函數(shù)模型,支持離散、連續(xù)、圖像、不定長列表等類型的輸入數(shù)據(jù),也支持離散和連續(xù)的動作類型。模型由平臺自動生成,無需人為調(diào)整和設(shè)置。
聲明:
“基于PPO算法的強化學習智能體訓練方法” 該技術(shù)專利(論文)所有權(quán)利歸屬于技術(shù)(論文)所有人。僅供學習研究,如用于商業(yè)用途,請聯(lián)系該技術(shù)所有人。
我是此專利(論文)的發(fā)明人(作者)