強化学習(DQN)で​学習した方策(Q-N​etwork)の保存​方法について

7 views (last 30 days)
お世話になります。
rlQValueRepresetationにて学習済みのQ-networkを呼び出したいのですが、
強化学習(DQN)で学習した方策(Q-Network)はどうように保存すればよいでしょうか。
rlTrainingOptionsでエージェントを保存できることは確認致しましたが、学習済みのQ-Networkを確認することは出来ませんでした。
私の確認不足により、もし、rlTrainingOptionsで学習済みのQ-Networkが保存可能な場合、Q-Networkの呼び出し方法を教え頂けないでしょうか。

Accepted Answer

Toshinobu Shintai
Toshinobu Shintai on 31 Oct 2021
エージェントによって形式が変わってきますが、基本的には「agent」オブジェクトの中に学習済みの方策は格納されています。
コマンドとしては「getModel」というコマンドで取り出すことができます。Actor-Critic形式のエージェントの場合は「getActor」コマンドも必要になると思います。
  1 Comment
一馬 平田
一馬 平田 on 1 Nov 2021
ご回答頂きましてありがとうございます。
「getmodel」を使って、Q-Networkの呼び出しを試してみようと思います。
追加質問となり、申し訳ございませんが、
「getmodel」で呼び出した呼び出した方策(Q-Network)を使用し、別の対象の学習を行う時、
一部の層の重みを凍結させたいのですが、どのようにすればよろしいでしょうか。

Sign in to comment.

More Answers (0)

Community Treasure Hunt

Find the treasures in MATLAB Central and discover how the community can help you!

Start Hunting!