- サンプルモデルの紹介Webサイトの右側にある「View MATLAB Command」をクリックする。
- 表示されたコマンドをMATLABのコマンドウィンドウで実行する。(例えば今回のサンプルモデルでは、openExample('rl/MATLABCartPoleParACExample') となっています)
Train AC Agent to Balance Cart-Pole System Using Parallel ComputingのrlValueRepresentationについて
1 view (last 30 days)
Show older comments
現在Train AC Agent to Balance Cart-Pole System Using Parallel Computingを使おうと思い、実行したのですが
rlValueRepresentationが認識されませんとエラーが出てしまいます。
rlStochasticActorRepresentationも同様にエラーが出ます。
どのようにしたら改善されるのでしょうか。
プログラムの中は以下のようなっています
critic側の作成
criticNetwork = [
imageInputLayer([4 1 1],'Normalization','none','Name','state')
fullyConnectedLayer(32,'Name','CriticStateFC1')
reluLayer('Name','CriticRelu1')
fullyConnectedLayer(1, 'Name', 'CriticFC')];
criticOpts = rlRepresentationOptions('LearnRate',1e-2,'GradientThreshold',1);
critic = rlValueRepresentation(criticNetwork,obsInfo,'Observation',{'state'},criticOpts);
0 Comments
Answers (2)
Toshinobu Shintai
on 7 Apr 2020
お使いのMATLABのバージョンはR2019aまたは19bでしょうか。もしそうであれば、エラーとなります。
理由は、「rlValueRepresentation」や「rlStochasticActorRepresentation」はR2020aから導入された新しいコマンドだからです。分かりにくくて申し訳ありません。
参考までに、各サンプルモデルは、バージョンごとにそれぞれ個別に用意されています。古いバージョンのサンプルモデルを開きたい場合は、以下のようにしてください。
0 Comments
See Also
Categories
Find more on Deep Learning Toolbox in Help Center and File Exchange
Community Treasure Hunt
Find the treasures in MATLAB Central and discover how the community can help you!
Start Hunting!