JP7038790B2 - ニューラルエピソード制御 - Google Patents
ニューラルエピソード制御 Download PDFInfo
- Publication number
- JP7038790B2 JP7038790B2 JP2020213556A JP2020213556A JP7038790B2 JP 7038790 B2 JP7038790 B2 JP 7038790B2 JP 2020213556 A JP2020213556 A JP 2020213556A JP 2020213556 A JP2020213556 A JP 2020213556A JP 7038790 B2 JP7038790 B2 JP 7038790B2
- Authority
- JP
- Japan
- Prior art keywords
- training
- return
- episodic memory
- action
- key
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/004—Artificial life, i.e. computing arrangements simulating life
- G06N3/006—Artificial life, i.e. computing arrangements simulating life based on simulated virtual individual or collective life forms, e.g. social simulations or particle swarm optimisation [PSO]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/01—Dynamic search techniques; Heuristics; Dynamic trees; Branch-and-bound
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Molecular Biology (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Image Analysis (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Description
本出願は、2017年2月24日に出願の米国仮出願第62/463,558号の優先権を主張する。先行出願の開示は、本出願の一部と考えられ、本出願の開示に参照により組み込まれる。
Qi+α(Q(N)(s, a)-Qi)
に、マッチするキー埋込みhiをマッピングするようにエピソード記憶データを更新し、ここで、QN(s, a)は、現在のブートストラップリターンであり、Qiは、マッチするキー埋込みhiによって現在マッピングされるリターン推定であり、αは、Q更新の学習率である。学習率αは変更されることが可能である。例えば、いくつかのケースにおいて、学習率は、安定した表現で繰り返し訪れる状態がこれらのQ値推定を迅速に更新できるようにするために、高い値を持つことができる。
102 エージェント、強化学習エージェント
104 環境
106 埋込みニューラルネットワーク
108 エピソード記憶データ
110 ニューラルエピソードコントローラ
112 Q値エンジン
114 再生記憶
202 観測
204 行動aのためのエピソード記憶モジュール、エピソード記憶モジュール
300 処理
400 処理
Claims (20)
- 埋込みニューラルネットワークを含むニューラルエピソードコントローラを訓練するためのコンピュータにより実行される方法であって、
前記ニューラルエピソードコントローラが、観測に応答して、エージェントによって実行される複数の行動の各行動のための個々のエピソード記憶モジュールを含むエピソード記憶データを維持し、
各行動のための前記エピソード記憶モジュールが、個々の複数のキー埋込みのそれぞれを個々のリターン推定にマッピングし、
前記方法が、
1つまたは複数のコンピュータによって、訓練タプルを再生記憶からサンプリングするステップであって、
前記訓練タプルが、訓練の観測、訓練の選択済み行動、および訓練のリターンを含む、ステップと、
前記訓練の観測のための訓練キー埋込みを生成するために、前記埋込みニューラルネットワークのパラメータの現在の値に応じて前記埋込みニューラルネットワークを使用して、前記訓練の観測を処理するステップと、
前記訓練の選択済み行動のための前記エピソード記憶モジュール内の前記キー埋込みのいずれかに前記訓練の観測に関連付けられた前記訓練キー埋込みがマッチするかどうかを判断するステップと、
前記訓練の選択済み行動のための前記エピソード記憶モジュール内の前記キー埋込みのいずれかに前記訓練キー埋込みがマッチするとき、(i)前記訓練のリターン、(ii)前記マッチするキー埋込みによって現在マッピングされる前記リターン推定、および(iii)エピソード記憶学習率に基づいて計算される新しいリターン推定に、前記マッチするキー埋込みをマッピングするために前記エピソード記憶モジュールを更新するステップと、
前記1つまたは複数のコンピュータによって、前記訓練の観測から前記訓練の選択済み行動のためのQ値を判断するステップであって、
前記選択済み行動のための前記Q値は、前記訓練の観測に応答して前記訓練の選択済み行動を行う前記エージェントから生じることになる予測されるリターンである、ステップと、
前記1つまたは複数のコンピュータによって、前記エピソード記憶学習率より小さい埋込みニューラルネットワーク学習率を使用して、前記埋込みニューラルネットワークのパラメータの現在の値を更新するために、前記訓練の選択済み行動に関する前記Q値と前記訓練のリターンとの間のエラーの勾配を逆伝搬させるステップと
を含む方法。 - 前記訓練の選択済み行動に関する前記Q値を判断するステップが、
距離測定に応じて、前記訓練キー埋込みに対する、前記訓練の選択済み行動のための前記エピソード記憶データ内のp近傍キー埋込みを判断するステップと、
前記訓練の選択済み行動のための前記エピソード記憶データ内の前記p近傍キー埋込みによってマッピングされる前記リターン推定から、前記訓練の選択済み行動に関するQ値を判断するステップと
を含む、請求項1に記載の方法。 - 前記訓練の選択済み行動のための前記エピソード記憶データ内の前記p近傍キー埋込みによってマッピングされる前記リターン推定から、前記訓練の選択済み行動に関する前記Q値を判断するステップが、
前記距離測定に応じて、前記p近傍キー埋込みと、前記訓練キー埋込みの間の距離から、前記訓練の選択済み行動のための前記エピソード記憶データ内の前記p近傍キー埋込みのそれぞれに対する個々の重みを判断するステップと、
前記訓練の選択済み行動のための前記エピソード記憶データ内の前記p近傍キー埋込みのそれぞれに対して、個々の重み付きリターン推定を判断するために、前記訓練キー埋込みに対する前記重みによって、前記訓練キー埋込みにマッピングされた前記リターン推定に重み付けするステップと
を含む、請求項2に記載の方法。 - 前記訓練の選択済み行動に関する前記Q値を判断するステップが、
前記訓練の選択済み行動に対する前記重み付きリターン推定を合計するステップと、
前記合計された重み付きリターン推定を前記Q値として使用するステップと
を含む、請求項3に記載の方法。 - 前記訓練の選択済み行動に関する前記Q値を判断するステップが、
前記訓練の選択済み行動に対する前記重み付きリターン推定を合計するステップと、
前記Q値を生成するために、リターンニューラルネットワークのパラメータの現在の値に応じて、前記リターンニューラルネットワークを通じて、前記合計された重み付きリターン推定を含むネットワーク入力を処理するステップと
を含む、請求項3に記載の方法。 - 前記訓練の選択済み行動に関する前記Q値を判断するステップが、
前記Q値を生成するために、リターンニューラルネットワークのパラメータの現在の値に応じて、前記リターンニューラルネットワークを通じて、前記重み付きリターン推定を含むネットワーク入力を処理するステップを含む、請求項3に記載の方法。 - 前記埋込みニューラルネットワークが、畳み込みニューラルネットワークである、請求項1に記載の方法。
- 前記埋込みニューラルネットワークが、1つまたは複数の回帰型ニューラルネットワーク層を含む、請求項1に記載の方法。
- 前記訓練の選択済み行動のための前記エピソード記憶データ内の前記キー埋込みのいずれにも前記訓練キー埋込みがマッチしないとき、訓練リターンに前記現在のキー埋込みをマッピングするデータを前記訓練の選択済み行動のための前記エピソード記憶モジュールに追加するステップ
をさらに含む、請求項1に記載の方法。 - 命令を記憶した1つまたは複数のコンピュータ可読記録媒体であって、
1つまたは複数のコンピュータによって実行されると、前記1つまたは複数のコンピュータに、埋込みニューラルネットワークを含むニューラルエピソードコントローラを訓練するための動作を実行させ、
前記ニューラルエピソードコントローラが、観測に応答して、エージェントによって実行される複数の行動の各行動のための個々のエピソード記憶モジュールを含むエピソード記憶データを維持し、
各行動のための前記エピソード記憶モジュールが、個々の複数のキー埋込みのそれぞれを個々のリターン推定にマッピングし、
前記動作が、
1つまたは複数のコンピュータによって、訓練タプルを再生記憶からサンプリングするステップであって、
前記訓練タプルが、訓練の観測、訓練の選択済み行動、および訓練のリターンを含む、ステップと、
前記訓練の観測のための訓練キー埋込みを生成するために、前記埋込みニューラルネットワークのパラメータの現在の値に応じて前記埋込みニューラルネットワークを使用して、前記訓練の観測を処理するステップと、
前記訓練の選択済み行動のための前記エピソード記憶モジュール内の前記キー埋込みのいずれかに前記訓練の観測に関連付けられた前記訓練キー埋込みがマッチするかどうかを判断するステップと、
前記訓練の選択済み行動のための前記エピソード記憶モジュール内の前記キー埋込みのいずれかに前記訓練キー埋込みがマッチするとき、(i)前記訓練のリターン、(ii)前記マッチするキー埋込みによって現在マッピングされる前記リターン推定、および(iii)エピソード記憶学習率に基づいて計算される新しいリターン推定に、前記マッチするキー埋込みをマッピングするために前記エピソード記憶モジュールを更新するステップと、
前記1つまたは複数のコンピュータによって、前記訓練の観測から前記訓練の選択済み行動のためのQ値を判断するステップであって、
前記選択済み行動のための前記Q値は、前記訓練の観測に応答して前記訓練の選択済み行動を行う前記エージェントから生じることになる予測されるリターンである、ステップと、
前記1つまたは複数のコンピュータによって、前記エピソード記憶学習率より小さい埋込みニューラルネットワーク学習率を使用して、前記埋込みニューラルネットワークのパラメータの現在の値を更新するために、前記訓練の選択済み行動に関する前記Q値と前記訓練のリターンとの間のエラーの勾配を逆伝搬させるステップと
を含む1つまたは複数のコンピュータ可読記録媒体。 - 前記訓練の選択済み行動に関する前記Q値を判断するステップのための前記動作が、
距離測定に応じて、前記訓練キー埋込みに対する、前記訓練の選択済み行動のための前記エピソード記憶データ内のp近傍キー埋込みを判断するステップと、
前記訓練の選択済み行動のための前記エピソード記憶データ内の前記p近傍キー埋込みによってマッピングされる前記リターン推定から、前記訓練の選択済み行動に関するQ値を判断するステップと
を含む、請求項10に記載の1つまたは複数のコンピュータ可読記録媒体。 - 前記訓練の選択済み行動のための前記エピソード記憶データ内の前記p近傍キー埋込みによってマッピングされる前記リターン推定から、前記訓練の選択済み行動に関する前記Q値を判断するステップのための前記動作が、
前記距離測定に応じて、前記p近傍キー埋込みと、前記訓練キー埋込みの間の距離から、前記訓練の選択済み行動のための前記エピソード記憶データ内の前記p近傍キー埋込みのそれぞれに対する個々の重みを判断するステップと、
前記訓練の選択済み行動のための前記エピソード記憶データ内の前記p近傍キー埋込みのそれぞれに対して、個々の重み付きリターン推定を判断するために、前記訓練キー埋込みに対する前記重みによって、前記訓練キー埋込みにマッピングされた前記リターン推定に重み付けするステップと
を含む、請求項11に記載の1つまたは複数のコンピュータ可読記録媒体。 - 前記訓練の選択済み行動に関する前記Q値を判断するステップのための前記動作が、
前記訓練の選択済み行動に対する前記重み付きリターン推定を合計するステップと、
前記合計された重み付きリターン推定を前記Q値として使用するステップと
を含む、請求項12に記載の1つまたは複数のコンピュータ可読記録媒体。 - 前記訓練の選択済み行動に関する前記Q値を判断するステップのための前記動作が、
前記訓練の選択済み行動に対する前記重み付きリターン推定を合計するステップと、
前記Q値を生成するために、リターンニューラルネットワークのパラメータの現在の値に応じて、前記リターンニューラルネットワークを通じて、前記合計された重み付きリターン推定を含むネットワーク入力を処理するステップと
を含む、請求項12に記載の1つまたは複数のコンピュータ可読記録媒体。 - 前記訓練の選択済み行動に関する前記Q値を判断するステップのための前記動作が、
前記Q値を生成するために、リターンニューラルネットワークのパラメータの現在の値に応じて、前記リターンニューラルネットワークを通じて、前記重み付きリターン推定を含むネットワーク入力を処理するステップを含む、請求項12に記載の1つまたは複数のコンピュータ可読記録媒体。 - 前記埋込みニューラルネットワークが、畳み込みニューラルネットワークである、請求項10に記載の1つまたは複数のコンピュータ可読記録媒体。
- 前記埋込みニューラルネットワークが、1つまたは複数の回帰型ニューラルネットワーク層を含む、請求項10に記載の1つまたは複数のコンピュータ可読記録媒体。
- 前記動作が、前記訓練の選択済み行動のための前記エピソード記憶データ内の前記キー埋込みのいずれにも前記訓練キー埋込みがマッチしないとき、訓練リターンに前記現在のキー埋込みをマッピングするデータを前記訓練の選択済み行動のための前記エピソード記憶モジュールに追加するステップ
をさらに含む、請求項10に記載の1つまたは複数のコンピュータ可読記録媒体。 - 1つまたは複数のコンピュータと、
命令を記憶した1つまたは複数のコンピュータ可読記録媒体と
を含むシステムであって、
前記命令は、前記1つまたは複数のコンピュータによって実行されると、前記1つまたは複数のコンピュータに、埋込みニューラルネットワークを含むニューラルエピソードコントローラを訓練するための動作を実行させ、
前記ニューラルエピソードコントローラが、観測に応答して、エージェントによって実行される複数の行動の各行動のための個々のエピソード記憶モジュールを含むエピソード記憶データを維持し、
各行動のための前記エピソード記憶モジュールが、個々の複数のキー埋込みのそれぞれを個々のリターン推定にマッピングし、
前記動作が、
1つまたは複数のコンピュータによって、訓練タプルを再生記憶からサンプリングするステップであって、
前記訓練タプルが、訓練の観測、訓練の選択済み行動、および訓練のリターンを含む、ステップと、
前記訓練の観測のための訓練キー埋込みを生成するために、前記埋込みニューラルネットワークのパラメータの現在の値に応じて前記埋込みニューラルネットワークを使用して、前記訓練の観測を処理するステップと、
前記訓練の選択済み行動のための前記エピソード記憶モジュール内の前記キー埋込みのいずれかに前記訓練の観測に関連付けられた前記訓練キー埋込みがマッチするかどうかを判断するステップと、
前記訓練の選択済み行動のための前記エピソード記憶モジュール内の前記キー埋込みのいずれかに前記訓練キー埋込みがマッチするとき、(i)前記訓練のリターン、(ii)前記マッチするキー埋込みによって現在マッピングされる前記リターン推定、および(iii)エピソード記憶学習率に基づいて計算される新しいリターン推定に、前記マッチするキー埋込みをマッピングするために前記エピソード記憶モジュールを更新するステップと、
前記1つまたは複数のコンピュータによって、前記訓練の観測から前記訓練の選択済み行動のためのQ値を判断するステップであって、
前記選択済み行動のための前記Q値は、前記訓練の観測に応答して前記訓練の選択済み行動を行う前記エージェントから生じることになる予測されるリターンである、ステップと、
前記1つまたは複数のコンピュータによって、前記エピソード記憶学習率より小さい埋込みニューラルネットワーク学習率を使用して、前記埋込みニューラルネットワークのパラメータの現在の値を更新するために、前記訓練の選択済み行動に関する前記Q値と前記訓練のリターンとの間のエラーの勾配を逆伝搬させるステップと
を含むシステム。 - 前記動作が、前記訓練の選択済み行動のための前記エピソード記憶データ内の前記キー埋込みのいずれにも前記訓練キー埋込みがマッチしないとき、訓練リターンに前記現在のキー埋込みをマッピングするデータを前記訓練の選択済み行動のための前記エピソード記憶モジュールに追加するステップ
をさらに含む、請求項19に記載のシステム。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201762463558P | 2017-02-24 | 2017-02-24 | |
US62/463,558 | 2017-02-24 |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019546227A Division JP6817456B2 (ja) | 2017-02-24 | 2018-02-26 | ニューラルエピソード制御 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021064387A JP2021064387A (ja) | 2021-04-22 |
JP7038790B2 true JP7038790B2 (ja) | 2022-03-18 |
Family
ID=61386852
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019546227A Active JP6817456B2 (ja) | 2017-02-24 | 2018-02-26 | ニューラルエピソード制御 |
JP2020213556A Active JP7038790B2 (ja) | 2017-02-24 | 2020-12-23 | ニューラルエピソード制御 |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019546227A Active JP6817456B2 (ja) | 2017-02-24 | 2018-02-26 | ニューラルエピソード制御 |
Country Status (6)
Country | Link |
---|---|
US (2) | US10664753B2 (ja) |
EP (2) | EP3552156B8 (ja) |
JP (2) | JP6817456B2 (ja) |
CN (1) | CN110235149B (ja) |
DK (1) | DK3552156T3 (ja) |
WO (1) | WO2018154100A1 (ja) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6728495B2 (ja) * | 2016-11-04 | 2020-07-22 | ディープマインド テクノロジーズ リミテッド | 強化学習を用いた環境予測 |
US11735028B2 (en) | 2018-06-12 | 2023-08-22 | Intergraph Corporation | Artificial intelligence applications for computer-aided dispatch systems |
US11455530B2 (en) * | 2018-11-20 | 2022-09-27 | Google Llc | Controlling agents using scene memory data |
CN113366495B (zh) * | 2018-12-21 | 2024-03-22 | 伟摩有限责任公司 | 搜索自主车辆传感器数据存储库 |
CN112476424A (zh) * | 2020-11-13 | 2021-03-12 | 腾讯科技(深圳)有限公司 | 机器人控制方法、装置、设备及计算机存储介质 |
US20220308581A1 (en) * | 2021-03-23 | 2022-09-29 | Honda Motor Co., Ltd. | System and method for completing continual multi-agent trajectory forecasting |
CN117274732B (zh) * | 2023-09-18 | 2024-07-16 | 广东石油化工学院 | 一种基于情景记忆驱动构建优化扩散模型的方法和系统 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9189409B2 (en) * | 2013-02-19 | 2015-11-17 | Avago Technologies General Ip (Singapore) Pte. Ltd. | Reducing writes to solid state drive cache memories of storage controllers |
US9679258B2 (en) * | 2013-10-08 | 2017-06-13 | Google Inc. | Methods and apparatus for reinforcement learning |
DK3079106T3 (da) * | 2015-04-06 | 2022-08-01 | Deepmind Tech Ltd | UDVÆLGELSE AF FORSTÆRKNINGSLÆRINGSHANDLINGER VED HJÆLP AF MÅL og OBSERVATIONER |
US20180165602A1 (en) * | 2016-12-14 | 2018-06-14 | Microsoft Technology Licensing, Llc | Scalability of reinforcement learning by separation of concerns |
-
2018
- 2018-02-26 DK DK18707703.7T patent/DK3552156T3/da active
- 2018-02-26 EP EP18707703.7A patent/EP3552156B8/en active Active
- 2018-02-26 WO PCT/EP2018/054624 patent/WO2018154100A1/en active Search and Examination
- 2018-02-26 EP EP22170944.7A patent/EP4057189A1/en active Pending
- 2018-02-26 CN CN201880008758.6A patent/CN110235149B/zh active Active
- 2018-02-26 JP JP2019546227A patent/JP6817456B2/ja active Active
-
2019
- 2019-06-19 US US16/445,523 patent/US10664753B2/en active Active
-
2020
- 2020-04-23 US US16/856,527 patent/US11720796B2/en active Active
- 2020-12-23 JP JP2020213556A patent/JP7038790B2/ja active Active
Non-Patent Citations (2)
Title |
---|
Charles Blundell 外8名,Model-Free Episodic Control,[オンライン],ARXIV,2016年06月14日,https://arxiv.org/pdf/1606.04460.pdf |
Junhyuk Oh 外3名,Control of Memory, Active Perception, and Action in Minecraft,[オンライン],ARXIV,2016年05月30日,https://arxiv.org/pdf/1605.09128.pdf |
Also Published As
Publication number | Publication date |
---|---|
EP4057189A1 (en) | 2022-09-14 |
CN110235149A (zh) | 2019-09-13 |
EP3552156A1 (en) | 2019-10-16 |
JP2021064387A (ja) | 2021-04-22 |
US11720796B2 (en) | 2023-08-08 |
JP6817456B2 (ja) | 2021-01-20 |
JP2020508527A (ja) | 2020-03-19 |
CN110235149B (zh) | 2023-07-07 |
DK3552156T3 (da) | 2022-08-22 |
US20190303764A1 (en) | 2019-10-03 |
EP3552156B1 (en) | 2022-06-22 |
EP3552156B8 (en) | 2022-08-03 |
WO2018154100A1 (en) | 2018-08-30 |
US20200265317A1 (en) | 2020-08-20 |
US10664753B2 (en) | 2020-05-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7038790B2 (ja) | ニューラルエピソード制御 | |
JP7516596B2 (ja) | 非同期深層強化学習 | |
JP6828121B2 (ja) | 優先順位付けされた経験メモリを使用したニューラルネットワークの訓練 | |
US20220284266A1 (en) | Reinforcement learning using advantage estimates | |
JP7080811B2 (ja) | 強化学習ニューラルネットワークのトレーニング | |
CN108027897B (zh) | 利用深度强化学习的连续控制 | |
US11741334B2 (en) | Data-efficient reinforcement learning for continuous control tasks | |
JP6591672B2 (ja) | デュエリングディープニューラルネットワーク | |
KR102180995B1 (ko) | 미래 액션들을 위한 사용자 인터페이스 데이터 캐싱 최적화 | |
JP7043596B2 (ja) | ニューラルアーキテクチャ検索 | |
JP6667674B2 (ja) | 疑似カウントを使用する強化学習 | |
US11797839B2 (en) | Training neural networks using priority queues | |
WO2017201222A1 (en) | Model-free control for reinforcement learning agents |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210121 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210121 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220207 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220308 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7038790 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |