JP6911089B2 - 非同期深層強化学習 - Google Patents
非同期深層強化学習 Download PDFInfo
- Publication number
- JP6911089B2 JP6911089B2 JP2019208760A JP2019208760A JP6911089B2 JP 6911089 B2 JP6911089 B2 JP 6911089B2 JP 2019208760 A JP2019208760 A JP 2019208760A JP 2019208760 A JP2019208760 A JP 2019208760A JP 6911089 B2 JP6911089 B2 JP 6911089B2
- Authority
- JP
- Japan
- Prior art keywords
- neural network
- worker
- policy
- action
- observation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000002787 reinforcement Effects 0.000 title claims description 29
- 238000013528 artificial neural network Methods 0.000 claims description 160
- 230000009471 action Effects 0.000 claims description 132
- 238000000034 method Methods 0.000 claims description 76
- 230000008569 process Effects 0.000 claims description 43
- 238000012549 training Methods 0.000 claims description 29
- 230000007774 longterm Effects 0.000 claims description 28
- 230000010076 replication Effects 0.000 claims description 23
- 230000006399 behavior Effects 0.000 claims description 20
- 230000004044 response Effects 0.000 claims description 16
- 230000007704 transition Effects 0.000 claims description 11
- 230000001186 cumulative effect Effects 0.000 claims description 9
- 238000012545 processing Methods 0.000 claims description 8
- 230000003542 behavioural effect Effects 0.000 claims description 5
- 238000004590 computer program Methods 0.000 description 15
- 238000004891 communication Methods 0.000 description 6
- 238000005070 sampling Methods 0.000 description 5
- 238000004088 simulation Methods 0.000 description 4
- 230000000875 corresponding effect Effects 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 238000003491 array Methods 0.000 description 2
- 230000001276 controlling effect Effects 0.000 description 2
- 230000007613 environmental effect Effects 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000013515 script Methods 0.000 description 2
- 206010048669 Terminal state Diseases 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 239000007788 liquid Substances 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 230000001902 propagating effect Effects 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000001953 sensory effect Effects 0.000 description 1
- 230000026676 system process Effects 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/092—Reinforcement learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/047—Probabilistic or stochastic networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/098—Distributed learning, e.g. federated learning
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Molecular Biology (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Probability & Statistics with Applications (AREA)
- Feedback Control In General (AREA)
- User Interface Of Digital Computer (AREA)
- General Factory Administration (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Description
E = r +γmax(Qtarget) - Qcurrent
を満たし、ここで、rは、実際の報酬であり、γは、予め決められた割引率(Discount Factor)、max(Qtarget)は、目標ネットワークの最大の出力であり、Qcurrentは、環境が現在の状態であったときに現在の行動に関して前に決定された現在のQ値である。
E = r +γQtarget - Qcurrent
を満たし、ここで、rは、実際の報酬であり、γは、予め決められた割引率、Qtargetは、次の行動に関する目標ネットワークの出力であり、Qcurrentは、環境が現在の状態であったときに現在の行動に関して前に決定された現在のQ値である。
102A〜N ワーカー
104A〜N アクター
106A〜106N 環境の複製
110 共有メモリ
200 プロセス
300 プロセス
400 プロセス
500 プロセス
Claims (20)
- 1つまたは複数のコンピュータを含むシステムであって、
前記1つまたは複数のコンピュータは、行動の予め決められた組から選択された行動を実行することにより、環境とインタラクションするエージェントを制御するために使用される方策ニューラルネットワークを実装するように構成され、
前記方策ニューラルネットワークは、複数の方策パラメータを有し、前記環境の状態を特徴付ける観測結果を処理し、前記行動の予め決められた組における各行動に関しそれぞれのスコアを生成するように構成され、
前記方策ニューラルネットワークは、基底ニューラルネットワークと共に訓練されており、前記基底ニューラルネットワークは、複数の基底パラメータを有し、前記環境の状態を特徴付ける入力された観測結果を処理し、前記入力された観測結果により特徴付けられる前記状態から始めて前記エージェントにより受け取られる推定された長期的報酬を表す基底スコアを生成するように構成され、
前記方策ニューラルネットワークおよび前記基底ニューラルネットワークは、複数のワーカーを使用して訓練されており、
各ワーカーは、他の各ワーカーと独立して動作するように構成され、
各ワーカーは、前記訓練の間、前記環境の複製の各々とインタラクションするアクターの各々に関連付けられ、
各ワーカーは、前記訓練の間に動作を反復的に実行するように構成され、当該動作は、
(1)前記ワーカーの各々によりアクセス可能な共有メモリから、前記基底ニューラルネットワークの前記基底パラメータの現在の値と前記方策ニューラルネットワークの前記方策パラメータの現在の値とを受け取る動作と、
(2)前記ワーカーに関連付けられる前記アクターとインタラクションする前記環境の複製が特定の基準を満たす状態に遷移するまで、
前記環境の複製の状態を特徴付ける観測結果を受け取り、各観測結果に応答し、前記ワーカーに関する各行動選択方策に従って前記観測結果に応答して前記ワーカーに関連付けられる前記アクターによって実行されるべき行動を選択する動作であって、前記選択することが、
各観測結果に関して、
前記観測結果と前記方策ニューラルネットワークの前記パラメータの前記現在の値とに基づき、前記行動の予め決められた組における各行動に関する各々のスコアを生成し、
前記各々のスコアを使用して前記アクターにより実行されるべき現在の行動を選択する
ことを含む、選択する動作と、
(3)前記ワーカーに関連付けられる前記アクターとインタラクションする前記環境の複製が前記特定の基準を満たす前記状態に遷移する前に受け取られた各観測結果に関して、
前記観測結果と前記基底ネットワークの前記パラメータの前記現在の値とに基づき、前記観測結果によって特徴づけられる前記状態から始めて前記エージェントにより受け取られる推定報酬を示す対応する基底スコアを生成し、
前記観測結果に対応する実際の長期的報酬を決定し、
強化学習技術の反復実行を行い、前記基底スコアと前記観測結果に対応する前記実際の長期的報酬とに基づき、前記基底および方策ネットワークに関する各々の現在の勾配を決定し、
前記基底および方策ネットワークに関する前記各々の現在の勾配に基づいて、前記基底および方策ネットワークに関する累積された勾配の各々を更新する動作と、
(4)前記方策ニューラルネットワークおよび前記基底ニューラルネットワークの前記パラメータの前記現在の値を更新するための基準が満たされたか否かを決定する動作と、
(5)前記基準が満たされたときに、
前記方策ニューラルネットワークおよび前記基底ニューラルネットワークの前記パラメータの前記現在の値を更新する動作であって、前記更新することが、
前記更新された累積された勾配を使用して、前記方策ニューラルネットワークおよび前記基底ニューラルネットワークの前記パラメータの更新された値を決定することと、
前記複数のワーカーの各々にとってアクセス可能な前記共有メモリ内に、前記方策ニューラルネットワークおよび前記基底ニューラルネットワークの前記パラメータの前記更新された値を記録することとを含む、更新する動作と
を含む、システム。 - 各ワーカーは、同じコンピュータ上で他の各ワーカーとは独立して実行される、請求項1に記載のシステム。
- 各ワーカーに関する前記各行動選択方策は、他の各ワーカーに関する各行動選択方策とは異なる、請求項1に記載のシステム。
- 各ワーカーにより実行される前記動作が、
前記方策ニューラルネットワークおよび前記基底ニューラルネットワークの前記パラメータの前記現在の値を更新するための前記基準が満たされたときに、前記更新された累積された勾配を消去する動作
をさらに含む、請求項1に記載のシステム。 - 前記方策ニューラルネットワークおよび前記基底ニューラルネットワークの前記パラメータの前記現在の値を更新するための前記基準が満たされたか否かを決定することが、前記方策ニューラルネットワークおよび前記基底ニューラルネットワークの前記パラメータの前記値の前回の更新から所定回数の前記強化学習技術の反復が行われたことを決定することを含む、請求項1に記載のシステム。
- 前記観測結果に対応する前記実際の長期的報酬を決定することが、
前記アクターが前記観測結果に応答して前記選択された行動を実行した結果として生ずる実際の報酬を特定することと、
少なくとも前記観測結果に関する前記実際の報酬と前記特定の基準を満たす状態を特徴付ける前記観測結果に関する基底スコアとから、前記観測結果に対応する前記実際の長期的報酬を決定することと
を含む、請求項1に記載のシステム。 - 少なくとも前記観測結果に関する前記実際の報酬と前記特定の基準を満たす状態を特徴付ける前記観測結果に関する基底スコアとから、前記観測結果に対応する前記実際の長期的報酬を決定することが、
前記基準が満たされる前に受け取った最後の観測結果に関して、前記観測結果に関する前記実際の報酬と前記特定の基準を満たす前記状態を特徴付ける前記観測結果に関する前記基底スコアとに基づき、前記実際の長期的報酬を設定することと、
前記最後の観測結果以外の、前記基準が満たされる前に受け取った観測結果の各々に関して、前記観測結果に関する前記実際の長期的報酬を、前記観測結果の後に受け取られた観測結果に関する前記実際の長期的報酬の割り引かれた合計と前記現在の報酬とを足したものとして設定することと
を含む、請求項6に記載のシステム。 - 命令を記録する1つまたは複数の非一時的コンピュータ可読記録媒体であって、
前記命令は、1つまたは複数のコンピュータにより実行されたときに、前記1つまたは複数のコンピュータに、行動の予め決められた組から選択された行動を実行することにより、環境とインタラクションするエージェントを制御するために使用される方策ニューラルネットワークを実装させ、
前記方策ニューラルネットワークは、複数の方策パラメータを有し、前記環境の状態を特徴付ける観測結果を処理し、前記行動の予め決められた組における各行動に関しそれぞれのスコアを生成するように構成され、
前記方策ニューラルネットワークは、基底ニューラルネットワークと共に訓練されており、前記基底ニューラルネットワークは、複数の基底パラメータを有し、前記環境の状態を特徴付ける入力された観測結果を処理し、前記入力された観測結果により特徴付けられる前記状態から始めて前記エージェントにより受け取られる推定された長期的報酬を表す基底スコアを生成するように構成され、
前記方策ニューラルネットワークおよび前記基底ニューラルネットワークは、複数のワーカーを使用して訓練されており、
各ワーカーは、他の各ワーカーと独立して動作するように構成され、
各ワーカーは、前記訓練の間、前記環境の複製の各々とインタラクションするアクターの各々に関連付けられ、
各ワーカーは、前記訓練の間に動作を反復的に実行するように構成され、当該動作は、
(1)前記ワーカーの各々によりアクセス可能な共有メモリから、前記基底ニューラルネットワークの前記基底パラメータの現在の値と前記方策ニューラルネットワークの前記方策パラメータの現在の値とを受け取る動作と、
(2)前記ワーカーに関連付けられる前記アクターとインタラクションする前記環境の複製が特定の基準を満たす状態に遷移するまで、
前記環境の複製の状態を特徴付ける観測結果を受け取り、各観測結果に応答し、前記ワーカーに関する各行動選択方策に従って前記観測結果に応答して前記ワーカーに関連付けられる前記アクターによって実行されるべき行動を選択する動作であって、前記選択することが、
各観測結果に関して、
前記観測結果と前記方策ニューラルネットワークの前記パラメータの前記現在の値とに基づき、前記行動の予め決められた組における各行動に関する各々のスコアを生成し、
前記各々のスコアを使用して前記アクターにより実行されるべき現在の行動を選択する
ことを含む、選択する動作と、
(3)前記ワーカーに関連付けられる前記アクターとインタラクションする前記環境の複製が前記特定の基準を満たす前記状態に遷移する前に受け取られた各観測結果に関して、
前記観測結果と前記基底ネットワークの前記パラメータの前記現在の値とに基づき、前記観測結果によって特徴づけられる前記状態から始めて前記エージェントにより受け取られる推定報酬を示す対応する基底スコアを生成し、
前記観測結果に対応する実際の長期的報酬を決定し、
強化学習技術の反復実行を行い、前記基底スコアと前記観測結果に対応する前記実際の長期的報酬とに基づき、前記基底および方策ネットワークに関する各々の現在の勾配を決定し、
前記基底および方策ネットワークに関する前記各々の現在の勾配に基づいて、前記基底および方策ネットワークに関する累積された勾配の各々を更新する動作と、
(4)前記方策ニューラルネットワークおよび前記基底ニューラルネットワークの前記パラメータの前記現在の値を更新するための基準が満たされたか否かを決定する動作と、
(5)前記基準が満たされたときに、
前記方策ニューラルネットワークおよび前記基底ニューラルネットワークの前記パラメータの前記現在の値を更新する動作であって、前記更新することが、
前記更新された累積された勾配を使用して、前記方策ニューラルネットワークおよび前記基底ニューラルネットワークの前記パラメータの更新された値を決定することと、
前記複数のワーカーの各々にとってアクセス可能な前記共有メモリ内に、前記方策ニューラルネットワークおよび前記基底ニューラルネットワークの前記パラメータの前記更新された値を記録することとを含む、更新する動作と
を含む、非一時的コンピュータ可読記録媒体。 - 各ワーカーは、同じコンピュータ上で他の各ワーカーとは独立して実行される、請求項10に記載の非一時的コンピュータ可読記録媒体。
- 各ワーカーに関する前記各行動選択方策は、他の各ワーカーに関する各行動選択方策とは異なる、請求項10に記載の非一時的コンピュータ可読記録媒体。
- 各ワーカーにより実行される前記動作が、
前記方策ニューラルネットワークおよび前記基底ニューラルネットワークの前記パラメータの前記現在の値を更新するための前記基準が満たされたときに、前記更新された累積された勾配を消去する動作
をさらに含む、請求項10に記載の非一時的コンピュータ可読記録媒体。 - 前記方策ニューラルネットワークおよび前記基底ニューラルネットワークの前記パラメータの前記現在の値を更新するための前記基準が満たされたか否かを決定することが、前記方策ニューラルネットワークおよび前記基底ニューラルネットワークの前記パラメータの前記値の前回の更新から所定回数の前記強化学習技術の反復が行われたことを決定することを含む、請求項10に記載の非一時的コンピュータ可読記録媒体。
- 行動の予め決められた組から選択された行動を実行することにより、環境とインタラクションするエージェントを制御するための1つまたは複数のデータ処理装置により実行される方法であって、
複数の方策パラメータを有する方策ニューラルネットワークを使用して前記環境の状態を特徴付ける観測結果を処理し、前記行動の予め決められた組における各行動に関する各々のスコアを生成するステップと、
前記行動の予め決められた組における各行動に関する前記各々のスコアを使用して前記エージェントにより実行されるべき行動を選択するステップと
を含み、
前記方策ニューラルネットワークは、複数の方策パラメータを有し、前記環境の状態を特徴付ける観測結果を処理し、前記行動の予め決められた組における各行動に関しそれぞれのスコアを生成するように構成され、
前記方策ニューラルネットワークは、基底ニューラルネットワークと共に訓練されており、前記基底ニューラルネットワークは、複数の基底パラメータを有し、前記環境の状態を特徴付ける入力された観測結果を処理し、前記入力された観測結果により特徴付けられる前記状態から始めて前記エージェントにより受け取られる推定された長期的報酬を表す基底スコアを生成するように構成され、
前記方策ニューラルネットワークおよび前記基底ニューラルネットワークは、複数のワーカーを使用して訓練されており、
各ワーカーは、他の各ワーカーと独立して動作するように構成され、
各ワーカーは、前記訓練の間、前記環境の複製の各々とインタラクションするアクターの各々に関連付けられ、
各ワーカーは、前記訓練の間に動作を反復的に実行するように構成され、当該動作は、
(1)前記ワーカーの各々によりアクセス可能な共有メモリから、前記基底ニューラルネットワークの前記基底パラメータの現在の値と前記方策ニューラルネットワークの前記方策パラメータの現在の値とを受け取る動作と、
(2)前記ワーカーに関連付けられる前記アクターとインタラクションする前記環境の複製が特定の基準を満たす状態に遷移するまで、
前記環境の複製の状態を特徴付ける観測結果を受け取り、各観測結果に応答し、前記ワーカーに関する各行動選択方策に従って前記観測結果に応答して前記ワーカーに関連付けられる前記アクターによって実行されるべき行動を選択する動作であって、前記選択することが、
各観測結果に関して、
前記観測結果と前記方策ニューラルネットワークの前記パラメータの前記現在の値とに基づき、前記行動の予め決められた組における各行動に関する各々のスコアを生成し、
前記各々のスコアを使用して前記アクターにより実行されるべき現在の行動を選択する
ことを含む、選択する動作と、
(3)前記ワーカーに関連付けられる前記アクターとインタラクションする前記環境の複製が前記特定の基準を満たす前記状態に遷移する前に受け取られた各観測結果に関して、
前記観測結果と前記基底ネットワークの前記パラメータの前記現在の値とに基づき、前記観測結果によって特徴づけられる前記状態から始めて前記エージェントにより受け取られる推定報酬を示す対応する基底スコアを生成し、
前記観測結果に対応する実際の長期的報酬を決定し、
強化学習技術の反復実行を行い、前記基底スコアと前記観測結果に対応する前記実際の長期的報酬とに基づき、前記基底および方策ネットワークに関する各々の現在の勾配を決定し、
前記基底および方策ネットワークに関する前記各々の現在の勾配に基づいて、前記基底および方策ネットワークに関する累積された勾配の各々を更新する動作と、
(4)前記方策ニューラルネットワークおよび前記基底ニューラルネットワークの前記パラメータの前記現在の値を更新するための基準が満たされたか否かを決定する動作と、
(5)前記基準が満たされたときに、
前記方策ニューラルネットワークおよび前記基底ニューラルネットワークの前記パラメータの前記現在の値を更新する動作であって、前記更新することが、
前記更新された累積された勾配を使用して、前記方策ニューラルネットワークおよび前記基底ニューラルネットワークの前記パラメータの更新された値を決定することと、
前記複数のワーカーの各々にとってアクセス可能な前記共有メモリ内に、前記方策ニューラルネットワークおよび前記基底ニューラルネットワークの前記パラメータの前記更新された値を記録することとを含む、更新する動作と
を含む、方法。 - 各ワーカーは、同じコンピュータ上で他の各ワーカーとは独立して実行される、請求項15に記載の方法。
- 各ワーカーに関する前記各行動選択方策は、他の各ワーカーに関する各行動選択方策とは異なる、請求項15に記載の方法。
- 各ワーカーにより実行される前記動作が、
前記方策ニューラルネットワークおよび前記基底ニューラルネットワークの前記パラメータの前記現在の値を更新するための前記基準が満たされたときに、前記更新された累積された勾配を消去する動作
をさらに含む、請求項15に記載の方法。 - 前記方策ニューラルネットワークおよび前記基底ニューラルネットワークの前記パラメータの前記現在の値を更新するための前記基準が満たされたか否かを決定することが、前記方策ニューラルネットワークおよび前記基底ニューラルネットワークの前記パラメータの前記値の前回の更新から所定回数の前記強化学習技術の反復が行われたことを決定することを含む、請求項15に記載の方法。
- 前記観測結果に対応する前記実際の長期的報酬を決定することが、
前記アクターが前記観測結果に応答して前記選択された行動を実行した結果として生ずる実際の報酬を特定することと、
少なくとも前記観測結果に関する前記実際の報酬と前記特定の基準を満たす状態を特徴付ける前記観測結果に関する基底スコアとから、前記観測結果に対応する前記実際の長期的報酬を決定することと
を含む、請求項15に記載の方法。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021112034A JP7247274B2 (ja) | 2015-11-12 | 2021-07-06 | 非同期深層強化学習 |
JP2023039773A JP7516596B2 (ja) | 2015-11-12 | 2023-03-14 | 非同期深層強化学習 |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201562254701P | 2015-11-12 | 2015-11-12 | |
US62/254,701 | 2015-11-12 | ||
JP2018523817A JP6621920B2 (ja) | 2015-11-12 | 2016-11-11 | 非同期深層強化学習 |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018523817A Division JP6621920B2 (ja) | 2015-11-12 | 2016-11-11 | 非同期深層強化学習 |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021112034A Division JP7247274B2 (ja) | 2015-11-12 | 2021-07-06 | 非同期深層強化学習 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020042837A JP2020042837A (ja) | 2020-03-19 |
JP6911089B2 true JP6911089B2 (ja) | 2021-07-28 |
Family
ID=57472034
Family Applications (4)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018523817A Active JP6621920B2 (ja) | 2015-11-12 | 2016-11-11 | 非同期深層強化学習 |
JP2019208760A Active JP6911089B2 (ja) | 2015-11-12 | 2019-11-19 | 非同期深層強化学習 |
JP2021112034A Active JP7247274B2 (ja) | 2015-11-12 | 2021-07-06 | 非同期深層強化学習 |
JP2023039773A Active JP7516596B2 (ja) | 2015-11-12 | 2023-03-14 | 非同期深層強化学習 |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018523817A Active JP6621920B2 (ja) | 2015-11-12 | 2016-11-11 | 非同期深層強化学習 |
Family Applications After (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021112034A Active JP7247274B2 (ja) | 2015-11-12 | 2021-07-06 | 非同期深層強化学習 |
JP2023039773A Active JP7516596B2 (ja) | 2015-11-12 | 2023-03-14 | 非同期深層強化学習 |
Country Status (8)
Country | Link |
---|---|
US (5) | US10936946B2 (ja) |
EP (3) | EP3872715B1 (ja) |
JP (4) | JP6621920B2 (ja) |
KR (1) | KR102156303B1 (ja) |
CN (2) | CN114897156A (ja) |
AU (1) | AU2016354558B2 (ja) |
CA (1) | CA3004885C (ja) |
WO (1) | WO2017083772A1 (ja) |
Families Citing this family (50)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102156303B1 (ko) | 2015-11-12 | 2020-09-15 | 딥마인드 테크놀로지스 리미티드 | 비동기 심층 강화 학습 |
US11188821B1 (en) * | 2016-09-15 | 2021-11-30 | X Development Llc | Control policies for collective robot learning |
US11062207B2 (en) * | 2016-11-04 | 2021-07-13 | Raytheon Technologies Corporation | Control systems using deep reinforcement learning |
US10594560B2 (en) | 2017-03-27 | 2020-03-17 | Cisco Technology, Inc. | Intent driven network policy platform |
EP3596661A1 (en) * | 2017-05-19 | 2020-01-22 | Deepmind Technologies Limited | Data efficient imitation of diverse behaviors |
US20180351816A1 (en) * | 2017-06-02 | 2018-12-06 | Yan Li | Methods and apparatus for parameter tuning using a cloud service |
CN109204308B (zh) * | 2017-07-03 | 2020-04-07 | 上海汽车集团股份有限公司 | 车道保持算法的确定方法、车道保持的控制方法及系统 |
US11093827B2 (en) * | 2017-09-20 | 2021-08-17 | International Business Machines Corporation | Variable ISA vector-based compaction in distributed training of neural networks |
EP3467717A1 (en) * | 2017-10-04 | 2019-04-10 | Prowler.io Limited | Machine learning system |
US10935982B2 (en) * | 2017-10-04 | 2021-03-02 | Huawei Technologies Co., Ltd. | Method of selection of an action for an object using a neural network |
DE102017123205A1 (de) * | 2017-10-06 | 2019-04-11 | Valeo Schalter Und Sensoren Gmbh | Konfiguration einer Kraftfahrzeug-Fahrerassistenzvorrichtung mit einem neuronalen Netzwerk im laufenden Betrieb |
US11126929B2 (en) | 2017-11-09 | 2021-09-21 | Ciena Corporation | Reinforcement learning for autonomous telecommunications networks |
US10715395B2 (en) | 2017-11-27 | 2020-07-14 | Massachusetts Institute Of Technology | Methods and apparatus for communication network |
CN107832836B (zh) * | 2017-11-27 | 2020-04-21 | 清华大学 | 无模型深度增强学习探索方法及装置 |
CN108052004B (zh) * | 2017-12-06 | 2020-11-10 | 湖北工业大学 | 基于深度增强学习的工业机械臂自动控制方法 |
CN111417964B (zh) | 2018-02-05 | 2024-04-19 | 渊慧科技有限公司 | 异策略行动者-评价者强化学习方法和系统 |
US11086317B2 (en) | 2018-03-30 | 2021-08-10 | Intel Corporation | Emotional adaptive driving policies for automated driving vehicles |
US11614978B2 (en) * | 2018-04-24 | 2023-03-28 | EMC IP Holding Company LLC | Deep reinforcement learning for workflow optimization using provenance-based simulation |
US11875557B2 (en) | 2018-04-27 | 2024-01-16 | Carnegie Mellon University | Polynomial convolutional neural network with early fan-out |
DE102018207015B4 (de) * | 2018-05-07 | 2023-08-24 | Audi Ag | Verfahren zum Trainieren selbstlernender Steuerungsalgorithmen für autonom bewegbare Vorrichtungen und autonom bewegbare Vorrichtung |
EP3807823A1 (en) | 2018-06-12 | 2021-04-21 | Intergraph Corporation | Artificial intelligence applications for computer-aided dispatch systems |
WO2020074741A1 (en) * | 2018-10-12 | 2020-04-16 | Deepmind Technologies Limited | Controlling agents over long time scales using temporal value transport |
CN109344969B (zh) * | 2018-11-01 | 2022-04-08 | 石家庄创天电子科技有限公司 | 神经网络系统及其训练方法以及计算机可读介质 |
US11868866B2 (en) * | 2018-11-16 | 2024-01-09 | Deep Mind Technologies Limited | Controlling agents using amortized Q learning |
KR101990326B1 (ko) | 2018-11-28 | 2019-06-18 | 한국인터넷진흥원 | 감가율 자동 조정 방식의 강화 학습 방법 |
US20220019866A1 (en) * | 2018-11-30 | 2022-01-20 | Google Llc | Controlling robots using entropy constraints |
EP3668050A1 (de) * | 2018-12-12 | 2020-06-17 | Siemens Aktiengesellschaft | Anpassen einer software-anwendung, die auf einem gateway ausgeführt wird |
DE102019203634A1 (de) * | 2019-03-18 | 2020-09-24 | Robert Bosch Gmbh | Verfahren und Vorrichtung zum Ansteuern eines Roboters |
US11416743B2 (en) | 2019-04-25 | 2022-08-16 | International Business Machines Corporation | Swarm fair deep reinforcement learning |
US11176368B2 (en) | 2019-06-13 | 2021-11-16 | International Business Machines Corporation | Visually focused first-person neural network interpretation |
JP7128152B2 (ja) | 2019-06-14 | 2022-08-30 | 株式会社東芝 | 学習方法及びプログラム |
KR20210012730A (ko) | 2019-07-26 | 2021-02-03 | 삼성전자주식회사 | 인공지능 모델의 학습 방법 및 전자 장치 |
SE1950924A1 (en) * | 2019-08-13 | 2021-02-14 | Kaaberg Johard Leonard | Improved machine learning for technical systems |
CN110737529B (zh) * | 2019-09-05 | 2022-02-08 | 北京理工大学 | 一种面向短时多变大数据作业集群调度自适应性配置方法 |
EP4042296A4 (en) * | 2019-10-07 | 2023-07-05 | Telefonaktiebolaget LM Ericsson (publ) | FEDERAL LEARNING MODERATOR |
CN110809306B (zh) * | 2019-11-04 | 2021-03-16 | 电子科技大学 | 一种基于深度强化学习的终端接入选择方法 |
CN111031387B (zh) * | 2019-11-21 | 2020-12-04 | 南京大学 | 一种监控视频发送端视频编码流速控制的方法 |
CN111461500B (zh) * | 2020-03-12 | 2022-04-05 | 北京航空航天大学 | 一种基于动态电子围栏和强化学习的共享单车系统潮汐现象控制方法 |
CN112533681B (zh) * | 2020-04-02 | 2024-07-12 | 支付宝(杭州)信息技术有限公司 | 确定执行设备的动作选择方针 |
US11685605B2 (en) | 2020-05-14 | 2023-06-27 | Intelligrated Headquarters, Llc | Reinforcement learning based conveyoring control |
CN111935724B (zh) * | 2020-07-06 | 2022-05-03 | 天津大学 | 基于异步深度强化学习的无线传感器网络拓扑优化方法 |
TWI741760B (zh) * | 2020-08-27 | 2021-10-01 | 財團法人工業技術研究院 | 學習式生產資源配置方法、學習式生產資源配置系統與使用者介面 |
CN112216124B (zh) * | 2020-09-17 | 2021-07-27 | 浙江工业大学 | 一种基于深度强化学习的交通信号控制方法 |
US20220114439A1 (en) * | 2020-10-08 | 2022-04-14 | Here Global B.V. | Method, apparatus, and system for generating asynchronous learning rules and/architectures |
US20220183748A1 (en) * | 2020-12-16 | 2022-06-16 | Biosense Webster (Israel) Ltd. | Accurate tissue proximity |
US20220215265A1 (en) * | 2021-01-04 | 2022-07-07 | Tencent America LLC | Method and apparatus for end-to-end task-oriented latent compression with deep reinforcement learning |
US20230119208A1 (en) * | 2021-10-20 | 2023-04-20 | Blinkfire Analytics, Inc. | Sponsorship Exposure Metric System |
US20230367696A1 (en) * | 2022-05-13 | 2023-11-16 | Microsoft Technology Licensing, Llc | Simulated training for reinforcement learning |
KR102695449B1 (ko) * | 2022-12-29 | 2024-08-16 | 주식회사 써로마인드 | 탈중앙화 분산 딥러닝을 위한 가십 기반 통신 장치 및 방법 |
KR20240105773A (ko) | 2022-12-29 | 2024-07-08 | 국립부경대학교 산학협력단 | 비동기적 연합학습 기반의 도면부품번호 인식 및 연동 시스템 및 이를 이용한 학습방법 |
Family Cites Families (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0981205A (ja) * | 1995-09-11 | 1997-03-28 | Fujitsu Ltd | 学習システム |
JP5152780B2 (ja) * | 2007-09-06 | 2013-02-27 | 国立大学法人 筑波大学 | 関数近似装置、強化学習システム、関数近似システムおよび関数近似プログラム |
WO2010045272A1 (en) | 2008-10-14 | 2010-04-22 | Honda Motor Co., Ltd. | Smoothed sarsa: reinforcement learning for robot delivery tasks |
WO2013049633A1 (en) * | 2011-09-28 | 2013-04-04 | Causata Inc. | Online asynchronous reinforcement learning from concurrent customer histories |
US8788439B2 (en) | 2012-12-21 | 2014-07-22 | InsideSales.com, Inc. | Instance weighted learning machine learning model |
JP5785589B2 (ja) * | 2013-06-27 | 2015-09-30 | 日本電信電話株式会社 | バースト光信号送信装置及びバースト光信号送信装置の制御方法 |
US9679258B2 (en) | 2013-10-08 | 2017-06-13 | Google Inc. | Methods and apparatus for reinforcement learning |
KR20150053179A (ko) * | 2013-11-07 | 2015-05-15 | 경희대학교 산학협력단 | 인지 무선 네트워크에서 큐-학습 기법을 이용한 부사용자의 데이터 전송 속도 향상 방법 |
US10540587B2 (en) * | 2014-04-11 | 2020-01-21 | Google Llc | Parallelizing the training of convolutional neural networks |
CN104932267B (zh) * | 2015-06-04 | 2017-10-03 | 曲阜师范大学 | 一种采用资格迹的神经网络学习控制方法 |
KR102156303B1 (ko) | 2015-11-12 | 2020-09-15 | 딥마인드 테크놀로지스 리미티드 | 비동기 심층 강화 학습 |
KR102424893B1 (ko) * | 2016-11-04 | 2022-07-25 | 딥마인드 테크놀로지스 리미티드 | 보조 작업들을 통한 강화 학습 |
-
2016
- 2016-11-11 KR KR1020187013091A patent/KR102156303B1/ko active IP Right Grant
- 2016-11-11 EP EP21167274.6A patent/EP3872715B1/en active Active
- 2016-11-11 US US15/349,950 patent/US10936946B2/en active Active
- 2016-11-11 EP EP16805618.2A patent/EP3360085B1/en active Active
- 2016-11-11 CN CN202210422678.3A patent/CN114897156A/zh active Pending
- 2016-11-11 EP EP24178066.7A patent/EP4398159A2/en active Pending
- 2016-11-11 CN CN201680065534.XA patent/CN108885717B/zh active Active
- 2016-11-11 AU AU2016354558A patent/AU2016354558B2/en active Active
- 2016-11-11 JP JP2018523817A patent/JP6621920B2/ja active Active
- 2016-11-11 WO PCT/US2016/061698 patent/WO2017083772A1/en active Application Filing
- 2016-11-11 CA CA3004885A patent/CA3004885C/en active Active
-
2018
- 2018-05-11 US US15/977,923 patent/US10346741B2/en active Active
-
2019
- 2019-05-03 US US16/403,388 patent/US11334792B2/en active Active
- 2019-11-19 JP JP2019208760A patent/JP6911089B2/ja active Active
-
2021
- 2021-02-08 US US17/170,316 patent/US11783182B2/en active Active
- 2021-07-06 JP JP2021112034A patent/JP7247274B2/ja active Active
-
2022
- 2022-04-29 US US17/733,594 patent/US12020155B2/en active Active
-
2023
- 2023-03-14 JP JP2023039773A patent/JP7516596B2/ja active Active
Also Published As
Publication number | Publication date |
---|---|
JP2018537767A (ja) | 2018-12-20 |
WO2017083772A1 (en) | 2017-05-18 |
US10346741B2 (en) | 2019-07-09 |
CA3004885C (en) | 2020-07-14 |
EP3872715A1 (en) | 2021-09-01 |
US11334792B2 (en) | 2022-05-17 |
US20190258929A1 (en) | 2019-08-22 |
KR20180090989A (ko) | 2018-08-14 |
JP2020042837A (ja) | 2020-03-19 |
EP3360085A1 (en) | 2018-08-15 |
JP6621920B2 (ja) | 2019-12-18 |
CN114897156A (zh) | 2022-08-12 |
AU2016354558A1 (en) | 2018-05-10 |
US10936946B2 (en) | 2021-03-02 |
CA3004885A1 (en) | 2017-05-18 |
EP3360085B1 (en) | 2021-05-19 |
JP7247274B2 (ja) | 2023-03-28 |
US20180260708A1 (en) | 2018-09-13 |
JP7516596B2 (ja) | 2024-07-16 |
US20170140270A1 (en) | 2017-05-18 |
US20210166127A1 (en) | 2021-06-03 |
JP2021170361A (ja) | 2021-10-28 |
US20220261647A1 (en) | 2022-08-18 |
US11783182B2 (en) | 2023-10-10 |
CN108885717A (zh) | 2018-11-23 |
AU2016354558B2 (en) | 2019-11-28 |
JP2023063445A (ja) | 2023-05-09 |
CN108885717B (zh) | 2022-05-10 |
KR102156303B1 (ko) | 2020-09-15 |
EP3872715B1 (en) | 2024-07-03 |
EP4398159A2 (en) | 2024-07-10 |
US12020155B2 (en) | 2024-06-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6911089B2 (ja) | 非同期深層強化学習 | |
JP6828121B2 (ja) | 優先順位付けされた経験メモリを使用したニューラルネットワークの訓練 | |
JP6963627B2 (ja) | 畳み込みニューラルネットワークのためのニューラルアーキテクチャ検索 | |
US11741334B2 (en) | Data-efficient reinforcement learning for continuous control tasks | |
JP6955105B2 (ja) | 方策オフ型アクタークリティック強化学習を使用する分散型の訓練 | |
JP7080811B2 (ja) | 強化学習ニューラルネットワークのトレーニング | |
KR102242516B1 (ko) | 복수의 기계 학습 태스크에 대해 기계 학습 모델들을 훈련 | |
CN110114784B (zh) | 递归环境预测器及其方法 | |
JP2019508830A (ja) | 優位推定を使用する強化学習 | |
JP6817456B2 (ja) | ニューラルエピソード制御 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20191218 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210208 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210510 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210607 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210707 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6911089 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |