JP6621923B2 - 優先順位付けされた経験メモリを使用したニューラルネットワークの訓練 - Google Patents
優先順位付けされた経験メモリを使用したニューラルネットワークの訓練 Download PDFInfo
- Publication number
- JP6621923B2 JP6621923B2 JP2018524787A JP2018524787A JP6621923B2 JP 6621923 B2 JP6621923 B2 JP 6621923B2 JP 2018524787 A JP2018524787 A JP 2018524787A JP 2018524787 A JP2018524787 A JP 2018524787A JP 6621923 B2 JP6621923 B2 JP 6621923B2
- Authority
- JP
- Japan
- Prior art keywords
- experience data
- elements
- neural network
- training
- data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000013528 artificial neural network Methods 0.000 title claims description 96
- 238000012549 training Methods 0.000 title claims description 64
- 230000009471 action Effects 0.000 claims description 61
- 238000000034 method Methods 0.000 claims description 47
- 230000002787 reinforcement Effects 0.000 claims description 39
- 230000004044 response Effects 0.000 claims description 17
- 238000005070 sampling Methods 0.000 claims description 9
- 230000003993 interaction Effects 0.000 claims description 6
- 230000007704 transition Effects 0.000 claims description 5
- 230000008859 change Effects 0.000 claims description 3
- 238000000137 annealing Methods 0.000 claims description 2
- 239000003795 chemical substances by application Substances 0.000 description 35
- 238000004590 computer program Methods 0.000 description 14
- 230000008569 process Effects 0.000 description 14
- 238000012545 processing Methods 0.000 description 13
- 238000004891 communication Methods 0.000 description 5
- 230000006399 behavior Effects 0.000 description 4
- 238000004088 simulation Methods 0.000 description 4
- 238000012913 prioritisation Methods 0.000 description 3
- 230000006870 function Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000013515 script Methods 0.000 description 2
- 238000000926 separation method Methods 0.000 description 2
- 238000003491 array Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 238000012512 characterization method Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000007726 management method Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 230000000644 propagated effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000001953 sensory effect Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/092—Reinforcement learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/004—Artificial life, i.e. computing arrangements simulating life
- G06N3/006—Artificial life, i.e. computing arrangements simulating life based on simulated virtual individual or collective life forms, e.g. social simulations or particle swarm optimisation [PSO]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/047—Probabilistic or stochastic networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/088—Non-supervised learning, e.g. competitive learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y04—INFORMATION OR COMMUNICATION TECHNOLOGIES HAVING AN IMPACT ON OTHER TECHNOLOGY AREAS
- Y04S—SYSTEMS INTEGRATING TECHNOLOGIES RELATED TO POWER NETWORK OPERATION, COMMUNICATION OR INFORMATION TECHNOLOGIES FOR IMPROVING THE ELECTRICAL POWER GENERATION, TRANSMISSION, DISTRIBUTION, MANAGEMENT OR USAGE, i.e. SMART GRIDS
- Y04S10/00—Systems supporting electrical power generation, transmission or distribution
- Y04S10/50—Systems or methods supporting the power network operation or management, involving a certain degree of interaction with the load-side end user applications
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Molecular Biology (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Probability & Statistics with Applications (AREA)
- Machine Translation (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
- Feedback Control In General (AREA)
Description
102 エージェント
104 環境
110 行動選択ニューラルネットワーク
120 訓練エンジン
130 リプレイメモリ
Claims (20)
- 環境に状態を遷移させる行動を行うことによって前記環境とのインタラクションを行う強化学習エージェントによって行われる行動を選択するために使用されるニューラルネットワークを訓練するための方法であって、前記方法は、
リプレイメモリを保持するステップであって、前記リプレイメモリは、前記ニューラルネットワークを訓練する際の使用のために経験データの要素を記憶し、
各々の経験データの要素は、前記強化学習エージェントが前記環境とのインタラクションを行った結果として生成されたものであり、
各々の経験データの要素は、前記環境のそれぞれの現在の状態を特徴付けるそれぞれの現在の観測、前記現在の観測に応じて前記エージェントによって行われるそれぞれの現在の行動、前記環境のそれぞれの次の状態を特徴づけるそれぞれの次の状態、および前記エージェントが前記現在の行動を行ったことに応じて受ける報酬を含み、
複数の前記経験データの要素は、各々が、(i)前記ニューラルネットワークが前記経験データの要素について訓練される場合に前記ニューラルネットワークの前記訓練においてなされるであろう進展の期待量の度合いであるとともに(ii)前記経験データの要素がニューラルネットワークを訓練する際に使用された以前の時点の結果から導出されたそれぞれの期待学習進展度に関連付けられる、ステップと、
比較的より高い期待学習進展度を有する経験データの要素を選択のために優先順位付けをすることによって前記リプレイメモリから経験データの要素を選択するステップであって、
前記経験データの要素についての前記それぞれの期待学習進展度に基づいて前記リプレイメモリ内の複数の前記経験データの要素の各々についてのそれぞれの確率を決定するステップと、
前記決定した確率に従って前記リプレイメモリから経験データの要素をサンプリングするステップと
を含む、ステップと、
強化学習技法を使用して、選択された前記経験データの要素について前記ニューラルネットワークを訓練するステップと、
前記リプレイメモリにおいて、選択された前記経験データの要素についての前記ニューラルネットワークの訓練の結果から導出された新規期待学習進展度と選択された前記経験データの要素を関連付けるステップと
を含む、方法。 - 前記経験データの要素についての前記それぞれの期待学習進展度に基づいて前記リプレイメモリ内の複数の前記経験データの要素の各々についてのそれぞれの確率を決定するステップは、
より高い期待学習進展度を有する経験データの要素が比較的より低い期待学習進展度を有する経験データの要素より高い確率を有するように各々の経験データの要素についてのそれぞれの確率を決定するステップを含む、請求項1に記載の方法。 - 前記優先度は、前記期待学習進展度に一定値を加えたものである、請求項3に記載の方法。
- 前記優先度は、分子として所定の正の値と、分母としてそれらの期待学習進展度に従った前記リプレイメモリ内の前記経験データの要素のランキングにおける前記経験データの要素iのランクとを有する、分数である、請求項3に記載の方法。
- 前記優先度は、前記ニューラルネットワークにおける訓練の際にまだ使用されたことのない経験データの要素については最大値に設定される、請求項3に記載の方法。
- 選択された前記経験データの要素について前記ニューラルネットワークを訓練するステップは、
選択された前記経験データの要素についての時間差分学習誤差を決定するステップと、
前記ニューラルネットワークのパラメータの値を調整する際に前記時間差分学習誤差を使用するステップと
を含む、請求項1に記載の方法。 - 前記パラメータの前記値を調整する際に前記時間差分学習誤差を使用するステップは、
選択された前記経験データの要素についての前記期待学習進展度を使用して前記時間差分学習誤差についての重みを決定するステップと、
前記重みを使用して前記時間差分学習誤差を調整するステップと、
前記ニューラルネットワークの前記パラメータの前記値を調整するために目標誤差として前記調整された時間差分学習誤差を使用するステップとを含む、請求項7に記載の方法。 - 前記ニューラルネットワークの前記訓練の間に前記重みを算出する際に使用される指数をアニーリングするステップをさらに含む、請求項8に記載の方法。
- 前記リプレイメモリ内の各々の経験データの要素についての前記期待学習進展度は、前記経験データの要素が前記ニューラルネットワークを訓練する際に使用された以前の時点の前記経験データの要素について決定された時間差分学習誤差の絶対値である、請求項1に記載の方法。
- 前記リプレイメモリ内の各々の経験データの要素についての前記期待学習進展度は、前記経験データの要素が前記ニューラルネットワークを訓練する際に使用された以前の時点の前記経験データの要素について決定された時間差分学習誤差の絶対値についての導出値である、請求項1に記載の方法。
- 前記リプレイメモリ内の各々の経験データの要素についての前記期待学習進展度は、前記経験データの要素を使用して前記ニューラルネットワークを訓練することによって生じた重み変化のノルムである、請求項1に記載の方法。
- 前記期待学習進展度を使用して前記リプレイメモリから経験データの要素をいつ削除するかを決定するステップをさらに含む、請求項1に記載の方法。
- (i)特定の経験データの要素についての期待学習進展度または(ii)特定の前記経験データの要素についての前記期待学習進展度から導出された値が閾値を下回ると決定するステップと、
それに応じて、特定の前記経験データの要素を前記リプレイメモリから削除するステップと
を含む、請求項13に記載の方法。 - 前記強化学習エージェントが環境とのインタラクションを行う中で前記ニューラルネットワークを使用して前記強化学習エージェントを制御するステップをさらに含む、請求項1に記載の方法。
- 1つまたは複数のコンピュータを含み、1つまたは複数のストレージデバイスは、前記1つまたは複数のコンピュータによって実行されると、前記1つまたは複数のコンピュータに、環境に状態を遷移させる行動を行うことによって前記環境とのインタラクションを行う強化学習エージェントによって行われる行動を選択するために使用されるニューラルネットワークを訓練するための方法についての動作を行わせるように動作可能な命令を記憶し、前記方法は、
リプレイメモリを保持するステップであって、前記リプレイメモリは、前記ニューラルネットワークを訓練する際の使用のために経験データの要素を記憶し、
各々の経験データの要素は、前記強化学習エージェントが前記環境とのインタラクションを行った結果として生成されたものであり、
各々の経験データの要素は、前記環境のそれぞれの現在の状態を特徴付けるそれぞれの現在の観測、前記現在の観測に応じて前記エージェントによって行われるそれぞれの現在の行動、前記環境のそれぞれの次の状態を特徴づけるそれぞれの次の状態、および前記エージェントが前記現在の行動を行ったことに応じて受ける報酬を含み、
複数の前記経験データの要素は、各々が、(i)前記ニューラルネットワークが前記経験データの要素について訓練される場合に前記ニューラルネットワークの前記訓練においてなされるであろう進展の期待量の度合いであるとともに(ii)前記経験データの要素がニューラルネットワークを訓練する際に使用された以前の時点の結果から導出されたそれぞれの期待学習進展度に関連付けられる、ステップと、
比較的より高い期待学習進展度を有する経験データの要素を選択のために優先順位付けをすることによって前記リプレイメモリから経験データの要素を選択するステップであって、
前記経験データの要素についての前記それぞれの期待学習進展度に基づいて前記リプレイメモリ内の複数の前記経験データの要素の各々についてのそれぞれの確率を決定するステップと、
前記決定した確率に従って前記リプレイメモリから経験データの要素をサンプリングするステップと
を含む、ステップと、
強化学習技法を使用して、選択された前記経験データの要素について前記ニューラルネットワークを訓練するステップと、
前記リプレイメモリにおいて、選択された前記経験データの要素についての前記ニューラルネットワークの訓練の結果から導出された新規期待学習進展度と選択された前記経験データの要素を関連付けるステップと
を含む、システム。 - 前記経験データの要素についての前記それぞれの期待学習進展度に基づいて前記リプレイメモリ内の複数の前記経験データの要素の各々についてのそれぞれの確率を決定するステップは、
より高い期待学習進展度を有する経験データの要素が比較的より低い期待学習進展度を有する経験データの要素より高い確率を有するように各々の経験データの要素についてのそれぞれの確率を決定するステップを含む、請求項16に記載のシステム。 - 選択された前記経験データの要素について前記ニューラルネットワークを訓練するステップは、
選択された前記経験データの要素についての時間差分学習誤差を決定するステップと、
前記ニューラルネットワークのパラメータの値を調整する際に前記時間差分学習誤差を使用するステップと
を含む、請求項17に記載のシステム。 - 1つまたは複数のコンピュータによって実行されると前記1つまたは複数のコンピュータに、環境に状態を遷移させる行動を行うことによって前記環境とのインタラクションを行う強化学習エージェントによって行われる行動を選択するために使用されるニューラルネットワークを訓練するための動作を行わせる命令で符号化されたコンピュータ記憶媒体であって、前記動作は、
リプレイメモリを保持するステップであって、前記リプレイメモリは、前記ニューラルネットワークを訓練する際の使用のために経験データの要素を記憶し、
各々の経験データの要素は、前記強化学習エージェントが前記環境とのインタラクションを行った結果として生成されたものであり、
各々の経験データの要素は、前記環境のそれぞれの現在の状態を特徴付けるそれぞれの現在の観測、前記現在の観測に応じて前記エージェントによって行われるそれぞれの現在の行動、前記環境のそれぞれの次の状態を特徴づけるそれぞれの次の状態、および前記エージェントが前記現在の行動を行ったことに応じて受ける報酬を含み、
複数の前記経験データの要素は、各々が、(i)前記ニューラルネットワークが前記経験データの要素について訓練される場合に前記ニューラルネットワークの前記訓練においてなされるであろう進展の期待量の度合いであるとともに(ii)前記経験データの要素がニューラルネットワークを訓練する際に使用された以前の時点の結果から導出されたそれぞれの期待学習進展度に関連付けられる、ステップと、
比較的より高い期待学習進展度を有する経験データの要素を選択のために優先順位付けをすることによって前記リプレイメモリから経験データの要素を選択するステップであって、
前記経験データの要素についての前記それぞれの期待学習進展度に基づいて前記リプレイメモリ内の複数の前記経験データの要素の各々についてのそれぞれの確率を決定するステップと、
前記決定した確率に従って前記リプレイメモリから経験データの要素をサンプリングするステップと
を含む、ステップと、
強化学習技法を使用して、選択された前記経験データの要素について前記ニューラルネットワークを訓練するステップと、
前記リプレイメモリにおいて、選択された前記経験データの要素についての前記ニューラルネットワークの訓練の結果から導出された新規期待学習進展度と選択された前記経験データの要素を関連付けるステップと
を含む、コンピュータ記憶媒体。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201562254610P | 2015-11-12 | 2015-11-12 | |
US62/254,610 | 2015-11-12 | ||
PCT/US2016/061693 WO2017083767A1 (en) | 2015-11-12 | 2016-11-11 | Training neural networks using a prioritized experience memory |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019208761A Division JP6828121B2 (ja) | 2015-11-12 | 2019-11-19 | 優先順位付けされた経験メモリを使用したニューラルネットワークの訓練 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2018537775A JP2018537775A (ja) | 2018-12-20 |
JP6621923B2 true JP6621923B2 (ja) | 2019-12-18 |
Family
ID=57485888
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018524787A Active JP6621923B2 (ja) | 2015-11-12 | 2016-11-11 | 優先順位付けされた経験メモリを使用したニューラルネットワークの訓練 |
JP2019208761A Active JP6828121B2 (ja) | 2015-11-12 | 2019-11-19 | 優先順位付けされた経験メモリを使用したニューラルネットワークの訓練 |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019208761A Active JP6828121B2 (ja) | 2015-11-12 | 2019-11-19 | 優先順位付けされた経験メモリを使用したニューラルネットワークの訓練 |
Country Status (6)
Country | Link |
---|---|
US (4) | US10650310B2 (ja) |
EP (1) | EP3360086A1 (ja) |
JP (2) | JP6621923B2 (ja) |
KR (1) | KR102191444B1 (ja) |
CN (4) | CN117910544A (ja) |
WO (1) | WO2017083767A1 (ja) |
Families Citing this family (32)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3360086A1 (en) * | 2015-11-12 | 2018-08-15 | Deepmind Technologies Limited | Training neural networks using a prioritized experience memory |
CN109348707A (zh) * | 2016-04-27 | 2019-02-15 | 纽拉拉股份有限公司 | 针对基于深度神经网络的q学习修剪经验存储器的方法和装置 |
EP3523760B1 (en) * | 2016-11-04 | 2024-01-24 | DeepMind Technologies Limited | Reinforcement learning systems |
KR102399535B1 (ko) * | 2017-03-23 | 2022-05-19 | 삼성전자주식회사 | 음성 인식을 위한 학습 방법 및 장치 |
US20180314925A1 (en) * | 2017-04-27 | 2018-11-01 | Facebook, Inc. | Systems and methods for sending notifications based on predicted effectiveness |
CN107292392B (zh) * | 2017-05-11 | 2019-11-22 | 苏州大学 | 基于深度带权双q学习的大范围监控方法及监控机器人 |
KR102391452B1 (ko) * | 2017-06-02 | 2022-04-27 | 에스케이텔레콤 주식회사 | 신경망에 복수의 태스크를 순차 학습시키는 방법 |
US11604941B1 (en) * | 2017-10-27 | 2023-03-14 | Deepmind Technologies Limited | Training action-selection neural networks from demonstrations using multiple losses |
US11037056B2 (en) * | 2017-11-21 | 2021-06-15 | Distech Controls Inc. | Computing device and method for inferring a predicted number of data chunks writable on a flash memory before wear out |
US20190311042A1 (en) * | 2018-04-04 | 2019-10-10 | Didi Research America, Llc | Intelligent incentive distribution |
WO2019240047A1 (ja) * | 2018-06-11 | 2019-12-19 | Necソリューションイノベータ株式会社 | 行動学習装置、行動学習方法、行動学習システム、プログラム、及び記録媒体 |
US11735028B2 (en) | 2018-06-12 | 2023-08-22 | Intergraph Corporation | Artificial intelligence applications for computer-aided dispatch systems |
US11397888B2 (en) | 2018-06-14 | 2022-07-26 | Accenture Global Solutions Limited | Virtual agent with a dialogue management system and method of training a dialogue management system |
US10679613B2 (en) | 2018-06-14 | 2020-06-09 | Accenture Global Solutions Limited | Spoken language understanding system and method using recurrent neural networks |
JP7016295B2 (ja) * | 2018-06-28 | 2022-02-04 | 三菱重工業株式会社 | 意思決定装置、無人システム、意思決定方法、及びプログラム |
US11132211B1 (en) * | 2018-09-24 | 2021-09-28 | Apple Inc. | Neural finite state machines |
US20200097811A1 (en) * | 2018-09-25 | 2020-03-26 | International Business Machines Corporation | Reinforcement learning by sharing individual data within dynamic groups |
EP3834138B1 (en) * | 2018-09-27 | 2024-06-26 | DeepMind Technologies Limited | Reinforcement learning neural networks grounded in learned visual entities |
FR3087922A1 (fr) * | 2018-10-31 | 2020-05-01 | Amadeus S.A.S. | Procédés et systèmes d'apprentissage de renforcement pour le contrôle d'inventaire et l'optimisation |
US11199846B2 (en) * | 2018-11-29 | 2021-12-14 | Baidu Usa Llc | Learning-based dynamic modeling methods for autonomous driving vehicles |
US20200241542A1 (en) * | 2019-01-25 | 2020-07-30 | Bayerische Motoren Werke Aktiengesellschaft | Vehicle Equipped with Accelerated Actor-Critic Reinforcement Learning and Method for Accelerating Actor-Critic Reinforcement Learning |
KR102576157B1 (ko) | 2019-02-22 | 2023-09-07 | 한국전자통신연구원 | 인공 신경망을 이용한 고속 객체 검출 방법 및 장치 |
CN110308873B (zh) * | 2019-06-24 | 2023-04-07 | 浙江大华技术股份有限公司 | 一种数据存储方法、装置、设备及介质 |
US20220339787A1 (en) * | 2019-07-01 | 2022-10-27 | Kuka Deutschland Gmbh | Carrying out an application using at least one robot |
CN110414618B (zh) * | 2019-08-05 | 2023-07-14 | 上海图趣信息科技有限公司 | 一种动态平衡分类数据的神经网络训练系统、方法及存储介质 |
US11574244B2 (en) | 2019-09-12 | 2023-02-07 | International Business Machines Corporation | States simulator for reinforcement learning models |
CN110738860B (zh) * | 2019-09-18 | 2021-11-23 | 平安科技(深圳)有限公司 | 基于强化学习模型的信息控制方法、装置和计算机设备 |
KR102272501B1 (ko) * | 2020-04-24 | 2021-07-01 | 연세대학교 산학협력단 | 분산 강화 학습 장치 및 방법 |
EP4268134A1 (en) * | 2021-02-04 | 2023-11-01 | DeepMind Technologies Limited | Temporal difference scaling when controlling agents using reinforcement learning |
CN113190542B (zh) * | 2021-05-19 | 2023-02-24 | 西安图迹信息科技有限公司 | 一种电网用大数据清洗去噪方法、系统和计算机存储介质 |
US11385925B1 (en) * | 2021-07-06 | 2022-07-12 | Bank Of America Corporation | System and method for provisioning hosted virtual desktop resources to remote users |
WO2023212808A1 (en) * | 2022-05-06 | 2023-11-09 | Ai Redefined Inc. | Systems and methods for managing interaction records between ai agents and human evaluators |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6473851B1 (en) * | 1999-03-11 | 2002-10-29 | Mark E Plutowski | System for combining plurality of input control policies to provide a compositional output control policy |
US7003158B1 (en) * | 2002-02-14 | 2006-02-21 | Microsoft Corporation | Handwriting recognition with mixtures of Bayesian networks |
US9679258B2 (en) * | 2013-10-08 | 2017-06-13 | Google Inc. | Methods and apparatus for reinforcement learning |
US10248675B2 (en) * | 2013-10-16 | 2019-04-02 | University Of Tennessee Research Foundation | Method and apparatus for providing real-time monitoring of an artifical neural network |
EP3360086A1 (en) | 2015-11-12 | 2018-08-15 | Deepmind Technologies Limited | Training neural networks using a prioritized experience memory |
DK3535705T3 (da) * | 2016-11-04 | 2022-05-30 | Deepmind Tech Ltd | Forstærkningslæring med hjælpeopgaver |
-
2016
- 2016-11-11 EP EP16806345.1A patent/EP3360086A1/en active Pending
- 2016-11-11 KR KR1020187016565A patent/KR102191444B1/ko active IP Right Grant
- 2016-11-11 US US15/349,894 patent/US10650310B2/en active Active
- 2016-11-11 CN CN202410035947.XA patent/CN117910544A/zh active Pending
- 2016-11-11 CN CN202410037883.7A patent/CN117910545A/zh active Pending
- 2016-11-11 CN CN202410032334.0A patent/CN117910543A/zh active Pending
- 2016-11-11 JP JP2018524787A patent/JP6621923B2/ja active Active
- 2016-11-11 CN CN201680066410.3A patent/CN108701252B/zh active Active
- 2016-11-11 WO PCT/US2016/061693 patent/WO2017083767A1/en active Application Filing
-
2018
- 2018-05-11 US US15/977,891 patent/US10282662B2/en active Active
-
2019
- 2019-11-19 JP JP2019208761A patent/JP6828121B2/ja active Active
-
2020
- 2020-05-04 US US16/866,365 patent/US11568250B2/en active Active
-
2023
- 2023-01-30 US US18/103,416 patent/US20230244933A1/en active Pending
Also Published As
Publication number | Publication date |
---|---|
KR20180091842A (ko) | 2018-08-16 |
JP6828121B2 (ja) | 2021-02-10 |
US20170140269A1 (en) | 2017-05-18 |
CN117910545A (zh) | 2024-04-19 |
US20200265312A1 (en) | 2020-08-20 |
EP3360086A1 (en) | 2018-08-15 |
CN117910543A (zh) | 2024-04-19 |
KR102191444B1 (ko) | 2020-12-15 |
JP2020047285A (ja) | 2020-03-26 |
US10282662B2 (en) | 2019-05-07 |
CN117910544A (zh) | 2024-04-19 |
JP2018537775A (ja) | 2018-12-20 |
US10650310B2 (en) | 2020-05-12 |
US11568250B2 (en) | 2023-01-31 |
CN108701252A (zh) | 2018-10-23 |
US20180260707A1 (en) | 2018-09-13 |
US20230244933A1 (en) | 2023-08-03 |
WO2017083767A1 (en) | 2017-05-18 |
CN108701252B (zh) | 2024-02-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6621923B2 (ja) | 優先順位付けされた経験メモリを使用したニューラルネットワークの訓練 | |
US11803750B2 (en) | Continuous control with deep reinforcement learning | |
JP6591672B2 (ja) | デュエリングディープニューラルネットワーク | |
CN110235148B (zh) | 训练动作选择神经网络 | |
JP2021185492A (ja) | 補助タスクを伴う強化学習 | |
CN107851216B (zh) | 一种用于选择待由与环境进行交互的强化学习代理执行的动作的方法 | |
JP6667674B2 (ja) | 疑似カウントを使用する強化学習 | |
US20200265317A1 (en) | Neural episodic control |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180606 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180606 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20190624 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190701 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190930 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20191007 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20191016 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20191021 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20191120 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6621923 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |