JP2021185492A - 補助タスクを伴う強化学習 - Google Patents

補助タスクを伴う強化学習 Download PDF

Info

Publication number
JP2021185492A
JP2021185492A JP2021127570A JP2021127570A JP2021185492A JP 2021185492 A JP2021185492 A JP 2021185492A JP 2021127570 A JP2021127570 A JP 2021127570A JP 2021127570 A JP2021127570 A JP 2021127570A JP 2021185492 A JP2021185492 A JP 2021185492A
Authority
JP
Japan
Prior art keywords
neural network
reward
selection policy
training
action
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2021127570A
Other languages
English (en)
Other versions
JP7235813B2 (ja
Inventor
ヴォロディミル・ムニヒ
Mnih Volodymyr
ヴォイチェフ・チャルネッキ
Czarnecki Wojciech
マックスウェル・エリオット・ジェイダーバーグ
Elliot Jaderberg Maxwell
トム・ショール
Schaul Tom
デイヴィッド・シルヴァー
Silver David
コーレイ・カヴクチュオグル
Kavukcuoglu Koray
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
DeepMind Technologies Ltd
Original Assignee
DeepMind Technologies Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by DeepMind Technologies Ltd filed Critical DeepMind Technologies Ltd
Publication of JP2021185492A publication Critical patent/JP2021185492A/ja
Application granted granted Critical
Publication of JP7235813B2 publication Critical patent/JP7235813B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/004Artificial life, i.e. computing arrangements simulating life
    • G06N3/006Artificial life, i.e. computing arrangements simulating life based on simulated virtual individual or collective life forms, e.g. social simulations or particle swarm optimisation [PSO]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Artificial Intelligence (AREA)
  • Mathematical Physics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Medical Informatics (AREA)
  • Image Analysis (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

【課題】強化学習システムをトレーニングする方法、システム及び記録媒体を提供する。【解決手段】方法は、行動選択ポリシーニューラルネットワークをトレーニングするステップと、その間に補助制御ニューラルネットワーク及び報酬予測ニューラルネットワークをトレーニングするステップとを含む。補助制御ニューラルネットワークは、行動選択ポリシーニューラルネットワークによって生成された中間出力を受信し、対応する補助制御タスクのためのポリシー出力を生成する。報酬予測ニューラルネットワークは、行動選択ポリシーニューラルネットワークによって生成された中間出力を受信し、対応する予測された報酬を生成する。補助制御ニューラルネットワーク及び報酬予測ニューラルネットワークをトレーニングするステップは、それぞれの補助制御パラメータ、報酬予測パラメータ及び行動選択ポリシーネットワークパラメータの値を調整するステップを含む。【選択図】図1A

Description

本明細書は強化学習に関する。
強化学習システムにおいて、エージェント(Agent)が、環境の現在の状態を特徴づける観察(Observation)の受信に応答して強化学習システムによって選択された行動(Action)を実施することによって、環境と対話する。
いくつかの強化学習システムは、ニューラルネットワークの出力に従って所与の観察の受信に応答してエージェントによって実施されるべき行動を選択する。
ニューラルネットワークは、受信された入力に対する出力を予測するために非線形ユニットの1つまたは複数の層を利用する、機械学習モデルである。いくつかのニューラルネットワークは、出力層に加えて1つまたは複数の隠れ層を含む、深層ニューラルネットワーク(Deep Neural Network)である。各隠れ層の出力は、ネットワークにおける次の層、すなわち、次の隠れ層または出力層への入力として使用される。ネットワークの各層は、パラメータのそれぞれのセットの現在値に従って、受信された入力から出力を生成する。
Volodymyr Mnihら、「Asynchronous methods for deep reinforcement learning」、Proceedings of the 33rd International Conference on Machine Learning、2016
本明細書は、環境と対話するエージェントによって実施されるべき行動を選択する、1つまたは複数のロケーションにおける1つまたは複数のコンピュータ上のコンピュータプログラムとして実装される強化学習システムについて説明する。概して、本システムは、環境の観察に応答して実施されるべき行動を選択する際に、行動選択ポリシー(Action Selection Policy)ニューラルネットワークを使用する。このトレーニングの間に、行動選択ポリシーニューラルネットワークのトレーニングを改善するために、本システムはまた、行動選択ポリシーニューラルネットワークのそれぞれの中間出力(Intermediate Output)を入力として受信する、(i)1つまたは複数の補助制御ニューラルネットワーク(Auxiliary Control Neural Network、(ii)報酬予測ニューラルネットワーク(Reward Prediction Neural Network)、またはその両方をトレーニングする。
概して、1つの発明的態様が、強化学習システムをトレーニングするための方法において実施され得、本方法は、第1の強化学習技法を使用して、行動選択ポリシーニューラルネットワークをトレーニングするステップであって、行動選択ポリシーニューラルネットワークが、複数の行動選択ポリシーネットワークパラメータを有し、環境と対話するエージェントによって実施されるべき行動を選択する際に、特に、主要なタスクを実施する際に使用される、トレーニングするステップを含む。行動選択ポリシーニューラルネットワークは、観察入力を含む入力を受信することと、行動選択ポリシー出力を生成するためにネットワークパラメータに従って入力を処理することとを行うように構成され得、行動選択ポリシーニューラルネットワークをトレーニングするステップは、行動選択ポリシーネットワークパラメータの値を調整するステップを含む。本方法は、第1の強化学習技法を使用した、行動選択ポリシーニューラルネットワークのトレーニングの間に、行動選択ニューラルネットワークのトレーニングの間に、環境とのエージェントの対話に関する1つまたは複数の補助制御ニューラルネットワークの各々をトレーニングするステップであって、補助制御ニューラルネットワークの各々が、それぞれの補助制御パラメータを有し、それぞれの補助制御タスクに対応し、行動選択ポリシーニューラルネットワークによって生成されたそれぞれの中間出力を受信することと、補助制御ニューラルネットワークのそれぞれの補助制御タスクパラメータに従って、対応する補助制御タスクのためのポリシー出力を生成することとを行うように構成され、補助制御ニューラルネットワークの各々をトレーニングするステップが、補助制御ニューラルネットワークによって生成されたポリシー出力に基づいて、勾配(Gradient)を決定するステップと、勾配を使用して、それぞれの補助制御パラメータおよび行動選択ポリシーネットワークパラメータの値を調整するステップとを含む、トレーニングするステップを含み得る。
行動選択ポリシー出力は、環境においてエージェントによって実施されるべき行動を定義し得、後で説明されるように、エージェントはロボットエージェントであり得る。実装形態において、補助制御ニューラルネットワークは、行動選択ポリシーニューラルネットワークの1つまたは複数の隠れ層に結合された1つまたは複数のニューラルネットワーク層を備え得、すなわち、中間出力は、これらの1つまたは複数の隠れ層からの出力を含み得る。したがって、補助制御ニューラルネットワークをトレーニングするステップは、行動選択ポリシーニューラルネットワークのトレーニング部分、より詳細には、入力と中間層との間のこのネットワークの部分にも関与し得る。したがって、実装形態において、行動選択ポリシーニューラルネットワークのパラメータ(たとえば重み)は、行動選択ポリシーニューラルネットワークのトレーニングによってトレーニングされ、これらのパラメータのうちのいくつかはまた、補助制御ニューラルネットワークをトレーニングすることによって、より詳細には、中間出力を介して補助制御ニューラルネットワークから行動選択ポリシーニューラルネットワークに勾配をバックプロパゲートする(Backpropagate)ことによって、トレーニングされる。勾配は、パラメータに関する補助制御タスクのためのポリシー損失関数の勾配であり得る。補助制御ニューラルネットワークからのポリシー出力は、そのようなバックプロパゲーションのための損失関数を算出するために使用され得、特定の損失関数は、選択された補助制御タスクに依存し、実装され得る多くのそのようなタスクがある。まったく同様の考慮事項が、補助報酬予測ニューラルネットワークのために適用され、この場合、勾配は報酬予測損失関数から決定され得る。
いくつかの実装形態において、補助制御ニューラルネットワークの各々をトレーニングするステップは、環境とのエージェントの対話に応答して、対応する補助制御タスクに固有である補助タスク報酬(Auxiliary Task Reward)を受信するステップと、必須ではないが場合によってはそれぞれの第2の強化学習技法を使用して、対応する補助制御タスクのための予想されるタスク報酬、より詳細には予想される長期時間割引補助タスク報酬(Long-term Time-discounted Auxiliaiy Task Reward)を最大にするために、補助制御ニューラルネットワークをトレーニングするステップとを含む。たとえば、第1の強化学習技法はオンポリシー(On-policy)技法であり得、第2の強化学習技法はオフポリシー(Off-policy)技法であり得、および/または、第2の強化学習技法は、効率のために第1の強化学習技法よりも単純であり得る。いくつかの実装形態において、ここでおよび後で説明されるように、予想される長期時間割引補助タスク報酬は、予想されるnステップのリターン、より詳細には、時間的に後の報酬が、低減された重み付けを与えられる、n回の(行動)ステップの行動の後に予想されるリターンを含み得る。
いくつかの実装形態において、前に説明されたように、それぞれの第2の強化学習技法を使用して、対応する補助制御タスクのための予想される長期時間割引補助タスク報酬を最大にするために、補助制御ニューラルネットワークをトレーニングするステップは、行動選択ポリシーパラメータの値を調整するために、場合によってはそれぞれの第2の強化学習技法を使用して、算出された勾配を、行動選択ポリシーニューラルネットワークにバックプロパゲートするステップを含む。
いくつかの実装形態において、1つまたは複数の補助制御ニューラルネットワークは、画像を含む観察のためのピクセル制御タスクに対応するピクセル制御ニューラルネットワークを備える。ピクセル制御タスクは、各観察画像の1つまたは複数の領域の各々について、領域中のピクセルの値の最大変化を最大にすることを試み得る。各観察画像について、1つまたは複数の領域の各々のためのそれぞれの報酬は、観察画像から、観察画像に応答してエージェントが行動を実施した結果として受信された次の観察画像への、領域中のピクセルの変化から導出され得る。そのようなピクセル制御タスクを実施する際に、ピクセル制御ニューラルネットワークと、行動選択ポリシーニューラルネットワークの部分とは、視覚入力に影響を及ぼす環境の態様を制御するために一緒に学習し得、行動選択ポリシーニューラルネットワークにおいて学習された表現は、次いで、主要なタスクを実施するために学習する際に有用であり得る。
いくつかの実装形態において、ピクセル制御ニューラルネットワークは、受信された観察画像について、ピクセル制御ニューラルネットワークのためのそれぞれの中間出力を受信することと、1つまたは複数の領域の各々について、およびエージェントによって実施されるべき複数の可能な行動の各々について、受信された観察画像に応答してエージェントが可能な行動を実施した場合、領域中のピクセルの、変化の推定、より詳細には長期時間割引変化の推定を生成するために、それぞれの中間出力を処理することとを行うように構成される。ピクセルの長期時間割引変化は、時間的に後の変化が、低減された重み付けを与えられる、n回の(行動)ステップの行動の後に予想される変化を含み得る。
いくつかの実装形態において、ピクセル制御ニューラルネットワークは、逆畳み込みニューラルネットワーク(Deconvolutional Neural Network)を備え得る。逆畳み込みニューラルネットワークは、ピクセル制御ニューラルネットワークをトレーニングするために使用され得る、行動価値関数値など、空間的にマッピングされた補助報酬関数値のセットを決定するために使用され得る。いくつかの実装形態において、行動選択ポリシーニューラルネットワークが、1つまたは複数の畳み込みニューラルネットワーク層と、その後に続く、1つまたは複数のリカレントニューラルネットワーク層とを備える場合、ピクセル制御ニューラルネットワークは、1つまたは複数のリカレントニューラルネットワーク層のうちの1つの出力に結合され得る。
いくつかの実装形態において、補助制御ニューラルネットワークは、(特徴がより低い頻度で変化するような、対応するターゲットネットワークの使用を伴い得る)行動選択ポリシーニューラルネットワークの特定の隠れ層中の1つまたは複数のユニットによって生成される活性化を最大にすることを試みる特徴制御タスクに対応する、特徴制御ニューラルネットワークを備える。各観察画像について、1つまたは複数のユニットの各々のためのそれぞれの報酬は、観察画像を処理する間に生成された活性化から、観察画像に応答してエージェントが行動を実施した結果として受信された次の観察画像の処理の間に生成された活性化への、ユニットの活性化の変化から導出され得る。特徴制御タスクは、ピクセル制御タスクと同様であるが、より高いレベルの視覚特徴に関すると考えられ得る。
いくつかの実装形態において、特徴制御ニューラルネットワークは、受信された観察画像について、特徴制御ニューラルネットワークのためのそれぞれの中間出力を受信することと、1つまたは複数のユニットの各々ついて、およびエージェントによって実施されるべき複数の可能な行動の各々について、受信された観察画像に応答してエージェントが可能な行動を実施した場合、ユニットによって生成される活性化の長期時間割引変化の推定を生成するために、それぞれの中間出力を処理することとを行うように構成される。
概して、別の発明的態様が、強化学習システムをトレーニングするための方法において実施され得、本方法は、第1の強化学習技法を使用して、行動選択ポリシーニューラルネットワークをトレーニングするステップであって、行動選択ポリシーニューラルネットワークが、複数のネットワークパラメータを有し、環境と対話するエージェントによって実施されるべき行動を選択する際に使用され、行動選択ポリシーニューラルネットワークが、観察入力を含む入力を受信することと、行動選択ポリシー出力を生成するためにネットワークパラメータに従って入力を処理することとを行うように構成され、行動選択ポリシーニューラルネットワークをトレーニングするステップが、行動選択ポリシーネットワークパラメータの値を調整するステップを含む、トレーニングするステップと、第1の強化学習技法を使用した、行動選択ニューラルネットワークのトレーニングの間に、行動選択ニューラルネットワークのトレーニングの間に、環境とのエージェントの対話に関する報酬予測ニューラルネットワークをトレーニングするステップであって、報酬予測ニューラルネットワークが、報酬予測パラメータを有し、環境とのエージェントの対話の結果として受信された観察画像のシーケンスを特徴づける、行動選択ポリシーニューラルネットワークによって生成された1つまたは複数の中間出力を受信することと、シーケンス中の最後の観察画像に後続する次の観察画像とともに受信されることになる報酬の推定である、予測された報酬を生成するために、報酬予測パラメータに従って、1つまたは複数の中間出力を処理することとを行うように構成され、報酬予測ニューラルネットワークをトレーニングするステップが、報酬予測ニューラルネットワークによって生成された予測された報酬に基づいて、勾配を決定するステップと、勾配を使用して、報酬予測パラメータおよび行動選択ポリシーネットワークパラメータの値を調整するステップとを含む、トレーニングするステップとを含む。
いくつかの実装形態において、報酬予測ニューラルネットワークをトレーニングするステップは、次のまたは後続の観察画像とともに受信される実際の報酬を受信するステップと、実際の報酬と推定された報酬との間の損失、より詳細には実際の報酬と推定された報酬との間の差に依存する損失関数の値を減少させるために、即時報酬ニューラルネットワーク(Immediate Reward Neural Network)をトレーニングするステップとを含む。後で説明されるように、報酬予測ニューラルネットワークをトレーニングするステップは、特に、報酬があるシーケンス/イベントを過度に表現するように、経験リプレイメモリに記憶された観察のシーケンスからサンプリングするステップを含み得、これは、環境における報酬がまばらであるときに有利であり得る。
いくつかの実装形態において、実際の報酬と推定された報酬との間の損失を減少させるために、即時報酬ニューラルネットワークをトレーニングするステップは、行動選択ポリシーパラメータの値を調整するために、算出された勾配を行動選択ポリシーニューラルネットワークにバックプロパゲートするステップを含む。
いくつかの実装形態において、行動選択ポリシーニューラルネットワークは、入力の符号化表現を生成する、畳み込みエンコーダニューラルネットワークと、入力の符号化表現を処理して中間表現を生成する、中間ニューラルネットワークと、中間表現を処理して行動選択出力を生成する、出力ニューラルネットワークとを備える。
いくつかの実装形態において、中間ニューラルネットワークは、リカレントニューラルネットワークであり、観察画像のシーケンスを特徴づける、行動選択ポリシーニューラルネットワークによって生成された1つまたは複数の中間出力は、シーケンス中の最後の観察画像のための中間表現である。
いくつかの実装形態において、観察画像のシーケンスを特徴づける、行動選択ポリシーニューラルネットワークによって生成された1つまたは複数の中間出力は、シーケンス中の観察画像のための符号化表現である。
いくつかの実装形態において、報酬予測ニューラルネットワークをトレーニングするステップは、リプレイメモリから観察のシーケンスをサンプリングするステップを含む。
いくつかの実装形態において、観察のシーケンスをサンプリングするステップは、シーケンス中の最後の観察に後続する観察とともに受信された実際の報酬が0でないシーケンスを、シーケンス中の最後の観察に後続する観察とともに受信された実際の報酬が0であるシーケンスよりも、高い確率でサンプリングするステップを含む。
いくつかの実装形態において、第1の強化学習技法は、アクタークリティック強化学習技法(Actor-critic Reinforcement Learning Technique)であり、行動選択ポリシー出力は、値推定とQ値とを含む。値推定は、値、または状態からの予想されるリターンを定義し得、Q値は、状態における特定の行動に対する予想されるリターンを定義し得、たとえば、ベースライン値推定によって行動のアドバンテージ(Advantage)を定義するアドバンテージ値に暗に含まれ得る。本方法は、リプレイメモリから最近のシーケンスをリサンプリングするステップと、リサンプリングされた最近のシーケンス中の観察画像のための値推定に関する余分の価値関数回帰を実施するステップとをさらに含み得る。したがって、余分の価値関数回帰は、リプレイメモリからのシーケンスを使用した追加のトレーニングを含み得、nステップのリターンが算出される場合、本方法は、さらに、nをランダムに変化させ得る。これは報酬予測タスクの利益を活用するのに役立つことができる。
上記の態様は任意の好都合な形態において実装され得る。たとえば、態様および実装形態は、有形キャリア媒体(たとえばディスク)または無形キャリア媒体(たとえば通信信号)であり得る、適切なキャリア媒体上で担持され得る、適切なコンピュータプログラムによって実装され得る。態様はまた、コンピュータプログラムを実行するプログラマブルコンピュータの形態をとり得る、好適な装置を使用して実装され得る。
本明細書において説明される主題の特定の実施形態は、以下の利点のうちの1つまたは複数を実現するように実装され得る。累積外発的報酬(Extrinsic Reward)を最大にするために、行動選択ポリシーニューラルネットワークをトレーニングすることに加えて、補助タスク(Auxiliary Task)および予測を実施するために、1つまたは複数の補助制御ニューラルネットワークまたは報酬予測ニューラルネットワーク、あるいはその両方をトレーニングすることによって、本明細書において説明される強化学習システムは、行動選択ポリシーニューラルネットワークのトレーニングの間に受信されるフィードバック信号を増強して、トレーニングを改善することができる。特に、補助制御ニューラルネットワークまたは報酬予測ニューラルネットワークをトレーニングすることは、行動選択ポリシーニューラルネットワークのパラメータのセットの値を調節し、これにより、補助制御ニューラルネットワークまたは報酬予測ニューラルネットワークは、累積外発的報酬を最大にするために、観察されたデータのより有用な表現を生成し、最終的に、より効果的なポリシー出力を決定する。たとえば、報酬予測ニューラルネットワークをトレーニングすることは、後続の時間ステップにおいて高い報酬を受信することにつながる観察を認識するために、行動選択ポリシーニューラルネットワークのパラメータのセットの値を調節し、それにより、外発的報酬がまれに0でないにすぎないときでも、予想される長期時間割引外発的報酬を最大にするために、行動選択ポリシーニューラルネットワークがより効果的なポリシー出力を決定することを可能にする。
対照的に、まれに0でない外発的報酬のみにトレーニングが基づくとき、従来の方法によって強化学習システムをトレーニングすることは時間がかかる。さらに、汎用的であり、エージェントの長期目標とあまり一致しない、教師なし(Unsupervised)トレーニングを含む、従来の強化学習システムとは異なり、補助制御ニューラルネットワークまたは報酬予測ニューラルネットワークをトレーニングすることは、行動選択ポリシーニューラルネットワークに、エージェントの長期目標とよく一致する表現を生成させる。
本明細書において説明される強化学習システムは、従来の強化学習システムよりも速く、行動選択ポリシーニューラルネットワークをトレーニングする。したがって、本明細書において説明される強化学習システムは、トレーニングにおける計算リソースのより効率的な使用を可能にする。その上、本明細書において説明される強化学習システムは、たとえば、より多くの累積外発的報酬を受信することによって、従来の強化学習システムより優れた性能を達成する。
本明細書の主題の1つまたは複数の実施形態の詳細が、添付の図面および以下の説明において記載されている。主題の他の特徴、態様、および利点は、説明、図面、および特許請求の範囲から明らかになるであろう。
例示的な強化学習システムを示す図である。 強化学習システムの例示的な実装形態を示す図である。 補助制御ニューラルネットワークをトレーニングすることによって、行動選択ポリシーニューラルネットワークをトレーニングするための例示的なプロセスの流れ図である。 報酬予測ニューラルネットワークをトレーニングすることによって、行動選択ポリシーニューラルネットワークをトレーニングするための例示的なプロセスの流れ図である。
様々な図面中の同様の参照番号および名称は同様の要素を示す。
図1Aは、例示的な強化学習システム100を示す。強化学習システム100は、以下で説明されるシステム、構成要素、および技法が実装される、1つまたは複数のロケーションにおける1つまたは複数のコンピュータ上のコンピュータプログラムとして実装されるシステムの一例である。
強化学習システム100は、複数の時間ステップの各々において環境102と対話するエージェント108によって実施されるべき行動110を選択する。エージェント108が環境102と対話するために、システム100は、環境102の現在の状態を特徴づけるデータ、たとえば、環境の画像を受信し、受信されたデータに応答してエージェントによって実施されるべき行動110を選択する。環境102の状態を特徴づけるデータは、本明細書において、観察104と呼ばれることになる。
いくつかの実装形態において、環境102は、シミュレートされた環境であり、エージェント108は、シミュレートされた環境と対話する1つまたは複数のコンピュータプログラムとして実装される。たとえば、シミュレートされた環境はビデオゲームであり得、エージェントは、ビデオゲームをプレイするシミュレートされたユーザであり得る。別の例として、シミュレートされた環境は、運動シミュレーション環境、たとえば、ドライビングシミュレーションまたはフライトシミュレーションであり得、エージェントは、運動シミュレーション環境を通してナビゲートするシミュレートされたビークルである。これらの実装形態において、行動は、シミュレートされたユーザまたはシミュレートされたビークルを制御するための制御入力であり得る。
いくつかの他の実装形態において、環境102は現実世界の環境であり、エージェント110は、現実世界の環境と対話する機械的エージェントである。たとえば、エージェントは、固有のタスクを遂行するために環境と対話するロボットであり得る。別の例として、エージェントは、環境を通してナビゲートする自律ビークルまたは半自律ビークルであり得る。これらの実装形態において、行動は、ロボットまたは自律ビークルを制御するための制御入力であり得る。これらの実装形態のうちのいくつかにおいて、観察104は、エージェント108のセンサーによって生成されるか、またはそれから導出され得る。たとえば、観察104は、エージェント108のカメラによってキャプチャされ得る。別の例として、観察104は、エージェント108のレーザーセンサーからキャプチャされたデータから導出され得る。別の例として、観察は、エージェント108のハイパースペクトルセンサーによってキャプチャされたハイパースペクトル画像であり得る。
システム100は、各時間ステップにおいて観察104に応答してエージェント108によって実施されるべき行動を選択する際に、行動選択ポリシーニューラルネットワーク112を使用する。特に、行動選択ポリシーニューラルネットワーク112は、観察104を入力として受信することと、時間ステップにおいてエージェント108によって実施されるべき行動110を決定するためにシステム100が使用するポリシー出力を生成するために、本明細書において行動選択ポリシーニューラルネットワークパラメータと呼ばれるパラメータのセットに従って、入力を処理することとを行うように構成される。たとえば、ポリシー出力は、可能な行動のセットにわたる確率分布であり得る。別の例として、ポリシー出力は、観察に応答してエージェント108が特定の行動を実施した場合に受信されることになる、長期時間割引報酬の推定値である、Q値であり得る。別の例として、ポリシー出力は、観察に応答してエージェントによって実施された場合に最高の長期時間割引報酬を生じると予測される特定の行動を識別し得る。
概して、行動選択ポリシーニューラルネットワーク112は、入力観察の符号化表現を生成する、畳み込みエンコーダニューラルネットワークと、入力観察の符号化表現を処理して中間表現を生成する、中間ニューラルネットワークと、中間表現を処理してポリシー出力を生成する、出力ニューラルネットワークとを含む。
各時間ステップにおいて、システム100は、環境102の現在の状態と、時間ステップにおけるエージェント108の行動110とに基づく報酬106を受信する。概して、システム100は、行動選択ポリシーニューラルネットワークパラメータの値を反復的に調整するために強化学習技法を使用することによって、システム100によって受信された予想される長期時間割引報酬を最大にするポリシー出力を生成するために、行動選択ポリシーニューラルネットワーク112をトレーニングする。
1つまたは複数の時間ステップについて、システム100は、時間ステップのための経験タプル(Experience Tuple)をリプレイメモリ114に記憶し、本明細書において、経験タプルという用語は、時間ステップにおける観察104と、時間ステップにおけるエージェントの行動110と、時間ステップにおいて受信された報酬106と、次の時間ステップの観察とを指す。
いくつかの実装形態において、システム100は、オンポリシー強化学習技法を使用して、行動選択ポリシーニューラルネットワーク112をトレーニングし、経験タプルが生成されたときの経験タプルに基づいて、行動選択ポリシーニューラルネットワーク112をトレーニングする。オンポリシー強化学習のための例示的な方法は、Volodymyr Mnihら、「Asynchronous methods for deep reinforcement learning」、Proceedings of the 33rd International Conference on Machine Learning、2016に記載されている。オンポリシー強化学習のための別の例示的な方法は、ポリシー勾配法である。いくつかの他の実装形態において、システム100は、経験タプルが生成されたときの経験タプルに基づいて、またはサンプリングエンジン116がリプレイメモリ114からサンプリングした経験タプルに基づいて、オフポリシー強化学習技法、たとえば、ワンステップQ学習またはnステップQ学習を使用して、行動選択ポリシーニューラルネットワーク112をトレーニングする。
行動選択ポリシーニューラルネットワーク112の一例は、Volodymyr Mnihら、「Asynchronous methods for deep reinforcement learning」、Proceedings of the 33rd International Conference on Machine Learning、2016に記載されている。行動選択ポリシーニューラルネットワーク112の他の例は、DQN(深層Qネットワーク:Deep Q-Network)と、DDPG(深層決定的ポリシー勾配法:Deep Deterministic Policy Gradient)と、TRPQ(信頼領域ポリシー最適化:Trust Region Policy Optimization)ネットワークとを含む。
予想される長期時間割引報酬を最大にするために、行動選択ポリシーニューラルネットワーク112をトレーニングすることに加えて、システム100は、1つまたは複数の補助制御ニューラルネットワーク、たとえば、ピクセル制御ニューラルネットワーク118、または特徴制御ニューラルネットワーク120、あるいはその両方をさらにトレーニングすることによって、行動選択ポリシーニューラルネットワーク112をトレーニングし得る。補助制御ニューラルネットワークをトレーニングすることは、行動選択ポリシーニューラルネットワーク112のパラメータのセットの値を調節し、これにより、行動選択ポリシーニューラルネットワーク112は、0でない報酬106がまれに受信されるにすぎないときでも、予想される長期時間割引報酬を最大にするために、エージェント110の長期目標とよく一致する、観察104のより有用な表現を生成し、それにより、より効果的なポリシー出力を決定する。
各補助制御ニューラルネットワークは、本明細書において補助制御ニューラルネットワークパラメータと呼ばれるパラメータのそれぞれのセットを有し、所与の観察104を処理するとき、行動選択ポリシーニューラルネットワーク112のそれぞれの中間出力を入力として受信する。各補助制御ニューラルネットワークは、行動選択ポリシーニューラルネットワーク112のそれぞれの中間出力を入力として受信するので、各補助制御ニューラルネットワークは、パラメータを行動選択ポリシーニューラルネットワーク112と共有するものと見なされ得る。行動選択ポリシーニューラルネットワーク112の中間出力は、入力としての所与の観察の処理に応答して、行動選択ポリシーニューラルネットワーク112の1つまたは複数の隠れ層の1つまたは複数のユニットにおいて生成された活性化のセットである。いくつかの実装形態において、行動選択ポリシーニューラルネットワーク112の中間ニューラルネットワークは、リカレントニューラルネットワークであり、それぞれの補助制御ニューラルネットワークに対応する中間出力は、所与の観察のためにリカレントニューラルネットワークによって生成された中間表現である。いくつかの実装形態において、それぞれの補助制御ニューラルネットワークに対応する中間出力は、所与の観察のために行動選択ポリシーニューラルネットワーク112の畳み込みエンコーダニューラルネットワークによって生成された符号化表現である。
補助制御ニューラルネットワークの各々は、1つまたは複数のそれぞれの補助タスク報酬(Auxiliary Task Reward)に関連する。ピクセル制御ニューラルネットワーク118の補助タスク報酬は、所与の観察画像104から、所与の観察104に応答してエージェント110が行動110を実施した結果として受信された次の観察画像への、1つまたは複数の領域中のピクセルの変化から導出される。特徴制御ニューラルネットワーク120の補助タスク報酬は、所与の観察104を処理することと、所与の観察に応答してエージェント108が行動110を実施した結果として受信された次の観察の処理との間の、行動選択ポリシーニューラルネットワーク112の特定の隠れ層中の1つまたは複数のユニットによって生成された活性化の変化から導出される。
各補助制御ニューラルネットワークは、各関連する補助タスク報酬のための補助制御ポリシー出力を生成する。システム100は、補助制御ニューラルネットワークの各々をトレーニングして、対応する補助タスク報酬の予想される長期時間割引値を最大にする補助制御ポリシー出力を生成し、これは、補助制御ポリシー出力に基づいて、エージェントの行動を選択することによって達成されることになる。
システム100は、強化学習技法を使用して各補助制御ニューラルネットワーク112をトレーニングする。システム100は、経験タプルが生成されたときの経験タプルに基づいて、オンラインで補助制御ニューラルネットワーク112をトレーニングし得るか、または、システム100は、サンプリングエンジン116がリプレイメモリ114からサンプリングした、前の時間ステップにおいて生成された経験タプルに基づいて、補助制御ニューラルネットワーク112をトレーニングし得る。強化学習技法は、ワンステップQ学習またはnステップQ学習など、オフポリシー強化学習技法であり得るか、あるいは、強化学習技法は、各補助タスク報酬のための価値関数を推定する強化学習技法など、オンポリシー強化学習技法であり得る。
強化学習技法を使用して補助制御ニューラルネットワークをトレーニングするために、システム100は、補助制御ニューラルネットワークのパラメータのセットの値を調整するために、および、行動選択ポリシーニューラルネットワーク112のパラメータのセットのうちのいくつかの値を調整するために、強化学習技法に従ってシステム100が決定した勾配をバックプロパゲートする。特に、システムは、(i)システム100が補助制御ニューラルネットワークへの入力として提供する、行動選択ポリシーニューラルネットワーク112の中間出力の1つまたは複数の隠れ層の1つまたは複数のユニットと、(ii)システム100が補助制御ニューラルネットワークへの入力として提供する、行動選択ポリシーニューラルネットワーク112の中間出力の1つまたは複数の隠れ層の1つまたは複数のユニットにフィードフォワードするユニットとに対応する行動選択ポリシーニューラルネットワークのパラメータを調整する。本明細書において、第1のユニットの出力が、直接または間接的にのいずれかで第2のユニットへの入力として提供される場合、第1のユニットは第2のユニットにフィードフォワードすると言われる。
予想される長期時間割引報酬を最大にするために、行動選択ポリシーニューラルネットワーク112をトレーニングすることに加えて、システム100は、報酬予測ニューラルネットワーク122をさらにトレーニングすることによって、行動選択ポリシーニューラルネットワーク112をトレーニングし得る。報酬予測ニューラルネットワーク122をトレーニングすることは、後続の時間ステップにおいて高い報酬106を受信することにつながる観察104を認識するために、行動選択ポリシーニューラルネットワーク112のパラメータのセットの値を調節し、それにより、0でない報酬106がまれに観察されるにすぎないときでも、予想される長期時間割引報酬を最大にするために、行動選択ポリシーニューラルネットワーク112がより効果的なポリシー出力を決定することを可能にする。
報酬予測ニューラルネットワーク122は、本明細書において報酬予測ニューラルネットワークパラメータと呼ばれるパラメータのセットを有し、環境102とのエージェント108の対話の結果として受信された観察のシーケンスを特徴づける、行動選択ポリシーニューラルネットワーク112によって生成された1つまたは複数の中間出力を入力として受信するように構成される。報酬予測ニューラルネットワーク122は、行動選択ポリシーニューラルネットワーク112によって生成された1つまたは複数の中間出力を入力として受信するので、報酬予測ニューラルネットワーク122は、パラメータを行動選択ポリシーニューラルネットワーク112と共有するものと見なされ得る。
いくつかの実装形態において、行動選択ポリシーニューラルネットワーク112の中間ニューラルネットワークは、リカレントニューラルネットワークであり、観察のシーケンスを特徴づける、行動選択ポリシーニューラルネットワーク112によって生成された1つまたは複数の中間出力は、シーケンス中の最後の観察のための、リカレントニューラルネットワークによって生成された中間表現である。
いくつかの実装形態において、観察のシーケンスを特徴づける、行動選択ポリシーニューラルネットワーク112によって生成された1つまたは複数の中間出力は、シーケンス中の観察のための、行動選択ポリシーニューラルネットワーク112の符号化表現である。たとえば、行動選択ポリシーニューラルネットワーク112が、畳み込みエンコーダニューラルネットワークを含む場合、これは、リプレイメモリからの状態のシーケンスの各状態を符号化し得る。
報酬予測ニューラルネットワーク122は、シーケンス中の最後の観察に後続する次の観察とともに受信されることになる実際の報酬の推定である、予測された報酬を生成するために、報酬予測ニューラルネットワークパラメータのセットに従って、1つまたは複数の中間出力を処理する。
システム100は、報酬予測損失を最小限に抑える予測された報酬を生成するために、報酬予測ニューラルネットワーク122をトレーニングする。いくつかの実装形態において、報酬予測損失は、シーケンス中の最後の観察に後続する次の観察とともに受信される予測された報酬と、シーケンス中の最後の観察に後続する次の観察とともに受信される実際の報酬との間の平均2乗誤差損失である。いくつかの他の実装形態において、報酬予測損失は、マルチクラスクロスエントロピー分類損失(Multi-class Cross-entropy Classification Loss)であり、ここで、3つのクラスは、0報酬、正の報酬、および負の報酬である。詳細には、システム100は、報酬予測ニューラルネットワーク122のパラメータのセットの値を調整するために、および、行動選択ポリシーニューラルネットワーク112のパラメータのセットのうちのいくつかの値を調整するために、勾配をバックプロパゲートして、報酬予測損失を最小限に抑える。
概して、システム100は、サンプリングエンジン116がリプレイメモリ114からサンプリングした、前の時間ステップにおいて生成された経験タプルのシーケンスに基づいて、報酬予測ニューラルネットワーク122をトレーニングする。いくつかの実装形態において、サンプリングエンジン116は、シーケンス中の最後の観察に後続する観察とともに受信された実際の報酬が0でないシーケンスが、シーケンス中の最後の観察に後続する観察とともに受信された実際の報酬が0であるシーケンスよりも、高い確率でサンプリングされた場合、リプレイメモリ114から経験タプルのシーケンスをサンプリングする。リプレイメモリ114からの経験タプルシーケンスのバイアスされたサンプリングは、特に、0でない報酬106がまれに受信されるとき、報酬予測ニューラルネットワーク122のトレーニングを改善し、拡張によって行動選択ポリシーニューラルネットワーク112を改善する。
いくつかの実装形態において、システム100は、オンポリシー強化学習を増強して、追加のオフポリシー強化学習によって行動選択ポリシーニューラルネットワーク112をトレーニングし、ここで、オフポリシー強化学習は、システム100が報酬予測ニューラルネットワーク122をトレーニングすることによって成形された行動選択ポリシーニューラルネットワーク112の新たに発見された特徴を活用する。たとえば、システム100が行動選択ポリシーニューラルネットワーク112をトレーニングするために使用する強化学習技法は、アクタークリティック強化学習技法であり得、ポリシー出力は、値推定とQ値とを含む。この例において、システム100は、経験タプルが生成されたときの経験タプルに基づいて、オンポリシートレーニングを使用して行動選択ポリシーニューラルネットワーク112をトレーニングし、サンプリングエンジン116によってリプレイメモリ114からサンプリングされたシーケンス中の観察のための値推定に関する余分の価値関数回帰を実施することによって、追加のオフポリシー強化学習を実施する。
図1Bは、システム100の例示的な実装形態を示す。この実装形態において、行動選択ポリシーニューラルネットワーク(a)は、Volodymyr Mnihら、「Asynchronous methods for deep reinforcement learning」、Proceedings of the 33rd International Conference on Machine Learning、2016に記載されている、A3C損失を伴ってオンポリシーでトレーニングされる畳み込み長短期記憶(LSTM)ネットワークであり、ここで、Vは値推定を表し、πはポリシー出力を表す。補助制御ニューラルネットワーク(b)は、リプレイバッファからサンプリングされた経験に基づいてQ値ポリシー出力を生成する、ピクセル制御ニューラルネットワークである。報酬予測ニューラルネットワーク(c)は、リプレイバッファからサンプリングされた経験に基づいて報酬予測を生成し、ここで、rτは、時間ステップτにおける予測された報酬を表し、スキューされたサンプリングは、シーケンス中の最後の観察に後続する観察とともに受信された実際の報酬が0でないシーケンスが、シーケンス中の最後の観察に後続する観察とともに受信された実際の報酬が0であるシーケンスよりも、高い確率でサンプリングされた場合、リプレイメモリから経験タプルのシーケンスをサンプリングすることを指す。価値関数リプレイ(d)は、リプレイバッファからサンプリングされた経験に基づく、行動選択ポリシーニューラルネットワークのさらなる強化学習を示す。
図2は、補助制御ニューラルネットワークをトレーニングすることによって、行動選択ポリシーニューラルネットワークをトレーニングするための例示的なプロセス200の流れ図である。便宜上、プロセス200は、1つまたは複数のロケーションに位置する1つまたは複数のコンピュータのシステムによって実施されるものとして説明されることになる。たとえば、本明細書に従って適切にプログラムされた強化学習システム、たとえば、図1の強化学習システム100は、プロセス200を実施することができる。
システムは、経験タプルが生成されたときまたはリプレイメモリからのいずれかで、時間ステップのための経験タプルを取得し、ここで、経験タプルは、時間ステップにおける観察と、時間ステップにおけるエージェントの行動と、時間ステップにおいて受信された報酬と、次の時間ステップの観察とを含む(ステップ201)。
システムは、行動選択ポリシーニューラルネットワークへの入力として時間ステップにおける観察を提供し、補助制御ニューラルネットワークに対応する行動選択ポリシーニューラルネットワークの中間出力を生成し、補助制御ニューラルネットワークへの入力として中間出力を提供する(ステップ202)。いくつかの実装形態において、行動選択ポリシーニューラルネットワークの中間ニューラルネットワークは、リカレントニューラルネットワークであり、補助制御ニューラルネットワークに対応する中間出力は、時間ステップにおける観察のためにリカレントニューラルネットワークによって生成された中間表現である。いくつかの実装形態において、補助制御ニューラルネットワークに対応する中間出力は、時間ステップにおける観察のために行動選択ポリシーニューラルネットワークの畳み込みエンコーダニューラルネットワークによって生成された符号化表現である。
システムは時間ステップにおける補助タスク報酬を決定する(ステップ203)。
補助制御ニューラルネットワークが、ピクセル制御ニューラルネットワークである場合、観察は画像であり、ピクセル制御ニューラルネットワークは、観察の1つまたは複数の領域の各々のための補助タスク報酬に関連する。システムは、1つまたは複数の領域の各々のためのそれぞれの補助タスク報酬を、時間ステップにおける観察画像から次の時間ステップにおける観察画像への領域中のピクセルの強度の変化から導出する。たとえば、システムは、領域中のピクセルの平均強度の変化を算出することによって、時間ステップにおける観察画像から次の時間ステップにおける観察画像への領域中のピクセルの強度の変化を決定し得る。別の例として、システムは、領域中の個々のピクセルの強度の2乗差分和として、時間ステップにおける観察画像から次の時間ステップにおける観察画像への領域中のピクセルの強度の変化を決定し得る。システムは、観察画像を、観察画像にわたって配置されたn×nの重複しないグリッドによって画成された領域に分割することによって、観察画像の1つまたは複数の領域を決定し得る。いくつかの実装形態において、ピクセル制御ニューラルネットワークは、逆畳み込みニューラルネットワークである。
補助制御ニューラルネットワークが、特徴制御ニューラルネットワークである場合、特徴制御ニューラルネットワークは、行動選択ポリシーニューラルネットワークの1つまたは複数の隠れ層の1つまたは複数のユニットのセットの各々のための補助タスク報酬に関連する。たとえば、特徴制御ニューラルネットワークは、行動選択ポリシーニューラルネットワークの特定の隠れ層の各ユニットのための補助タスク報酬に関連し得、システムは、時間ステップにおける観察を処理する間に生成されたユニットの活性化と、次の時間ステップにおける観察を処理する間に生成されたユニットの活性化との間の差として、特定の隠れ層の固有のユニットに関連する補助タスク報酬を決定し得る。
補助制御ニューラルネットワークは、ポリシー出力を生成するために、行動選択ポリシーニューラルネットワークの中間出力を処理する(ステップ204)。
補助制御ニューラルネットワークは、各補助タスク報酬に対応するポリシー出力を生成する。補助制御ニューラルネットワークによって生成されるポリシー出力の具体的な形態は、補助制御ニューラルネットワークをトレーニングするために使用される強化学習技法に依存する。
強化学習技法がQ学習である場合、補助制御ニューラルネットワークによって生成されるポリシー出力は、各補助タスク報酬について、およびエージェントによって実施されるべき各可能な行動について、エージェントが観察の受信に応答して可能な行動を実施した場合の長期時間割引補助タスク報酬の推定である。
たとえば、強化学習技法がQ学習であり、補助制御ニューラルネットワークがピクセル制御ニューラルネットワークである場合、ポリシー出力は、Nact×n×nテンソルQであり得、ここで、Nactは、エージェントによって実施され得る可能な行動の数であり、Q(a,i,j)は、ピクセル制御ニューラルネットワークによって受信された入力に応答してエージェントが行動aを実施した場合の、観察画像にわたって配置されたn×nの重複しないグリッドの(i,j)番目の領域中のピクセルの長期時間割引変化の推定値である。
別の例として、補助制御ニューラルネットワークが特徴制御ニューラルネットワークである場合、ポリシー出力は、Nact×mテンソルQであり得、ここで、mは、行動選択ニューラルネットワークの特定の隠れ層中の隠れユニットの数であり、Q(a,k)は、特徴制御ニューラルネットワークによって受信された入力に応答してエージェントが可能な行動aを実施した場合の、ユニットkによって生成された活性化の長期時間割引変化の推定値である。
各補助タスク報酬について、システムは、補助タスク報酬と、補助タスク報酬のための補助制御ニューラルネットワークによって生成されたポリシー出力とに基づいてシステムが決定した勾配を、補助制御ニューラルネットワークおよび行動選択ポリシーニューラルネットワークにバックプロパゲートする(ステップ206)。概して、各補助タスク報酬について、システムは、勾配をバックプロパゲートして、予想される長期時間割引補助タスク報酬を最大にし、これは、システムが、補助タスク報酬に対応する補助制御ニューラルネットワークによって生成されたポリシー出力に従って、入力に応答して行動を選択することによって達成されることになる。システムによってバックプロパゲートされる勾配は、補助制御ニューラルネットワークをトレーニングするために使用される強化学習技法の具体的な選定に依存する。いくつかの実装形態において、システムは、ワンステップQ学習またはnステップQ学習など、補助制御ニューラルネットワークをトレーニングするためのオフポリシー強化学習技法を使用する。いくつかの他の実装形態において、システムは、各補助タスク報酬のための価値関数を学習する強化学習技法など、補助制御ニューラルネットワークをトレーニングするためのオンポリシー強化学習技法を使用する。
システムは、重み係数を各補助タスク報酬に関連付け得、システムが補助タスク報酬と補助タスク報酬のためのポリシー出力とに基づいてバックプロパゲートする勾配は、関連する重み係数によってスケーリングされ得る。
補助タスク報酬と補助制御ニューラルネットワークによって生成されたポリシー出力とに基づいてシステムが決定した勾配を、行動選択ポリシーニューラルネットワークにバックプロパゲートすることによって、システムは、(i)システムが補助制御ニューラルネットワークへの入力として提供する、行動選択ポリシーニューラルネットワークの中間出力の1つまたは複数の隠れ層の1つまたは複数のユニットと、(ii)システムが補助制御ニューラルネットワークへの入力として提供する、行動選択ポリシーニューラルネットワークの中間出力の1つまたは複数の隠れ層の1つまたは複数のユニットにフィードフォワードするユニットとに対応する、行動選択ポリシーニューラルネットワークのパラメータを調整する。
概して、補助制御ニューラルネットワークをトレーニングすることによって行動選択ニューラルネットワークをトレーニングするためのプロセス200は、複数の時間ステップの各々において繰り返す。その上、所与の時間ステップについて、プロセス200は、たとえば、リプレイメモリを繰り返しサンプリングすることによって、1回または複数回繰り返され得る。
図3は、報酬予測ニューラルネットワークをトレーニングすることによって、行動選択ポリシーニューラルネットワークをトレーニングするための例示的なプロセス300の流れ図である。便宜上、プロセス300は、1つまたは複数のロケーションに位置する1つまたは複数のコンピュータのシステムによって実施されるものとして説明されることになる。たとえば、本明細書に従って適切にプログラムされた強化学習システム、たとえば、図1の強化学習システム100は、プロセス300を実施することができる。
システムは、前の時間のシーケンスのための観察と、最後の観察に後続する観察とともに受信された実際の報酬とを含む、リプレイメモリ中の前の時間ステップからの経験タプルデータを取得する(ステップ301)。
いくつかの実装形態において、システムは、リプレイメモリから、シーケンス中の最後の観察に後続する観察とともに受信された実際の報酬が0でないシーケンスを、シーケンス中の最後の観察に後続する観察とともに受信された実際の報酬が0であるシーケンスよりも、高い確率でサンプリングする。たとえば、システムは、確率0.5を伴う、シーケンス中の最後の観察に後続する観察とともに受信された実際の報酬が0でないシーケンスをサンプリングする確率のように、シーケンスをサンプリングし得る。
システムは、観察のシーケンスを特徴づける1つまたは複数の中間出力を生成するために、行動選択ポリシーニューラルネットワークを使用して観察のシーケンスを処理する(ステップ302)。
いくつかの実装形態において、行動選択ポリシーニューラルネットワークの中間ニューラルネットワークは、リカレントニューラルネットワークであり、観察のシーケンスを特徴づける、行動選択ポリシーニューラルネットワークによって生成された1つまたは複数の中間出力は、シーケンス中の最後の観察のための、リカレントニューラルネットワークによって生成された中間表現である。
いくつかの他の実装形態において、観察のシーケンスを特徴づける、行動選択ポリシーニューラルネットワークによって生成された1つまたは複数の中間出力は、シーケンス中の観察のための、行動選択ポリシーニューラルネットワークの符号化表現である。
システムは、報酬予測ニューラルネットワークへの入力として、観察のシーケンスを特徴づける、行動選択ポリシーニューラルネットワークによって生成された1つまたは複数の中間出力を提供し、報酬予測ニューラルネットワークは、出力として、最後の観察に後続する観察とともに受信される報酬のための予測を生成するために、報酬予測ニューラルネットワークパラメータのセットに従って1つまたは複数の中間出力のシーケンスを処理する(ステップ304)。
システムは、報酬予測ニューラルネットワークによって生成された予測された報酬に基づいてシステムが決定した勾配を、報酬予測ニューラルネットワークおよび行動選択ポリシーニューラルネットワークにバックプロパゲートする(ステップ306)。概して、システムは、勾配をバックプロパゲートして、損失関数を最小限に抑える。いくつかの実装形態において、損失関数は、シーケンス中の最後の観察に後続する観察とともに受信された実際の報酬と、シーケンス中の最後の観察に後続する観察とともに受信された報酬のための予測との間の平均2乗誤差によって与えられる。いくつかの他の実装形態において、損失関数は、マルチクラスクロスエントロピー分類損失であり、ここで、3つのクラスは、正の報酬、負の報酬、および0報酬である。
システムは、報酬予測ニューラルネットワークによって生成された予測された報酬に基づいてシステムがバックプロパゲートする勾配を、重み係数によってスケーリングし得る。
報酬予測ニューラルネットワークによって生成された予測された報酬に基づいてシステムが決定した勾配を、行動選択ポリシーニューラルネットワークにバックプロパゲートすることによって、システムは、(i)システムが補助制御ニューラルネットワークへの入力として提供する、行動選択ポリシーニューラルネットワークの中間出力の1つまたは複数の隠れ層の1つまたは複数のユニットと、(ii)システムが補助制御ニューラルネットワークへの入力として提供する、行動選択ポリシーニューラルネットワークの中間出力の1つまたは複数の隠れ層の1つまたは複数のユニットにフィードフォワードするユニットとに対応する、行動選択ポリシーニューラルネットワークのパラメータを調整する。
たとえば、報酬予測ニューラルネットワークへの入力として提供される、1つまたは複数の連続する時間ステップのための観察のシーケンスを特徴づける、行動選択ポリシーニューラルネットワークによって生成された1つまたは複数の中間出力が、シーケンス中の観察のための符号化表現である場合、勾配を行動選択ポリシーニューラルネットワークにバックプロパゲートすることは、畳み込みエンコーダニューラルネットワークのパラメータを調整することを伴う。
概して、報酬予測ニューラルネットワークをトレーニングすることによって行動選択ニューラルネットワークをトレーニングするためのプロセス300は、複数の時間ステップの各々において繰り返す。その上、所与の時間ステップについて、プロセス300は、リプレイメモリを繰り返しサンプリングすることによって、1回または複数回繰り返される。
本明細書は、システムおよびコンピュータプログラム構成要素に関して「構成される」という用語を使用する。1つまたは複数のコンピュータのシステムが、特定の動作または行動を実施するように構成されることは、動作中、システムに動作または行動を実施させる、ソフトウェア、ファームウェア、ハードウェア、またはそれらの組合せを、システムがその上にインストールしたことを意味する。1つまたは複数のコンピュータプログラムが、特定の動作または行動を実施するように構成されることは、1つまたは複数のプログラムが、データ処理装置によって実行されたときにその装置に動作または行動を実施させる命令を含むことを意味する。
本明細書において説明された主題および機能的動作の実施形態は、本明細書において開示される構造およびそれらの構造等価物を含む、デジタル電子回路において、有形に具現化されたコンピュータソフトウェアまたはファームウェアにおいて、コンピュータハードウェアにおいて、あるいはそれらのうちの1つまたは複数の組合せにおいて実装され得る。
本明細書において説明された主題の実装形態は、1つまたは複数のコンピュータプログラムとして、すなわち、データ処理装置が実行するために有形非一時的記憶媒体上に符号化された、またはデータ処理装置の動作を制御するための、コンピュータプログラム命令の1つまたは複数のモジュールとして、実装され得る。コンピュータ記憶媒体は、機械可読記憶デバイス、機械可読記憶基板、ランダムまたはシリアルアクセスメモリデバイス、あるいはそれらのうちの1つまたは複数の組合せであり得る。代替的にまたは追加として、プログラム命令は、データ処理装置が実行するための好適な受信機装置への送信のための情報を符号化するために生成される、人工的に生成された伝搬される信号、たとえば、機械生成の電気信号、光信号、または電磁信号上に符号化され得る。
「データ処理装置」という用語は、データ処理ハードウェアを指し、例として、プログラマブルプロセッサ、コンピュータ、あるいは複数のプロセッサまたはコンピュータを含む、データを処理するためのすべての種類の装置、デバイス、および機械を包含する。装置はまた、専用論理回路、たとえば、FPGA(フィールドプログラマブルゲートアレイ)またはASIC(特定用途向け集積回路)であるか、あるいはそれをさらに含むことができる。装置は、ハードウェアに加えて、コンピュータプログラムのための実行環境を作成するコード、たとえば、プロセッサファームウェア、プロトコルスタック、データベース管理システム、オペレーティングシステム、またはそれらのうちの1つまたは複数の組合せをなすコードを随意に含むことができる。
プログラム、ソフトウェア、ソフトウェアアプリケーション、アプリ、モジュール、ソフトウェアモジュール、スクリプト、またはコードと呼ばれるか、あるいはそれらとして記述されることもある、コンピュータプログラムは、コンパイル型言語またはインタープリタ型言語、あるいは宣言型言語または手続き型言語を含む、任意の形態のプログラミング言語で書かれ得、それは、スタンドアロンプログラムとして、あるいはモジュール、構成要素、サブルーチン、またはコンピューティング環境において使用するのに好適な他のユニットとしてを含む、任意の形態において展開され得る。プログラムは、ファイルシステム中のファイルに対応し得るが、それに対応する必要はない。プログラムは、他のプログラムまたはデータ、たとえば、マークアップ言語ドキュメントに記憶された1つまたは複数のスクリプトを保持するファイルの一部分に、当該のプログラムに専用の単一のファイルに、あるいは複数の協調ファイル(Coordinated File)、たとえば、1つまたは複数のモジュール、サブプログラム、またはコードの部分を記憶するファイルに記憶され得る。コンピュータプログラムは、1つのコンピュータ上で実行されるように展開され得、あるいは1つのサイトに位置するかまたは複数のサイトにわたって分散され、データ通信ネットワークによって相互接続された、複数のコンピュータ上で実行されるように展開され得る。
本明細書において、「エンジン」という用語は、1つまたは複数の固有の機能を実施するようにプログラムされる、ソフトウェアベースのシステム、サブシステム、またはプロセスを指すために広く使用される。概して、エンジンは、1つまたは複数のロケーションにおける1つまたは複数のコンピュータ上にインストールされた、1つまたは複数のソフトウェアモジュールまたは構成要素として実装されることになる。場合によっては、1つまたは複数のコンピュータは、特定のエンジンに専用となり、他の場合には、複数のエンジンが、同じ1つまたは複数のコンピュータ上にインストールされ、その上で実行していることがある。
本明細書において説明されたプロセスおよび論理フローは、入力データに対して動作し、出力を生成することによって機能を実施するために、1つまたは複数のコンピュータプログラムを実行する、1つまたは複数のプログラマブルコンピュータによって実施され得る。プロセスおよび論理フローは、専用論理回路、たとえば、FPGAまたはASICによって、あるいは専用論理回路と1つまたは複数のプログラムされたコンピュータとの組合せによっても実施され得る。
コンピュータプログラムの実行に好適なコンピュータは、汎用マイクロプロセッサまたは専用マイクロプロセッサ、あるいはその両方、あるいは任意の他の種類の中央処理ユニットに基づき得る。概して、中央処理ユニットは、読取り専用メモリまたはランダムアクセスメモリ、あるいはその両方から、命令およびデータを受信することになる。コンピュータの必須の要素は、命令を実施または実行するための中央処理ユニットと、命令およびデータを記憶するための1つまたは複数のメモリデバイスとである。中央処理ユニットおよびメモリは、専用論理回路によって増補されるか、または専用論理回路に組み込まれ得る。概して、コンピュータはまた、データを記憶するための1つまたは複数の大容量記憶デバイス、たとえば、磁気ディスク、光磁気ディスク、または光ディスクを含むことになり、あるいは、それらからデータを受信するように、もしくはそれらにデータを転送するように、またはその両方を行うように動作可能に結合されることになる。ただし、コンピュータはそのようなデバイスを有する必要はない。その上、コンピュータは、別のデバイス、たとえば、ほんのいくつかの例を挙げれば、携帯電話、携帯情報端末(PDA)、モバイルオーディオまたはビデオプレーヤ、ゲーム機、全地球測位システム(GPS)受信機、あるいはポータブル記憶デバイス、たとえば、ユニバーサルシリアルバス(USB)フラッシュドライブ中に埋め込まれ得る。
コンピュータプログラム命令およびデータを記憶するのに好適なコンピュータ可読媒体は、例として、半導体メモリデバイス、たとえば、EPROM、EEPROM、およびフラッシュメモリデバイスと、磁気ディスク、たとえば、内蔵ハードディスクまたはリムーバブルディスクと、光磁気ディスクと、CD-ROMおよびDVD-ROMディスクとを含む、すべての形態の不揮発性メモリ、媒体およびメモリデバイスを含む。
ユーザとの対話を提供するために、本明細書において説明された主題の実施形態は、ユーザへの情報を表示するためのディスプレイデバイス、たとえば、CRT(陰極線管)またはLCD(液晶ディスプレイ)モニタと、ユーザがそれによってコンピュータに入力を与えることができるキーボードおよびポインティングデバイス、たとえば、マウスまたはトラックボールとを有するコンピュータ上で実装され得る。他の種類のデバイスも、ユーザとの対話を提供するために使用され得、たとえば、ユーザに提供されるフィードバックは、任意の形態の知覚フィードバック、たとえば、視覚フィードバック、聴覚フィードバック、または触覚フィードバックであり得、ユーザからの入力は、音響入力、音声入力、または触覚入力を含む、任意の形態において受信され得る。さらに、コンピュータは、ユーザによって使用されるデバイスにドキュメントを送ることと、そのデバイスからドキュメントを受信することとによって、たとえば、ウェブブラウザから受信された要求に応答してユーザのデバイス上のウェブブラウザにウェブページを送ることによって、ユーザと対話することができる。また、コンピュータは、テキストメッセージまたは他の形態のメッセージをパーソナルデバイス、たとえば、メッセージングアプリケーションを実行しているスマートフォンに送ることと、返信としてユーザからの応答メッセージを受信する、こととによって、ユーザと対話することができる。
機械学習モデルを実装するためのデータ処理装置はまた、たとえば、機械学習トレーニングまたは生成、すなわち、推論、作業負荷の、共通のおよび計算集約的な部分を処理するための専用ハードウェアアクセラレータユニットを含むことができる。
機械学習モデルは、機械学習フレームワーク、たとえば、TensorFlowフレームワーク、Microsoft Cognitive Toolkitフレームワーク、Apache Singaフレームワーク、またはApache MXNetフレームワークを使用して実装および展開され得る。
本明細書において説明された主題の実施形態は、たとえばデータサーバのようなバックエンド構成要素を含むコンピューティングシステムにおいて、またはミドルウェア構成要素、たとえばアプリケーションサーバを含むコンピューティングシステムにおいて、あるいはフロントエンド構成要素、たとえば、本明細書において説明された主題の実装形態とユーザがそれを通して対話することができる、グラフィカルユーザインターフェース、ウェブブラウザ、またはアプリを有するクライアントコンピュータを含むコンピューティングシステムにおいて、あるいは1つまたは複数のそのようなバックエンド構成要素、ミドルウェア構成要素、またはフロントエンド構成要素の任意の組合せにおいて実装され得る。システムの構成要素は、デジタルデータ通信、たとえば、通信ネットワークの任意の形態または媒体によって、相互接続され得る。通信ネットワークの例は、ローカルエリアネットワーク(LAN)と、ワイドエリアネットワーク(WAN)、たとえば、インターネットとを含む。
コンピューティングシステムは、クライアントとサーバとを含むことができる。クライアントとサーバとは、概して、互いから遠く離れており、一般に、通信ネットワークを通して対話する。クライアントとサーバとの関係は、それぞれのコンピュータ上で実行し、互いにクライアントサーバ関係を有する、コンピュータプログラムによって生じる。いくつかの実施形態において、サーバは、たとえば、クライアントとして働くデバイスと対話するユーザにデータを表示し、そのユーザからユーザ入力を受信する目的で、データ、たとえばHTMLページをユーザデバイスに送信する。ユーザデバイスにおいて生成されたデータ、たとえば、ユーザ対話の結果は、サーバにおいてデバイスから受信され得る。
本明細書は多くの特定の実装形態の詳細を含んでいるが、これらは、発明の範囲に対する限定、または請求され得るものの範囲に対する限定として解釈されるべきではなく、むしろ、特定の発明の特定の実施形態に固有であり得る特徴の説明として解釈されるべきである。また、別個の実施形態に関して本明細書において説明されたいくつかの特徴は、単一の実施形態における組合せで実装され得る。また、逆に、単一の実施形態に関して説明された様々な特徴は、複数の実施形態において別個に、または任意の好適な部分組合せで実装され得る。その上、特徴は、いくつかの組合せで働くものとして上記で説明され、初めにそのように請求されることさえあるが、請求される組合せからの1つまたは複数の特徴は、場合によってはその組合せから削除され得、請求される組合せは、部分組合せ、または部分組合せの変形形態を対象とし得る。
同様に、動作は特定の順序で図面に示され、特許請求の範囲に記載されているが、これは、望ましい結果を達成するために、そのような動作が、示される特定の順序でまたは連続した順序で実施されることを、あるいはすべての図示の動作が実施されることを必要とするものとして理解されるべきでない。いくつかの状況において、マルチタスキングおよび並列処理が有利であり得る。その上、上記で説明された実施形態における様々なシステムモジュールおよび構成要素の分離は、すべての実施形態においてそのような分離を必要とするものとして理解されるべきでなく、説明されたプログラム構成要素およびシステムは、概して、単一のソフトウェア製品において互いに一体化されるか、または複数のソフトウェア製品にパッケージングされ得ることを理解されたい。
主題の特定の実施形態が説明された。他の実施形態が以下の特許請求の範囲内に入る。たとえば、特許請求の範囲に記載の行為(action)は、異なる順序で実施され、依然として、望ましい結果を達成することができる。一例として、添付図に示されたプロセスは、望ましい結果を達成するために、必ずしも、示される特定の順序または連続した順序を必要とするとは限らない。場合によっては、マルチタスキングおよび並列処理が有利であり得る。
100 強化学習システム
102 環境
104 観察
106 報酬
108 エージェント
110 行動
112 行動選択ポリシーニューラルネットワーク
114 リプレイメモリ
116 サンプリングエンジン
118 ピクセル制御ニューラルネットワーク
120 特徴制御ニューラルネットワーク
122 報酬予測ニューラルネットワーク

Claims (20)

1つまたは複数のデータ処理装置によって実行される方法であって、
第1の強化学習技法を用いて行動選択ポリシーニューラルネットワークをトレーニングするステップであって、
前記行動選択ポリシーニューラルネットワークは、複数のネットワークパラメータを有し、環境と対話するエージェントによって実行されるべき行動を選択する際に使用され、
前記行動選択ポリシーニューラルネットワークは、観察入力を含む入力を受信することと、行動選択ポリシー出力を生成するために前記ネットワークパラメータに従って入力を処理することとを行うように構成され、
前記行動選択ポリシーニューラルネットワークをトレーニングするステップが、前記行動選択ポリシーネットワークパラメータの値を調整するステップを含む、トレーニングするステップと、
前記第1の強化学習技法を使用した、行動選択ポリシーニューラルネットワークのトレーニングの間において、
前記行動選択ポリシーニューラルネットワークのトレーニングの間に、前記環境との前記エージェントの対話に関する報酬予測ニューラルネットワークをトレーニングするステップであって、
前記報酬予測ニューラルネットワークが、報酬予測パラメータを有し、
前記環境との前記エージェントの対話の結果として受信された観察画像のシーケンスを特徴づける、前記行動選択ポリシーニューラルネットワークによって生成された1つまたは複数の中間出力を受信することと、
前記シーケンス中の最後の観察画像に後続する次の観察画像とともに受信されることになる報酬の推定である、予測された報酬を生成するために、前記報酬予測パラメータに従って、前記1つまたは複数の中間出力を処理することと
を行うように構成され、
前記報酬予測ニューラルネットワークをトレーニングするステップは、
前記報酬予測ニューラルネットワークによって生成された予測された報酬に基づいて、勾配を決定するステップと、
前記勾配を使用して、前記報酬予測パラメータおよび前記行動選択ポリシーネットワークパラメータの値を調整するステップとを含む、トレーニングするステップと
を含む、方法。
前記報酬予測ニューラルネットワークをトレーニングするステップが、
前記次の観察画像とともに受信される実際の報酬を受信するステップと、
前記実際の報酬と前記推定された報酬との間の損失を減少させるように前記報酬予測ニューラルネットワークをトレーニングするステップと
を含む、請求項1に記載の方法。
前記実際の報酬と前記推定された報酬との間の損失を減少させるように前記報酬予測ニューラルネットワークをトレーニングするステップは、前記行動選択ポリシーパラメータの値を調整するために、算出された勾配を前記行動選択ポリシーニューラルネットワークにバックプロパゲートするステップ
を含む、請求項2に記載の方法。
前記報酬予測ニューラルネットワークをトレーニングするステップが、リプレイメモリから観察のシーケンスをサンプリングするステップを含む、請求項1に記載の方法。
観察のシーケンスをサンプリングするステップは、
前記シーケンス中の前記最後の観察に後続する前記観察とともに受信された実際の報酬が0でないシーケンスを、前記シーケンス中の前記最後の観察に後続する前記観察とともに受信された前記実際の報酬が0であるシーケンスよりも、高い確率でサンプリングするステップを含む、請求項4に記載の方法。
前記第1の強化学習技法が、アクタークリティック強化学習技法であり、前記行動選択ポリシー出力が、値推定とQ値とを含み、前記方法が、
前記リプレイメモリから最近のシーケンスをリサンプリングするステップと、
前記リサンプリングされた最近のシーケンス中の前記観察画像のための前記値推定に関する余分の価値関数回帰を実行するステップと
をさらに含む、請求項4に記載の方法。
前記行動選択ポリシーニューラルネットワークは、
前記入力の符号化表現を生成する畳み込みエンコーダニューラルネットワークと、
前記入力の前記符号化表現を処理して中間表現を生成する中間ニューラルネットワークと、
前記中間表現を処理して前記行動選択出力を生成する出力ニューラルネットワークと
を含む、請求項1に記載の方法。
前記中間ニューラルネットワークは、リカレントニューラルネットワークであり、
前記観察画像のシーケンスを特徴付ける前記行動選択ポリシーニューラルネットワークにより生成される前記1つまたは複数の中間出力が、前記シーケンス内の最後の観察画像のための前記中間表現である、請求項7に記載の方法。
前記観察画像のシーケンスを特徴付ける前記行動選択ポリシーニューラルネットワークによって生成される前記1つまたは複数の中間出力が、前記シーケンス内の前記観察画像のための符号化表現である、請求項7に記載の方法。
システムであって、
1つまたは複数のコンピュータと、
前記1つまたは複数のコンピュータと通信可能に結合された1つまたは複数の記憶デバイスであって、複数の命令を記録する1つまたは複数の記憶デバイスと
を含み、前記複数の命令は、前記1つまたは複数のコンピュータにより実行されたときに、前記1つまたは複数のコンピュータに複数の動作を実行させ、前記複数の動作が、
第1の強化学習技法を用いて行動選択ポリシーニューラルネットワークをトレーニングする動作であって、
前記行動選択ポリシーニューラルネットワークは、複数のネットワークパラメータを有し、環境と対話するエージェントによって実行されるべき行動を選択する際に使用され、
前記行動選択ポリシーニューラルネットワークは、観察入力を含む入力を受信することと、行動選択ポリシー出力を生成するために前記ネットワークパラメータに従って入力を処理することとを行うように構成され、
前記行動選択ポリシーニューラルネットワークをトレーニングする動作が、前記行動選択ポリシーネットワークパラメータの値を調整する動作を含む、トレーニングする動作と、
前記第1の強化学習技法を使用した、行動選択ポリシーニューラルネットワークのトレーニングの間において、
前記行動選択ポリシーニューラルネットワークのトレーニングの間に、前記環境との前記エージェントの対話に関する報酬予測ニューラルネットワークをトレーニングする動作であって、
前記報酬予測ニューラルネットワークが、報酬予測パラメータを有し、
前記環境との前記エージェントの対話の結果として受信された観察画像のシーケンスを特徴づける、前記行動選択ポリシーニューラルネットワークによって生成された1つまたは複数の中間出力を受信することと、
シーケンス中の最後の観察画像に後続する次の観察画像とともに受信されることになる報酬の推定である、予測された報酬を生成するために、前記報酬予測パラメータに従って、前記1つまたは複数の中間出力を処理することと
を行うように構成され、
前記報酬予測ニューラルネットワークをトレーニングする動作は、
前記報酬予測ニューラルネットワークによって生成された予測された報酬に基づいて、勾配を決定する動作と、
前記勾配を使用して、前記報酬予測パラメータおよび前記行動選択ポリシーネットワークパラメータの値を調整する動作とを含む、トレーニングする動作と
を含む、システム。
前記報酬予測ニューラルネットワークをトレーニングする動作が、
前記次の観察画像とともに受信される実際の報酬を受信する動作と、
前記実際の報酬と前記推定された報酬との間の損失を減少させるように前記報酬予測ニューラルネットワークをトレーニングする動作と
を含む、請求項10に記載のシステム。
前記実際の報酬と前記推定された報酬との間の損失を減少させるように前記報酬予測ニューラルネットワークをトレーニングする動作は、前記行動選択ポリシーパラメータの値を調整するために、算出された勾配を前記行動選択ポリシーニューラルネットワークにバックプロパゲートする動作を含む、請求項11に記載のシステム。
前記報酬予測ニューラルネットワークをトレーニングする動作が、リプレイメモリから観察のシーケンスをサンプリングする動作を含む、請求項10に記載のシステム。
観察のシーケンスをサンプリングする動作は、
前記シーケンス中の前記最後の観察に後続する前記観察とともに受信された実際の報酬が0でないシーケンスを、前記シーケンス中の前記最後の観察に後続する前記観察とともに受信された前記実際の報酬が0であるシーケンスよりも、高い確率でサンプリングする動作を含む、請求項13に記載のシステム。
前記第1の強化学習技法が、アクタークリティック強化学習技法であり、前記行動選択ポリシー出力が、値推定とQ値とを含み、前記複数の動作が、
前記リプレイメモリから最近のシーケンスをリサンプリングする動作と、
前記リサンプリングされた最近のシーケンス中の前記観察画像のための前記値推定に関する余分の価値関数回帰を実行する動作と
をさらに含む、請求項13に記載のシステム。
複数の命令を記録する1つまたは複数の非一時的コンピュータ記録媒体であって、
前記複数の命令は、1つまたは複数のコンピュータにより実行されたときに、前記1つまたは複数のコンピュータに複数の動作を実行させ、前記複数の動作が、
第1の強化学習技法を用いて行動選択ポリシーニューラルネットワークをトレーニングする動作であって、
前記行動選択ポリシーニューラルネットワークは、複数のネットワークパラメータを有し、環境と対話するエージェントによって実行されるべき行動を選択する際に使用され、
前記行動選択ポリシーニューラルネットワークは、観察入力を含む入力を受信することと、行動選択ポリシー出力を生成するために前記ネットワークパラメータに従って入力を処理することとを行うように構成され、
前記行動選択ポリシーニューラルネットワークをトレーニングする動作が、前記行動選択ポリシーネットワークパラメータの値を調整する動作を含む、トレーニングする動作と、
前記第1の強化学習技法を使用した、行動選択ポリシーニューラルネットワークのトレーニングの間において、
前記行動選択ポリシーニューラルネットワークのトレーニングの間に、前記環境との前記エージェントの対話に関する報酬予測ニューラルネットワークをトレーニングする動作であって、
前記報酬予測ニューラルネットワークが、報酬予測パラメータを有し、
前記環境との前記エージェントの対話の結果として受信された観察画像のシーケンスを特徴づける、前記行動選択ポリシーニューラルネットワークによって生成された1つまたは複数の中間出力を受信することと、
シーケンス中の最後の観察画像に後続する次の観察画像とともに受信されることになる報酬の推定である、予測された報酬を生成するために、前記報酬予測パラメータに従って、前記1つまたは複数の中間出力を処理することと
を行うように構成され、
前記報酬予測ニューラルネットワークをトレーニングする動作は、
前記報酬予測ニューラルネットワークによって生成された予測された報酬に基づいて、勾配を決定する動作と、
前記勾配を使用して、前記報酬予測パラメータおよび前記行動選択ポリシーネットワークパラメータの値を調整する動作とを含む、トレーニングする動作と
を含む、1つまたは複数の非一時的コンピュータ記録媒体。
前記報酬予測ニューラルネットワークをトレーニングする動作が、
前記次の観察画像とともに受信される実際の報酬を受信する動作と、
前記実際の報酬と前記推定された報酬との間の損失を減少させるように前記報酬予測ニューラルネットワークをトレーニングする動作と
を含む、請求項16に記載の1つまたは複数の非一時的コンピュータ記録媒体。
前記実際の報酬と前記推定された報酬との間の損失を減少させるように前記報酬予測ニューラルネットワークをトレーニングする動作は、前記行動選択ポリシーパラメータの値を調整するために、算出された勾配を前記行動選択ポリシーニューラルネットワークにバックプロパゲートする動作を含む、請求項17に記載の1つまたは複数の非一時的コンピュータ記録媒体。
前記報酬予測ニューラルネットワークをトレーニングする動作が、リプレイメモリから観察のシーケンスをサンプリングする動作を含む、請求項16に記載の1つまたは複数の非一時的コンピュータ記録媒体。
前記第1の強化学習技法が、アクタークリティック強化学習技法であり、前記行動選択ポリシー出力が、値推定とQ値とを含み、前記複数の動作が、
前記リプレイメモリから最近のシーケンスをリサンプリングする動作と、
前記リサンプリングされた最近のシーケンス中の前記観察画像のための前記値推定に関する余分の価値関数回帰を実行する動作と
をさらに含む、請求項19に記載の1つまたは複数の非一時的コンピュータ記録媒体。
JP2021127570A 2016-11-04 2021-08-03 補助タスクを伴う強化学習 Active JP7235813B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201662418120P 2016-11-04 2016-11-04
US62/418,120 2016-11-04
JP2019523801A JP6926203B2 (ja) 2016-11-04 2017-11-04 補助タスクを伴う強化学習

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2019523801A Division JP6926203B2 (ja) 2016-11-04 2017-11-04 補助タスクを伴う強化学習

Publications (2)

Publication Number Publication Date
JP2021185492A true JP2021185492A (ja) 2021-12-09
JP7235813B2 JP7235813B2 (ja) 2023-03-08

Family

ID=60543606

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2019523801A Active JP6926203B2 (ja) 2016-11-04 2017-11-04 補助タスクを伴う強化学習
JP2021127570A Active JP7235813B2 (ja) 2016-11-04 2021-08-03 補助タスクを伴う強化学習

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2019523801A Active JP6926203B2 (ja) 2016-11-04 2017-11-04 補助タスクを伴う強化学習

Country Status (7)

Country Link
US (3) US10956820B2 (ja)
EP (1) EP3535705B1 (ja)
JP (2) JP6926203B2 (ja)
KR (1) KR102424893B1 (ja)
CN (1) CN110114783B (ja)
DK (1) DK3535705T3 (ja)
WO (1) WO2018083671A1 (ja)

Families Citing this family (67)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3872715A1 (en) 2015-11-12 2021-09-01 Deepmind Technologies Limited Asynchronous deep reinforcement learning
CN117910543A (zh) * 2015-11-12 2024-04-19 渊慧科技有限公司 使用优先化经验存储器训练神经网络
CN110088775B (zh) * 2016-11-04 2023-11-07 渊慧科技有限公司 使用加强学习的环境预测
JP6926203B2 (ja) * 2016-11-04 2021-08-25 ディープマインド テクノロジーズ リミテッド 補助タスクを伴う強化学習
US11604997B2 (en) * 2017-06-09 2023-03-14 Deepmind Technologies Limited Training action selection neural networks using leave-one-out-updates
KR102100350B1 (ko) * 2017-10-16 2020-04-14 농업회사법인 상상텃밭 주식회사 온실 시스템의 제어 모델 생성 방법
US20210192357A1 (en) * 2018-05-17 2021-06-24 Magic Leap, Inc. Gradient adversarial training of neural networks
WO2019219969A1 (en) * 2018-05-18 2019-11-21 Deepmind Technologies Limited Graph neural network systems for behavior prediction and reinforcement learning in multple agent environments
US11600387B2 (en) 2018-05-18 2023-03-07 Htc Corporation Control method and reinforcement learning for medical system
US11086674B2 (en) 2018-05-25 2021-08-10 Royal Bank Of Canada Trade platform with reinforcement learning network and matching engine
WO2019241145A1 (en) 2018-06-12 2019-12-19 Intergraph Corporation Artificial intelligence applications for computer-aided dispatch systems
CN109239661A (zh) * 2018-09-18 2019-01-18 广西大学 一种基于深度q网络的rfid室内定位系统及算法
US20200097811A1 (en) * 2018-09-25 2020-03-26 International Business Machines Corporation Reinforcement learning by sharing individual data within dynamic groups
JP7160957B2 (ja) * 2018-09-27 2022-10-25 ディープマインド テクノロジーズ リミテッド モデルフリー強化学習のためのスタック型畳み込み長/短期メモリ
US11663441B2 (en) 2018-09-27 2023-05-30 Deepmind Technologies Limited Action selection neural network training using imitation learning in latent space
US11295174B2 (en) * 2018-11-05 2022-04-05 Royal Bank Of Canada Opponent modeling with asynchronous methods in deep RL
US11574148B2 (en) 2018-11-05 2023-02-07 Royal Bank Of Canada System and method for deep reinforcement learning
WO2020122985A1 (en) * 2018-12-10 2020-06-18 Interactive-Al, Llc Neural modulation codes for multilingual and style dependent speech and language processing
US11313950B2 (en) 2019-01-15 2022-04-26 Image Sensing Systems, Inc. Machine learning based highway radar vehicle classification across multiple lanes and speeds
US11074480B2 (en) * 2019-01-31 2021-07-27 StradVision, Inc. Learning method and learning device for supporting reinforcement learning by using human driving data as training data to thereby perform personalized path planning
DE102019105280A1 (de) * 2019-03-01 2020-09-03 Friedrich-Alexander-Universität Erlangen-Nürnberg Autonomes selbstlernendes System
KR102267316B1 (ko) * 2019-03-05 2021-06-21 네이버랩스 주식회사 심층 강화 학습에 기반한 자율주행 에이전트의 학습 방법 및 시스템
US11816591B2 (en) 2019-03-20 2023-11-14 Sony Group Corporation Reinforcement learning through a double actor critic algorithm
US11308362B2 (en) * 2019-03-26 2022-04-19 Shenzhen Keya Medical Technology Corporation Method and system for generating a centerline for an object, and computer readable medium
US11587552B2 (en) 2019-04-30 2023-02-21 Sutherland Global Services Inc. Real time key conversational metrics prediction and notability
KR20220016171A (ko) * 2019-07-08 2022-02-08 구글 엘엘씨 기계 학습을 사용한 셀룰러 네트워크 최적화
KR102082113B1 (ko) * 2019-07-23 2020-02-27 주식회사 애자일소다 데이터 기반 강화 학습 장치 및 방법
US11676064B2 (en) * 2019-08-16 2023-06-13 Mitsubishi Electric Research Laboratories, Inc. Constraint adaptor for reinforcement learning control
KR102155055B1 (ko) * 2019-10-28 2020-09-11 라온피플 주식회사 강화학습 기반 신호 제어 장치 및 신호 제어 방법
CN110852438B (zh) * 2019-11-11 2023-08-04 北京百度网讯科技有限公司 模型生成方法和装置
US20210158196A1 (en) * 2019-11-25 2021-05-27 Deepmind Technologies Limited Non-stationary delayed bandits with intermediate signals
KR102173579B1 (ko) * 2019-12-02 2020-11-03 한국기술교육대학교 산학협력단 연합강화학습을 통한 다중 디바이스 제어 시스템 및 그 방법
US11579575B2 (en) * 2019-12-03 2023-02-14 Baidu Usa Llc Inverse reinforcement learning with model predictive control
CN111026272B (zh) * 2019-12-09 2023-10-31 网易(杭州)网络有限公司 虚拟对象行为策略的训练方法及装置、电子设备、存储介质
CN111130698B (zh) * 2019-12-26 2022-05-31 南京中感微电子有限公司 无线通信接收窗口预测方法、装置及无线通信设备
EP4100884A1 (en) * 2020-02-07 2022-12-14 DeepMind Technologies Limited Recurrent unit for generating or processing a sequence of images
KR102440817B1 (ko) * 2020-02-19 2022-09-06 사회복지법인 삼성생명공익재단 기록된 데이터에서 인과성을 식별하는 강화학습 방법, 장치 및 프로그램
KR102100688B1 (ko) * 2020-02-19 2020-04-14 주식회사 애자일소다 한도 소진률을 높이기 위한 데이터 기반 강화 학습 장치 및 방법
KR102100686B1 (ko) * 2020-02-19 2020-04-14 주식회사 애자일소다 손실률을 낮추기 위한 데이터 기반 강화 학습 장치 및 방법
CN111416774B (zh) * 2020-03-17 2023-03-21 深圳市赛为智能股份有限公司 网络拥塞控制方法、装置、计算机设备及存储介质
CN111461325B (zh) * 2020-03-30 2023-06-20 华南理工大学 一种用于稀疏奖励环境问题的多目标分层强化学习算法
SG11202102364YA (en) * 2020-04-02 2021-04-29 Alipay Hangzhou Inf Tech Co Ltd Determining action selection policies of an execution device
KR102195433B1 (ko) * 2020-04-07 2020-12-28 주식회사 애자일소다 학습의 목표와 보상을 연계한 데이터 기반 강화 학습 장치 및 방법
KR102272501B1 (ko) * 2020-04-24 2021-07-01 연세대학교 산학협력단 분산 강화 학습 장치 및 방법
CN111496794B (zh) * 2020-04-29 2022-04-01 华中科技大学 一种基于仿真工业机器人的运动学自抓取学习方法和系统
CN111666149B (zh) * 2020-05-06 2023-04-07 西北工业大学 基于深度强化学习的超密边缘计算网络移动性管理方法
KR20220154785A (ko) 2020-06-05 2022-11-22 딥마인드 테크놀로지스 리미티드 다중 태스크 강화 학습에서 메타-그래디언트를 사용한 액션 선택을 위한 학습 옵션
US11528347B2 (en) * 2020-06-25 2022-12-13 Nokia Solutions And Networks Oy Inter-packet communication of machine learning information
CN111882030B (zh) * 2020-06-29 2023-12-05 武汉钢铁有限公司 一种基于深度强化学习的加锭策略方法
CN111818570B (zh) * 2020-07-25 2022-04-01 清华大学 一种面向真实网络环境的智能拥塞控制方法及系统
DE102020209685B4 (de) 2020-07-31 2023-07-06 Robert Bosch Gesellschaft mit beschränkter Haftung Verfahren zum steuern einer robotervorrichtung und robotervorrichtungssteuerung
CN112002321B (zh) * 2020-08-11 2023-09-19 海信电子科技(武汉)有限公司 显示设备、服务器及语音交互方法
CN113422751B (zh) * 2020-08-27 2023-12-05 阿里巴巴集团控股有限公司 基于在线强化学习的流媒体处理方法、装置及电子设备
KR102345267B1 (ko) * 2020-10-12 2021-12-31 서울대학교산학협력단 목표 지향적 강화학습 방법 및 이를 수행하기 위한 장치
CN112347104B (zh) * 2020-11-06 2023-09-29 中国人民大学 一种基于深度强化学习的列存储布局优化方法
CN112541835A (zh) * 2020-12-08 2021-03-23 香港中文大学(深圳) 一种基于混合模型的风电场控制学习方法
CN112949988B (zh) * 2021-02-01 2024-01-05 浙江大学 一种基于强化学习的服务流程构造方法
KR102599363B1 (ko) * 2021-02-04 2023-11-09 박근식 사용자기반의 ai에너지 절감 및 수요예측시스템
GB2604640A (en) * 2021-03-12 2022-09-14 Samsung Electronics Co Ltd Performing a processing task instructed by an application
US20220303191A1 (en) * 2021-03-18 2022-09-22 Nokia Solutions And Networks Oy Network management
WO2022199792A1 (en) * 2021-03-22 2022-09-29 Telefonaktiebolaget Lm Ericsson (Publ) Reward estimation for a target policy
CN113242469B (zh) * 2021-04-21 2022-07-12 南京大学 一种自适应视频传输配置方法和系统
CN113420806B (zh) * 2021-06-21 2023-02-03 西安电子科技大学 一种人脸检测质量评分方法及系统
WO2023023848A1 (en) * 2021-08-24 2023-03-02 Royal Bank Of Canada System and method for machine learning architecture with multiple policy heads
CN113810954B (zh) * 2021-09-08 2023-12-29 国网宁夏电力有限公司信息通信公司 基于流量预测与深度强化学习的虚拟资源动态扩缩容方法
CN116330310B (zh) * 2023-02-14 2023-11-07 河南泽远网络科技有限公司 一种低延时机器人交互方法
CN116453706B (zh) * 2023-06-14 2023-09-08 之江实验室 一种基于强化学习的血液透析方案制定方法及系统

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6926203B2 (ja) * 2016-11-04 2021-08-25 ディープマインド テクノロジーズ リミテッド 補助タスクを伴う強化学習

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8345962B2 (en) 2007-11-29 2013-01-01 Nec Laboratories America, Inc. Transfer learning methods and systems for feed-forward visual recognition systems
KR20100112742A (ko) * 2009-04-10 2010-10-20 경기대학교 산학협력단 강화 학습을 위한 행위-기반 구조
US9679258B2 (en) * 2013-10-08 2017-06-13 Google Inc. Methods and apparatus for reinforcement learning
US10445641B2 (en) * 2015-02-06 2019-10-15 Deepmind Technologies Limited Distributed training of reinforcement learning systems
US10628733B2 (en) * 2015-04-06 2020-04-21 Deepmind Technologies Limited Selecting reinforcement learning actions using goals and observations
FR3052457B1 (fr) 2016-06-14 2018-06-22 Bostik Sa Compositions adhesives a base de polymeres silyles reticulables

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6926203B2 (ja) * 2016-11-04 2021-08-25 ディープマインド テクノロジーズ リミテッド 補助タスクを伴う強化学習

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
TEJAS D. KULKARNI, ET AL.: "Deep Successor Reinforcement Learning", ARXIV.ORG, vol. v1, JPN6022039910, 8 June 2016 (2016-06-08), ISSN: 0004877488 *

Also Published As

Publication number Publication date
US20210182688A1 (en) 2021-06-17
US20240144015A1 (en) 2024-05-02
CN110114783B (zh) 2023-07-18
US10956820B2 (en) 2021-03-23
KR20190069582A (ko) 2019-06-19
CN110114783A (zh) 2019-08-09
JP6926203B2 (ja) 2021-08-25
EP3535705A1 (en) 2019-09-11
JP7235813B2 (ja) 2023-03-08
WO2018083671A1 (en) 2018-05-11
DK3535705T3 (da) 2022-05-30
US20190258938A1 (en) 2019-08-22
US11842281B2 (en) 2023-12-12
JP2019534517A (ja) 2019-11-28
KR102424893B1 (ko) 2022-07-25
EP3535705B1 (en) 2022-03-30

Similar Documents

Publication Publication Date Title
JP6926203B2 (ja) 補助タスクを伴う強化学習
JP6935550B2 (ja) 強化学習を使用した環境ナビゲーション
CN110326004B (zh) 使用路径一致性学习训练策略神经网络
US10706352B2 (en) Training action selection neural networks using off-policy actor critic reinforcement learning
JP7258965B2 (ja) ニューラルネットワークを使用する強化学習のための行動選択
CN110520868B (zh) 用于分布式强化学习的方法、程序产品和存储介质
JP6917508B2 (ja) 強化学習を用いた環境予測
US11868866B2 (en) Controlling agents using amortized Q learning
US11200482B2 (en) Recurrent environment predictors

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210902

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220815

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220920

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221220

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230130

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230224

R150 Certificate of patent or registration of utility model

Ref document number: 7235813

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150