JP2019517074A - 疑似カウントを使用する強化学習 - Google Patents

疑似カウントを使用する強化学習 Download PDF

Info

Publication number
JP2019517074A
JP2019517074A JP2018560871A JP2018560871A JP2019517074A JP 2019517074 A JP2019517074 A JP 2019517074A JP 2018560871 A JP2018560871 A JP 2018560871A JP 2018560871 A JP2018560871 A JP 2018560871A JP 2019517074 A JP2019517074 A JP 2019517074A
Authority
JP
Japan
Prior art keywords
reward
observation
agent
action
environment
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018560871A
Other languages
English (en)
Other versions
JP6667674B2 (ja
Inventor
マーク・ゲンドロン−ベルメア
レミ・ムノス
スリニヴァサン・スリラム
Original Assignee
ディープマインド テクノロジーズ リミテッド
ディープマインド テクノロジーズ リミテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ディープマインド テクノロジーズ リミテッド, ディープマインド テクノロジーズ リミテッド filed Critical ディープマインド テクノロジーズ リミテッド
Publication of JP2019517074A publication Critical patent/JP2019517074A/ja
Application granted granted Critical
Publication of JP6667674B2 publication Critical patent/JP6667674B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F17/00Digital computing or data processing equipment or methods, specially adapted for specific functions
    • G06F17/10Complex mathematical operations
    • G06F17/18Complex mathematical operations for evaluating statistical data, e.g. average values, frequency distributions, probability functions, regression analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/004Artificial life, i.e. computing arrangements simulating life
    • G06N3/006Artificial life, i.e. computing arrangements simulating life based on simulated virtual individual or collective life forms, e.g. social simulations or particle swarm optimisation [PSO]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/047Probabilistic or stochastic networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Evolutionary Computation (AREA)
  • Biomedical Technology (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Probability & Statistics with Applications (AREA)
  • Mathematical Analysis (AREA)
  • Pure & Applied Mathematics (AREA)
  • Computational Mathematics (AREA)
  • Mathematical Optimization (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Biology (AREA)
  • Operations Research (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Algebra (AREA)
  • Databases & Information Systems (AREA)
  • Image Analysis (AREA)
  • User Interface Of Digital Computer (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

環境とインタラクションするエージェントによって実行されるべき行動を選択するために使用されるニューラルネットワークをトレーニングするための、コンピュータ記憶媒体上に符号化されたコンピュータプログラムを含む方法、システムおよび装置。方法のうちの1つは、(i)環境の第1の状態を特徴付ける第1の観察値、(ii)第1の観察値に応答してエージェントによって実行される行動、および(iii)第1の観察値に応答してエージェントが行動を実行することに起因して受信された実際の報酬、を識別するデータを取得するステップと、第1の観察値に対する疑似カウントを決定するステップと、第1の観察値に対する疑似カウントから環境を探求するようにエージェントを動機付ける探求報酬ボーナスを決定するステップと、実際の報酬および探求報酬ボーナスから組み合わされた報酬を生成するステップと、組み合わされた報酬を使用してニューラルネットワークのパラメータの現在の値を調整するステップとを含む。

Description

関連出願の相互参照
本出願は、全内容が参照により本明細書に組み込まれる、2016年5月20日に出願された米国仮特許出願第62/339,778号の非仮出願であり、その優先権を主張する。
本明細書は強化学習に関する。
強化学習システムでは、エージェントは、環境の現在の状態を特徴付ける観察値を受信したことに応答して、強化学習システムによって選択された行動を実行することによって環境とインタラクションする。
いくつかの強化学習システムは、ニューラルネットワークの出力に従って所与の観察値を受信したことに応答して、エージェントによって実行されるべき行動を選択する。
ニューラルネットワークは、受信された入力に対する出力を予測するために非線形ユニットの1つまたは複数の層を採用する機械学習モデルである。いくつかのニューラルネットワークは、出力層に加えて1つまたは複数の隠れ層を含む深層ニューラルネットワークである。各隠れ層の出力は、ネットワーク内の次の層、すなわち次の隠れ層または出力層への入力として使用される。ネットワークの各層は、それぞれのパラメータのセットの現在の値に従って、受信された入力から出力を生成する。
Bellemare, M.、Veness, J.、およびTalvitie, E. (2014)、"Skip context tree switching."、機械学習についての第31回国際会議の議事録、1458〜1466頁
本明細書は、1つまたは複数のロケーション内の1つまたは複数のコンピュータ上にコンピュータプログラムとして実装されたシステムが、受信された観察値に応答して環境とインタラクションするエージェントによって実行されるべき行動を選択するために使用されるニューラルネットワークのパラメータをどのように調整可能かについて説明する。
第1の態様によれば、環境とインタラクションするエージェントによって実行されるべき作動を選択するために使用されるニューラルネットワークをトレーニングするための方法が提供される。本方法は、(i)環境の第1の状態を特徴付ける第1の観察値、(ii)第1の観察値に応答してエージェントによって実行される行動、および(iii)第1の観察値に応答してエージェントが行動を実行することに起因して受信された実際の報酬を識別するデータを取得するステップを含む。本方法は、第1の観察値に対する疑似カウントを決定するステップと、第1の観察値に対する疑似カウントから環境を探求するようにエージェントを動機付ける探求報酬ボーナスを決定するステップと、実際の報酬および探求報酬ボーナスから組み合わされた報酬を生成するステップと、組み合わされた報酬を使用してニューラルネットワークのパラメータの現在の値を調整するステップとをさらに含む。
一実装形態では、疑似カウントは、第1の観察値に応答して行動を取ることの効果の確かさについて推定される尺度である。
一実装形態では、パラメータの現在の値を調整することは、強化学習技法の反復を実行することにおいて、実際の報酬の代わりに組み合わされた報酬を使用することを含む。
一実装形態では、強化学習技法は、モンテカルロリターン内で混合されるダブルDQN技法である。
一実装形態では、強化学習技法はアクター−クリティック(actor-critic)技法である。
一実装形態では、組み合わされた報酬を生成することは、実際の報酬と探求報酬ボーナスとを合計することを含む。
一実装形態では、探求報酬ボーナスRBは、
Figure 2019517074
を満足し、ここでxは第1の観察値であり、
Figure 2019517074
は第1の観察値に対する疑似カウントであり、aおよびbは定数であり、βはパラメータスイープによって選択されたパラメータである。
一実装形態では、第1の観察値に対する疑似カウント
Figure 2019517074

Figure 2019517074
の形態であり、ここでρn(x)は第1の観察値に対するシーケンシャル密度モデルの値であり、ρ'n(x)は第1の観察値に対する再コーディング確率である。
一実装形態では、再コーディング確率は、第1の観察値の新しい発生を観察した後のシーケンシャル密度モデルの値である。
一実装形態では、シーケンシャル密度モデルは、ピクセルレベルの密度モデルである。
第2の態様によれば、1つまたは複数のコンピュータと、命令を記憶する1つまたは複数の記憶デバイスとを備えるシステムが提供され、命令は、1つまたは複数のコンピュータによって実行されたとき、第1の態様による方法の動作を1つまたは複数のコンピュータに実行させるように動作可能である。
第3の態様によれば、命令によって符号化されるコンピュータ記憶媒体が提供され、命令は、1つまたは複数のコンピュータによって実行されたとき、第1の態様による方法の動作を1つまたは複数のコンピュータに実行させる。
本明細書で説明する主題は、以下の優位のうちの1つまたは複数を実現するために特定の実装形態において実装されてもよい。強化学習システムは、タスクを完了するために行動空間内のエージェントによって、すなわち疑似カウント法を使用してトレーニングされるニューラルネットワークを使用することによって、実行されるべき行動を効率的に選択することができる。行動空間は、エージェントがインタラクションすることができる実世界の環境であってもよい。特に、システムは、組み合わされた報酬を生成するために、シーケンシャル密度モデルから導出される疑似カウントに逆比例するボーナス報酬と、エージェントが行動を実行することに起因する実際の報酬とを組み合わせる。次いで、システムは、エージェントによって実行されるべき行動を選択するためにニューラルネットワークをトレーニングするために組み合わされた報酬を使用する。このようにしてトレーニングされると、ニューラルネットワークは、環境をより全面的に探求するようにエージェントを動機付ける(たとえば、頻繁には観察されなかった観察値を探求するようにエージェントを促す)ことができ、したがって、より少ないトレーニング反復数を必要としながら、探求結果を改善することができる。疑似カウントを使用してニューラルネットワークをトレーニングすることによって、システムは、エージェントが環境を探求するための行動を選択するのに必要な計算時間とリソースとを低減することができる。
本方法は、ロボットなどのエージェントまたは自律的もしくは半自律的車両が、それの実世界の環境とのインタラクションを改善できるという利点を有する。たとえば、本方法は、特定のタスクの達成または環境を通るナビゲーションもしくは環境の観察値の改善を可能にすることができる。
本明細書の主題の1つまたは複数の実施形態の詳細が、添付の図面および以下の説明において説明される。主題の他の特徴、態様、および利点は、説明、図面および特許請求の範囲から明白となろう。
例示的な強化学習システムを示す図である。 環境とインタラクションするエージェントによって実行されるべき行動を選択するために使用される、ニューラルネットワークをトレーニングするための例示的なプロセスのフロー図である。 組み合わされた報酬を生成するための例示的なプロセスのフロー図である。
様々な図における同様の参照番号および記号は、同様の要素を示す。
本明細書は、一般にニューラルネットワークを使用することによって環境とインタラクションする強化学習エージェントによって実行されるべき行動を選択する強化学習システムについて説明する。環境とインタラクションするために、エージェントは、環境の現在の状態を特徴付けるデータを受信し、受信されたデータに応答して、行動空間、すなわち離散的行動空間または連続的行動空間から行動を実行する。環境の状態を特徴付けるデータは、本明細書では観察値と呼ばれる。
いくつかの実装形態では、環境は実世界の環境であり、エージェントは実世界の環境とインタラクションする機械的エージェントである。たとえば、エージェントは、特定のタスクを達成するために環境とインタラクションするロボットであってもよい。別の例として、エージェントは、環境を通り抜ける自律的または半自律的車両であってもよい。これらの場合、観察値は、機械的エージェントが環境とインタラクションするときに機械的エージェントの1つまたは複数のセンサ、たとえばカメラ、LIDARセンサ、温度センサなどによって捕捉されたデータであってもよい。
他の実装形態では、環境はシミュレートされた環境であり、エージェントは、シミュレートされた環境とインタラクションする1つまたは複数のコンピュータとして実装される。たとえば、シミュレートされた環境はビデオゲームであってもよく、エージェントは、ビデオゲームをプレイするシミュレートされたユーザであってもよい。
図1は、例示的な強化学習システム100を示す。強化学習システム100は、以下で説明するシステム、構成要素および技法が実装される1つまたは複数のロケーションにおける1つまたは複数のコンピュータ上にコンピュータプログラムとして実装されたシステムの一例である。
強化学習システム100は、環境104とインタラクションする強化学習エージェント102によって実行されるべき行動を選択する。すなわち、強化学習システム100は、各観察値が環境104のそれぞれの状態を特徴付ける複数の観察値を受信し、観察値に応答して強化学習エージェント102によって実行されるべき行動空間から行動を選択し、次いで選択された行動を実行することをエージェント102に指示するかまたは場合によっては行わせる。エージェント102が選択された行動を実行した後、環境104は新しい状態に遷移し、システム100は、環境104の次の状態を特徴付ける別の観察値と報酬とを受信する。報酬は、エージェント102が選択された行動を実行した結果として、環境104からシステム100またはエージェント102によって受信される数値であってもよい。すなわち、システム100によって受信された報酬は、一般に選択された行動を実行するエージェント102によって生じた状態の遷移の結果に応じて変化する。たとえば、エージェント102によって実行されるタスクの完了により近い状態への遷移は、エージェント102によって実行されるタスクの完了からより遠い状態への遷移よりも高い報酬が、システム100によって受信される結果をもたらす場合がある。
特に、行動を選択するために、強化学習システム100は、ニューラルネットワーク110を含む。一般に、ニューラルネットワーク110は、観察値を受信し、観察値に応答してエージェントによって実行されるべき行動を規定する出力を生成するように、観察値を処理するように構成されたニューラルネットワークである。
いくつかの実装形態では、ニューラルネットワーク110は、観察値および行動を受信し、行動が、エージェントがタスクを完了する機会を最大化する行動である確率を表す確率を出力するニューラルネットワークである。
いくつかの実装形態では、ニューラルネットワーク110は、観察値を受信し、可能な行動にわたって確率分布を規定する出力を生成するニューラルネットワークであって、各行動に対する確率は、行動が、エージェントがタスクを完了する機会を最大化する行動である確率である。
いくつかの他の実装形態では、ニューラルネットワーク110は、観察値およびその観察値に応答してエージェントによって実行される行動、すなわち観察行動ペアを受信することと、観察行動ペアにおける観察に応答してエージェントが行動を実行することに起因する推定されるリターンを表す、観察行動ペアに対するQ値を生成することとを行うように構成されたニューラルネットワークである。ニューラルネットワーク110は、たとえば観察行動ペアに対するQ値を繰り返し生成することによってプロセスを繰り返し実行することができる。次いで、システム100は、所与の観察値に応答してエージェントが実行する行動を決定するために生成されたQ値を使用することができる。
エージェント102が効率的に環境とインタラクションすることを可能にするために、強化学習システム100は、計数システム120によって生成された組み合わされた報酬を使用することによって、ニューラルネットワーク110のパラメータのトレーニングされた値を決定するためにニューラルネットワーク110をトレーニングする。特に、トレーニング中、計数システム120は、システム100が前に受信した観察値のシーケンスを維持する。
エージェント102が所与の観察値に応答して行動を実行し、エージェントが行動を実行した結果として実際の報酬がシステム100によって受信された後、計数システムは、所与の観察値、行動および実際の報酬を識別するデータを受信する。データに基づいて、計数システム120は、シーケンシャル密度モデルを使用して所与の観察値に対する疑似カウントを決定する。次いで、計数システム120は、所与の観察値に対して決定された疑似カウントから環境を探求するようにエージェントを動機付ける探求報酬ボーナスを決定する。続いて、計数システム120は、実際の報酬および探求報酬ボーナスから組み合わされた報酬を決定する。
次いで、強化学習システム100は、ニューラルネットワーク110をトレーニングするために組み合わされた報酬を使用する。ニューラルネットワーク110をトレーニングすることは、図2を参照しながら以下でより詳細に説明される。所与の観察値に対する疑似カウント、探求報酬ボーナスおよび組み合わされた報酬を決定することは、図3を参照しながら以下でより詳細に説明される。
図2は、環境とインタラクションするエージェントによって実行されるべき行動を選択するために使用される、ニューラルネットワークをトレーニングするための例示的なプロセスのフロー図である。便宜上、プロセス200は、1つまたは複数のロケーション内に配置された1つまたは複数のコンピュータのシステムによって実行されているものとして説明する。たとえば、本明細書に従って適切にプログラムされた強化学習システム、たとえば図1の強化学習システム100は、プロセス200を実行することができる。
システムは、(i)環境の第1の状態を特徴付ける第1の観察値、(ii)第1の観察値に応答してエージェントによって実行される第1の行動、および(iii)第1の観察値に応答してエージェントが行動を実行することに起因して受信された実際の報酬、を識別するデータを取得する(ステップ202)。一般に、実際の報酬は、エージェントが第1の行動を実行したことに応答して環境がどのように変化したか依存する数値である。いくつかの実装形態では、たとえばニューラルネットワークがオフポリシーアルゴリズムを使用してトレーニングされている実装形態では、システムは、エージェントが環境とインタラクションすることから生成されるエクスペリエンスタプル、すなわち観察行動報酬タプルを記憶するメモリからデータを取得することができる。他の実装形態では、たとえばニューラルネットワークがオンポリシーアルゴリズムを使用してトレーニングされている実装形態では、取得されたデータは、エージェントの環境との直近のインタラクションの結果として生成されている。
次に、システムは、実際の報酬からの第1の観察値および探求報酬ボーナスに対応する組み合わされた報酬を決定する(ステップ204)。探求報酬ボーナスは、環境を探求するようにエージェントを動機付けるために使用されてもよい。たとえば、探求報酬ボーナスは、以前に観察されていない新しい観察値を受信することによって、環境の新しい部分を探求するようにエージェントを動機付けるために使用されてもよい。探求報酬ボーナスを決定することは、図3を参照しながら以下でより詳細に説明される。
次いで、システムは、組み合わされた報酬を使用してニューラルネットワークのパラメータの現在の値を調整する(ステップ206)。一般に、システムは、ニューラルネットワークが組み合わされた報酬の予期される合計を最大化する行動を選択するように、ニューラルネットワークのパラメータの現在の値を調整する。すなわち、システムは、ニューラルネットワークが、(i)タスクの完了により近く、システムによって受信されるより高い実際の報酬を生じる状態の方に遷移する環境をもたらすこと、および/または(ii)受信される探求報酬ボーナスを最大化するために以前に頻繁には観察されなかったかまたは決して観察されなかった観察値を探求するようにエージェントを動機付けることを行う行動を選択するように、ニューラルネットワークのパラメータの現在の値を調整することができる。
パラメータの現在の値を調整することは、強化学習技法の反復を実行することにおいて、実際の報酬の代わりに組み合わされた報酬を使用することを含む。システムは、任意の適切な強化学習技法、すなわちニューラルネットワークが生成するように構成される類の出力を生成するニューラルネットワークをトレーニングするのに適切である強化学習技法を使用することができる。たとえば、いくつかの実装形態では、強化学習技法は、モンテカルロリターン内で混合されるダブルDQN技法である。いくつかの他の実装形態では、強化学習技法は、アクター−クリティック技法である。これらの強化学習技法のうちのいくつかでは、システムはまた、技法の反復を実行することを必要とする追加の情報、たとえばエージェントが第1の行動を実行した後に受信される次の観察値を取得し、次いで、第1の観察値、第1の行動、組み合わされた報酬、および追加の情報を使用して強化学習技法を実行する。
図3は、組み合わされた報酬を生成するための例示的なプロセスのフロー図である。便宜上、プロセス300は、1つまたは複数のロケーション内に配置された1つまたは複数のコンピュータのシステムによって実行されているものとして説明する。たとえば、本明細書に従って適切にプログラムされた強化学習システム、たとえば図1の強化学習システム100は、プロセス300を実行することができる。
システムは、第1の観察値に対する疑似カウントを決定する(ステップ302)。疑似カウントは、第1の観察値に応答して行動を取ることの効果がどのようなものになるかについて、システムがどれほどの確かさであるかについて推定される尺度である。具体的には、第1の観察値に対する疑似カウントは、ニューラルネットワークをトレーニングしている間に第1の観察値が発生した数に依存する経験カウント関数である。第1の観察値xに対する疑似カウント
Figure 2019517074
は、以下の
Figure 2019517074
のように決定されてもよく、ここでρn(x)は第1の観察値に対するシーケンシャル密度モデルの値であり、ρ'n(x)は第1の観察値xに対する再コーディング確率である。
シーケンシャル密度モデルは、n個の以前の観察値X1,...,Xnが以下の
ρn(x)≒ρ(x; x1:n)=Pγρ(Xn+1=x|X1...Xn=x1:n)
のように与えられる場合に、第1の観察値xが発生する尤度を表し、ここでPγρ(Xn+1=x|X1...Xn=x1:n)は、n個の以前の観察値X1,...,Xnが受信されている場合に、n+1番目の観察値Xn+1が第1の観察値xと同じである尤度を表す条件付き確率である。
シーケンシャル密度モデルは、たとえばピクセルレベルの密度モデルであってもよい。ピクセルレベルの密度モデルは、Bellemare, M.、Veness, J.、およびTalvitie, E. (2014)、"Skip context tree switching."、機械学習についての第31回国際会議の議事録、1458〜1466頁により詳細に記述されている。
再コーディング確率は、第1の観察値
ρ'n(x)≒ρ(x; x1:nx)
の新しい発生を観察した後の第1の観察値xに対するシーケンシャル密度モデルの値である。
再コーディング確率は、以下の
ρ'n(x)=Pγρ(Xn+2=x|X1...Xn=x1:n, Xn+1=x)
のように決定されてもよく、ここでPγρ(Xn+2=x|X1...Xn=x1:n, Xn+1=x)は、n+1前の観察値x1:nおよびxが発生した場合に、新しい観察値、たとえばn+1番目の観察値Xn+1に続くn+2番目の観察値Xn+2(それは上記の第1の観察値と同じである)が、第1の観察値xと同じである尤度を表す条件付き確率である。
次いで、システムは、第1の観察値xに対する疑似カウントから環境を探求するようにエージェントを動機付ける探求報酬ボーナスを決定する(ステップ302)。一般に、探求報酬ボーナスは、疑似カウント
Figure 2019517074
に逆比例する。それは、疑似カウント
Figure 2019517074
がより大きくなるとき、すなわち第1の観察値xがより頻繁に発生したときに、第1の観察値に対応する探求報酬ボーナスはより小さくなること、およびその逆も真であることを意味する。いくつかの実装形態では、探求報酬ボーナスRBは、以下の
Figure 2019517074
のように決定されてもよく、ここでxは第1の観察値であり、
Figure 2019517074
は第1の観察値に対する疑似カウントであり、aおよびbは定数であり、βはパラメータスイープによって選択されたパラメータである。2つの定数aおよびbは、一般に正の定数である。
次いで、システムは、実際の報酬からの第1の観察値および探求報酬ボーナスに対応する組み合わされた報酬を生成する(ステップ304)。たとえば、システムは、実際の報酬と探求報酬ボーナスとを合計することによって組み合わされた報酬を生成する。
1つまたは複数のコンピュータのシステムが特定の動作または行動を実行するように構成されるということは、システムが、動作中に動作または行動をシステムに実行させるソフトウェア、ファームウェア、ハードウェアまたはそれらの組合せをシステム上にインストールしているということを意味する。1つまたは複数のコンピュータプログラムが特定の動作または行動を実行するように構成されるということは、1つまたは複数のプログラムが命令を含み、その命令は、データ処理装置によって実行されたとき、装置に動作または行動を実行させるということを意味する。
本明細書で説明する主題および関数演算の実施形態は、本明細書で開示する構造およびそれらの構造的等価物を含むディジタル電子回路、明確に具現化されたコンピュータソフトウェアもしくはファームウェア、コンピュータハードウェア、またはそれらのうちの1つまたは複数の組合せの中に実装されてもよい。本明細書で説明する主題の実施形態は、1つまたは複数のコンピュータプログラム、すなわちデータ処理装置による実行のためにまたはデータ処理装置の動作を制御するために、有形の非一時的プログラム担体上に符号化されたコンピュータプログラム命令の1つまたは複数のモジュールとして実装されてもよい。代替または追加として、プログラム命令は、データ処理装置による実行に好適なレシーバ装置に送信するための情報を符号化するために生成される、人工的に生成された伝播信号、たとえば機械的に生成された電気、光、または電磁信号上に符号化されてもよい。コンピュータ記憶媒体は、機械可読記憶デバイス、機械可読記憶基板、ランダムもしくはシリアルアクセスメモリデバイス、またはそれらのうちの1つまたは複数の組合せであってもよい。コンピュータ記憶媒体は、しかしながら伝播信号ではない。
「データ処理装置」という用語は、例としてプログラム可能な1つのプロセッサ、1つのコンピュータ、または複数のプロセッサもしくはコンピュータを含むデータを処理するためのあらゆる種類の装置、デバイス、および機械を包含する。装置は、専用論理回路、たとえばFPGA(フィールドプログラマブルゲートアレイ)またはASIC(特定用途向け集積回路)を含むことができる。装置はまた、ハードウェアに加えて、問題となっているコンピュータプログラムに対する実行環境を生成するコード、たとえばプロセッサファームウェア、プロトコルスタック、データベース管理システム、オペレーティングシステム、またはそれらのうちの1つまたは複数の組合せを構成するコードを含むことができる。
コンピュータプログラム(それはまた、プログラム、ソフトウェア、ソフトウェアアプリケーション、モジュール、ソフトウェアモジュール、スクリプト、もしくはコードと呼ばれるかまたは記述されることがある)は、コンパイラ型もしくはインタプリタ型の言語、または宣言型もしくは手続き型の言語を含む任意の形態のプログラミング言語で書かれてもよく、コンピュータプログラムは、スタンドアローンプログラムとして、またはモジュール、コンポーネント、サブルーチン、もしくはコンピューティング環境で使用するのに好適な他のユニットとして、任意の形態で配布されてもよい。コンピュータプログラムは、ファイルシステム内のファイルに相当する場合があるが、必須ではない。プログラムは、他のプログラムまたはデータを保持するファイルの一部、たとえばマークアップ言語文書内、問題となっているプログラムに専用の単一のファイル内、あるいは1つまたは複数のモジュール、サブプログラムまたはコードの部分を記憶するファイルのような複数の協調的ファイル内に記憶される1つまたは複数のスクリプトの中に記憶されてもよい。コンピュータプログラムは、1つのサイトに配置される1つのコンピュータか、または複数のサイトにわたって分配されて通信ネットワークで相互接続される複数のコンピュータ上で実行されるように配布されてもよい。
本明細書で使用される「エンジン」または「ソフトウェアエンジン」は、入力とは異なる出力を提供するソフトウェア実装入力/出力システムを指す。エンジンは、ライブラリ、プラットフォーム、ソフトウェア開発キット("SDK")、またはオブジェクトなど、符号化された機能ブロックであってもよい。各エンジンは、任意の適切なタイプのコンピューティングデバイス、たとえばサーバ、モバイルフォン、タブレットコンピュータ、ノートブックコンピュータ、音楽プレーヤ、イーブックリーダー、ラップトップもしくはデスクトップコンピュータ、PDA、スマートフォン、または1つもしくは複数のプロセッサおよびコンピュータ可読媒体を含む他の固定もしくは可搬デバイス上に実装されてもよい。加えて、2つ以上のエンジンが、同じコンピューティングデバイス上、または異なるコンピューティングデバイス上に実装されてもよい。
本明細書で説明するプロセスおよび論理フローは、入力データに対して動作して出力を生成することによって機能を実行するために1つまたは複数のコンピュータプログラムを実行する1つまたは複数のプログラム可能なコンピュータによって実行されてもよい。プロセスおよび論理フローはまた、専用論理回路、たとえばFPGA(フィールドプログラマブルゲートアレイ)またはASIC(特定用途向け集積回路)によって実行されてもよく、装置はまた、その専用論理回路として実装されてもよい。たとえば、プロセスおよび論理フローは、グラフィックス処理ユニット(GPU)によって実行されてもよく、装置はまた、GPUとして実装されてもよい。
コンピュータプログラムの実行に好適なコンピュータは、例として、汎用もしくは専用のマイクロプロセッサ、または汎用および専用のマイクロプロセッサ、あるいは任意の他の種類の中央処理装置に基づくことができる。一般的に、中央処理装置は、リードオンリーメモリもしくはランダムアクセスメモリ、または両メモリから命令およびデータを受信することになる。コンピュータの必須要素は、命令を実行または実施するための中央処理装置と、命令およびデータを記憶するための1つまたは複数のメモリデバイスとである。一般的に、コンピュータはまた、データを記憶するための1つまたは複数の大容量記憶デバイス、たとえば磁気ディスク、磁気光ディスクもしくは光ディスクを含むか、またはその記憶デバイスからデータを受信するかその記憶デバイスにデータを伝達するかもしくはその両方を行うように動作可能に結合されることになる。しかしながら、コンピュータは、必ずしもそのようなデバイスを有する必要があるとは限らない。その上、コンピュータは、別のデバイス、たとえば数例を挙げると、モバイル電話、携帯情報端末(PDA)、モバイルオーディオまたはビデオプレーヤ、ゲームコンソール、全地球測位システム(GPS)受信機、あるいはユニバーサルシリアルバス(USB)フラッシュドライブなどのポータブルストレージデバイスの中に組み込まれてもよい。
コンピュータプログラム命令およびデータを記憶するのに好適なコンピュータ可読媒体は、例として、EPROM、EEPROMおよびフラッシュメモリなどの半導体メモリデバイスと、内部ハードディスクもしくはリムーバブルディスクなどの磁気ディスクと、磁気光ディスクと、CD ROMおよびDVD-ROMディスクとを含む、すべての形態の不揮発性メモリ、メディアおよびメモリデバイスを含む。プロセッサおよびメモリは、専用論理回路によって補完されてもよいか、または専用論理回路内に組み込まれてもよい。
ユーザとのインタラクションを提供するために、本明細書で説明する主題の実施形態は、ユーザに情報を表示するためのCRT(陰極線管)またはLCD(液晶ディスプレイ)モニタなどの表示デバイスと、ユーザがコンピュータに入力を与えることができるマウスまたはトラックボールなどのキーボードおよびポインティングデバイスとを有するコンピュータ上に実装されてもよい。他の種類のデバイスは、同様にユーザとのインタラクションを提供するために使用されてもよく、たとえばユーザに与えられるフィードバックは任意の形態の知覚フィードバック、たとえば視覚フィードバック、聴覚フィードバックまたは触覚フィードバックであってもよく、ユーザからの入力は、音響、音声または触覚の入力を含む任意の形態で受信されてもよい。加えて、コンピュータは、ユーザによって使用されるデバイスに文書を送信すること、およびそのデバイスから文書を受信することによって、たとえばウェブブラウザから受信された要求に応答してユーザのクライアントデバイス上のウェブブラウザにウェブページを送信することによって、ユーザとインタラクションすることができる。
本明細書で説明する主題の実施形態は、たとえばデータサーバとしてバックエンド構成要素を含むか、またはアプリケーションサーバなどのミドルウェア構成要素を含むか、またはユーザが、本明細書で説明する主題の実装形態とインタラクションし得るグラフィカルユーザインターフェースもしくはウェブブラウザを有するクライアントコンピュータなどのフロントエンド構成要素を含むか、または1つもしくは複数のそのようなバックエンド、ミドルウェアもしくはフロントエンドの構成要素の任意の組合せを含むコンピューティングシステム内に実装されてもよい。システムの構成要素は、任意の形態または媒体のディジタルデータ通信、たとえば通信ネットワークによって相互接続されてもよい。通信ネットワークの例には、ローカルエリアネットワーク(「LAN」)と、ワイドエリアネットワーク(「WAN」)、たとえばインターネットとが含まれる。
コンピューティングシステムは、クライアントとサーバとを含むことができる。クライアントおよびサーバは、一般に互いに離れており、通常通信ネットワークを介してインタラクションする。クライアントとサーバとの関係は、それぞれのコンピュータ上で動作し、互いにクライアント-サーバ関係を有するコンピュータプログラムによって生じる。
本明細書は多くの特定の実装形態の詳細を含むが、これらは、発明のまたは請求されるものの範囲を限定するものと解釈されるべきではなく、特定の発明の特定の実施形態に特有の特徴を説明するものと解釈されるべきである。個別の実施形態の文脈において本明細書で説明されるいくつかの特徴はまた、単一の実施形態の中で組み合わせて実装されてもよい。反対に、単一の実施形態の文脈において説明される様々な特徴はまた、複数の実施形態において個別に、または任意の適切なサブコンビネーションにおいて実装されてもよい。その上、特徴は、特定の組合せにおいて働くように上記で説明され、最初にそのようなものとして請求されるが、いくつかの場合には、請求される組合せからの1つまたは複数の特徴は、その組合せから削除されてもよく、請求される組合せは、サブコンビネーション、またはサブコンビネーションのバリエーションに移されてもよい。
同様に、動作は特定の順序で図に示されるが、これは、望ましい結果を達成するために、そのような動作が図示の特定の順序で、または一連の順序で実行されること、あるいは図示の動作のすべてが実行されることを必要とするものと理解されるべきではない。いくつかの状況では、多重タスク処理および並列処理が有利である場合がある。その上、上記で説明した実施形態における様々なシステムモジュールおよび構成要素の分離は、すべての実施形態においてそのような分離を必要とするものと理解されるべきではなく、説明したプログラム構成要素およびシステムは、一般に単一のソフトウェア製品中に一緒に一体化されてもよく、または複数のソフトウェア製品中にパッケージ化されてもよいものと理解されるべきである。
主題の特定の実施形態が説明された。他の実施形態は、以下の特許請求の範囲の中にある。たとえば、特許請求の範囲に記載される行動は、異なる順序で実行されても、依然として望ましい結果を達成することができる。一例として、添付の図に示すプロセスは、望ましい結果を達成するために、必ずしも図示の特定の順序または一連の順序を必要とするとは限らない。いくつかの実装形態では、多重タスク処理および並列処理が有利である場合がある。
100 強化学習システム
102 強化学習エージェント
104 環境
110 ニューラルネットワーク
120 計数システム
200 プロセス

Claims (12)

  1. 環境とインタラクションするエージェントによって実行されるべき行動を選択するために使用されるニューラルネットワークをトレーニングするための方法であって、
    (i)前記環境の第1の状態を特徴付ける第1の観察値、(ii)前記第1の観察値に応答して前記エージェントによって実行される行動、および(iii)前記第1の観察値に応答して前記エージェントが前記行動を実行することに起因して受信された実際の報酬を識別するデータを取得するステップと、
    前記第1の観察値に対する疑似カウントを決定するステップと、
    前記第1の観察値に対する前記疑似カウントから前記環境を探求するように前記エージェントを動機付ける探求報酬ボーナスを決定するステップと、
    前記実際の報酬および前記探求報酬ボーナスから組み合わされた報酬を生成するステップと、
    前記組み合わされた報酬を使用して前記ニューラルネットワークの前記パラメータの現在の値を調整するステップと
    を含む、方法。
  2. 前記疑似カウントが、前記第1の観察値に応答して行動を取ることの効果の確かさについて推定される尺度である、請求項1に記載の方法。
  3. 前記パラメータの前記現在の値を調整するステップが、
    強化学習技法の反復を実行することにおいて、前記実際の報酬の代わりに前記組み合わされた報酬を使用するステップ
    を含む、請求項1または2に記載の方法。
  4. 前記強化学習技法が、モンテカルロリターン内で混合されるダブルDQN技法である、請求項3に記載の方法。
  5. 前記強化学習技法が、アクター−クリティック技法である、請求項3に記載の方法。
  6. 前記組み合わされた報酬を生成するステップが、前記実際の報酬と前記探求報酬ボーナスとを合計するステップを含む、請求項1から5のいずれか一項に記載の方法。
  7. 前記探求報酬ボーナスRBが、
    Figure 2019517074
    を満足し、ここでxは第1の観察値であり、
    Figure 2019517074
    が第1の観察値に対する疑似カウントであり、aおよびbは定数であり、βはパラメータスイープによって選択されたパラメータである、請求項1から6のいずれか一項に記載の方法。
  8. 前記第1の観察値に対する前記疑似カウント
    Figure 2019517074
    が、
    Figure 2019517074
    の形態であり、
    ここでρn(x)が前記第1の観察値に対するシーケンシャル密度モデルの前記値であり、ρ'n(x)が前記第1の観察値に対する前記再コーディング確率である、請求項1から6のいずれか一項に記載の方法。
  9. 前記再コーディング確率が、前記第1の観察値の新しい発生を観察した後の前記シーケンシャル密度モデルの値である、請求項8に記載の方法。
  10. 前記シーケンシャル密度モデルがピクセルレベルの密度モデルである、請求項8または9に記載の方法。
  11. 1つまたは複数のコンピュータと、命令を記憶する1つまたは複数の記憶デバイスとを含むシステムであって、前記命令が、前記1つまたは複数のコンピュータによって実行されたとき、請求項1から10のいずれか一項に記載の前記それぞれの方法の動作を前記1つまたは複数のコンピュータに実行させるように動作可能である、システム。
  12. 命令によって符号化されるコンピュータ記憶媒体であって、前記命令が、1つまたは複数のコンピュータによって実行されたとき、請求項1から10のいずれか一項に記載の前記それぞれの方法の動作を前記1つまたは複数のコンピュータに実行させる、コンピュータ記憶媒体。
JP2018560871A 2016-05-20 2017-05-18 疑似カウントを使用する強化学習 Active JP6667674B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201662339778P 2016-05-20 2016-05-20
US62/339,778 2016-05-20
PCT/US2017/033218 WO2017201220A1 (en) 2016-05-20 2017-05-18 Reinforcement learning using pseudo-counts

Publications (2)

Publication Number Publication Date
JP2019517074A true JP2019517074A (ja) 2019-06-20
JP6667674B2 JP6667674B2 (ja) 2020-03-18

Family

ID=58779356

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018560871A Active JP6667674B2 (ja) 2016-05-20 2017-05-18 疑似カウントを使用する強化学習

Country Status (5)

Country Link
US (1) US11727264B2 (ja)
EP (1) EP3459018B1 (ja)
JP (1) JP6667674B2 (ja)
CN (1) CN109155005A (ja)
WO (1) WO2017201220A1 (ja)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018083667A1 (en) * 2016-11-04 2018-05-11 Deepmind Technologies Limited Reinforcement learning systems
US10789511B2 (en) * 2018-10-12 2020-09-29 Deepmind Technologies Limited Controlling agents over long time scales using temporal value transport
JP7336856B2 (ja) * 2019-03-01 2023-09-01 株式会社Preferred Networks 情報処理装置、方法及びプログラム
US20200285995A1 (en) * 2019-03-05 2020-09-10 Hrl Laboratories, Llc Robust, scalable and generalizable machine learning paradigm for multi-agent applications
CN111898727A (zh) * 2019-05-06 2020-11-06 清华大学 基于短时访问机制的强化学习方法、装置及存储介质
CN112486584A (zh) * 2019-08-23 2021-03-12 中国科学院深圳先进技术研究院 一种利用强化学习进行大数据平台调参的方法和系统
US11699062B2 (en) * 2019-09-06 2023-07-11 Honda Motor Co., Ltd. System and method for implementing reward based strategies for promoting exploration
CN110994620A (zh) * 2019-11-16 2020-04-10 国网浙江省电力有限公司台州供电公司 一种基于Q-Learning算法的电网潮流智能调整方法
CN112883947B (zh) * 2021-04-29 2021-07-16 腾讯科技(深圳)有限公司 图像处理方法、装置、计算机设备和存储介质

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9186793B1 (en) * 2012-08-31 2015-11-17 Brain Corporation Apparatus and methods for controlling attention of a robot
US9679258B2 (en) * 2013-10-08 2017-06-13 Google Inc. Methods and apparatus for reinforcement learning

Also Published As

Publication number Publication date
EP3459018B1 (en) 2021-10-20
EP3459018A1 (en) 2019-03-27
US11727264B2 (en) 2023-08-15
JP6667674B2 (ja) 2020-03-18
US20200327405A1 (en) 2020-10-15
WO2017201220A1 (en) 2017-11-23
CN109155005A (zh) 2019-01-04

Similar Documents

Publication Publication Date Title
JP6667674B2 (ja) 疑似カウントを使用する強化学習
JP6828121B2 (ja) 優先順位付けされた経験メモリを使用したニューラルネットワークの訓練
KR102172277B1 (ko) 듀얼 심층 신경 네트워크
CN108027897B (zh) 利用深度强化学习的连续控制
CN107851216B (zh) 一种用于选择待由与环境进行交互的强化学习代理执行的动作的方法
EP3446260B1 (en) Memory-efficient backpropagation through time
US11288568B2 (en) Reinforcement learning using advantage estimates
JP2020522035A (ja) 畳み込みニューラルネットワークのためのニューラルアーキテクチャ検索
AU2016354558A1 (en) Asynchronous deep reinforcement learning
JP2019533257A (ja) ニューラルアーキテクチャ検索
US11797839B2 (en) Training neural networks using priority queues
JP6817456B2 (ja) ニューラルエピソード制御
US20190205757A1 (en) Model-free control for reinforcement learning agents
WO2019222746A1 (en) Reinforcement learning in combinatorial action spaces

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190115

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190115

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200116

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200127

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200225

R150 Certificate of patent or registration of utility model

Ref document number: 6667674

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250