JP6706173B2 - 制御装置、制御方法、および制御プログラム - Google Patents

制御装置、制御方法、および制御プログラム Download PDF

Info

Publication number
JP6706173B2
JP6706173B2 JP2016156147A JP2016156147A JP6706173B2 JP 6706173 B2 JP6706173 B2 JP 6706173B2 JP 2016156147 A JP2016156147 A JP 2016156147A JP 2016156147 A JP2016156147 A JP 2016156147A JP 6706173 B2 JP6706173 B2 JP 6706173B2
Authority
JP
Japan
Prior art keywords
control
sensor data
control target
action
state
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016156147A
Other languages
English (en)
Other versions
JP2018024036A (ja
Inventor
高斉 松本
高斉 松本
知明 秋富
知明 秋富
矢野 和男
和男 矢野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2016156147A priority Critical patent/JP6706173B2/ja
Priority to US15/670,175 priority patent/US10549421B2/en
Publication of JP2018024036A publication Critical patent/JP2018024036A/ja
Application granted granted Critical
Publication of JP6706173B2 publication Critical patent/JP6706173B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1628Programme controls characterised by the control loop
    • B25J9/163Programme controls characterised by the control loop learning, adaptive, model based, rule based expert control
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1628Programme controls characterised by the control loop
    • B25J9/1633Programme controls characterised by the control loop compliant, force, torque control, e.g. combined with position control
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1628Programme controls characterised by the control loop
    • B25J9/1653Programme controls characterised by the control loop parameters identification, estimation, stiffness, accuracy, error analysis
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B13/00Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion
    • G05B13/02Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric
    • G05B13/0265Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric the criterion being a learning criterion
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40499Reinforcement learning algorithm

Description

本発明は、制御対象を制御する制御装置、制御方法、および制御プログラムに関する。
特許文献1は、供給される入力情報に応じた行動を行うロボット装置を開示する。このロボット装置では、行動管理部が、行動価値を計算し、その値に基づいて、実行する行動を決定する。行動管理部が行動を実行すると、環境またはユーザから報酬が与えられる。行動管理部は、環境またはユーザから獲得した報酬と、予め設定されている学習率とに基づき、行動価値を更新する。また、行動管理部は、その学習率を入力情報に基づいて変化させる。
特開2003−340760号公報
しかしながら、上述した特許文献1の技術では、報酬の与え方自体は、自動で設定されないことから、制御対象の目的となる制御方法を自動で獲得することができないという問題がある。
本発明は、制御対象に対する制御方法の獲得の自動化を目的とする。
本願において開示される発明の一側面となる制御装置、制御方法、および制御プログラムは、制御指令値に基づく行動により状態を得る制御対象を制御する制御装置、制御方法、および制御プログラムであって、前記制御装置は、プログラムを実行するプロセッサと、前記プログラムを記憶する記憶デバイスと、前記制御対象と通信する通信インタフェースと、を有し、前記プロセッサは、前記制御対象から前記制御対象の前記状態を示す第1センサデータと前記行動を示す第2センサデータとを取得する取得処理と、前記取得処理によって取得された第1センサデータと過去の第1センサデータとに基づく第1特徴データと、前記第2センサデータに基づく第2特徴データと、の相関に基づいて、前記制御対象の次の行動が前記制御対象の次の状態を最適化する報酬を生成する生成処理と、前記制御対象の前記状態を示す第1センサデータと、前記行動を示す第2センサデータと、前記生成処理によって生成された報酬とに基づいて、行動価値関数により評価値を更新する評価値更新処理と、前記評価値更新処理による更新前後の評価値を比較することにより、前記制御対象の次の行動を選択する選択処理と、前記選択処理によって選択された前記制御対象の前記次の行動に応じた制御指令値を前記制御対象に与える制御処理と、を実行することを特徴とする。
本発明の代表的な実施の形態によれば、報酬設定の手間の軽減化を図ることができる。前述した以外の課題、構成及び効果は、以下の実施例の説明により明らかにされる。
図1は、制御システムの構成例を示す説明図である。 図2は、制御システムのハードウェア構成例を示すブロック図である。 図3は、入出力データテーブルの記憶内容例を示す説明図である。 図4は、試行状態管理テーブルの記憶内容例を示す説明図である。 図5は、設定部および強化学習部による強化学習処理手順例を示すフローチャートである。 図6は、報酬生成部による報酬生成処理手順例を示すフローチャートである。 図7は、調整部によるデータ範囲調整処理手順例を示すフローチャートである。
<制御システムの構成例>
図1は、制御システム100の構成例を示す説明図である。制御システム100は、行動aにより状態sを得る制御対象101と、動作環境102と、制御装置103と、を有する。本実施例では、例として、動作環境102をブランコ、制御対象101をブランコを漕ぐロボットとする。制御システム100は、動作環境102で行動する制御対象101を観測して報酬rを与えるという一連の動作を繰り返す強化学習を制御対象101に実行する。
制御対象101および動作環境102の組み合わせがロボットおよびブランコである場合、ロボットの行動aは、ブランコの漕ぎ動作であり、ロボットの状態sはブランコ(=ロボットが載る部分)の振り角比(ブランコが、支柱に対してなす角度を振り角とするとき、この振り角が前回の振り角に対してなす割合)の最大値であり、ロボットに与えられる報酬rは、ブランコの振り角をより大きくするための行動aの出やすさを決めるパラメータである。
また、本例では、行動aである漕ぎ動作を、ブランコの振り角2θを5分割した位相(θ,θ/2,0,−θ/2,−θ)毎のロボットの漕ぎ動作とする。振り角2θを1周期とする。ロボットの漕ぎ動作とは、ロボットの強化学習結果の一形態であり、本例の場合、ブランコを漕いでいる動作(漕ぎ動作。図1中、「漕」)とブランコに立っている動作(立ち動作。図1中、「立」)をいう。
また、制御システム100は、動作環境102およびその周辺における外乱を検出する第1センサデバイス104を有してもよい。ここで、外乱とは、動作環境102およびその周辺における乱れであり、たとえば、風速、温度や湿度、降雨量、降雪量、明るさ、粉塵の量など、ロボットとブランコ全体とが置かれた動作環境102の呼称である。第1センサデバイス104は、制御装置103に接続される。
制御装置103は、設定部110と、強化学習部120と、報酬生成部130と、調整部140と、を有する。
設定部110は、第1記憶デバイス212からの自動読込またはユーザの手入力により、初期設定を実行する。設定部110は、たとえば、1回の試行での学習係数α、割引率γ、最大エピソード数、エピソード終了条件、初期報酬、動作環境102に与えるパラメータ、制御対象101に与えるパラメータを設定する。
最大エピソード数とは、1回の試行で実行されるエピソードの最大数である。エピソードとは、行動aおよび状態sによる制御対象の動作が開始してから収束するまでの動作単位である。エピソード終了条件とは、1回のエピソードを終了させてはいけない条件および終了させる条件である。たとえば、終了させてはいけない条件としては、たとえば、ブランコが振動開始から10周期経過するまではエピソードを継続させるという条件がある。エピソードを終了させる条件としては、たとえば、下限しきい値以下振り角が複数周期連続して計測された場合にエピソードを終了させるという条件がある。また、上限しきい値以上振り角が複数周期連続して計測された場合にエピソードを終了させるという条件もある。また、エピソード開始から所定時間経過した場合にエピソードを終了させるという条件もある。
初期報酬とは、強化学習における行動価値関数の変数である報酬rの初期値である。動作環境102に与えるパラメータとは、たとえば、ブランコにあたえる初速である。制御対象101に与えるパラメータとは、たとえば、ロボットに与える初期膝角度、ロボットの振り角の下限しきい値、上限しきい値、目標振り角、位相の数(周期の分割数。本例では5個)である。なお、報酬rの初期値は、ランダムに与えてもよいし、人の知見をもとに一旦与えてもよい。また獲得済みの報酬をそのまま使ってもよいし、部分的あるいは全体的に改変して使ってもよい。
強化学習部120は、制御対象101の強化学習を実行する。強化学習部120は、取得部121と、評価値更新部122と、行動選択部123と、制御部124と、を有する。取得部121は、制御対象101からセンサデータとして1周期分の振り角と位相毎の膝角度測定値を取得する。なお、本実施例では、ロボットの膝角度測定値をセンサデータとしたが、大腿部の付け根の角度や足首の角度をセンサデータに含めてもよい。本実施例では、説明の便宜上、膝角度について説明し、大腿部の付け根の角度や足首の角度については省略する。
評価値更新部122は、評価値Qを更新する。具体的には、たとえば、評価値更新部122は、行動価値関数により、位相毎に評価値Qを更新する。更新後の評価値QをQ(s,a)とする。sは、制御対象101の状態(ここでは、最大振り角)、aは制御対象101の行動(漕ぎ動作)である。sは、更新前の制御対象101の状態(ここでは、最大振り角)、aは、更新前の制御対象101の行動(漕ぎ動作)である。
まず、評価値更新部122は、1つのエピソードについて、評価値Qから導かれる方策π(s,a)に基づき、状態sを初期化して、位相毎に、以下の処理(1)〜(4)を繰り返し実行する。
(1)評価値更新部122は、評価値Qから導かれる方策π(s,a)に基づき、状態sにおける行動aを決定する。
(2)評価値更新部122は、制御対象101に行動aを実行させ、報酬rと行動aをとった後の状態st+1を観測する。
(3)評価値更新部122は、評価値Qを更新する。
Q(s,a
←Q(s,a)+α[rt+1+γmaxQ(st+1,a)−Q(s,a)]
αは学習係数で、0<α≦1の範囲をとるパラメータである。γは割引率であり、0<γ≦1の範囲をとるパラメータである。rt+1は、更新後の報酬rである。st+1は、更新後の制御対象101の状態(ここでは、最大振り角)である。maxQ(st+1,a)は、状態st+1 下で、最もQ値の高い行動aを選んだ場合のQ値にγを乗じた値となる。
(4)評価値更新部122は、状態st+1がエピソード終了条件を満たせば、当該エピソードが終了する。
本実施例では、報酬rを自動計算して評価値Qに与えることにより、獲得してほしい動作を自動的にするように制御する。
行動選択部123は、位相単位で制御対象101の次の周期での行動aを選択する。具体的には、たとえば、行動選択部123は、位相毎に今回の評価値Qと前回の評価値Qとを比較する。ある位相について今回の評価値Qが前回の評価値Q以上である場合、行動選択部123は、当該位相について前回の行動aと同一行動を次の周期の行動aとして選択する。たとえば、当該位相での前回の行動aが「漕ぎ」である場合、次の周期の当該位相での行動aとして「漕ぎ」が選択される。
一方、ある位相について今回の評価値Qが前回の評価値Q未満である場合、行動選択部123は、当該位相について前回の行動aとは異なる行動aを次の周期の行動aとして選択する。たとえば、当該位相での前回の行動aが「漕ぎ」である場合、次の周期の当該位相での行動aとして「立ち」が選択される。
また、行動選択部123は、ランダム性を適用して、少なくとも1つの位相について次の周期の行動aを選択してもよい。また、行動選択部123は、どの位相にランダム性を適用するかもランダムに選択してもよい。
制御部124は、各選択行動に応じた制御指令値を生成して制御対象101を制御する。具体的には、たとえば、制御部124は、制御指令値を生成して制御対象101に送信する。選択行動に応じた制御指令値とは、たとえば、ロボットの膝角度が漕ぎ動作または立ち動作となるようにアクチュエータ223に与えられる電流値である。
報酬生成部130は、テーブル131と、テーブル更新部132と、相関演算部133と、報酬演算部134と、を有する。テーブル131は、入出力データテーブル300と試行状態管理テーブル400とを有する。入出力データテーブル300の詳細については図3で後述する。試行状態管理テーブル400の詳細については図4で後述する。
テーブル更新部132は、入出力データテーブル300と試行状態管理テーブル400とを更新する。相関演算部133は、入出力データテーブル300と試行状態管理テーブル400とを参照して、位相毎の計測漕ぎ動作403と最大振り角比306との相関情報を演算する。報酬演算部134は、相関情報を用いて報酬(具体的には、更新後の報酬rt+1)を算出し、評価値更新部122に与える。
調整部140は、第1センサデバイス104で動作環境102での外乱を検出し、制御対象101が実行する最大エピソード数を増減させる。外乱の発生頻度が高い場合、目的達成ができない状況が継続することとなる。この場合、最大エピソード数を減少させることで、報酬rの計算に用いるエピソードを直近のエピソードに制限することができる。逆に、外乱の発生頻度が低い場合、最大エピソード数を増加させることで、報酬rの計算に用いるデータ範囲の拡大を図る。センサデバイスがなく、動作環境102での外乱が直接検出できない場合においては、学習が進まない場合、例えば最大振り角などを目的変数とする場合に、その値の向上が見られないかゆるやかな場合は外乱があるとみなして、同様の処理を行うようにしてもよい。
<制御システム100のハードウェア構成例>
図2は、制御システム100のハードウェア構成例を示すブロック図である。制御装置103は、第1プロセッサ211と、第1記憶デバイス212と、入力デバイス213と、出力デバイス214と、第1通信インターフェース(IF)215と、を有する。第1プロセッサ211、第1記憶デバイス212、入力デバイス213、出力デバイス214、および第1通信IF215は、第1バス216に接続される。第1センサデバイス104は、第1通信IF215に接続される。第1プロセッサ211は、制御装置103を制御する。第1記憶デバイス212は、第1プロセッサ211の作業エリアとなる。また、第1記憶デバイス212は、各種プログラムやデータを記憶する非一時的なまたは一時的な記録媒体である。第1記憶デバイス212としては、たとえば、ROM(Read Only Memory)、RAM(Random Access Memory)、HDD(Hard Disk Drive)、フラッシュメモリがある。
入力デバイス213は、データを入力する。入力デバイス213としては、たとえば、キーボード、マウス、タッチパネル、テンキー、スキャナがある。出力デバイス214は、データを出力する。出力デバイス214としては、たとえば、ディスプレイ、プリンタがある。第1通信IF215は、ネットワークと接続し、制御対象101とデータを送受信する。
上述した設定部110、強化学習部120、報酬生成部130、および調整部140は、具体的には、たとえば、第1記憶デバイス212に記憶されたプログラムを第1プロセッサ211に実行させることで実現される。また、テーブル131(入出力データテーブル300と試行状態管理テーブル400)は、具体的には、たとえば、第1記憶デバイス212に記憶されたデータ構造として実現される。
制御対象101は、第2プロセッサ221と、第2記憶デバイス222と、アクチュエータ223と、第2センサデバイス224と、第2通信IF225と、を有する。第2プロセッサ221、第2記憶デバイス222、アクチュエータ223、第2センサデバイス224、および第2通信IF225は、第2バス226により接続される。第2プロセッサ221は、制御装置103を制御する。第2記憶デバイス222は、第2プロセッサ221の作業エリアとなる。また、第2記憶デバイス222は、各種プログラムやデータを記憶する非一時的なまたは一時的な記録媒体である。第2記憶デバイス202としては、たとえば、ROM(Read Only Memory)、RAM(Random Access Memory)、HDD(Hard Disk Drive)、フラッシュメモリがある。
アクチュエータ223は、入力エネルギーを並進または回転運動といった物理的運動に変換する駆動機構である。具体的には、例えば、アクチュエータ223は、ロボットの脚を構成する腿の付け根、膝、足首に設けられ、制御装置103から指示された電流値により、ロボットの脚を駆動制御する。第2センサデバイス224は、ブランコに対するロボットの振り角の算出元となる各速度を検出するジャイロセンサである。第2通信IF225は、ネットワークと接続し、制御装置103とデータを送受信する。
<テーブル131の記憶内容例>
つぎに、図3および図4を用いて、図1に示したテーブル131の記憶内容例を説明する。なお、ここでは、データ構造をテーブル形式で説明するが、テーブルによるデータ構造で表現されていなくてもよく、リスト、データベース、キュー等のデータ構造でもよい。また、テーブルの説明において、AAフィールドbbb(AAはフィールド名、bbbは符号)の値を、AAbbbと表記する場合がある。たとえば、試行IDフィールド301の値を、試行ID301と表記する。
図3は、入出力データテーブル300の記憶内容例を示す説明図である。図3において、入出力データテーブル300は、制御対象101から入力されるデータと制御対象101に出力するデータとを管理するテーブルである。入出力データテーブル300は、試行IDフィールド301と、エピソードIDフィールド302と、振り角フィールド303と、膝角度計測値フィールド304と、膝角度指令値フィールド305と、最大振り角比フィールド306と、を有する。各フィールド301〜306の列には、当該フィールドの値が格納されている。
試行IDフィールド301は、試行IDを格納する記憶領域である。試行ID301とは、動作環境102における制御対象101の動作の試行を一意に特定する識別情報である。試行ID301単位で、設定部110により初期設定が実行される。
エピソードIDフィールド302は、エピソードIDを格納する記憶領域である。エピソードID302とは、エピソードを一意に特定する識別情報である。エピソードとは、動作環境102における制御対象101の動作が開始してから当該動作が収束するまでの動作単位である。たとえば、振り角が上限しきい値以上となった場合、または、振り角が下限しきい値以下となった場合に、エピソードは終了する。なお、1回の試行でのエピソード回数m(mは1以上の整数)は、設定部110での初期設定により設定される。
振り角フィールド303は、エピソードでの振り角2×θを格納する記憶領域である。振り角303は、取得部121によって計測される。振り角303は、相関演算部133による相関演算での説明変数となりうる値である。
膝角度計測値フィールド304は、エピソードでの膝角度計測値を格納する記憶領域である。膝角度計測値304とは、ロボットの膝の角度の計測値である。膝角度計測値304は、相関演算部133による相関演算での説明変数となりうる値である。膝角度計測値304は、取得部121によって取得される計測値である。膝角度計測値304は、振り角303の位相毎に格納される。
膝角度指令値フィールド305は、エピソードでの膝角度指令値を格納する記憶領域である。膝角度指令値305とは、ロボットの膝角度を所望の角度に設定するための指令値である。より具体的には、たとえば、アクチュエータ223に与える電流量などの制御指令値である。膝角度指令値305は、相関演算部133による相関演算での説明変数となりうる値である。膝角度指令値305は、振り角303の位相毎に格納される。
最大振り角比フィールド306は、最大振り角比を格納する記憶領域である。最大振り角比306は、テーブル更新部132によって算出される。最大振り角比306は、相関演算部133による相関演算での目的変数となる値である。最大振り角比306とは、エピソードID302において前回の試行ID301での振り角303の最大値と、今回の振り角303との比である。たとえば、試行ID:Tr1での最大振り角をエピソードID:ep11の振り角303(2×θ11_1)とする。今回の振り角303を、試行ID:Tr2のエピソード:ep2mの振り角303(2×θ2m_1)とすると、その最大振り角比306(r2m_1)は、
r2m_1=θ2m_1/θ11_1
となる。
なお、初回の試行ID:Tr1については、前回の試行ID301の振り角303がないため、最大振り角比306は格納されない(NA(Not Available))。または、初期設定において前回の最大振り角を任意に設定しておくことにより、最大振り角比306を格納してもよい。
また、入出力データテーブル300には、振り角比が格納されてもよい。振り角比は、相関演算部133による相関演算での説明変数となりうる値である。振り角比は、前回の振り角と今回の振り角との比である。たとえば、エピソードID:ep11において、前回の振り角303(2×θ11_1)と今回の振り角303(2×θ11_2)との振り角比306であるr11_2は、
r11_2=θ11_2/θ11_1
となる。
なお、エピソードID302において初回については、前回の振り角303がないため、振り角比は格納されない(NA(Not Available))。または、初期設定において前回の振り角303を任意に設定しておくことにより、初回の振り角比を格納してもよい。
図4は、試行状態管理テーブル400の記憶内容例を示す説明図である。試行状態管理テーブル400は、試行IDフィールド301と、エピソードIDフィールド302と、計測漕ぎ動作フィールド403と、選択漕ぎ動作フィールド404と、を有する。各フィールド301,302,403,404の列には、当該フィールドの値が格納されている。
計測漕ぎ動作フィールド403は、計測漕ぎ動作を格納する記憶領域である。計測漕ぎ動作403とは、エピソードでの膝角度計測値304に対応する漕ぎ動作である。具体的には、たとえば、計測漕ぎ動作403は、膝角度計測値304をあるしきい値角度で2値化処理した値である。ここでは、例として、漕ぎ動作を「0」、立ち動作を「1」とする。計測漕ぎ動作403は、振り角の位相毎に格納される。計測漕ぎ動作403は、相関演算部133による相関演算での説明変数となりうる値である。
選択漕ぎ動作フィールド404は、選択漕ぎ動作を格納する記憶領域である。選択漕ぎ動作404とは、エピソードで行動選択部123によって選択された漕ぎ動作である。選択漕ぎ動作404は、振り角303の位相毎に格納される。同一エントリにおいて、選択漕ぎ動作404でロボットが制御された場合の膝角度の実測値を2値化した値が計測漕ぎ動作403である。
<強化学習処理手順例>
図5は、設定部110および強化学習部120による強化学習処理手順例を示すフローチャートである。図5は、1回の試行における強化学習処理手順例を示す。設定部110は、第1記憶デバイス212からの自動読込またはユーザの手入力により、初期設定を実行する(ステップS501)。初期設定では、たとえば、1回の試行での学習係数α、割引率γ、最大エピソード数、エピソード終了条件、初期報酬、動作環境102に与えるパラメータ、制御対象101に与えるパラメータが設定される。
強化学習部120は、初期設定が完了すると、エピソードを開始する(ステップS502)。そして、強化学習部120は、取得部121により、制御対象101からセンサデータを計測し、報酬生成部130に送信する(ステップS503)。センサデータとは、1周期の振り角およびロボットの位相毎の膝角度計測値を含む。
つぎに、強化学習部120は、評価値更新部122により、報酬生成部130から報酬rが受信されたか否かを判断する(ステップS504)。受信されていない場合(ステップS504:No)、ステップS506に移行する。一方、受信された場合(ステップS505:Yes)、強化学習部120は、評価値更新部122により、報酬rを、受信した報酬rに更新して(ステップS505)、ステップS506に移行する。
つぎに、強化学習部120は、評価値更新部122により、位相毎に行動価値関数を用いて評価値を算出し(ステップS506)、算出した今回の評価値を最新の評価値Qとして保持する(ステップS507)。
つぎに、強化学習部120は、行動選択部123により、位相単位で制御対象101の次の周期での行動aを選択する(ステップS508)。行動選択部123は、選択行動の情報を報酬生成部130に送信する。
つぎに、強化学習部120は、制御部124により、各選択行動に応じた制御指令値を生成して制御対象101に送信する(ステップS509)。
そして、強化学習部120は、設定部110によって設定されたエピソードの終了条件に一致するか否かを判断する(ステップS510)。一致しない場合(ステップS510:No)、ステップS503に戻る。一致した場合(ステップS510:Yes)、強化学習部120は、当該エピソードの終了通知を報酬生成部130に送信する(ステップS511)。そして、強化学習部120は、設定部110によって設定された最大エピソード数に到達したか否かを判断する(ステップS512)。到達してない場合(ステップS512:No)、ステップS502に戻る。到達した場合(ステップS512:Yes)、強化学習部120は、当該試行を終了する。
<報酬生成処理手順例>
図6は、報酬生成部130による報酬生成処理手順例を示すフローチャートである。報酬生成部130は、テーブル更新部132により、ステップS503で送信された位相毎のセンサデータおよびステップS508で送信された位相毎の選択行動の情報を取得する(ステップS601)。ステップS503で送信されたセンサデータには1周期の振り角およびロボットの位相毎の膝角度計測値が含まれる。具体的には、たとえば、報酬生成部130は、テーブル更新部132により、入出力データテーブル300の現在の試行ID301における現在のエピソードID302のエントリにおいて、取得した1周期の振り角を振り角フィールド303に格納し、位相毎の膝角度計測値を膝角度計測値フィールド304に格納する。また、報酬生成部130は、テーブル更新部132により、試行状態管理テーブル400の現在の試行ID301における現在のエピソードID302のエントリにおいて、位相毎の選択行動の情報(「0」(漕)または「1」(立))を選択漕ぎ動作フィールド404に格納する。
つぎに、報酬生成部130は、テーブル更新部132により、特徴データを生成する(ステップS602)。具体的には、たとえば、報酬生成部130は、テーブル更新部132により、入出力データテーブル300の現在の試行ID301における現在のエピソードID302のエントリに格納されたロボットの位相毎の膝角度計測値304を2値化処理する。これにより、報酬生成部130は、テーブル更新部132により、「0」(漕)または「1」(立)のいずれかを示す値を特徴データとして生成する。そして、報酬生成部130は、テーブル更新部132により、試行状態管理テーブル400の現在の試行ID301における現在のエピソードID302のエントリにおいて、計測漕ぎ動作403に、生成した特徴データを格納する。
また、報酬生成部130は、テーブル更新部132により、現在のエピソードにおいて最大振り角比306を特徴データとして算出し、入出力データテーブル300の現在の試行ID301における現在のエピソードID302のエントリに格納する。
つぎに、報酬生成部130は、強化学習部120から送信されたエピソード終了通知(ステップS511)を受信したか否かを判断する(ステップS603)。受信していない場合(ステップS603:No)、ステップS601に戻る。一方、受信した場合(ステップS603:Yes)、報酬生成部130は、終了エピソード数をインクリメントすることで更新する(ステップS604)。報酬生成部130は、終了エピソード数がしきい値以上であるか否かを判断する(ステップS605)。しきい値以上でない場合(ステップS605:No)、ステップS601に戻り、つぎのエピソードID302についてステップS601を実行する。
一方、終了エピソード数がしきい値以上である場合(ステップS605:Yes)、報酬生成部130は、相関演算部133により、相関情報を演算する(ステップS606)。終了エピソード数がしきい値以上である場合(ステップS605:Yes)、現在の試行ID301においてしきい値と同じ終了エピソード数分のエピソードID302のエントリが、入出力データテーブル300および試行状態管理テーブル400に存在する。
したがって、報酬生成部130は、相関演算部133により、位相毎の漕ぎ動作(計測漕ぎ動作403)と最大振り角比306との相関を示す相関情報を算出する。具体的には、たとえば、試行ID301が「Tr1」である試行について終了エピソード数がしきい値以上となった場合、エピソードep11〜ep1mまでの位相毎の計測漕ぎ動作403および最大振り角比306(r11_11〜r1m_y)が得られる。相関情報の一例として相関係数Rを求める場合、下記式により位相毎に相関係数Rが求められる。
Figure 0006706173
xiは、ある位相での計測漕ぎ動作403、xavは、ある試行ID301での計測漕ぎ動作403の平均、yiは、ある位相での最大振り角比306、yavは、ある試行ID301での最大振り角比306の平均、nは、ある試行ID301での振り角303が得られた回数である。なお、ここでは、計測漕ぎ動作403と最大振り角比306との相関を求めたが、膝角度計測値304と最大振り角比306との相関でもよく、また、振り角と最大振り角比306との相関でもよい。
つぎに、報酬生成部130は、報酬演算部134により、位相毎に報酬rを演算する(ステップS607)。具体的には、たとえば、報酬生成部130は、報酬演算部134により、相関情報に応じた報酬rを算出する。相関情報が、たとえば、相関係数Rとすると、その範囲は、−1≦R≦1である。報酬生成部130は、報酬演算部134により、前回の試行ID301での相関係数Rと今回の試行ID301での相関係数Rとの差分に比例して、報酬rの増分Δrを設定し、今回の報酬rを更新する。つぎに、報酬生成部130は、今回の報酬rを制御対象101に送信し(ステップS608)、終了エピソード数を「0」にリセットし(ステップS609)、ステップS601に戻る。
<データ範囲調整処理手順例>
図7は、調整部140によるデータ範囲調整処理手順例を示すフローチャートである。調整部140は、第1センサデバイス104での外乱の検出を待ち受ける(ステップS701:No)。外乱が検出された場合(ステップS701:Yes)、調整部140は、外乱検出回数をインクリメントすることで更新する(ステップS702)。つぎに、調整部140は、外乱検出回数が上限しきい値以上であるか否かを判断する(ステップS703)。上限しきい値以上でない場合(ステップS703:No)、ステップS705に移行する。一方、上限しきい値以上である場合(ステップS703:Yes)、調整部140は、最大エピソード数を所定数減少させる指示データを強化学習部120に送信して(ステップS704)、ステップS705に移行する。これにより、強化学習部120は、最大エピソード数を減少させて強化学習を実行することになる。すなわち、ステップS512では、減少後の最大エピソード数が採用される。
このあと、調整部140は、外乱検出回数が下限しきい値以下であるか否かを判断する(ステップS705)。下限しきい値以下でない場合(ステップS705:No)、ステップS701に戻る。一方、下限しきい値以下である場合(ステップS705:Yes)、最大エピソード数を所定数増加させる指示データを強化学習部120に送信して(ステップS706)、ステップS701に戻る。これにより、強化学習部120は、最大エピソード数を増加させて強化学習を実行することになる。すなわち、ステップS512では、増加後の最大エピソード数が採用される。
以上説明したように、本実施例によれば、報酬設定の手間の軽減化を図ることができる。これにより、制御対象101を、獲得してほしい動作を実行するように制御することができる。
また、上述した実施例では、制御対象101としてブランコを漕ぐロボットを例に挙げて説明したが、制御対象101は、たとえば、自動車、バイク、スクーター、電動アシスト自転車、電車、船舶、飛行機といった移動体でもよい。この場合、強化学習における行動aは、移動体を移動させるために移動体に与えられる入力データである。自動車の場合、行動aである入力データは、たとえば、ステアリングホイール(ハンドル)の角度やアクセルペダルの踏込角度、ブレーキペダルの踏込角度である。状態sは移動体が行動aにより移動体が移動した場合の移動体の動作に関する出力データである。自動車の場合、状態sは、たとえば、先行車との車間距離である。
また、制御対象101が物品をピッキングするアームを有する産業用ロボットである場合、行動aはアームの肘角度または肘角度を2値化したデータ(肘角度に関する情報)であり、状態sはアームの先端が物品の位置となるように制御するアームの可動範囲内における動作角度となる。
また、行動a(漕ぎ動作)と状態s(最大振り角)の相関に基づいて報酬を生成することにより、目的達成に特に関わる制御指令値(たとえば、アクチュエータ223に与える電流値)が出やすいように報酬rが更新される。したがって、制御対象101の制御の高速化を図ることができる。
また、制御対象101の周囲で検出された外乱に基づいて、行動aおよび状態sによる制御対象101の動作が開始してから収束するまでの動作単位(エピソード)の実行回数を増減するように調整する。これにより、外乱の影響を、最大エピソード数に反映して、強化学習の期間を設定することができる。たとえば、外乱の発生頻度が高い場合、目的達成ができない状況が継続することとなる。この場合、最大エピソード数を減少させることで、報酬rの計算に用いるエピソードを直近のエピソードに制限することができる。逆に、外乱の発生頻度が低い場合、最大エピソード数を増加させることで、報酬rの計算に用いるデータ範囲の拡大を図ることができる。
なお、本発明は前述した実施例に限定されるものではなく、添付した特許請求の範囲の趣旨内における様々な変形例及び同等の構成が含まれる。例えば、前述した実施例は本発明を分かりやすく説明するために詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに本発明は限定されない。また、ある実施例の構成の一部を他の実施例の構成に置き換えてもよい。また、ある実施例の構成に他の実施例の構成を加えてもよい。また、各実施例の構成の一部について、他の構成の追加、削除、または置換をしてもよい。
また、前述した各構成、機能、処理部、処理手段等は、それらの一部又は全部を、例えば集積回路で設計する等により、ハードウェアで実現してもよく、プロセッサがそれぞれの機能を実現するプログラムを解釈し実行することにより、ソフトウェアで実現してもよい。
各機能を実現するプログラム、テーブル、ファイル等の情報は、メモリ、ハードディスク、SSD(Solid State Drive)等の記憶装置、又は、IC(Integrated Circuit)カード、SDカード、DVD(Digital Versatile Disc)の記録媒体に格納することができる。
また、制御線や情報線は説明上必要と考えられるものを示しており、実装上必要な全ての制御線や情報線を示しているとは限らない。実際には、ほとんど全ての構成が相互に接続されていると考えてよい。
100 制御システム
101 制御対象
102 動作環境
103 制御装置
104 センサデバイス
110 設定部
120 強化学習部
121 取得部
122 評価値更新部
123 行動選択部
124 制御部
130 報酬生成部
131 テーブル
132 テーブル更新部
133 相関演算部
134 報酬演算部
140 調整部
300 入出力データテーブル
400 試行状態管理テーブル

Claims (6)

  1. 制御指令値に基づく行動により状態を得る制御対象を制御する制御装置であって、
    プログラムを実行するプロセッサと、前記プログラムを記憶する記憶デバイスと、前記制御対象と通信する通信インタフェースと、を有し、
    前記プロセッサは、
    前記制御対象から前記制御対象の前記状態を示す第1センサデータと前記行動を示す第2センサデータとを取得する取得処理と、
    前記取得処理によって取得された第1センサデータと過去の第1センサデータとに基づく第1特徴データと、前記第2センサデータに基づく第2特徴データと、の相関に基づいて、前記制御対象の次の行動が前記制御対象の次の状態を最適化する報酬を生成する生成処理と、
    記制御対象の前記状態を示す第1センサデータと、前記行動を示す第2センサデータと、前記生成処理によって生成された報酬とに基づいて、行動価値関数により評価値を更新する評価値更新処理と、
    前記評価値更新処理による更新前後の評価値を比較することにより、前記制御対象の次の行動を選択する選択処理と、
    前記選択処理によって選択された前記制御対象の前記次の行動に応じた制御指令値を前記制御対象に与える制御処理と、
    を実行することを特徴とする制御装置。
  2. 請求項1に記載の制御装置であって、
    前記制御対象移動体であり、前記行動は前記移動体を移動させるために前記移動体に与えられる入力データであり、前記状態は前記移動体が前記行動により前記移動体が移動した場合の前記移動体の動作に関する出力データであることを特徴とする制御装置。
  3. 請求項1に記載の制御装置であって、
    前記制御対象物品をピッキングするアームを有、前記行動は前記アームの肘角度に関する情報であり、前記状態は前記アームの先端が前記物品の位置となるように制御する前記アームの動作角度であることを特徴とする制御装置。
  4. 請求項1に記載の制御装置であって、
    前記プロセッサは、前記行動を示す第2センサデータおよび前記状態を示す第1センサデータによる前記制御対象の動作が開始してから収束するまでの動作単位を繰り返し実行し、
    前記プロセッサは、
    前記制御対象の周囲の外乱を検出する検出処理と、
    前記検出処理によって検出された外乱に基づいて、前記動作単位の実行回数を増減するように調整する調整処理と、
    を実行することを特徴とする制御装置。
  5. 制御指令値に基づく行動により状態を得る制御対象を制御する制御装置による制御方法であって、
    前記制御装置は、プログラムを実行するプロセッサと、前記プログラムを記憶する記憶デバイスと、前記制御対象と通信する通信インタフェースと、を有し、
    前記プロセッサは、
    前記制御対象から前記制御対象の前記状態を示す第1センサデータと前記行動を示す第2センサデータとを取得する取得処理と、
    前記取得処理によって取得された第1センサデータと過去の第1センサデータとに基づく第1特徴データと、前記第2センサデータに基づく第2特徴データと、の相関に基づいて、前記制御対象の次の行動が前記制御対象の次の状態を最適化する報酬を生成する生成処理と、
    前記制御対象の前記状態を示す第1センサデータと、前記行動を示す第2センサデータと、前記生成処理によって生成された報酬と、に基づいて、行動価値関数により評価値を更新する評価値更新処理と、
    前記評価値更新処理による更新前後の評価値を比較することにより、前記制御対象の次の行動を選択する選択処理と、
    前記選択処理によって選択された前記制御対象の前記次の行動に応じた制御指令値を前記制御対象に与える制御処理と、
    を実行することを特徴とする制御方法。
  6. 制御指令値に基づく行動により状態を得る制御対象を制御するプロセッサに、
    前記制御対象から前記制御対象の前記状態を示す第1センサデータと前記行動を示す第2センサデータとを取得する取得処理と、
    前記取得処理によって取得された第1センサデータと過去の第1センサデータとに基づく第1特徴データと、前記第2センサデータに基づく第2特徴データと、の相関に基づいて、前記制御対象の次の行動が前記制御対象の次の状態を最適化する報酬を生成する生成処理と、
    前記制御対象の前記状態を示す第1センサデータと、前記行動を示す第2センサデータと、前記生成処理によって生成された報酬と、に基づいて、行動価値関数により評価値を更新する評価値更新処理と、
    前記評価値更新処理による更新前後の評価値を比較することにより、前記制御対象の次の行動を選択する選択処理と、
    前記選択処理によって選択された前記制御対象の前記次の行動に応じた制御指令値を前記制御対象に与える制御処理と、
    を実行させることを特徴とする制御プログラム。
JP2016156147A 2016-08-09 2016-08-09 制御装置、制御方法、および制御プログラム Active JP6706173B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2016156147A JP6706173B2 (ja) 2016-08-09 2016-08-09 制御装置、制御方法、および制御プログラム
US15/670,175 US10549421B2 (en) 2016-08-09 2017-08-07 Control device, control method, and non-transitory recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016156147A JP6706173B2 (ja) 2016-08-09 2016-08-09 制御装置、制御方法、および制御プログラム

Publications (2)

Publication Number Publication Date
JP2018024036A JP2018024036A (ja) 2018-02-15
JP6706173B2 true JP6706173B2 (ja) 2020-06-03

Family

ID=61160753

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016156147A Active JP6706173B2 (ja) 2016-08-09 2016-08-09 制御装置、制御方法、および制御プログラム

Country Status (2)

Country Link
US (1) US10549421B2 (ja)
JP (1) JP6706173B2 (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6811688B2 (ja) * 2017-06-30 2021-01-13 株式会社日立製作所 複数動作ユニット統合装置、およびその制御方法、並びに自律学習型ロボット装置
JP7225923B2 (ja) * 2019-03-04 2023-02-21 富士通株式会社 強化学習方法、強化学習プログラム、および強化学習システム
JP7379833B2 (ja) 2019-03-04 2023-11-15 富士通株式会社 強化学習方法、強化学習プログラム、および強化学習システム
JP7128152B2 (ja) * 2019-06-14 2022-08-30 株式会社東芝 学習方法及びプログラム
KR102169876B1 (ko) * 2020-05-22 2020-10-27 주식회사 애자일소다 조건부 에피소드 구성을 이용한 강화학습 장치 및 방법

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003340760A (ja) 2002-05-20 2003-12-02 Sony Corp ロボット装置およびロボット制御方法、記録媒体、並びにプログラム
JP4746349B2 (ja) * 2005-05-18 2011-08-10 日本電信電話株式会社 ロボット行動選択装置及びロボット行動選択方法
JP6285849B2 (ja) * 2014-11-17 2018-02-28 日本電信電話株式会社 行動制御システム、その方法及びプログラム
WO2016103308A1 (ja) * 2014-12-26 2016-06-30 川崎重工業株式会社 ロボットシステム
DE102016009030B4 (de) * 2015-07-31 2019-05-09 Fanuc Corporation Vorrichtung für maschinelles Lernen, Robotersystem und maschinelles Lernsystem zum Lernen eines Werkstückaufnahmevorgangs
JP6549545B2 (ja) * 2016-10-11 2019-07-24 ファナック株式会社 人の行動を学習してロボットを制御する制御装置およびロボットシステム

Also Published As

Publication number Publication date
US20180043531A1 (en) 2018-02-15
US10549421B2 (en) 2020-02-04
JP2018024036A (ja) 2018-02-15

Similar Documents

Publication Publication Date Title
JP6706173B2 (ja) 制御装置、制御方法、および制御プログラム
US9434430B2 (en) Biped walking robot control method and biped walking robot control system
CN109541961B (zh) 针对电力电子混杂系统仿真的离散状态事件驱动仿真方法
US11235461B2 (en) Controller and machine learning device
JP6219182B2 (ja) 入力装置
CN103946672B (zh) 物理量传感器或其装置的输出值修正方法及装置
JP2016538006A5 (ja)
US20120185099A1 (en) Telematic interface with control signal scaling based on force sensor feedback
JP2011003186A5 (ja)
JP2010534881A5 (ja)
JP2010515516A (ja) アンドゥ/リドゥ機構を提供する方法及び装置
JP2016527628A5 (ja)
JP6811465B2 (ja) 学習装置、学習方法、学習プログラム、自動制御装置、自動制御方法および自動制御プログラム
JP2007128318A (ja) 状態推定方法、状態推定装置、状態推定システム及びコンピュータプログラム
CN104048777A (zh) 用于ntc型热敏电阻的温度与电阻值转换方法
JP2021501433A (ja) ターゲットシステム用制御システムの生成
JP7417390B2 (ja) 物体移動装置、工作機械、情報処理装置、情報処理方法および情報処理プログラム
JP2017502390A (ja) データに基づく関数モデルを定めるための方法及び装置
US20210387343A1 (en) Information processing device and information processing method
JPWO2017222070A1 (ja) 作業分析装置、作業分析方法、及びプログラム
JP2014214566A5 (ja) ショベルの処理装置及び作業内容判定方法
JP6410693B2 (ja) 入力装置とその制御方法及びプログラム
WO2020121494A1 (ja) 演算装置、アクション決定方法、及び制御プログラムを格納する非一時的なコンピュータ可読媒体
CN111151000A (zh) 操作杆调整方法、装置、设备和存储介质
CN109434840A (zh) 一种基于样条曲线的机器人自由路径生成方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181029

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20191030

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191203

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200203

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200303

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200331

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200421

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200515

R150 Certificate of patent or registration of utility model

Ref document number: 6706173

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150