JP6464447B2 - 観測値の予測装置及び観測値の予測方法 - Google Patents

観測値の予測装置及び観測値の予測方法 Download PDF

Info

Publication number
JP6464447B2
JP6464447B2 JP2013181269A JP2013181269A JP6464447B2 JP 6464447 B2 JP6464447 B2 JP 6464447B2 JP 2013181269 A JP2013181269 A JP 2013181269A JP 2013181269 A JP2013181269 A JP 2013181269A JP 6464447 B2 JP6464447 B2 JP 6464447B2
Authority
JP
Japan
Prior art keywords
observation
value
state
time
distribution
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2013181269A
Other languages
English (en)
Other versions
JP2015049726A (ja
Inventor
友昭 中村
友昭 中村
長井 隆行
隆行 長井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
THE UNIVERSITY OF ELECTRO-COMUNICATINS
Honda Motor Co Ltd
Original Assignee
THE UNIVERSITY OF ELECTRO-COMUNICATINS
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by THE UNIVERSITY OF ELECTRO-COMUNICATINS, Honda Motor Co Ltd filed Critical THE UNIVERSITY OF ELECTRO-COMUNICATINS
Priority to JP2013181269A priority Critical patent/JP6464447B2/ja
Priority to US14/467,151 priority patent/US20150066821A1/en
Publication of JP2015049726A publication Critical patent/JP2015049726A/ja
Application granted granted Critical
Publication of JP6464447B2 publication Critical patent/JP6464447B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N7/00Computing arrangements based on specific mathematical models
    • G06N7/01Probabilistic graphical models, e.g. probabilistic networks

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Pure & Applied Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Algebra (AREA)
  • Mathematical Analysis (AREA)
  • Mathematical Optimization (AREA)
  • Computational Mathematics (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Probability & Statistics with Applications (AREA)
  • Testing And Monitoring For Control Systems (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Description

本発明は、ロボットなどに使用される、観測値の予測装置及び観測値の予測方法に関する。
たとえば、ロボットが物体に動作を行いその結果物体が移動する場合に、ロボット自身の身体の時系列情報、及び視覚によって観測される物体の時系列情報から、ロボットの動作と物体の軌道との関連性を隠れマルコフモデルを使用して学習することで物理的な知識を獲得する方法が開発されている(たとえば、非特許文献1)。上記の方法を含む従来の方法は、学習した軌道を汎化し再現することによって軌道を生成する。したがって、従来の方法では、学習に含まれていないロボットの未知の動作から物体の未知の軌道を生成することはできない。すなわち、物体の軌道を観測対象と考えると、学習していない未知の観測値を予測することはできない。このように、従来、学習していない未知の観測値を予測することのできる予測装置及び予測方法は開発されていない。
杉浦孔明、岩橋直人、柏岡秀紀、"物体操作タスクのためのペナルティ項付き尤度最大化によるHMM軌道生成,"計測自動制御学会システムインテグレーション部門講演会、pp.2305-2306, 2012
このように、学習していない未知の観測値を予測することのできる予測装置及び予測方法は実用化できていなかった。そこで、学習していない未知の観測値を予測することのできる予測装置及び予測方法に対するニーズがある。
本発明の一態様による予測装置は、観測対象の位置に関する時刻tにおける観測対象観測値y2tと、前記観測対象に対して動作を行う動作部の位置に関する動作観測値y1tと、を取得する観測部と、前記動作観測値y1tの時系列データと前記観測対象観測値y2tの時系列データから、前記観測対象と前記動作部の状態sを表すモデルであって、複数の状態間の遷移確率P(s|s,β,α)であって、前記複数の状態それぞれに対応した、前記動作観測値y1tの確率分布P(y1t|s,Y1,−t,H)と前記観測対象観測値y2tの確率分布P(y2t|s,Y2,−t,H)を含む前記モデルの前記遷移確率P(s|s,β,α)及び前記観測対象観測値y2tの確率分布P(y2t|s,Y2,−t,H)と前記動作観測値y1tの確率分布P(y1t|s,Y1,−t,H)を学習する学習部と、所定の時刻よりも前の時刻における前記動作観測値y1tと前記観測対象観測値y2tそれぞれの時系列データを使用し、前記遷移確率P(s|s,β,α)に基づいて前記所定の時刻の前記観測対象と前記動作部の状態sを予測し、前記観測対象観測値y2tの確率分布P(y2t|s,Y2,−t,H)の分散と平均と、前記動作観測値y1tの確率分布P(y1t|s,Y1,−t,H)の分散と平均と、に基づいて前記観測対象と前記動作部の状態sに対応する前記所定の時刻における前記観測対象の位置p2,tを、式(数1)を用いて予測する予測部と、を備え、
Figure 0006464447
前記式(数1)において、前記p2,t−1は、時刻tよりも前の時刻t−1における前記観測対象の位置であり、Σ’,μ’は、状態sに対応した確率分布P(y2t|s,Y2,−t,H)の分散と平均であり、前記モデルは、隠れマルコフモデルにディリクレ過程を導入し、さらに複数の対象の観測を仮定したマルチモーダル階層ディリクレ過程隠れマルコフモデルであり、前記学習部は、時刻tの状態sにおいて、状態sを除いた残りを条件とした式(数2)の条件付き確率P(s|s−t,β,Y,Y,α,H、H)から状態sをサンプリングして、前記式(数2)におけるP(y1t|s,s−t,Y1,−t,H)とP(y2t|s,s−t,Y2,−t,H)それぞれをベイズ推定によって式(数3)で表した場合に、前記観測対象観測値y2tおよび前記動作観測値y1tを決定する確率分布P(y1t|s,Y1,−t,H)と確率分布P(y2t|s,Y2,−t,H)のパラメータθstの更新を行って、前記式(数1)における前記遷移確率P(s|s,β,α)と前記動作観測値y1tの確率分布P(y1t|s,Y1,−t,H)と前記観測対象観測値y2tの確率分布P(y2t|s,Y2,−t,H)を学習し、
Figure 0006464447
前記式(数2)において、前記H 、前記Hガウス−ウィシャート分布のパラメータであり、前記βは前記γをパラメータとするGEM分布によって生成された値であり、前記αと前記γは事前分布としてγ分布を仮定し事後確率からサンプリングして求めた値であり、前記Yは前記動作観測値y1tの集合であり、前記Yは前記観測対象観測値y2tの集合であり、前記s−tは前記状態sを除いた全時刻の状態を表し、前記Y1,−t、前記Y2,−tは、それぞれ前記Y、前記Yから前記動作観測値y1t、前記観測対象観測値y2tを除いた残りを表し、
Figure 0006464447
前記式(数3)において、前記θst’は、状態sに対応したガウス分布の事後パラメータであり、*は1または2である。また、本発明の一態様による予測装置において、前記予測部は、時刻t−1の状態st−1と、その時刻における前記観測対象の位置p2,t−1が与えられた場合、時刻tでの物体の位置p2,tの期待値を、式(数4)を用いて前記観測対象の軌跡を予測することで、前記観測対象の位置を予測するようにしてもよい。
Figure 0006464447
本態様の予測装置によれば、観測対象の状態を表すモデルであって、複数の状態間の遷移確率、及びそれぞれの状態に対応した、観測値の確率分布を含むモデルを使用することにより、学習していない未知の観測値を予測することができる。
本発明の様による予測装置において、前記予測部は、前記所定の時刻の前記観測対象と前記動作部それぞれの状態及び該状態に対応した前記動作観測値 1t と前記観測対象観測値y 2t それぞれの複数のサンプリング値を求め、該複数のサンプリング値の平均値を観測値の予測値とするように構成されている。
本実施形態によれば、複数のサンプリング値の平均値を観測値の予測値とすることにより簡単に予測値を求めることができる。
本発明の様による予測装置において、前記動作観測値 1t と前記観測対象観測値y 2t それぞれは、位置と速度とを含み、前記予測部は、前記動作観測値 1t の確率分布P(y 1t |s,Y 1,−t ,H )と前記観測対象観測値y 2t の確率分布P(y 2t |s,Y 2,−t ,H を使用して予測を行うように構成されている。
本実施形態によれば、動的制約を満たした物体の位置を生成することができるので、滑らかな物体の軌道を生成することができる。
本実施形態によれば、状態数をあらかじめ決める必要がなく、学習データの複雑さに応じて最適な状態数が推定される。
本発明の一態様による予測方法は、観測対象と前記観測対象に対して動作を行う動作部の状態sを表すモデルであって、複数の状態間の遷移確率P(s|s,β,α)、及び前記複数の状態それぞれに対応した、前記動作部の位置に関する時刻tにおける動作観測値y1tの確率分布P(y1t|s,Y1,−t,H)と前記観測対象の位置に関する時刻tにおける観測対象観測値y2tの確率分布P(y2t|s,Y2,−t,H)を含むモデルを使用して前記観測対象の位置p2,tを予測する予測方法であって、前記観測対象観測値y2tと、前記動作観測値y1tと、を取得するステップと、前記動作観測値y1tの時系列データと前記観測対象観測値y2tの時系列データから、前記モデルの前記遷移確率P(s|s,β,α)及び前記観測対象観測値y2tの確率分布P(y2t|s,Y2,−t,H)と前記動作観測値y1tの確率分布P(y1t|s,Y1,−t,H)を学習するステップと、所定の時刻よりも前の時刻における前記動作観測値y1tと前記観測対象観測値y2tそれぞれの時系列データを使用し、前記遷移確率P(s|s,β,α)に基づいて前記所定の時刻の前記観測対象と前記動作部の状態sを予測し、前記観測対象観測値y2tの確率分布P(y2t|s,Y2,−t,H)の分散と平均と、前記動作観測値y1tの確率分布P(y1t|s,Y1,−t,H)の分散と平均と、に基づいて前記観測対象と前記動作部の状態に対応する前記所定の時刻における前記観測対象の位置p2,tを、式(数5)を用いて予測するステップと、を含み、
Figure 0006464447
前記式(数5)において、前記p2,t−1は、時刻tよりも前の時刻t−1における前記観測対象の位置であり、Σ’,μ’は、状態sに対応した確率分布P(y2t|s,Y2,−t,H)の分散と平均であり、前記モデルは、隠れマルコフモデルにディリクレ過程を導入し、さらに複数の対象の観測を仮定したマルチモーダル階層ディリクレ過程隠れマルコフモデルであり、前記学習するステップは、時刻tの状態sにおいて、状態sを除いた残りを条件とした式(数6)の条件付き確率P(s|s−t,β,Y,Y,α,H、H)から状態sをサンプリングして、前記式(数)におけるP(y1t|s,s−t,Y1,−t,H)とP(y2t|s,s−t,Y2,−t,H)それぞれをヘイズ推定によって式(数7)で表した場合に、前記観測対象観測値y2tおよび前記動作観測値y1tを決定する確率分布P(y1t|s,Y1,−t,H)と確率分布P(y2t|s,Y2,−t,H)のパラメータθstの更新を行って、前記式(数6)における前記遷移確率P(s|s,β,α)と前記動作観測値y1tの確率分布P(y1t|s,Y1,−t,H)と前記観測対象観測値y2tの確率分布P(y2t|s,Y2,−t,H)を学習し、
Figure 0006464447
前記式(数6)において、前記H、前記Hはガウス−ウィシャート分布のパラメータであり、前記βは前記γをパラメータとするGEM分布によって生成された値であり、前記αと前記γは事前分布としてγ分布を仮定し事後確率からサンプリングして求めた値であり、前記Yは前記動作観測値y1tの集合であり、前記Yは前記観測対象観測値y2tの集合であり、前記s−tは前記状態sを除いた全時刻の状態を表し、前記Y1,−t、前記Y2,−tは、それぞれ前記Y、前記Yから前記動作観測値y1t、前記観測対象観測値y2tを除いた残りを表し、
Figure 0006464447
前記式(数7)において、前記θst’は、状態sに対応したガウス分布の事後パラメータであり、*は1または2である。
本態様の予測方法によれば、観測対象の状態を表すモデルであって、複数の状態間の遷移確率、及びそれぞれの状態に対応した、観測値の確率分布を含むモデルを使用することにより、学習していない未知の観測値を予測することができる。
本発明の一実施形態による対象の観測値の予測装置の構成を示す図である。 モデルを説明するための図である。 学習部がモデルの学習を行う手順を説明するための流れ図である。 学習部による学習の概念を示す図である。 予測部による予測の手順を示す流れ図である。 観測が行われる時刻Tarm以前の状態と衝突後(時刻Tarm+1以降)の状態とを示す図である。 予測部による予測の概念を示す図である。 アームの軌道及び物体(球)の軌道を示す図である。 学習によって得られた6個の状態を示す図である。 予測部によって生成された既知の軌道を示す図である。 予測部によって生成された既知の軌道を示す図である。
図1は、本発明の一実施形態による対象の観測値の予測装置100の構成を示す図である。観測値の予測装置100は、対象の観測値を取得する観測部101と、対象の状態及び対象の状態と観測値との関係を表現するモデル105と、観測値にしたがってモデル105の学習を行う学習部103と、モデル103を使用して将来の観測値を予測する予測部107と、を含む。モデル105は、たとえば、予測装置100の記憶装置に格納されている。
一例として、ロボットがアームによって物体に対する動作を行う場合に、該アームと該物体を観察対象とする。たとえば、ロボットを正面から見た際の横方向をx軸、縦方向をy軸とし、ロボットの手先のx座標とy座標とそれらの差分の合計4次元をアームの情報(観測値)とし使用し、同様に物体のx座標とy座標とそれらの差分の合計4次元を物体の情報(観測値)として使用する。
観測部101は、撮像装置やロボットの種々のセンサを使用して、アーム及び物体の観測値を取得するように構成される。すなわち、観測部101は、観測対象(たとえば、物体)の観測値を取得し、必要に応じてその他のデータ(たとえば、ロボットのアームの位置情報)も取得する。
予測装置100は、ロボットが物体に触れた際の自身の身体の動きと物体の動きを観測することで、それらの関係を学習し予測を行う。学習により、ロボットは、丸い物体は触れば転がるといったこと、より強い力で触れればより遠くまで転がるといったこと、また四角い物体や重い物体は転がりにくいといったことなどの「知識」を獲得することができる。もちろん、物体の動きは、物理シミュレーションを行えば高精度に予測することができる。しかし、物理シミュレーションには、物体の質量や摩擦係数など、直接観測することが困難なパラメータが必要となる。他方、人間は、そのようなパラメータを使用せずに、視覚から得られる情報から、経験を通して獲得した知識を用いることで、物体の動き(軌道)を予測することができる。したがって、ロボットにも、上述の予測装置100による学習及び予測は重要である。
予測装置100は、上述のように、アームの位置の時系列情報と、観測部101から得られる物体の位置の時系列情報を使用する。これまで、このような物体の軌道や、ロボットの動作などの学習には隠れマルコフモデル(Hidden Markov Model, HMM)が使用されてきた(杉浦孔明、岩橋直人、柏岡秀紀、“物体操作タスクのためのペナルティ項付き尤度最大化によるHMM軌道生成,”計測自動制御学会システムインテグレーション部門講演会、pp.2305-2306, 2012)。HMMでは予め状態数を与えなければならない。しかし、本実施形態においては、ロボットの動作や物体によって最適な状態数は異なるため、予め状態数を設定することは困難である。そこで、予測装置100は、HMMに階層ディリクレ過程(Hierarchical Dirichlet Process, HDP)を導入した階層ディリクレ過程隠れマルコフモデル(HDP−HMM)を使用する(M.J. Beal, Z. Ghahramani, and C.E. Rasmussen, “The infinite hidden Markov model”, Advances in neural information processing systems, pp.577-584, 2001)。HDP−HMMは、状態数をあらかじめ決めることなく、学習データの複雑さに応じて最適な状態数を推定可能なモデルである。本実施形態では、HDP−HMMを、さらに、物体やロボット自身の動作(すなわち、アームの動き)といった複数の時系列情報を学習可能なMultimordalHDP−HMM(MHDP−HMM)へと拡張し、教師なしでロボット自身の動作と物体の軌道の学習を行う。
このように複数の情報をMHDP−HMMにより学習することで、一つの情報から未観測の他の情報を確率的に予測することが可能となる。たとえば、実際にロボットは行動しなくとも、自身の行動のみから物体がどのように動くかを予測することができる。物体の軌道の予測は、得られた情報から未来の状態を予測し、その状態と対応した物体の軌道を生成することで実現できる。
図2は、モデル105を説明するための図である。モデル105は、HMMにディリクレ過程を導入し、無限の状態を持つモデルへと拡張し、さらに複数の対象の観測を仮定したMHDP−HMMである。図2において、
Figure 0006464447
が状態を表し、
Figure 0006464447

Figure 0006464447
が各状態から出力される観測値であり、y1*がロボットアームの情報、y2*が物体の情報である。各状態
Figure 0006464447
は無限の状態
Figure 0006464447
をとることが可能であり、πが状態kから各状態へ遷移する確率を表す。このπは、γをパラメータとするGEM分布(Stick Breaking Process)によって生成されたβ、及びαをパラメータとするDirichlet Process(DP)から生成される(持橋 大地、“最近のベイズ理論の進展と応用(III)ノンパラメトリックベイズ”http://www.ism.ac.jp/~daichi/paper/ieice10npbayes.pdf
上田 修巧、他1名、“ノンパラメトリックベイズモデル”http://www.kecl.ntt.co.jp/as/members/yamada/dpm_ueda_yamada2007.pdf
Yee Whye Teh、 他3名、 “Hierarchical Dirichlet Processes” http://www.cs.berkeley.edu/~jordan/papers/hdp.pdf)。
Figure 0006464447
ここでα及びγについては、事前分布としてγ分布を仮定し、その事後確率からサンプリングしている(Yee Whye Teh、 他3名、 “Hierarchical Dirichlet Processes” http://www.cs.berkeley.edu/~jordan/papers/hdp.pdf )。
時刻tの状態sは、t-1の状態st−1と遷移確率πによって決定される。また、θは、観測値y*tを生成する確率分布のパラメータであり、ここではガウス分布の平均と分散を仮定している。さらに、ガウス分布の事前分布として、ガウス―ウィシャート分布を仮定しており、そのパラメータがHである。すなわち、以下の関係が成立する。
Figure 0006464447
Mは多項分布、式(4)のPはガウス―ウィシャート分布、Nはガウス分布を表す。モデル105において、遷移確率πとガウス分布のパラメータθ*kが学習によって求められる。
つぎに、モデル105の学習について説明する。学習はギブスサンプリングにより、各時刻tの状態sをサンプリングすることで実現する。ギブスサンプリングでは、sを除いた残りを条件とした以下の条件付き確率からsをサンプリングする。
Figure 0006464447
ただし、Y、Yはそれぞれ、全観測データの集合である。また、添字-tは時刻tの状態を除いた残りを意味する。すなわち、s−tは、sを除いた全時刻の状態を表し、
1,-t、Y2,-tは、それぞれY、Yからy1t、y2tを除いた残りを表している。式(6)における
Figure 0006464447
は、ヘイズ推定より以下の式で表せる。
Figure 0006464447
また、状態遷移確率である
Figure 0006464447
は、状態iからjへ遷移した回数をnijとして以下の式で表せる。
Figure 0006464447
ただし、Kは現在の状態数であり、k=K+1の場合には新たな状態を生成することを意味する。
式(6)は、式(7)によって表される空間的制約と状態遷移確率の式によって表される時間的制約を考慮している。
学習はランダムな初期値から始め、式(6)によるサンプリングを繰り返すことで遷移確率
Figure 0006464447
と、状態に対応した、観測値を出力する確率分布
Figure 0006464447
と、を得ることができる。また、本実施形態では、ハイパーパラメータα及びβもサンプリングするここで推定を行っている(Y.W. The, M.I. Jordan, M.J. Beal, and D.M. Blei, “Hierarchical Dirichlet processes,” Journal of the American Statistical Association, vol.101, no.101, no.476, pp.1566-1581, 2006)。
図3は、学習部103がモデル105の学習を行う手順を説明するための流れ図である。
ここで、状態sと対応したガウス分布の事後分布のパラメータをθ’stとする。すなわち、以下の式が成立する。
Figure 0006464447
さらに、観測データyを加えて事後分布のパラメータを更新することを
Figure 0006464447
と表記し、逆にyを除外して事後分布のパラメータを更新することを
Figure 0006464447
と表記する。
図3のステップS1010において、学習部103は、収束したかどうか判断する。収束したかどうかは具体的に尤度の変化によって判断する。収束した場合には処理を終了する。収束していない場合には、ステップS1020へ進む。
図3のステップS1020において、学習部103は、t=0として時刻を初期化する。
図3のステップS1030において、学習部103は、時刻が所定の時刻Tに達したかどうか判断する。時刻が所定の時刻Tに達していなければステップS1040へ進む。時刻が所定の時刻Tに達していればステップS1010へ戻る。
図3のステップS1040において、学習部103は、状態sからデータyを除きパラメータを更新する。ステップS1040において、--は、1を減ずることを表す。
図3のステップS1050において、学習部103は、式(6)を使用して状態をサンプリングする。
図3のステップS1060において、学習部103は、状態sにデータyを加えパラメータを更新する。ステップS1060において、++は、1を加えることを表す。
図3のステップS1070において、学習部103は、時間の経過にしたがって時刻を変更する。ステップS1070において、++は、時間の増加分を加算することを表す。ステップS1070の処理が終了した後、ステップS1030に戻る。
図4は、学習部103による学習の概念を示す図である。図4(a)は、時間と観測値との関係を示す図である。図4(a)の横軸は時間を表し、縦軸は観測値を表す。図4では、観測値y、yを1次元のxで表している。図4(b)は、状態ごとの確率分布を示す図である。図4(b)の横軸は確率を表し、縦軸は観測値を表す。図4(b)に概念的に示す、状態ごとの観測値の確率分布が学習により得られる。
つぎに、モデル105を使用した、物体の位置の予測について説明する。時刻t-1での物体の位置p2,t−1が与えられた場合、時刻tでの物体の位置p2,tは、以下の式(8)により計算することができる。ただし、ここでは動的特徴として前時刻における位置との差分を考慮し、
Figure 0006464447
とする。
Figure 0006464447
ただし、
Figure 0006464447
は状態sと対応したガウス分布の分散と平均である。ここで、位置p2,t−1が既知であるとすると、式(8)は、位置p2,tのみに依存した式へと変形することができる。
Figure 0006464447
ただし、
Figure 0006464447
とし、
Figure 0006464447
については以下の式が成立する。
Figure 0006464447
上記の平均と分散を持ったガウス分布からサンプリングを行うことで、動的制約を満たした物体の位置p2,tを生成することができる。すなわち、以下の式が成立する。
Figure 0006464447
状態系列が既知であれば、式(14)を使用して、逐次サンプリングを繰り返すことで軌道を生成することが可能である。しかし、物体に与える動作は必ずしも学習に含まれる軌道とは限らない。そこで、あいまいな状態での起動生成を考える。時刻t-1の状態
t−1と、その時刻における物体の位置p2,t−1が与えられた場合、時刻tでの物体の位置p2,tの期待値は以下の式で表せる。
Figure 0006464447
このようにして状態のあいまいな軌道を生成することができる。しかし、この積分計算を解析的に解くことは困難であるため、モンテカルロ法による近似を行う。まず、以下のサンプリングをN回繰り返し、時刻tでのN個のサンプリング
Figure 0006464447
を得る。
Figure 0006464447
ただし、式(16)の
Figure 0006464447
は、状態遷移確率
Figure 0006464447
の一部を使用して以下のように求まる。
Figure 0006464447
式(17)の
Figure 0006464447
は、動的制約を考慮した式(14)を使用する。最終的に、N個のサンプリングの平均値を時刻tでの物体の位置の予測値とする。
Figure 0006464447
図5は、予測部107による予測の手順を示す流れ図である。
図6は、観測が行われる時刻Tarm以前の状態と衝突後(時刻Tarm+1以降)の状態とを示す図である。時刻Tarm+1以降において、式(16)乃至式(18)を使用して物体の軌道が予測される。
ここでは、時刻0-Tarmの間にアームの軌道のみが観測されたとして、時刻Tarmでの状態がkである確率P(sTarm=k)と物体の初期値p2,Tarmが与えられたとして物体の軌道を生成する。時刻Tarmでの状態は、以下の式で表せる。
Figure 0006464447
図5のステップS2010において予測部103は、nを0とする。
図5のステップS2020において予測部103は、nが所定値N未満であるかどうか判断する。nが所定値N未満であればステップS2030に進む。nが所定値N未満でなければステップS2050に進む。
図5のステップS2030において予測部103は、以下の式にしたがって、サンプルsnの状態をN個サンプリングし、各サンプルの位置pnを初期化する。
Figure 0006464447
図5のステップS2040において予測部103は、nに1を加える。ステップS2040において++は、1を加えることを表す。ステップS2040の処理が終了した後、ステップS2020に戻る。
図5のステップS2050において予測部103は、時間を進行させる。
図5のステップS2060において予測部103は、nを0とする。
図5のステップS2070において予測部103は、nが所定値N未満であるかどうか判断する。nが所定値N未満であればステップS2080に進む。nが所定値N未満でなければステップS2100に進む。
図5のステップS2080において予測部103は、以下の式にしたがって、新たな状態及び物体の位置をサンプリングする。
Figure 0006464447
ここで、式(21)は式(16)に対応し、式(22)は式(17)に対応する。
図5のステップS2090において予測部103は、nに1を加える。ステップS2090において++は、1を加えることを表す。ステップS2090の処理が終了した後、ステップS2070に戻る。
図5のステップS2100において予測部103は、以下の式によって求めた全サンプルの平均を時刻tにおける物体の位置の予測値とする。
Figure 0006464447
図5のステップS2110において予測部103は、物体が停止しているかどうか判断する。具体的には、時刻t-1における物体の位置と時刻tにおける物体の位置の差が所定値ε以下であれば、物体が停止していると判断する。物体が停止していれば、処理を終了する。物体が停止していなければ、ステップS2120に進む。
図5のステップS2120において予測部103は、tに1(時間の増加分)を加える。ステップS2120において++は、1を加えることを表す。ステップS2120の処理が終了した後、ステップS2060に戻る。
図7は、予測部107による予測の概念を示す図である。図7(a)は、時間と観測値との関係を示す図である。図7(a)の横軸は時間を表し、縦軸は物体の位置の観測値を表す。また、実線は実際に観測された物体の位置の観測値を表し、点線は物体の位置の予測値を表す。図7では、観測値y、yを1次元のxで表している。図7(b)は、物体の位置の観測値の確率分布を示す図である。図7(b)の横軸は確率を表し、縦軸は物体の位置を表す。図7(b)に示す確率分布を使用して点線は物体の位置の予測値(期待値)が得られる。
つぎに、本実施形態による予測装置100のシミュレーション実験について説明する。ロボットのアームが物体に触れた際のアームの軌道及び物体の軌道はシミュレータにより求めた。シミュレータは、物理計算エンジンOpen Dynamic Engine (ODE)により作成した(http://www.ode.org/)。ODEによれば、物体の衝突や摩擦などをシミュレーション可能であり、シミュレータ上の物体の位置や速度など様々な情報を取得することができる。
本実施形態では、物体として半径10センチメータの球を想定し、ロボットが物体に対して、横から力を加える場合と、上から力を加える場合とについて、アームの軌道及び物体の軌道をODEにより取得した。
図8はアームの軌道及び物体(球)の軌道を示す図である。図8の横軸は水平方向の座標を表し、縦軸は鉛直方向の座標を表す。太い点線は、球に横から力を加える場合のアームの軌道を示す。アームを初期位置から物体の右へ移動させ、その後球に向かって左方向に動かしている。太い実線は、アームと衝突した後の球の軌道を示す。球は、左方向に移動している。細い点線は、球に上から力を加える場合のアームの軌道を示す。アームを初期位置から物体の上へ移動させ、その後球に向かって下方向に動かしている。細い実線は、アームと衝突した後の球の軌道を示す。球は、テーブル上に置かれているので、移動せずにその場に留まっている。
実際に、図8に示す軌道を、図3に示した手順によって学習した結果、状態数は6となった。
図9は、学習によって得られた6個の状態を示す図である。図9において、状態2は、物体との衝突と関係のない、アームの上方向への移動及び水平方向の移動である。状態0は、アームの左方向への移動及び球との接触である。状態4は、接触後において球の速度が速い状態であり、状態4から遷移した状態5は、接触後において球が減速し停止するまでの状態である。状態1は、アームの下方向への移動及び球との接触であり、状態1から遷移した状態3は、球及びアームがその場で停止続ける状態である。このように、モデル105を使用した学習により、ロボットの行動と物体の軌道が、意味のある状態へ分類されている。
つぎに、図5に示した手順によって物体の軌道を生成した。学習した軌道を正しく生成できるかを検証するために、アームを横から球に衝突させた場合として状態0から開始される軌道、及びアームを上から球に衝突させた場合として状態1から開始される軌道を生成した。
図10は、予測部107によって生成された既知の軌道を示す図である。図10(a)は、アームを横から球に衝突させた場合を説明するための図である。図10(b)は、アームを上から球に衝突させた場合を説明するための図である。xは、物体(球)の水平方向の座標である。図10(c)は、生成された軌道を示す図である。図10(c)の横軸は時間ステップを表し、縦軸は物体(球)の水平方向の座標xを表す。xは、球の移動距離と考えることができる。実線は、予測部107によって生成された軌道を示し、点線は、実際の軌道(シミュレーションによる軌道)を示す。予測部107によって生成された軌道は、実際の軌道とは完全には一致しなかったものの、アームを横から衝突させた場合は球が約0.8メートル移動すること、また、アームを上から衝突させた場合は球が動かずその場で静止していることが正しく予測できている。また、図10(c)において、予測された軌道では途中で状態が変化しているが、滑らかな軌道が生成されている。
つぎに、未知の軌道の予測として、物体に対してアームを斜めから衝突させた場合の軌道の予測を行った。
図11は、予測部107によって生成された未知の軌道を示す図である。図11(a)は、アームを斜めから球に衝突させた場合を説明するための図である。アームを横方向から水平方向に衝突させる場合の角度が0°であり、アームを上から鉛直方向に衝突させる場合の角度が90°である。図11(b)は、生成された軌道を示す図である。図11(b)の横軸は時間ステップを表し、縦軸は物体(球)の水平方向の座標、すなわち、球の移動距離を表す。図11(b)によれば、アームの軌道が横方向(0°)に近いほど物体の距離が長くなり、アームの軌道が上下方向(90°)に近いほど物体の移動距離は短くなる。このように、予測部107によって未知の軌道を予測できることが確認された。なお、図11(b)における軌道の「振動」はサンプリング回数Nを大きくすることで解消できる。
上記において、yがロボットアームの情報、yが物体(たとえば、ボール)の情報である場合を例として説明した。しかし、本発明は、当然にそれ以外の場合にも同様に適用できる。ここでは、本発明が適用可能な他の具体例について説明する。
最初に、物体と物体、人と人、車両と人、車両と車両などの関係に適用することが考えられる。それぞれの組の一方の位置と速度の4次元データをy、もう一方の位置と速度の4次元データをyとするとで、yとyの関係が学習され、一方から他の情報を予測することが可能となる。たとえば、人(y)と人(y)がすれ違う場合を考えると、yが未知の左側に寄れば、yは反対側に移動するといったことや、yが未知の真ん中を直進し続ければ、yがどちらかに避ける可能性がある、といった様に人の行動を予測することができる。
つぎに、交差点における信号の色と車両の速度との関係に適用することが考えられる。この場合は、yを車両の位置と速度、yを信号の色として考える。信号の色は、赤・青・黄の3値を取る値となるので、θを多項分布のパラメータ、Hをディリクレ分布のパラメータとする。yの車両の位置と速度は、たとえば、交差点の中心を原点とした座標系で考える。これにより、本発明の方法でyとyの関係が学習され、たとえば、現在の車両の位置と速度(y)の時に、信号の色(y)が黄色に変化した場合の、その後の車両の位置と速度(y)を予測することができ、さらに本発明の方法で車両の軌道を予測することができる。また、信号の色(y)の変化するタイミングによって、車両の振る舞い(y)がどう変化するか、といったことも学習可能である。
さらに観測情報として、運転手の性別(y) 、車種(y)、運転手の年齢(y)などを付加することで、y乃至yの関係性を捉えることができる。この場合は、θ乃至θは、それぞれの要素の数だけ事象を持つ多項分布のパラメータ、H乃至Hはディリクレ事前分布のパラメータとなる。
100…予測装置、101・・・観測部、103・・・学習部、105・・・モデル、107・・・予測部

Claims (5)

  1. 観測対象の位置に関する時刻tにおける観測対象観測値y2tと、前記観測対象に対して動作を行う動作部の位置に関する動作観測値y1tと、を取得する観測部と、
    前記動作観測値y1tの時系列データと前記観測対象観測値y2tの時系列データから、前記観測対象と前記動作部の状態sを表すモデルであって、複数の状態間の遷移確率P(s|s,β,α)であって、前記複数の状態それぞれに対応した、前記動作観測値y1tの確率分布P(y1t|s,Y1,−t,H)と前記観測対象観測値y2tの確率分布P(y2t|s,Y2,−t,H)を含む前記モデルの前記遷移確率P(s|s,β,α)及び前記観測対象観測値y2tの確率分布P(y2t|s,Y2,−t,H)と前記動作観測値y1tの確率分布P(y1t|s,Y1,−t,H)を学習する学習部と、
    所定の時刻よりも前の時刻における前記動作観測値y1tと前記観測対象観測値y2tそれぞれの時系列データを使用し、前記遷移確率P(s|s,β,α)に基づいて前記所定の時刻の前記観測対象と前記動作部の状態sを予測し、前記観測対象観測値y2tの確率分布P(y2t|s,Y2,−t,H)の分散と平均と、前記動作観測値y1tの確率分布P(y1t|s,Y1,−t,H)の分散と平均と、に基づいて前記観測対象と前記動作部の状態sに対応する前記所定の時刻における前記観測対象の位置p2,tを、式(数1)を用いて予測する予測部と、を備え、
    Figure 0006464447
    前記式(数1)において、前記p2,t−1は、時刻tよりも前の時刻t−1における前記観測対象の位置であり、Σ’,μ’は、状態sに対応した確率分布P(y2t|s,Y2,−t,H)の分散と平均であり、
    前記モデルは、隠れマルコフモデルにディリクレ過程を導入し、さらに複数の対象の観測を仮定したマルチモーダル階層ディリクレ過程隠れマルコフモデルであり、
    前記学習部は、時刻tの状態sにおいて、状態sを除いた残りを条件とした式(数2)の条件付き確率P(s|s−t,β,Y,Y,α,H、H)から状態sをサンプリングして、前記式(数2)におけるP(y1t|s,s−t,Y1,−t,H)とP(y2t|s,s−t,Y2,−t,H)それぞれをベイズ推定によって式(数3)で表した場合に、前記観測対象観測値y2tおよび前記動作観測値y1tを決定する確率分布P(y1t|s,Y1,−t,H)と確率分布P(y2t|s,Y2,−t,H)のパラメータθstの更新を行って、前記式(数1)における前記遷移確率P(s|s,β,α)と前記動作観測値y1tの確率分布P(y1t|s,Y1,−t,H)と前記観測対象観測値y2tの確率分布P(y2t|s,Y2,−t,H)を学習し、
    Figure 0006464447
    前記式(数2)において、前記H、前記Hはガウス−ウィシャート分布のパラメータであり、前記βは前記γをパラメータとするGEM分布によって生成された値であり、前記αと前記γは事前分布としてγ分布を仮定し事後確率からサンプリングして求めた値であり、前記Yは前記動作観測値y1tの集合であり、前記Yは前記観測対象観測値y2tの集合であり、前記s−tは前記状態sを除いた全時刻の状態を表し、前記Y1,−t、前記Y2,−tは、それぞれ前記Y、前記Yから前記動作観測値y1t、前記観測対象観測値y2tを除いた残りを表し、
    Figure 0006464447
    前記式(数3)において、前記θst’は、状態sに対応したガウス分布の事後パラメータであり、*は1または2である、
    予測装置。
  2. 前記予測部は、時刻t−1の状態st−1と、その時刻における前記観測対象の位置p2,t−1が与えられた場合、時刻tでの物体の位置p2,tの期待値を、式(数4)を用いて前記観測対象の軌跡を予測することで、前記観測対象の位置を予測する、
    Figure 0006464447
    請求項1に記載の予測装置。
  3. 前記予測部は、前記所定の時刻の前記観測対象と前記動作部それぞれの状態及び該状態に対応した前記動作観測値y1tと前記観測対象観測値y2tそれぞれの複数のサンプリング値を求め、該複数のサンプリング値の平均値を観測値の予測値とするように構成された請求項1に記載の予測装置。
  4. 前記動作観測値y1tと前記観測対象観測値y2tそれぞれは、位置と速度とを含み、
    前記予測部は、前記動作観測値y1tの確率分布P(y1t|s,Y1,−t,H)と前記観測対象観測値y2tの確率分布P(y2t|s,Y2,−t,H)を使用して予測を行うように構成された請求項1から請求項3のいずれか1項に記載の予測装置。
  5. 観測対象と前記観測対象に対して動作を行う動作部の状態sを表すモデルであって、複数の状態間の遷移確率P(s|s,β,α)、及び前記複数の状態それぞれに対応した、前記動作部の位置に関する時刻tにおける動作観測値y1tの確率分布P(y1t|s,Y1,−t,H)と前記観測対象の位置に関する時刻tにおける観測対象観測値y2tの確率分布P(y2t|s,Y2,−t,H)を含むモデルを使用して前記観測対象の位置p2,tを予測する予測方法であって、
    前記観測対象観測値y2tと、前記動作観測値y1tと、を取得するステップと、
    前記動作観測値y1tの時系列データと前記観測対象観測値y2tの時系列データから、前記モデルの前記遷移確率P(s|s,β,α)及び前記観測対象観測値y2tの確率分布P(y2t|s,Y2,−t,H)と前記動作観測値y1tの確率分布P(y1t|s,Y1,−t,H)を学習するステップと、
    所定の時刻よりも前の時刻における前記動作観測値y1tと前記観測対象観測値y2tそれぞれの時系列データを使用し、前記遷移確率P(s|s,β,α)に基づいて前記所定の時刻の前記観測対象と前記動作部の状態sを予測し、前記観測対象観測値y2tの確率分布P(y2t|s,Y2,−t,H)の分散と平均と、前記動作観測値y1tの確率分布P(y1t|s,Y1,−t,H)の分散と平均と、に基づいて前記観測対象と前記動作部の状態に対応する前記所定の時刻における前記観測対象の位置p2,tを、式(数5)を用いて予測するステップと、を含み、
    Figure 0006464447
    前記式(数5)において、前記p2,t−1は、時刻tよりも前の時刻t−1における前記観測対象の位置であり、Σ’,μ’は、状態sに対応した確率分布P(y2t|s,Y2,−t,H)の分散と平均であり、
    前記モデルは、隠れマルコフモデルにディリクレ過程を導入し、さらに複数の対象の観測を仮定したマルチモーダル階層ディリクレ過程隠れマルコフモデルであり、
    前記学習するステップは、時刻tの状態sにおいて、状態sを除いた残りを条件とした式(数6)の条件付き確率P(s|s−t,β,Y,Y,α,H、H)から状態sをサンプリングして、前記式(数)におけるP(y1t|s,s−t,Y1,−t,H)とP(y2t|s,s−t,Y2,−t,H)それぞれをヘイズ推定によって式(数7)で表した場合に、前記観測対象観測値y2tおよび前記動作観測値y1tを決定する確率分布P(y1t|s,Y1,−t,H)と確率分布P(y2t|s,Y2,−t,H)のパラメータθstの更新を行って、前記式(数6)における前記遷移確率P(s|s,β,α)と前記動作観測値y1tの確率分布P(y1t|s,Y1,−t,H)と前記観測対象観測値y2tの確率分布P(y2t|s,Y2,−t,H)を学習し、
    Figure 0006464447
    前記式(数6)において、前記H、前記Hはガウス−ウィシャート分布のパラメータであり、前記βは前記γをパラメータとするGEM分布によって生成された値であり、前記αと前記γは事前分布としてγ分布を仮定し事後確率からサンプリングして求めた値であり、前記Yは前記動作観測値y1tの集合であり、前記Yは前記観測対象観測値y2tの集合であり、前記s−tは前記状態sを除いた全時刻の状態を表し、前記Y1,−t、前記Y2,−tは、それぞれ前記Y、前記Yから前記動作観測値y1t、前記観測対象観測値y2tを除いた残りを表し、
    Figure 0006464447
    前記式(数7)において、前記θst’は、状態sに対応したガウス分布の事後パラメータであり、*は1または2である、
    予測方法。
JP2013181269A 2013-09-02 2013-09-02 観測値の予測装置及び観測値の予測方法 Expired - Fee Related JP6464447B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2013181269A JP6464447B2 (ja) 2013-09-02 2013-09-02 観測値の予測装置及び観測値の予測方法
US14/467,151 US20150066821A1 (en) 2013-09-02 2014-08-25 Observation value prediction device and observation value prediction method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013181269A JP6464447B2 (ja) 2013-09-02 2013-09-02 観測値の予測装置及び観測値の予測方法

Publications (2)

Publication Number Publication Date
JP2015049726A JP2015049726A (ja) 2015-03-16
JP6464447B2 true JP6464447B2 (ja) 2019-02-06

Family

ID=52584654

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013181269A Expired - Fee Related JP6464447B2 (ja) 2013-09-02 2013-09-02 観測値の予測装置及び観測値の予測方法

Country Status (2)

Country Link
US (1) US20150066821A1 (ja)
JP (1) JP6464447B2 (ja)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6246755B2 (ja) * 2015-02-25 2017-12-13 三菱重工業株式会社 プラント運転支援システム及びプラント運転支援方法
US9989963B2 (en) 2016-02-25 2018-06-05 Ford Global Technologies, Llc Autonomous confidence control
US10026317B2 (en) 2016-02-25 2018-07-17 Ford Global Technologies, Llc Autonomous probability control
US10289113B2 (en) 2016-02-25 2019-05-14 Ford Global Technologies, Llc Autonomous occupant attention-based control
US11030530B2 (en) * 2017-01-09 2021-06-08 Onu Technology Inc. Method for unsupervised sequence learning using reinforcement learning and neural networks
CN111209942B (zh) * 2019-12-27 2023-12-19 广东省智能制造研究所 一种足式机器人多模态感知的异常监测方法
EP3926903B1 (en) * 2020-06-19 2023-07-05 Mitsubishi Electric R&D Centre Europe B.V. Optimization of a capacity of a communication channel using a dirichlet process
CN112702329B (zh) * 2020-12-21 2023-04-07 四川虹微技术有限公司 一种流量数据异常检测方法、装置和存储介质
CN115510578B (zh) * 2022-09-26 2023-07-14 成都理工大学 基于InSAR近实时监测的滑坡失稳时间概率预测方法及产品

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6591146B1 (en) * 1999-09-16 2003-07-08 Hewlett-Packard Development Company L.C. Method for learning switching linear dynamic system models from data
US7765029B2 (en) * 2005-09-13 2010-07-27 Neurosciences Research Foundation, Inc. Hybrid control device
US8200600B2 (en) * 2007-03-20 2012-06-12 Irobot Corporation Electronic system condition monitoring and prognostics
JP2011118776A (ja) * 2009-12-04 2011-06-16 Sony Corp データ処理装置、データ処理方法、およびプログラム
JP5720491B2 (ja) * 2011-08-23 2015-05-20 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
US9804253B2 (en) * 2013-07-08 2017-10-31 Rockwell Collins, Inc. System and methods for non-parametric technique based geolocation and cognitive sensor activation

Also Published As

Publication number Publication date
US20150066821A1 (en) 2015-03-05
JP2015049726A (ja) 2015-03-16

Similar Documents

Publication Publication Date Title
JP6464447B2 (ja) 観測値の予測装置及び観測値の予測方法
Korbmacher et al. Review of pedestrian trajectory prediction methods: Comparing deep learning and knowledge-based approaches
Ding et al. Multimodal safety-critical scenarios generation for decision-making algorithms evaluation
Morton et al. Analysis of recurrent neural networks for probabilistic modeling of driver behavior
US9776323B2 (en) Trained human-intention classifier for safe and efficient robot navigation
Käfer et al. Recognition of situation classes at road intersections
Wang et al. Hidden conditional random fields for gesture recognition
Madan et al. Recognition of haptic interaction patterns in dyadic joint object manipulation
EP3215981B1 (en) Nonparametric model for detection of spatially diverse temporal patterns
Hebert et al. The next best touch for model-based localization
JP2007533043A (ja) 両手動作の追跡
KR101577711B1 (ko) 시간 및 공간적 관계를 이용한 작업 솜씨 학습 방법
CN112135716A (zh) 数据高效的分层强化学习
Yu et al. Real-time human action classification using a dynamic neural model
Luu et al. Simulation, learning, and application of vision-based tactile sensing at large scale
Nayak et al. Uncertainty estimation of pedestrian future trajectory using Bayesian approximation
Das et al. Fastron: An online learning-based model and active learning strategy for proxy collision detection
WO2022191565A1 (en) Anticipating user and object poses through task-based extrapolation for robot-human collision avoidance
Lin et al. Objective learning from human demonstrations
Palm et al. Recognition of human grasps by time-clustering and fuzzy modeling
JP2024035150A (ja) エンティティを制御するためのシステムおよび方法
US20240100693A1 (en) Using embeddings, generated using robot action models, in controlling robot to perform robotic task
Zhang et al. Good time to ask: A learning framework for asking for help in embodied visual navigation
Eppner et al. Physics-based selection of informative actions for interactive perception
JP6908286B2 (ja) 情報処理装置、情報処理方法およびプログラム

Legal Events

Date Code Title Description
RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20150703

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20150703

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20150826

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160120

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160115

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170307

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170508

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20171010

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171207

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180529

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180725

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20181204

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20181218

R150 Certificate of patent or registration of utility model

Ref document number: 6464447

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees