JP2007066094A - 姿勢推定装置および姿勢推定方法 - Google Patents

姿勢推定装置および姿勢推定方法 Download PDF

Info

Publication number
JP2007066094A
JP2007066094A JP2005252514A JP2005252514A JP2007066094A JP 2007066094 A JP2007066094 A JP 2007066094A JP 2005252514 A JP2005252514 A JP 2005252514A JP 2005252514 A JP2005252514 A JP 2005252514A JP 2007066094 A JP2007066094 A JP 2007066094A
Authority
JP
Japan
Prior art keywords
joint
correlation information
feature amount
contour
posture estimation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2005252514A
Other languages
English (en)
Inventor
Masahiro Iwasaki
正宏 岩崎
Takeo Azuma
健夫 吾妻
Yasunao Okazaki
安直 岡崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Priority to JP2005252514A priority Critical patent/JP2007066094A/ja
Publication of JP2007066094A publication Critical patent/JP2007066094A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

【課題】 関節物体を含む画像から、正確かつ高速に関節物体の関節位置および身体部位情報を検出することができる姿勢推定装置を提供する.
【解決手段】 2次元画像中の被写体のシルエットに関する特徴量を抽出する特徴抽出部102と、被写体の関節位置または身体部位位置と前記特徴量との関係をあらかじめ学習しておいた相関情報を記憶する相関情報記憶部104と、相関情報を用いて、前記特徴量から被写体の関節位置または身体部位位置を推定する関節位置推定部103とを含む。これにより、繰返し演算を行うことなく、前記特徴量を入力として、前記相関情報を用いて直接的に関節位置または身体部位位置を推定することができるため、高速かつ正確な姿勢推定が可能である。
【選択図】 図1

Description

本発明は、人物や動物等の関節物体を含む画像中より、当該関節物体の関節位置または身体部位位置を推定する姿勢推定装置および姿勢推定方法に関する。
従来の関節物体の姿勢推定技術の1つとして、モーションキャプチャシステムを用いる方法がある。このシステムでは、実際の人物の関節位置等にマーカを貼り付けることによって、実際の人物の形状や動きデータを正確に取得することが可能である。しかしながら、このような技術では、大掛かりな装置とマーカ等を実際の被写体に貼り付ける作業とを必要とする。
一方、モーションキャプチャシステムを使わずに、画像情報から姿勢推定可能な方法も存在する。例えば、特許文献1には、人間等の関節物体の動作解析等を目的として、画像中に存在する関節物体に対して、モデルを当てはめる画像解析方法が開示されている。画像中に存在する対象物(関節物体)に対して、その対象物が持つ部位それぞれについて構成したモデルを当てはめ、当てはめた結果、対象物をモデルパラメータとして保持するものである。また、非特許文献1には、円柱によって近似した身体部位を10個用いて構成した人物モデルを用いて、画像中に存在する人物に対して人物モデルを当てはめることで身体部位および関節位置や角度を検出する技術が提案されている。
特開平8−214289号公報 Leonid Sigal, Sidharth Bhatia, Stefan Roth, Michael J.Black, Michael Isard, "Tracking Loose-Limbed People", IEEE ComputerSociety Conference on ComputerVision and Pattern Recognition, Vol.1,pp421-428, 2004
しかしながら、上記従来技術に代表される画像解析方法および身体部位の検出方法を用いても、正確かつ高速に関節物体の姿勢推定を行なうことは困難である。
すなわち、特許文献1や非特許文献1に代表される画像解析方法では、円柱や直線等で簡略化した人物モデルを画像に当てはめることで関節位置等の検出を行っている。このような方法は、円柱や直線等の組合せによって、関節物体のモデルを記述している。このため、簡略化した人物モデルでは、正確な関節位置の検出を行なうには限界がある。
また、従来の画像解析方法では、モデルに含まれる関節位置等のパラメータを変更しながら、モデルを画像に当てはめて、当てはまりの妥当性を評価する必要がある。そのため、パラメータを変更するステップと、当てはまりの妥当性を評価ステップとを繰返し行う必要があるため、高速な処理が難しい。特に、非特許文献1の例では、10個の円柱でモデルを記述し、身体部位の接続パラメータとして、9箇所の3次元位置と3次元角度を推定する必要がある。このようにパラメータ変更ステップと評価ステップとを繰り返しながら多次元のパラメータを推定する場合は、実時間処理は難しく、さらに局所解に陥る危険性が高く推定誤差を生じやすい。
本発明は上述の課題を解決するためになされたものであり、関節物体を含む画像から、正確かつ高速に関節物体の関節位置および身体部位情報を検出することができる姿勢推定装置等を提供することを目的とする。
なお、身体部位位置とは、頭、両手足に加え、関節と関節との間に位置する身体部位を含む。
本発明に係る姿勢推定装置は、関節物体を含む2次元画像から当該関節物体の3次元空間中または2次元画像中における姿勢を推定する姿勢推定装置であって、2次元画像中より、関節物体の物体領域を抽出する物体領域抽出手段と、前記物体領域より、前記関節物体に関する特徴量を抽出する特徴量抽出手段と、前記特徴量と前記関節物体の3次元空間中または2次元画像中における関節位置との間の写像関係を示す相関情報を記憶している相関情報記憶手段と、前記特徴量および前記相関情報に基づいて、前記関節物体の3次元空間中または2次元画像中における関節位置を推定する関節位置推定手段とを備えることを特徴とする。
本発明に係る姿勢推定装置によると、繰返し演算を行うことなく、特徴量を入力として、相関情報を用いて直接的に関節位置を推定することができるため、高速かつ正確な姿勢推定が可能である。
本発明に係る姿勢推定装置は、関節物体を含む2次元画像から当該関節物体の3次元空間中または2次元画像中における姿勢を推定する姿勢推定装置であって、2次元画像中より、関節物体の物体領域を抽出する物体領域抽出手段と、前記物体領域より、前記関節物体に関する特徴量を抽出する特徴量抽出手段と、前記特徴量と前記関節物体の3次元空間中または2次元画像中における関節位置との間の写像関係を示す相関情報を記憶している相関情報記憶手段と、前記特徴量および前記相関情報に基づいて、前記関節物体の3次元空間中または2次元画像中における関節位置を推定する関節位置推定手段とを備える。
この構成によると、特徴量を入力として、相関情報を用いて直接的に関節位置を推定することができるため、高速かつ正確な姿勢推定が可能である。
好ましくは、前記特徴量抽出手段は、前記物体領域の輪郭線上に設けられる複数の代表点により求められる特徴量を抽出する。具体的には、前記特徴量抽出手段は、所定の基準点と前記複数の代表点との間の距離を特徴量として抽出する。さらに具体的には、前記特徴量抽出手段は、前記物体領域の重心または前記物体領域の輪郭の重心を通り、かつ前記物体領域の輪郭線上の各点から垂線を下ろした際に、各点からの距離の合計が最小となる直線を主軸として求める主軸算出部と、前記主軸上に設けられた複数の所定の基準点の各々について、当該基準点と、当該基準点を通り前記主軸に直交する直線と前記物体領域の輪郭線上の交点との間の距離を算出し、当該距離を前記複数の基準点のすべてについて合計した値を特徴量として算出する特徴量算出部とを有する。
この構成によると、特徴量として、主軸に対する垂線方向のみの代表点を用いている。このため、足部に生じた影の影響を受けて、輪郭抽出した画像の足部が地面と繋がった場合においても、足部の繋がった部分の輪郭点が代表点として選択されにくいため、陰の影響を受けにくい利点がある。
さらに好ましくは、前記特徴量抽出手段は、前記物体領域の重心または前記物体領域の輪郭の重心を原点としたときの、前記複数の代表点の相対座標値を特徴量として抽出する。
この構成によると、上述の重心を原点とする座標値を特徴量として用いるため、輪郭形状に加え、代表点同士の位置関係を情報として含むこととなるため、関節位置の推定精度が向上することができる。
さらに好ましくは、前記相関情報記憶手段は、前記相関情報を複数記憶しており、前記姿勢推定装置は、さらに、複数の前記相関情報のうち1つ以上の相関情報を選択する相関情報選択手段を備え、前記関節位置推定手段は、前記特徴量および前記相関情報選択手段で選択された前記1つ以上の相関情報に基づいて、前記関節物体の3次元空間中または2次元画像中における関節位置を推定する。具体的には、前記相関情報記憶手段は、前記関節物体の複数の向きにおける複数の相関情報を記憶しており、前記相関情報選択手段は、前記関節物体の向きを推定する関節物体向き推定部と、前記関節物体の向きに基づいて、1つ以上の相関情報を決定する相関情報決定部とを有する。また、前記相関情報記憶手段は、前記関節物体の複数の向きと前記関節物体の複数の体型とに基づいて分類された複数の相関情報を記憶しており、前記相関情報選択手段は、さらに、前記関節物体の体型を推定する関節物体体型推定部を有し、前記相関情報決定部は、前記関節物体の向きおよび体型に基づいて、1つ以上の相関情報を決定するようにしてもよい。
このように、複数の関節物体の向きや体型から相関情報を決定することにより、様々な関節物体の向きや体型に対応した姿勢推定が可能になる。よって、対象とする関節物体の向きや体型が変化した場合においても、関節位置を正確に推定することが可能である。
さらに好ましくは、前記特徴量抽出手段は、さらに、抽出した特徴量を時系列に並べたものを特徴量とする。
関節や身体部位の一部が胴体によって隠されているような場合、1枚の画像のみからでは、隠れている部位や関節の位置に関して推定誤りが大きくなる傾向がある。よって、この構成のように特徴量を時系列に並べたものを使用することにより、関節位置の推定精度を向上させることができる。
さらに好ましくは、上述の姿勢推定装置は、さらに、前記関節位置推定手段において推定された前記関節位置の時系列情報に基づいて、多関節ロボットの目標軌道を生成する目標軌道生成手段を備える。
この構成によると、繰返し演算を必要とせず、高速かつ正確に関節位置を推定し、多関節ロボットの目標軌道を生成することができる。このため、目標軌道を設計者が与える必要が無く、手軽にロボット動作を実現できる。また、推定された関節位置に基づいて、関節角度を推定することにより、人物等の関節の動きを模擬したロボットの動作が可能である。これにより、スポーツや踊り等の動作を手軽にロボットに真似させることが可能できる。
以下、本発明の実施の形態について、図面を用いて説明する。
(第1の実施の形態)
図1は、本発明の第1の実施の形態に係る姿勢推定装置の構成を示す図である。図1の姿勢推定装置は、関節物体を含む画像から、正確かつ高速に関節物体の関節位置および身体部位位置を検出する装置である。なお、本発明における「姿勢推定」とは、関節物体の関節位置および身体部位位置を検出することを含む。
画像入力部101は、関節物体を含む画像を入力する処理部であり、カメラ等により構成される。なお、ここでは、入力される画像は時系列に並んだ画像であっても構わない。
特徴抽出部102は、入力された画像から輪郭形状を表す輪郭特徴量を抽出する。特徴抽出部102の構成例を図2を用いて説明する。特徴抽出部102は、入力された画像から関節物体領域を抽出する物体領域抽出部1021と、抽出した関節物体領域に対して2値化処理を行い、シルエット画像を抽出するシルエット抽出部1022と、シルエット画像に対して、シルエット画像の輪郭に関する特徴を抽出する輪郭特徴抽出部1023とから構成される。
また、関節位置推定部103では、被写体の関節位置または身体部位位置と輪郭特徴抽出部1023と同様の処理にて抽出したシルエットの輪郭に関する特徴量との関係をあらかじめ学習しておいた相関情報記憶部104に記憶されている相関情報を用いて、前記特徴量から被写体の関節位置または身体部位位置を推定する。
これにより、画像中に存在する関節物体の画像から、正確かつ高速に画像中に存在する関節物体の関節位置および身体部位情報を検出し、姿勢推定を行うことが可能である。
以下に、本発明の関節物体の姿勢推定装置による姿勢推定方法ついて、図3および図4を用いて詳細に説明する。
まず、画像入力部101は、図4(a)に示すような入力画像401を受け付ける(S301)。
次に、特徴抽出部102は、入力画像401に対して、図4(b)に示す背景画像402を用いて背景差分処理を行い、関節物体領域を抽出する(S302)。なお、ここでは、背景差分処理の代わりにフレーム間差分処理を行うことにより関節物体領域の抽出を行っても良い。さらに、対象とする関節物体が人物である場合は、M.Oren, C.Papageorgiou, P.Sinha, E.Osuna and T.Poggio, "Pedestrian Detection using wavelet templates", Proc.of CVPR97, pp.193-199, 1997に開示されている技術等を用いて、人物検出処理を行い、その結果を用いて人物領域を切り出しても良い。さらに、エッジ検出処理を併用しても良い。また、背景差分処理を行う場合は、人物の存在しない背景となる画像を事前に準備しておく。時系列画像を入力とする場合には、背景スプライト画像を生成し、背景差分処理のための背景画像として用いることもできる。
次に、特徴抽出部102は、S302で抽出した関節物体領域を含む画像に対して、2値化処理を行う(S303)。これによって、図4(c)に示すような関節物体のシルエット画像403が得られる。
なお、ここで、ノイズの影響により起こる輪郭の不要な凹凸を減らすために、シルエット画像を平滑化することも有効である。
次に、特徴抽出部102は、シルエット画像の輪郭を抽出する(S304)。輪郭抽出は、シルエット画像に対して空間微分フィルタを適用することで実現可能である。また、抽出した輪郭の細線化を行う場合には、Hilditchの細線化アルゴリズムを用いて行うことができる。空間微分フィルタおよびHilditchの細線化アルゴリズムについては、「C.J.Hilditch,"Linear Skeletones From Square Cupboards",Machine Intelligence 4, Eginburgh Univ.Press,p.403,1969」に詳細が記述されている。
次に、特徴抽出部102は、抽出したシルエット画像の輪郭からシルエット画像の輪郭形状を表現する輪郭特徴量を抽出する(S305)。輪郭特徴量の抽出方法の一例について図4および図5を用いて以下に説明する。なお、輪郭特徴量としては、シルエット画像の輪郭形状を表現する特徴量であれば以下の例に限らない。
まず、特徴抽出部102は、S304にて抽出されたシルエット画像403に対して、基準点を決定する。望ましい例としては、シルエット画像の重心gを基準点として求める。ここで、基準点は、シルエット画像のすべての画素を用いずに、輪郭画素位置の重心としても構わない。
次に、シルエット画像の主軸405を算出する。シルエット画像の主軸405は、シルエット画像上の各輪郭点から垂線を下ろした時に、垂線の長さの総和が最小になり、かつ、重心gを通る軸とすることで求めることができる。
具体的には、求めたい主軸は、重心(gx,gy)を通り、傾きをtanθとすると、
Figure 2007066094
と表せる。
次に、各輪郭点(xi,yi)から式(1)で表される直線に垂線を下ろすと、垂線の長さdは、
Figure 2007066094
で表される。
そこで、最小化したい関数Jは、各輪郭点から引いた垂線の長さの総和をとったものであるため、式(1)と式(2)を用いて、次のように表される。
Figure 2007066094
ここで、式(3)を最小化するためには
Figure 2007066094
より、
Figure 2007066094
となる。
式(4)より、直線の傾きは次式(5)で表す事ができる。そして、式(1)に直線の傾きを代入することで、主軸を得ることができる。
Figure 2007066094
次に、特徴抽出部102は、輪郭特徴量の始点を決定するために、シルエット画像の輪郭線上の各点と主軸405との交点を求める。ここで、輪郭線上の各点と求めた主軸405との交点が複数点存在する場合は、図4(e)に示すように輪郭点中で最上部に位置する輪郭点を輪郭特徴量の始点406とする。この時、始点406としては、必ずしも最上部に位置する輪郭点を選択する必要は無い。ただし、特に対象が人物である場合は、主軸405と交差する最上部の輪郭点を始点406とすることが有効である。その理由は、始点406が頭部に対応しやすくなるためである。具体的には,頭部は、腕や足の領域と異なり変形が起きにくい。また、影の影響は、地面に対して出やすいために、その影響も受けにくいことが挙げられる。
次に、特徴抽出部102は、始点406から、シルエット画像の輪郭線上の各点をトレースする。輪郭点のトレース方法は、「安居院猛、長尾智晴著、「画像の処理と認識」、72ページ、昭晃堂、1992年発行」に詳細が記述されている。
次に、特徴抽出部102は、トレースした輪郭線上の各点と重心との距離lを算出する。ここで、輪郭特徴量は、図5の輪郭特徴量503に示されるように、シルエット画像の輪郭線上の各点と重心gとの距離lを要素とするベクトルとして表現する。
ここで、図6(a)に示すように、被写体の姿勢や画像中での大きさによって、輪郭点の数が異なる場合について説明する。この場合、それぞれの被写体シルエット画像において、輪郭点の数がnのシルエット画像と輪郭点の数がmのシルエット画像が得られたものとする。ここで、n<mであるものとする。
この例の場合、輪郭特徴量ベクトルの要素数は、nおよびmとなる。そこで、輪郭特徴量のベクトル要素数が異なることを防ぐために、ベクトルの要素数はあらかじめ決定しておき、固定値Zとすることが望ましい。具体的には、任意の入力画像に対して、輪郭点数がZとなるように、全輪郭点の中から輪郭特徴量として利用する輪郭線上の代表点を図6(b)に示すように(n/Z)点ごとまたは(m/Z)点ごとに選択する。本実施の形態では、このように選択した輪郭点を代表点とした特徴量を輪郭特徴量とする。
次に、関節位置推定部103は、S305で抽出された輪郭特徴量を入力として、関節位置を推定する(S306)。
ここでは、被写体の関節位置または身体部位位置と前記輪郭特徴量との関係をあらかじめ学習しておいた相関情報記憶部104に記憶されている相関情報を用いて、前記輪郭特徴量から被写体の関節位置または身体部位位置を推定する。そのため、本実施の形態では、学習と推定とは別々に行うことになる。そこで、被写体の関節位置および身体部位位置と前記輪郭特徴量との相関情報を学習する方法について説明する。
学習に用いる被写体画像とその画像における関節位置データとのセットをNセット用意する。N枚の被写体画像の各々に対して、S305にて抽出した輪郭特徴量をltとする。
ここで、関節位置データには、関節位置のほかに身体部位位置も含まれる。
学習に用いる輪郭特徴量の例について説明する。まず、図5に示すように、さまざまな姿勢を含むNセット分の被写体画像のうち、姿勢(0)の画像501から姿勢(N−1)の画像502まで、それぞれシルエット画像を抽出した後、輪郭特徴量503を抽出する。学習に用いる被写体画像セットは、さまざまな体型、さまざまな姿勢を含むことが望ましい。輪郭特徴量ltは、シルエット画像の重心gと輪郭特徴量として利用する輪郭線上の代表点との距離lを要素として持つベクトルで構成される。さらに、被写体の大きさの違いの影響を排除するために、シルエット画像の面積(画素数)Sを計算し、次式のように、面積Sで正規化することが望ましい。
Figure 2007066094
ここで、lt_zは、時刻tで入力されたシルエット画像の重心gと輪郭線上の代表点zとの距離を示す。また、Stは、時刻tで入力されたシルエット画像の面積である。
次に、その時刻tに対応する関節位置データptについて、説明する。
ここで、関節位置データは、図7に示されるように、画像上の関節位置701を手作業で指定して、画像上での関節iに対応する座標位置(xt_i,yt_i)をptとしても良い。または、モーションキャプチャシステム等を用いて、3次元の関節位置データを取得できる場合は、関節iに対応する3次元位置(xt_i,yt_i,zt_i)をptとしても良い。
具体的には、ptは、次式(7)で表すことができる。
Figure 2007066094
ここで、Mは、関節数を表す。
ここで、学習に用いる関節位置データについて説明する。前記輪郭特徴量を抽出するために用いた被写体画像とその画像における関節位置データとのセットをNセット用意する。ここで、図7に示すように、前記輪郭特徴量を抽出するために用いたさまざまな姿勢を含むNセット分の被写体画像に対応する関節位置データをptとする。
そして、Nセット分の前記輪郭特徴量ltと前記関節位置データptとを用いて、以下のように相関情報を学習する。相関情報とは、さまざまな体型や姿勢における前記輪郭特徴量と前記関節位置データとの写像関係を表すものである。
次に、相関情報の学習方法について具体的に説明する。
求めたい相関情報Cを
Figure 2007066094
とする。ここで、C* Lは、CLの逆行列または疑似逆行列であり、CLは、次式(9)のように表すことができる。
Figure 2007066094
ここで、mlは、N個の輪郭特徴量ltを平均したベクトルである。すなわち、さまざまな体型や姿勢における輪郭特徴量の平均ベクトルである。
次に、式(8)におけるCLPは、次式(10)のように表すことができる。
Figure 2007066094
ここで、mpは、N個の関節位置データptを平均したベクトルである。すなわち、さまざまな体型や姿勢における関節位置データの平均ベクトルである。
本実施の形態において、姿勢推定を行う時は、式(8)〜式(10)を用いて、あらかじめ相関情報を求めておき、図1の相関情報記憶部104には、mp,ml,Cを保持しておけばよい。
すなわち、図8に示すように、相関情報記憶部104に記憶されているmp,ml,Cは、式(6)で示されるZ次元ベクトル空間中の点ltと、式(7)で示される3M次元ベクトル空間中の点ptとの写像関係を示している。
次に、関節位置および身体部位位置の推定処理(S306)について説明する。具体的には、関節位置推定部103が、上記のようにあらかじめ学習した相関情報を用いて、S305にて抽出した輪郭特徴量を入力として、関節位置および身体部位位置を推定する。
S305にて抽出した輪郭特徴量をlinputとすると、推定したい関節位置および身体部位位置pexpectedは、相関情報記憶部104で保持しているmp,ml,Cを用いて、次式(11)により推定することができる。
Figure 2007066094
以上のように、mp,ml,Cをあらかじめ学習しておけば、平均ベクトルとの加減算および相関情報Cとの相関演算を行うだけで関節位置を推定可能である。すなわち、繰返し演算を必要とせず、高速かつ正確に関節位置および身体部位位置を推定可能である。具体的な推定結果を図9に示す。ここでは、前記輪郭特徴量の代表点数を50点とし、関節位置および身体部位位置は、頭、胸、左右肩、左右肘、左右手先、左右腰、左右膝、左右足首の14点とした。図9において、△印が実際にモーションキャプチャシステムにて取得した実際の3次元関節位置および身体部位位置、□印が本実施の形態において推定した関節位置および身体部位位置を示している。なお、図中の関節位置間の直線は人体形状を見やすくするために追記したものである。このように、△印と□印とがほぼ同位置に示されており、関節物体の関節位置および身体部位情報を正確に検出することができることが示されている。
また、本実施の形態では、文字認識やジェスチャー認識等のように、認識対象のクラスを推定する問題とは異なり、あらかじめ学習していない姿勢についても、あらかじめ学習した関節位置データの組合せとして推定することが可能である。すなわち、クラスを推定する問題では、微小な違いを吸収することが重要であるが、本実施の形態であれば、輪郭特徴量の微小な違いが、関節位置の推定結果に反映される事になる。
(第2の実施の形態)
本実施の形態では、輪郭線上の代表点を第1の実施の形態とは異なる方法で選択して輪郭特徴量を抽出する方法について説明する。
本実施の形態に係る姿勢推定装置の構成の概略は図1と同様であるので、その説明を省略する。また、姿勢推定装置による姿勢推定方法は、図3のフローチャートにおいて、S301からS304まで同様であるので、そこまでの処理の説明を省略する。
本実施の形態における輪郭特徴量の代表点の決定方法について、図10を用いて説明する。
特徴抽出部102は、輪郭特徴量抽出処理(図3のS305)の代わりに、S304にて抽出したシルエット画像に対して、重心を決定する。望ましい例としては、シルエット画像の重心位置gを求める。ここで、重心gは、シルエット画像の輪郭位置の重心としても構わない。
次に、特徴抽出部102は、シルエット画像の主軸902を算出する。主軸902については、前述のように式(1)〜式(5)を用いて算出可能である。
次に、特徴抽出部102は、シルエット画像の最上部903と最下部904を求める。ここでは、シルエット画像中のy軸上でシルエット画像の最上部903とシルエット画像の最下部904に位置する画素を選択する。
次に、特徴抽出部102は、シルエット画像の最上部903とシルエット画像の最下部904から主軸902に垂線を下ろし、その2点の交点を結ぶ主軸上の点を等間隔にY点選択し、基準点905とする。そして、図10の矢印で示すように、Y個の基準点905から、それぞれ2本の垂線を引き、垂線と輪郭点との交点を代表点906とする。そして、Y個の基準点905から代表点906までの距離lを算出する。この時、1本の垂線に対して、2点以上の交点がある場合は、基準点905から最も遠い位置に存在する交点のみを用いる。例えば、基準点905bからの図中左向きの垂線に対しては、3つの交点907a〜907cが存在するが、そのうち、基準点905bから最も遠い位置に存在する交点は、交点907aである。そのため、代表点として交点907aが選択され、基準点905bから交点(代表点)907aまでの距離が算出される。
輪郭特徴量は、上記の手順で求めた基準点と代表点との距離を用いて、式(6)の代わりに次式(12)のように定義できる。
Figure 2007066094
ここで、lt_yは、時刻tで入力されたシルエット画像の主軸上に設定されたY個の基準点905と代表点906との間の距離を示す。また、各基準点から2本の垂線を引くため、1個の基準点から2個の代表点が得られる。すなわち、輪郭特徴量の要素数は2Y個となる。なお、Stは、時刻tで入力されたシルエット画像の面積である。
次に、関節位置の推定処理(図3のS306)については、式(6)の代わりに式(12)を用い、linputを、式(12)と同じ形式とすることで同様に実行可能であるため、説明は省略する。
本実施の形態で用いる輪郭特徴量は、主軸に対する垂線方向のみの代表点を用いるため、図11のように、足部に生じた影の影響を受けて、輪郭抽出した画像の足部が地面と繋がった場合においても、足部の繋がった部分の輪郭点が代表点として選択されにくいため、陰の影響を受けにくい利点がある。
(第3の実施の形態)
第1および第2の実施の形態では、輪郭特徴量として、基準点と代表点との距離値を用いた。本実施の形態では、基準点を原点とした代表点の相対座標値を用いた例について説明する。
本実施の形態に係る姿勢推定装置の構成の概略は図1と同様であるので、その説明を省略する。また、姿勢推定装置による姿勢推定方法は、図3のフローチャートにおいて、S301からS304まで同様であるので、そこまでの処理の説明を省略する。
本実施の形態における輪郭特徴量の抽出方法について説明する。
特徴抽出部102は、輪郭特徴量抽出処理(図3のS305)の代わりに、抽出したシルエット画像の輪郭からシルエット画像の輪郭形状を表現する輪郭特徴量を抽出する。輪郭特徴量の抽出方法の一例について図12を用いて以下に説明する。なお、輪郭特徴量としては、シルエット画像の輪郭形状を表現する特徴量であれば以下の例に限らない。
まず、特徴抽出部102は、S304の処理にて抽出したシルエット画像1101に対して、基準点を決定する。望ましい例としては、シルエット画像1101の重心gを基準点として求める。ここで、基準点は、シルエット画像1101の輪郭位置の重心としても構わない。
次に、特徴抽出部102は、シルエット画像1101の主軸(図示せず)を算出する。主軸については、前述のように式(1)〜式(5)を用いて算出可能である。
次に、輪郭特徴量の始点を決定するために、シルエット画像の輪郭線上の各点と主軸との交点を求める。ここで、輪郭線上の各点と求めた主軸との交点が複数点存在する場合は、輪郭点中で最上部に位置する輪郭点を輪郭特徴量の始点406とする。この時、必ずしも最上部に位置する輪郭点を選択する必要は無い。ただし、特に対象が人物である場合は、主軸上でかつ、最上部の輪郭点を始点とすることが有効である。理由は、始点が頭部に対応しやすくなるためである。具体的には,頭部は、腕や足の領域と異なり変形が起きにくい。また、影の影響は、地面に対して出やすいために、その影響も受けにくいことが挙げられる。次に、前記始点から、シルエット画像の輪郭線上の各点をトレースする。輪郭点のトレース方法は、「安居院猛、長尾智晴著、「画像の処理と認識」、72ページ、昭晃堂、1992年発行」に詳細が記述されている。
次に、図12に示すように、基準点(ここでは、重心g)を原点として、トレースした輪郭線上の各点を相対座標系で表現する。ここで、輪郭特徴量は、相対座標系で表現された輪郭線上の各点の座標値を要素とするベクトルとして表現する。
ここで、図6(a)に示すように、被写体の姿勢や画像中での大きさによって、輪郭点の数が異なる場合がある。画像1における輪郭点の数がnで、画像における輪郭点の数がmの場合について説明する。ただし、n<mであるものとする。
この例の場合、前記輪郭特徴量のベクトル要素数は、nおよびmとなる。そこで、輪郭特徴量のベクトル要素数が異なることを防ぐために、ベクトルの要素数はあらかじめ決定しておき、固定値Zとすることが望ましい。具体的には、任意の入力画像に対して、輪郭点数がZとなるように、全輪郭点の中から輪郭特徴量として利用する輪郭線上の代表点を図6(b)に示すように(n/Z)点ごとまたは(m/Z)点ごとに選択する。本実施の形態では、このように選択した輪郭点を代表点とした特徴量を輪郭特徴量と呼ぶ。
ここで、抽出した輪郭特徴量をltとする。輪郭特徴量ltは、シルエット画像の重心gを原点とした時の、代表点1103の相対座標値(xt_j,yt_j)を要素として持つベクトルで構成される。さらに、被写体の大きさの影響を排除するために、シルエット画像の面積(画素数)Sをあらかじめ計算し、次式のように、Sで正規化することが望ましい。上記により、第1の実施の形態における式(7)の代わりとして、次式(13)のように輪郭特徴量ltを表すことができる。
Figure 2007066094
ここで、xt_z,yt_zは、時刻tで入力されたシルエット画像の重心gを原点とした時の輪郭点zの相対座標値を示す。また、Stは、時刻tで入力されたシルエット画像の面積である。
関節位置の推定処理(図3のS306)については、式(6)の代わりに式(13)を用い、linputを、式(13)と同じ形式とすることで同様に実行可能であるため、説明は省略する。
本実施の形態で用いる輪郭特徴量は、基準点と代表点との距離の代わりに座標値を用いるため、同じ数の代表点を選択した場合には、2倍のベクトル要素数を必要とする。しかしながら、座標値を用いれば、輪郭形状に加え、各代表点の位置関係を情報として含むこととなるため、推定精度が向上することが期待できる。
さらに、第2の実施の形態における輪郭特徴量についても、基準点と代表点との距離の代わりに基準点を原点とした代表点の相対座標値を用いることが可能である。
(第4の実施の形態)
図13は、本発明の第4の実施の形態に係る姿勢推定装置の構成を示す図である。図13の姿勢推定装置は、関節物体を含む画像から、正確かつ高速に関節物体の関節位置および身体部位位置を検出する装置である。なお、本発明における「姿勢推定」とは、関節物体の関節位置および身体部位位置を検出することを含む。
画像入力部101および特徴抽出部102については、第1の実施の形態〜第3の実施の形態で説明したものと同様である説明を省略する。
図14に示すように、相関モデル選択部1201は、被写体向き推定部1301と、体型推定部1302と、相関情報決定部1303とを含む。
被写体向き推定部1301は、関節物体領域を抽出する物体領域抽出部1021で抽出した関節物体について、その被写体向きを推定する処理部である。体型推定部1302は、シルエット抽出部1022で抽出したシルエット画像を用いて、抽出した関節物体の体型パラメータを推定する処理部である。相関情報決定部1303は、被写体向き推定部1301で推定した被写体向きと体型推定部1302で推定した体型パラメータとから、あらかじめ複数のクラスを設定し、設定したクラスごとに相関情報を学習し、相関情報記憶部104に記憶する処理部である。相関情報決定部1303は、また、あらかじめ学習しておいた複数の相関情報の中から、1つの相関情報を選択するかまたは複数の相関情報の組合せを選択する処理も行う。
前記相関情報は、被写体の被写体向きや体型パラメータごとに、被写体の関節位置または身体部位位置と特徴抽出部102と同様の処理にて抽出したシルエットの輪郭に関する特徴量との関係をあらかじめ学習しておくものである。
なお、相関モデル選択部1201は、必ずしも被写体向き推定部1301と体型推定部1302とを併用する必要は無く、被写体向き推定部1301による被写体向き推定のみを用いても良い。被写体向き推定のみを用いる場合については、後述する。また、被写体向き推定部1301での処理は、特徴抽出部102の物体領域抽出部1021での処理結果を用いると処理時間の短縮が可能である。また、体型推定部1302での処理は、特徴抽出部102のシルエット抽出部1022での処理結果を用いると、処理時間の短縮が可能である。もちろん、特徴抽出部102および相関モデル選択部1201の各々で、物体領域抽出処理およびシルエット画像抽出処理を行っても構わない。さらに、被写体向き推定部1301と体型推定部1302との処理は順番を入れ替えても問題無い。
また、関節位置推定部103では、前記特徴量と相関モデル選択部1201で決定した相関情報とを用いて、被写体の関節位置および身体部位位置を推定する。
これにより、画像中に存在する関節物体の画像から、正確かつ高速に画像中に存在する関節物体の関節位置および身体部位情報を検出し、姿勢推定を行うことが可能である。
以下に、本発明の関節物体の姿勢推定方法および装置について、図15のフローチャートを用いて詳細に説明する。
S1401からS1405までの処理については、第1〜第3の実施の形態におけるS301からS305までの処理と同様であるので、説明は省略する。
次に、被写体向き推定部1301は、関節物体の被写体向きを推定する(S1406)。ここでは、ブロックマッチングを用いて動きベクトルを算出する。具体的には、図16に示すように、関節物体領域内を複数のブロックに分割し、各ブロック(ブロックi)ごとに動きベクトル(ut_i,vt_i)を算出する。動きベクトルは、図中、矢印2101で示している。そして、被写体向き推定部1301は、複数ブロックの動きベクトルの平均値から、平均動きベクトル(ut,vt)を算出し、関節物体の移動方向を
Figure 2007066094
として求める。ここでは、式(14)で算出した移動方向を被写体向きとする。
ここで、あらかじめ行っておく相関情報の学習について説明する。
本実施の形態では、相関情報を複数のクラスに分けてクラスごとに相関情報を保持する。
また、各クラスは、2つのサブクラスから構成される。1つは、被写体向きθtであり、もう1つは、体型パラメータdである。
初めに、被写体向きθtからサブクラスを決定し、次に体型パラメータdからサブクラスを決定する。そして、上記2つのサブクラスからクラスを決定する。ここでは、被写体向きθtによって、サブクラスに分ける方法について説明する。
図17に示すように被写体向きθtのサブクラスを決定する。サブクラスは、設計者が与えるかk−mean法等のクラスタリング技術を用いて複数のサブクラスを生成しても良い。具体的には、学習用に用いるさまざまな体型および被写体向きの画像をN枚用意し、画像1枚ごとに式(14)により被写体向きθtを算出する。次に、被写体向きθtをあらかじめサブクラスとして設定した向きに対応させる。サブクラスへの対応は、算出した被写体向きがサブクラスの中で最も近い値とする。ここでは、サブクラスとして、設計者が事前に0度(0rad)〜360度(2πrad)まで15度(0.08πrad)ごとに設定した例を示すが、被写体向きのサブクラスの設定は、何度ごとでも良いし、クラスタリング技術を用いてサブクラスを決定しても良い。
このようにして、N枚の画像はそれぞれ、被写体向きのサブクラスに分けられる。
上記のようにサブクラスをあらかじめ決定しておけば、関節位置および身体部位位置を推定する時に、入力画像から被写体向きを推定して、サブクラスを決定することができる。
なお、移動方向については、複数枚の時系列画像について時間平均をとると、さらに精度の向上が期待できる。
なお、ブロックマッチングを用いた動きベクトルの算出方法については、「安居院猛、長尾智晴著、「画像の処理と認識」、164ページ、昭晃堂、1992年発行」に詳細が記述されている。もちろん、被写体向きの算出方法は、上記の限りではなく、顔画像から顔の向き判定を行い被写体向きとしても良いし、多方向から多カメラで撮影する場合は、被写体シルエットのアスペクト比において横幅の比率が最も大きいカメラの方向を向いていると判定することも可能である。
なお、移動方向に関する情報を用いて被写体向きを推定し、相関情報を決定する場合には、動きベクトルの算出に時間的に連続した2枚の画像を入力する必要がある。
次に、体型推定部1302は、シルエット画像から体型パラメータを推定する(S1407)。具体的な方法について、図18を用いて説明する。まず、体型推定部1302は、シルエット画像1501から、シルエット画像の最上部1502とシルエット画像の最下部1503とを求める。ここでは、シルエット画像の縦軸上で最上部1502と最下部1503に位置する画素を選択する。ここで、シルエット画像の最上部1502とシルエット画像の最下部1503との距離をNとする。
そして、Nを被写体の身長と仮定して、体型に相当する幅を算出する。そのために、縦軸にシルエット画像を投影する。ここでは、2値化された画像を用いているため、シルエット画像の画素数を縦軸に投影すればよい。
次に、体型推定部1302は、投影結果1504に対して、身長に相当するNと上記体型に相当するsiとの関係から体型パラメータdを次式(15)に基づいて算出する。
Figure 2007066094
具体的には、図19に示すように、体型の異なる被写体を縦軸に投影した後、式(15)を実行すると、被写体2201の場合は、d=0.18となり、被写体2202の場合は、d=0.24となる。
さらに、体系パラメータdを次式(16)に基づいて算出することも有効である。
Figure 2007066094
ここで、あらかじめ行っておく相関情報の学習について説明する。
本実施の形態では、前述のように、相関情報を複数のクラスに分けてクラスごとに相関情報を保持する。ここでは、体型パラメータdからサブクラスを決定する方法について説明する。
サブクラスは、設計者が与えるかk−mean法等のクラスタリング技術を用いて複数のクラスタを生成しても良い。
具体的には、学習用に用いるさまざまな体型および被写体向きの画像をN枚用意し、画像1枚ごとに式(15)または式(16)により体型パラメータdを算出する。
次に、算出した体型パラメータdをあらかじめサブクラスとして設定した体型パラメータD1〜Dnのいずれかに対応させる。サブクラスへの対応は、算出した体型パラメータdがあらかじめ設定したサブクラスD1〜Dnの中で最も近い値とする。
なお、サブクラスの決定方法は、あらかじめ設計者が与えた場合について説明したが、クラスタリング技術を用いてサブクラスを決定しても良い。
ここでサブクラスは、
D1<D2…<Dn …(17)
とする。
例えば、D1=0.05、D2=0.1、D3=0.15、D4=0.20、D5=0.25とすると、図19の被写体2201は、体型パラメータd=0.18であるため、サブクラスD4と判定され、被写体2202は、体型パラメータd=0.24であるため、サブクラスD5と判定される。
このようにして、N枚の画像はそれぞれ、体型パラメータのサブクラスに分けられる。
上記のようにサブクラスをあらかじめ決定しておけば、関節位置および身体部位位置を推定する時に、入力画像から被写体向きと体型パラメータとを決定してクラスを決定することができる。
なお、体型パラメータについては、複数枚の時系列画像について時間平均をとると、さらに精度の向上が期待できる。
上記のように、あらかじめ被写体向きと体型パラメータとを用いてそれぞれ、サブクラスを設定すると、図20に示すように、それぞれのサブクラスから、複数のクラスij(相関情報)を定義することができる。
次に、相関情報決定部1303は、S1406で推定した被写体向きのサブクラスとS1407にて推定した体型パラメータのサブクラスとを用いて、クラスを決定し、相関情報記憶部104に複数保持された相関情報の中から、1つの相関情報を選択するか、または複数の相関情報を選択して組み合わせる(S1408)。
具体的には、図20に示すように、あらかじめ、複数の体型パラメータのサブクラスと複数の被写体向きのサブクラスの組合せからクラスを決定し、クラスごとに
Figure 2007066094
をあらかじめ学習しておき、相関情報記憶部104に保持しておく。
具体的に式(9)に示したCLを、図20に示すように、被写体向きのサブクラスiと体型パラメータのサブクラスjごとに用意することにより、次式(18)のように書ける。
Figure 2007066094
ここで、Nijは、N枚の学習用に用いた画像のうち、被写体向き推定処理(S1406)および体型パラメータ推定処理(S1407)の結果からクラスijに割り当てられた画像数である。
また同様に、
Figure 2007066094
は、クラスijに割り当てられた画像から抽出した輪郭特徴量であり、
Figure 2007066094
は、Nij個の
Figure 2007066094
を平均したベクトルである。また、式(10)に示したCLPも同様に、被写体向きのサブクラスiと体型パラメータのサブクラスjごとに用意することにより、次式(19)のように書ける。
Figure 2007066094
ここで、式(18)と同様に、Nijは、N枚の学習用に用いた画像のうち、被写体向き推定処理(S1406)および体型パラメータ推定処理(S1407)の結果からクラスijに割り当てられた画像数である。
また同様に、
Figure 2007066094
は、クラスijに割り当てられた画像に対応する関節位置データであり、
Figure 2007066094
は、Nij個の
Figure 2007066094
を平均したベクトルである。
そして、式(8)に対応する相関情報Cijは、次式(20)で表すことができる。
Figure 2007066094
ここで、
Figure 2007066094

Figure 2007066094
の逆行列または疑似逆行列である。
次に、関節位置推定部1202は、S1408で決定されたクラスijの
Figure 2007066094
を用いて、次式(21)に従い、関節位置を推定する(S1409)。
Figure 2007066094
また、さらに、他の関節位置および身体部位位置推定方法として、複数の相関情報の組合せを用いることも可能である。
この場合、関節位置推定部1202は、次式(22)に従い、関節位置を推定する(S1409)。
Figure 2007066094
ここで、
Figure 2007066094
Figure 2007066094
である。
Figure 2007066094
は、最尤推定アルゴリズムの一種であるEMアルゴリズムを用いて推定することができる。
EMアルゴリズムについては、「上田修功「ベイズ学習I−統計的学習の基礎―」、電子情報通信学会誌、Vol.85, No.4, pp.265−271,2002」に詳しく記載されている。
なお、体型パラメータを用いずに、被写体向きのみを用いる場合については、前記被写体向きのサブクラスをクラスとすることで、i個のクラスを決定し、式(18)〜式(24)における体型パラメータに関する変数jを除いたものとして実施可能である。
このように、複数の被写体向きのサブクラスや体型パラメータのサブクラスからクラスを決定し、クラスごとに相関行列を求めておき、その線形和を用いてモデル変換を行うことで、さまざまな被写体向きと体型に対応した姿勢推定が可能になる。
以上により、第1の実施の形態〜5の効果に加えて、対象とする関節物体の体型のバリエーションに頑健となる。
以上のように、クラスごとに
Figure 2007066094
をあらかじめ学習しておけば、平均ベクトルとの加減算および相関情報との相関演算を行うだけで関節位置および身体部位位置を推定可能である。すなわち、繰返し演算を必要とせず、高速かつ正確に関節位置および身体部位位置を推定可能である。
さらに、被写体の向きや体型のバリエーションへの対応も可能になる。特に単眼カメラでの利用においては、被写体の向きと体型のバリエーションとの区別がつきにくくなる問題に対して、S1407およびS1408で、被写体向きと体型パラメータとを推定し、それに適した相関情報を選択して関節位置および身体部位位置を推定することで、より、高精度な推定が可能となる。また、本実施の形態は、第1〜第3の実施の形態のいずれとも組合せ可能である。
(第5の実施の形態)
本実施の形態では、第1〜第4の実施の形態に加えて、輪郭特徴量を時系列画像から得る方法について第1の実施の形態に沿って説明する。
ここでは、時刻tと時刻t+1とで撮像された2枚の画像を入力とした場合について説明するが、時系列に連続した画像を3枚以上用いても構わない。
画像入力部101において、画像を入力する(図3のS301)。ここでは、時系列に並んだ画像を想定する。次に、特徴抽出部102では、S302からS305に従って、時刻tで入力された画像および時刻t+1で入力された画像の各々の輪郭特徴量を抽出する。ここで、抽出された輪郭特徴量をltおよびlt+1とする。
次に、複数枚の画像に対応するそれぞれの輪郭特徴量を図21に示すようにつなぎ合わせる。すなわち、時系列画像から得る輪郭特徴量lt,t+1は、式(6)の代わりに、次式(25)のように書き表せる。
Figure 2007066094
ここで、lt_z,lt+1_zは、それぞれ、時刻t、t+1で入力されたシルエット画像の重心gと輪郭線上の代表点zとの距離を示す。また、St,St+1は、それぞれ時刻t、t+1で入力されたシルエット画像の面積である。
次に、関節位置の推定処理(S306)については、式(6)の代わりに式(25)を用い、linputを、式(25)と同じように時系列とすることで同様に実行可能であるため、説明は省略する。
例えば、図5における姿勢(0)の画像501のように、関節や身体部位の一部が胴体によって隠されているような場合、1枚の画像のみからでは、隠れている部位や関節の位置に関して推定誤りが大きくなる傾向がある。これに対して本実施の形態では、式(25)のように、輪郭特徴量の時間変動を含めることによって、関節物体の一連の動きから関節位置推定を行うことができる。これにより、特に関節や身体部位の隠れが多い場合において推定精度を高めることが可能である。
(第6の実施の形態)
本実施の形態では、第1の実施の形態で説明した姿勢推定方法を用いて、多関節を有するロボットを動作させる例について述べる。もちろん、第1〜第5の実施の形態で説明した姿勢推定方法は、すべて適用可能である。
ここでは、説明を簡単にするため、人物の手先動作に従って、ロボットの手先動作を生成する例について述べるが、ロボットの各リンクと人物の各関節との対応関係をあらかじめ決めておけば、ロボットのリンク数は、推定する関節数を上限として利用可能である。
図22は、本発明の第6の実施の形態に係るロボット制御装置の構成を示すブロック図である。ロボット制御装置は、画像入力部101、特徴抽出部102、関節位置推定部103、相関情報記憶部104と、軌道生成部1901とを備えている。
ロボット制御装置において、画像入力部101、特徴抽出部102、関節位置推定部103および相関情報記憶部104は、第1の実施の形態と同様であるため、説明は省略する。
軌道生成部1901では、関節位置推定部103で推定した関節位置および身体部位位置の中から、手先位置を表す3次元位置を用いる。手先位置は、式(7)のベクトルの第h要素として次式(26)で表される。
Figure 2007066094
そして、式(26)の手先位置の時系列データを用いて、逆運動学問題としてロボットを制御する。図23に示すように、XY平面内における、2個の回転関節(リンク2003およびリンク2004)からなる2自由度のロボットアームを例に説明する。ここで、2次元平面を考えるため、式(26)において、
Figure 2007066094
とする。
ただし、自由度を限定するものではない。
まず、ロボットの手先位置2001の目標軌道を式(26)に従って時系列で与える。これに対して、リンク2003とリンク2004の関節変数ベクトルを次式(27)で表すと、
Figure 2007066094
目標軌道として与えた手先位置とリンク2003およびリンク2004の関節変数ベクトルとの関係は、次式(28)で表される。
Figure 2007066094
ここで、2自由度ロボットアームの手先位置ベクトルpt=(xt,yt)は、式(28)と図23のロボットアームの構造より、
Figure 2007066094
Figure 2007066094
で表すことができる。
軌道生成部1901は、式(28)から、逆運動学問題を解く事によって、目標軌道から、リンク2003とリンク2004の関節変数ベクトルqtを得ることができる。すなわち、リンク2003とリンク2004の関節変動ベクトルを得ることで、式(26)の手先位置を目標軌道とした制御が可能である。
具体的には、図24に示すようなフィードバック制御系を用いることで実現できる。
まず、pt hを目標軌道値として制御系に与える。
次に、目標軌道値pt hとロボットアームの手先位置ptとの誤差pt eを計算し、PID制御器に入力する。もちろん、必ずしもPID制御である必要は無く、PD制御等を用いても良い。
そして、PID補償器からの出力u´tに対してヤコビ行列の逆行列Jp -1(q)を乗算する。これにより、リンク2003およびリンク2004の駆動指令値utを得ることができる。
なお、PID制御器の出力は、次式(31)で表され、
Figure 2007066094
P,KI,KDは、それぞれチューニングする。
「PID制御器については、則次俊郎、五百井清、西本澄、小西克信、谷口隆雄、「ロボット工学」、P116、朝倉書店、2003年」に詳しく記述されている。
また、2自由度の回転関節(リンク)を持つロボットアームのヤコビ行列は、式(29)および式(30)から、次式(32)により表される。
Figure 2007066094
なお、
Figure 2007066094
は、それぞれアームの長さを示す。また、本実施例の多自由度への拡張も、ロボットの構造に基づいてヤコビ行列を計算すれば実施可能である。
2自由度ロボットアーム、多自由度ロボットアームに関するヤコビ行列の算出については、「松日楽信人、大明準治、「わかりやすいロボットシステム入門」P106、オーム社、1999年」に詳しく記載されている。
次に、軌道生成部1901は、誤差pt eを計算するためのロボットアームの手先位置ptを計算する。
アームの手先位置は、順運動学に基づいて解く事ができる。
すなわち、ロボットの現在の関節変動ベクトルqtから、式(28)を用いて、ロボットアームの手先位置ptを算出できる。
これにより、アームの手先位置が得られ、誤差pt eを計算できる。
以上のように、ヤコビ行列を用いて手先に関する変数からリンク(関節)に関する変数に変換してPID制御を行うことによって、関節位置推定結果を目標軌道としたロボットの制御が可能である。
また、順運動学問題として、ロボットを制御することも可能である。
例として、図23のようにXY平面内を動く2個の回転関節(リンク)で構成された2自由度マニピュレータについて述べる。2リンク構造の場合、関節位置推定部103で推定した関節位置のうち、肩、肘、手首に対応する関節位置情報から、推定した肩位置と推定した肘位置を直線で結び、その直線の傾きからθ1を得ることができる。さらに、推定した肘位置と推定した手首位置を直線で結ぶ。そして上記2本の直線のなす角度からθ2を得ることができる。
これにより、式(27)のリンク2003とリンク2004の関節変数ベクトルを得ることができ、関節変数ベクトルを目標値とした制御を行うことで、人物の肩、肘、手首の角度の関係を模擬したロボット制御が可能となる。具体的には、図23のように2リンク構造の場合、式(29)式(30)にリンク2003とリンク2004の関節変数ベクトルを与えるとPID制御等を用いて制御が可能である。
なお、順運動学問題、逆運動学問題、制御方法については、「吉川恒夫、「ロボット制御基礎論」、P38、コロナ社、1988年」に詳しい。
以上のように、本実施の形態によれば、繰返し演算を必要とせず、高速かつ正確に関節位置を推定し、軌道生成部で、その結果を用いて目標軌道として関節変数ベクトルを得ることによって、目標軌道に沿ったロボットの動作が可能である。これにより、目標軌道を設計者が与える必要が無く、手軽にロボット動作を実現できる。また、関節位置推定部で推定した関節位置から、軌道生成部で関節角度を推定することによって、人物等の関節の動きを模擬したロボットの動作が可能である。これにより、スポーツや踊り等の動作を手軽にロボットに動作させることが可能である。
以上、本発明の実施の形態に係る姿勢推定装置およびロボットについて説明したが、姿勢推定方法は、必ずしも上述の実施の形態に限定されるものではない。例えば、ニューラルネットワークを用いて姿勢推定を行うようにし、相関情報の学習は、バックプロパゲーション法を用いるようにしてもよい。
また、上述の実施の形態に係る姿勢推定装置およびロボットにおいては、3次元空間中における関節位置の推定を行なったが、2次元画像中の関節位置の推定を行うようにしてもよい。この場合には、例えば、上述の式(8)で示した相関情報Cにより、輪郭特徴量と2次元の関節位置データとの写像関係を表すようにすればよい。
本発明によると、2次元画像の被写体シルエットに関する特徴量を入力として、あらかじめ学習しておいた相関情報を用いて直接的に関節位置または身体部位位置を推定することができるため、繰返し演算を行うことなく、高速かつ正確な姿勢推定が可能である。
よって、人物等の関節の動きを反映させたロボットや、災害時に遠隔救助作業を行なうことができるロボットや、遠隔手術装置や、人物等の関節の動きに基づいてアニメーションを作成するアニメーション作成装置等に適用可能である。
本発明の第1の実施の形態による姿勢推定装置の構成を示す機能ブロック図である。 本発明の第1の実施の形態による特徴抽出部の構成を示す機能ブロック図である。 本発明の第1の実施の形態による姿勢推定装置が実行する処理のフローチャートである。 本発明の第1の実施の形態による輪郭特徴量の抽出例を示す図である。 本発明の第1の実施の形態による輪郭特徴量の例を示す図である。 本発明の第1の実施の形態による輪郭特徴量の代表点を示す図である。 本発明の第1の実施の形態による関節位置および身体部位位置を示す図である。 本発明の第1の実施の形態に相関情報を説明するための概念図である。 本発明の第1の実施の形態による関節位置および身体部位位置の推定結果を示す図である。 本発明の第2の実施の形態による輪郭特徴量の抽出例を示す図である。 本発明の第2の実施の形態による輪郭抽出結果を示す図である。 本発明の第3の実施の形態による輪郭特徴量の抽出例を示す図である。 本発明の第4の実施の形態による姿勢推定装置の構成を示す機能ブロック図である。 本発明の第4の実施の形態による相関モデル選択部の構成を示す機能ブロック図である。 本発明の第4の実施の形態による姿勢推定装置が実行する処理のフローチャートである。 本発明の第4の実施の形態によるブロックマッチングの例を示す図である。 本発明の第4の実施の形態による被写体向きを示す図である。 本発明の第4の実施の形態による体型パラメータの算出例を示す図である。 本発明の第4の実施の形態による体型パラメータの算出例を示す図である。 本発明の第4の実施の形態による複数の相関情報を示す図である。 本発明の第5の実施の形態による輪郭特徴量の例を示す図である。 本発明の第6の実施の形態によるロボット制御装置の構成を示す機能ブロック図である。 本発明の第6の実施の形態によるロボット制御の例を示す図である。 本発明の第6の実施の形態によるフィードバック制御系の例を示す図である。
符号の説明
101 画像入力部
102 特徴抽出部
103 関節位置推定部
104 相関情報記憶部
401 入力画像
402 背景画像
403 シルエット画像
405 主軸
406 始点
501 姿勢(0)の画像
502 姿勢(N−1)の画像
503 輪郭特徴量
701 関節位置
902 主軸
903,1502 シルエット画像の最上部
904,1503 シルエット画像の最下部
905 基準点
906 代表点
1021 物体領域抽出部
1022 シルエット抽出部
1023 輪郭特徴抽出部
1101,1501 シルエット画像
1103 代表点
1201 相関モデル選択部
1202 関節位置推定部
1301 被写体向き推定部
1302 体型推定部
1303 相関情報決定部
1504 投影結果
1901 軌道生成部
2001 手先位置
2003,2004 リンク
2101 矢印
2201,2202 被写体

Claims (14)

  1. 関節物体を含む2次元画像から当該関節物体の3次元空間中または2次元画像中における姿勢を推定する姿勢推定装置であって、
    2次元画像中より、関節物体の物体領域を抽出する物体領域抽出手段と、
    前記物体領域より、前記関節物体に関する特徴量を抽出する特徴量抽出手段と、
    前記特徴量と前記関節物体の3次元空間中または2次元画像中における関節位置との間の写像関係を示す相関情報を記憶している相関情報記憶手段と、
    前記特徴量および前記相関情報に基づいて、前記関節物体の3次元空間中または2次元画像中における関節位置を推定する関節位置推定手段とを備える
    ことを特徴とする姿勢推定装置。
  2. 前記特徴量抽出手段は、前記物体領域の輪郭線上に設けられる複数の代表点により求められる特徴量を抽出する
    ことを特徴とする請求項1に記載の姿勢推定装置。
  3. 前記特徴量抽出手段は、所定の基準点と前記複数の代表点との間の距離を特徴量として抽出する
    ことを特徴とする請求項2に記載の姿勢推定装置。
  4. 前記特徴量抽出手段は、前記物体領域の重心または前記物体領域の輪郭の重心と前記複数の代表点との間の距離を特徴量として抽出する
    ことを特徴とする請求項3に記載の姿勢推定装置。
  5. 前記特徴量抽出手段は、
    前記物体領域の重心または前記物体領域の輪郭の重心を通る主軸を求める主軸算出部と、
    前記主軸上に設けられた複数の所定の基準点の各々について、当該基準点と、当該基準点を通り前記主軸に直交する直線と前記物体領域の輪郭線上の交点との間の距離を特徴量として算出する特徴量算出部とを有する
    ことを特徴とする請求項3に記載の姿勢推定装置。
  6. 前記特徴量抽出手段は、前記物体領域の重心または前記物体領域の輪郭の重心を原点としたときの、前記複数の代表点の相対座標値を特徴量として抽出する
    ことを特徴とする請求項2に記載の姿勢推定装置。
  7. 前記相関情報記憶手段は、前記相関情報を複数記憶しており、
    前記姿勢推定装置は、さらに、複数の前記相関情報のうち1つ以上の相関情報を選択する相関情報選択手段を備え、
    前記関節位置推定手段は、前記特徴量および前記相関情報選択手段で選択された前記1つ以上の相関情報に基づいて、前記関節物体の3次元空間中または2次元画像中における関節位置を推定する
    ことを特徴とする請求項1〜6のいずれか1項に記載の姿勢推定装置。
  8. 前記相関情報記憶手段は、前記関節物体の複数の向きに基づいて分類された複数の相関情報を記憶しており、
    前記相関情報選択手段は、
    前記関節物体の向きを推定する関節物体向き推定部と、
    前記関節物体の向きに基づいて、1つ以上の相関情報を決定する相関情報決定部とを有する
    ことを特徴とする請求項7に記載の姿勢推定装置。
  9. 前記相関情報記憶手段は、前記関節物体の複数の向きと前記関節物体の複数の体型とに基づいて分類された複数の相関情報を記憶しており、
    前記相関情報選択手段は、さらに、前記関節物体の体型を推定する関節物体体型推定部を有し、
    前記相関情報決定部は、前記関節物体の向きおよび体型に基づいて、1つ以上の相関情報を決定する
    ことを特徴とする請求項8に記載の姿勢推定装置。
  10. 前記関節物体向き推定部は、前記関節物体の前記2次元画像中における移動方向に基づいて、前記関節物体の向きを推定する
    ことを特徴とする請求項8または9に記載の姿勢推定装置。
  11. 前記特徴量抽出手段は、さらに、抽出した特徴量を時系列に並べたものを特徴量とする
    ことを特徴とする請求項1〜10のいずれか1項に記載の姿勢推定装置。
  12. さらに、前記関節位置推定手段において推定された前記関節位置の時系列情報に基づいて、多関節ロボットの目標軌道を生成する目標軌道生成手段を備える
    ことを特徴とする請求項1〜11のいずれか1項に記載の姿勢推定装置。
  13. 関節物体を含む2次元画像から当該関節物体の3次元空間中または2次元画像中における姿勢を推定する姿勢推定方法であって、
    2次元画像中より、関節物体の物体領域を抽出するステップと、
    前記物体領域より、前記関節物体に関する特徴量を抽出するステップと、
    前記特徴量および前記特徴量と前記関節物体の3次元空間中または2次元画像中における関節位置との間の写像関係を示す相関情報に基づいて、前記関節物体の3次元空間中または2次元画像中における関節位置を推定するステップとを含む
    ことを特徴とする姿勢推定装置。
  14. 関節物体を含む2次元画像から当該関節物体の3次元空間中または2次元画像中における姿勢を推定する姿勢推定方法のプログラムであって、
    2次元画像中より、関節物体の物体領域を抽出するステップと、
    前記物体領域より、前記関節物体に関する特徴量を抽出するステップと、
    前記特徴量および前記特徴量と前記関節物体の3次元空間中または2次元画像中における関節位置との間の写像関係を示す相関情報に基づいて、前記関節物体の3次元空間中または2次元画像中における関節位置を推定するステップとをコンピュータに実行させる
    ことを特徴とするプログラム。
JP2005252514A 2005-08-31 2005-08-31 姿勢推定装置および姿勢推定方法 Pending JP2007066094A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005252514A JP2007066094A (ja) 2005-08-31 2005-08-31 姿勢推定装置および姿勢推定方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005252514A JP2007066094A (ja) 2005-08-31 2005-08-31 姿勢推定装置および姿勢推定方法

Publications (1)

Publication Number Publication Date
JP2007066094A true JP2007066094A (ja) 2007-03-15

Family

ID=37928195

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005252514A Pending JP2007066094A (ja) 2005-08-31 2005-08-31 姿勢推定装置および姿勢推定方法

Country Status (1)

Country Link
JP (1) JP2007066094A (ja)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010535385A (ja) * 2007-08-22 2010-11-18 ホンダ リサーチ インスティテュート ヨーロッパ ゲーエムベーハー オプティカルフロー、運動学及び深さ情報を使用して、物体の適切な運動を推定する方法
JP2013047961A (ja) * 2012-09-28 2013-03-07 Extreme Reality Ltd Israel 人−機械インターフェース装置システム及び方法
JP2013529801A (ja) * 2010-06-12 2013-07-22 トヨタ モーター ヨーロッパ ナームロゼ フェンノートシャップ/ソシエテ アノニム 単眼3次元ポーズ推定および検出による追跡
KR20130083677A (ko) * 2012-01-13 2013-07-23 삼성전자주식회사 신체 연결 관계 분석 장치 및 방법
WO2019156241A1 (ja) * 2018-02-09 2019-08-15 日本電信電話株式会社 学習装置、推定装置、学習方法、推定方法及びコンピュータプログラム
KR20210066482A (ko) * 2019-11-28 2021-06-07 디노플러스 (주) 합성곱 신경망 기반 한류 모션 교육시스템
JPWO2021117120A1 (ja) * 2019-12-10 2021-06-17
JP2021103564A (ja) * 2020-06-08 2021-07-15 ベイジン バイドゥ ネットコム サイエンス テクノロジー カンパニー リミテッドBeijing Baidu Netcom Science Technology Co., Ltd. 仮想オブジェクト駆動方法、装置、電子機器及び可読記憶媒体
JP2021144631A (ja) * 2020-03-13 2021-09-24 エヌ・ティ・ティ・ビズリンク株式会社 動物行動推定システム、動物行動推定支援装置、動物行動推定方法及びプログラム
JP2021141876A (ja) * 2020-03-13 2021-09-24 エヌ・ティ・ティ・ビズリンク株式会社 動物行動推定装置、動物行動推定方法及びプログラム
JP7261342B1 (ja) 2022-09-22 2023-04-19 三菱ケミカルグループ株式会社 情報処理装置、方法、プログラム、およびシステム
WO2023181410A1 (ja) * 2022-03-25 2023-09-28 三菱電機株式会社 作業推定装置、作業推定方法、及び作業推定プログラム

Cited By (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010535385A (ja) * 2007-08-22 2010-11-18 ホンダ リサーチ インスティテュート ヨーロッパ ゲーエムベーハー オプティカルフロー、運動学及び深さ情報を使用して、物体の適切な運動を推定する方法
JP2013529801A (ja) * 2010-06-12 2013-07-22 トヨタ モーター ヨーロッパ ナームロゼ フェンノートシャップ/ソシエテ アノニム 単眼3次元ポーズ推定および検出による追跡
KR20130083677A (ko) * 2012-01-13 2013-07-23 삼성전자주식회사 신체 연결 관계 분석 장치 및 방법
KR101908284B1 (ko) 2012-01-13 2018-10-16 삼성전자주식회사 신체 연결 관계 분석 장치 및 방법
JP2013047961A (ja) * 2012-09-28 2013-03-07 Extreme Reality Ltd Israel 人−機械インターフェース装置システム及び方法
WO2019156241A1 (ja) * 2018-02-09 2019-08-15 日本電信電話株式会社 学習装置、推定装置、学習方法、推定方法及びコンピュータプログラム
JP2019139517A (ja) * 2018-02-09 2019-08-22 日本電信電話株式会社 学習装置、推定装置、学習方法、推定方法及びコンピュータプログラム
KR20210066482A (ko) * 2019-11-28 2021-06-07 디노플러스 (주) 합성곱 신경망 기반 한류 모션 교육시스템
JPWO2021117120A1 (ja) * 2019-12-10 2021-06-17
WO2021117120A1 (ja) * 2019-12-10 2021-06-17 日本電信電話株式会社 推定方法、推定装置及びプログラム
JP2021141876A (ja) * 2020-03-13 2021-09-24 エヌ・ティ・ティ・ビズリンク株式会社 動物行動推定装置、動物行動推定方法及びプログラム
JP2021144631A (ja) * 2020-03-13 2021-09-24 エヌ・ティ・ティ・ビズリンク株式会社 動物行動推定システム、動物行動推定支援装置、動物行動推定方法及びプログラム
JP2021103564A (ja) * 2020-06-08 2021-07-15 ベイジン バイドゥ ネットコム サイエンス テクノロジー カンパニー リミテッドBeijing Baidu Netcom Science Technology Co., Ltd. 仮想オブジェクト駆動方法、装置、電子機器及び可読記憶媒体
US11532127B2 (en) 2020-06-08 2022-12-20 Beijing Baidu Netcom Science Technology Co., Ltd. Virtual object driving method, apparatus, electronic device, and readable storage medium
JP7273880B2 (ja) 2020-06-08 2023-05-15 ベイジン バイドゥ ネットコム サイエンス テクノロジー カンパニー リミテッド 仮想オブジェクト駆動方法、装置、電子機器及び可読記憶媒体
WO2023181410A1 (ja) * 2022-03-25 2023-09-28 三菱電機株式会社 作業推定装置、作業推定方法、及び作業推定プログラム
JP7408035B1 (ja) 2022-03-25 2024-01-04 三菱電機株式会社 作業推定装置、作業推定方法、及び作業推定プログラム
JP7261342B1 (ja) 2022-09-22 2023-04-19 三菱ケミカルグループ株式会社 情報処理装置、方法、プログラム、およびシステム
WO2024062642A1 (ja) * 2022-09-22 2024-03-28 株式会社Shosabi 情報処理装置、方法、プログラム、およびシステム
JP2024045823A (ja) * 2022-09-22 2024-04-03 三菱ケミカルグループ株式会社 情報処理装置、方法、プログラム、およびシステム

Similar Documents

Publication Publication Date Title
JP2007066094A (ja) 姿勢推定装置および姿勢推定方法
CA2858398C (en) Method and apparatus for estimating a pose
JP4148281B2 (ja) モーションキャプチャ装置及びモーションキャプチャ方法、並びにモーションキャプチャプログラム
CN103778635B (zh) 用于处理数据的方法和装置
JP5211069B2 (ja) ラベル付けを用いた人体姿勢の推定および追跡
CN107253192A (zh) 一种基于Kinect的无标定人机交互控制系统及方法
Schröder et al. Real-time hand tracking using synergistic inverse kinematics
Wang et al. Point cloud and visual feature-based tracking method for an augmented reality-aided mechanical assembly system
Michel et al. Markerless 3d human pose estimation and tracking based on rgbd cameras: an experimental evaluation
Kofman et al. Robot-manipulator teleoperation by markerless vision-based hand-arm tracking
Iwasawa et al. Human body postures from trinocular camera images
Lovi et al. Predictive display for mobile manipulators in unknown environments using online vision-based monocular modeling and localization
Amat et al. Stereoscopic system for human body tracking in natural scenes
Ogawara et al. Grasp recognition using a 3D articulated model and infrared images
KR102594249B1 (ko) 실감 인터랙션 기반의 가상 훈련 방법 및 장치
Di Bernardo et al. Monocular tracking of the human arm in 3d: Real-time implementation and experiments
Yunardi et al. Implementation of motion capture system for trajectory planning of leg swing simulator
Al-Junaid ANN based robotic arm visual servoing nonlinear system
Infantino et al. Visual control of a robotic hand
Wang et al. Real-time human body motion estimation based on multi-layer laser scans
Payandeh et al. Experimental Study of a Deep-Learning RGB-D Tracker for Virtual Remote Human Model Reconstruction
Han et al. Image-based joint state estimation pipeline for sensorless manipulators
Takahashi et al. Remarks on a real‐time, noncontact, nonwear, 3D human body posture estimation method
WO2023100282A1 (ja) データ生成システム、モデル生成システム、推定システム、学習済みモデルの製造方法、ロボット制御システム、データ生成方法、およびデータ生成プログラム
Liu et al. Markerless monocular tracking of articulated human motion