JP4765075B2 - ステレオ画像を利用した物体の位置および姿勢認識システムならびに物体の位置および姿勢認識方法を実行するプログラム - Google Patents
ステレオ画像を利用した物体の位置および姿勢認識システムならびに物体の位置および姿勢認識方法を実行するプログラム Download PDFInfo
- Publication number
- JP4765075B2 JP4765075B2 JP2006239190A JP2006239190A JP4765075B2 JP 4765075 B2 JP4765075 B2 JP 4765075B2 JP 2006239190 A JP2006239190 A JP 2006239190A JP 2006239190 A JP2006239190 A JP 2006239190A JP 4765075 B2 JP4765075 B2 JP 4765075B2
- Authority
- JP
- Japan
- Prior art keywords
- images
- image
- stereo image
- orientation
- rectangular area
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Description
近年、福祉施設や家庭内で人間の役に立つロボットの開発が盛んに行われているが、ここで問題になるのはロボットの教示方法である。従来、プログラム言語による動作制御やジョイスティック等を用いた教示が行われているが、これらは専門知識を要するとともに多大な手間を要する。したがって、誰でも簡単にロボットを扱うためには、例えば、音声や身振り等によるロボットとのコミュニケーション手法の確立が望まれている。
画像を用いて人間の腕の位置および姿勢を認識する1つの方法として、肩および肘関節を有し、上腕および前腕を線分(リンク)で表した腕モデルを用い、肩部分でこの腕モデルと人間の腕画像との位置合わせを行った後、各関節を少しずつ回転させて、画面上で腕画像の中心と腕モデルの重なり具合が最大となるよう各関節の角度を決定する方法がある。背景差分をとった上で肌色ピクセル領域を抽出することにより、画像より腕の領域のみを切り出す方法との組み合わせも試みられている。
しかし、従来のエッジ検出等の画像処理技術のみでは、腕画像と腕モデルの重なり具合の評価が困難である。さらに、肌色ピクセル領域を抽出して腕の領域のみを切り出す方法には、ロボットが移動していて背景が常に変化している場合には、腕の領域のみを切り出すのは非常に困難であるし、例えば長袖シャツを着用している人間の腕は認識できなくなるという問題もある。
従来のモーションキャプチャー装置では、色のついたボール、鏡、赤外線マーカー等のマーカーを対象物に取付け、一方の画像上のマーカー像に対応する他方の画像上のマーカー像を探索することにより、両画像データの対応付けを行っている。しかし、特殊なマーカーを取付けるのは非常に面倒である上、家庭用ロボットや生産ライン監視用システムにおいて対象物の全てにマーカーを取付けることは非現実的である。また、多くの場合、一方の画像上で抽出した特徴点周辺の小領域の画像データをテンプレートとして用い、他の画像上でテンプレートデータと対応する点を探索することによって視差を求め、認識対象となる物体の距離情報を読み出す方法が用いられているが、この方法では、対応点の探索に膨大な計算コストを要する。エピポーラ拘束等を利用して探索を行う範囲を制限することにより計算コストを減少させることも考えられるが、カメラのキャリブレーションを厳密に行う必要があるため、床に凹凸や段差のある家庭内を移動するロボットに適用する場合、キャリブレーションを頻繁に行う必要がある等の新たな問題が生じるおそれがある。
また、各部に機能を分担させ各々で必要な処理を行うことにより、短時間で精度よく物体の位置および姿勢の認識を行うことができる。
また、第2のステップにおいてコンピュータに設定させる矩形領域が、手先部のエッジ特徴および肌色ピクセルの一致度の評価を行う手先部矩形領域と、前腕部および上腕部における輪郭の内側の領域についてテクスチュアの一致度の評価を行う腕中心部矩形領域と、前腕部および上腕部におけるエッジ特徴の一致度の評価を行う腕外側部矩形領域とからなると、手先部のエッジ特徴および肌色ピクセル領域、前腕部および上腕部のエッジ特徴およびテクスチュアを用いて、第6のステップにおいて精度よくマッチングを行うことができる。
さらに、第6のステップにおいてコンピュータに実行させる評価関数の演算が、エッジ特徴、テクスチュア、および肌色ピクセルの一致度の評価演算を含むものであると、例えば、背景が均一であるため、部分画像間のエッジ特徴およびテクスチュアの一方のみの一致度のみでマッチングを行うと誤認識が生じるおそれがある場合であっても、精度よくマッチングを行うことができ、さらに、人体に特徴的な肌色ピクセル領域を用いてより高精度にマッチングを行うことができる。
まず、図1を参照しながら、本発明の一実施の形態に係るステレオ画像を利用した物体の位置および姿勢認識システム、物体の位置および姿勢認識方法、およびこの方法を実行するプログラムについて説明する。
本発明の一実施の形態に係るステレオ画像を利用した物体の位置および姿勢認識システム10は、被写対象となる物体を含む領域についてステレオ画像を構成する第1および第2の画像の撮像をそれぞれ行う第1および第2のカメラを有するステレオカメラよりなる撮像部11、システム本体12、入力部13および出力部14から構成される。
空間モデル設定部16は、空間モデル設定手段17および空間モデル記憶手段18からなる。
矩形領域設定部19は、矩形領域設定手段20および矩形領域記憶手段21からなる。
比較ウインドウ設定部22は、座標変換手段23および比較ウインドウ記憶手段24からなる。
前処理部25は、エッジ抽出手段26、肌色ピクセル抽出手段27、および前処理画像記憶手段28からなる。
部分画像生成部29は、部分画像抽出手段30、部分画像記憶手段31、および部分画像視差補正手段32よりなる。
マッチング演算部33は、評価関数演算手段34、評価関数記憶手段35、収束判定手段36、およびパラメータ更新手段37よりなる。
それぞれ左側(第1)および右側(第2)のカメラにより撮像された、1対のステレオ画像(第1および第2の画像)である左画像および右画像は、ステレオ画像記憶手段15に記憶される。マッチング演算部33における処理に用いられる左画像および右画像は、直接撮像部11から取り込まれたものであってもよく、ステレオ画像記憶手段15から読み出されたものであってもよい。
物体の空間モデルは、位置および姿勢認識の対象となる物体の概略形状、関節の数、および関節運動の自由度等に基づいて定められる。図2に、物体の一例である人間の腕の、空間モデルの一例である2関節4自由度モデルの概略図を示す。このモデルは、それぞれ長さがL1およびL2である剛直なリンクで近似した上腕および前腕、肩および肘に相当する2つの関節よりなる。また、このモデルにおいて、腕のワールド座標系における位置および姿勢は、肩の3次元座標(xS,yS,zS)、肩関節の屈曲(伸展)角度θ1、肩関節の内転(外転)角度θ2、肘関節の内旋(外旋)角度θ3、および肘関節の屈曲(伸展)角度θ4よりなる空間モデルパラメータを用いて表される。ここで、肩関節の「屈曲(伸展)」および「内転(外転)」は、肩関節の前後方向および左右方向への回転をそれぞれ意味する。また、肘関節の「内旋(外旋)」および「屈曲(伸展)」は、上腕を回転軸とする前腕部の運動および肘関節の曲げ伸ばしによる前腕部の運動をそれぞれ意味する
回転角θ1〜θ4については、人間の腕の各関節における可動域に基づき、可変範囲に制限を設けることが、非現実的な姿勢の認識結果を避ける上で好ましい。
ワールド座標系における原点の位置、回転角θ1〜θ4における角度0度の定義、およびどちらの回転方向を正方向にするかについては任意に定めることができる。
空間モデル設定手段17において設定された空間モデルパラメータ(xS,yS,zS,θ1,θ2,θ3,θ4)の初期値は、空間モデル記憶手段18に記憶される。
例えば、位置および姿勢認識の対象となる物体が人間の顔やボール等の場合、例えばその中心位置を表す点を空間モデルとして、その点のワールド座標系における3次元座標(x,y,z)を空間モデルパラメータとしてそれぞれ用いることができる。
また、位置および姿勢認識の対象となる物体が野球のバットのような棒状の物体である場合には、長さがLである剛直なリンクを空間モデルとして用いることができる。この場合、空間モデルパラメータとしては、両端部のワールド座標系における3次元座標(x1,y1,z1)、および(x2,y2,z2)を用いてもよく、一方の端部のワールド座標系における3次元座標(x,y,z)およびモデルの姿勢角(例えば、オイラー角ψ,θ,φ)を用いてもよい。
矩形領域は、左画像および右画像上に比較ウインドウを設定するために、位置および姿勢認識の対象となる物体の空間モデル上に設定される仮想的な領域である。それぞれの矩形領域は、識別番号等の固有の識別子を有している。
左画像および右画像上にそれぞれ設定された比較ウインドウは、その内部の部分画像の特徴を抽出し、両画像間で比較およびマッチングを行うためのものであり、空間モデル上に設定された矩形領域のこれらのステレオ画像上への「投影像」に相当する。したがって、左画像および右画像上の比較ウインドウは、その投影元となる矩形領域を介して互いに関連付けられる。より具体的には、例えば、左画像および右画像上に設定された比較ウインドウのそれぞれに投影元となった矩形領域と同一の識別子を付すことにより、同一の識別子を有する比較ウインドウ同士を関連付けることが可能になる。
人間の腕の空間モデル上に設定される矩形領域の一例の模式図を図3に示す。ここで、図示された人間の腕は、空間モデル上に配置された仮想的な人間の腕の概略形状を表す。以下の説明において、「手先部」、「上腕部」、および「前腕部」は、前記の仮想的な人間の腕におけるそれぞれの部位を意味する。
この例において設定される矩形領域は、(1)「手先部」近傍に設定され、「手先部」のエッジおよび肌色ピクセルの一致度の評価を行うための手先部矩形領域、(2)「上腕部」および「前腕部」の輪郭の内側の中心領域に設定され、「上腕部」および「前腕部」中心領域(輪郭の内側の領域)のテクスチュア特徴(例えば、服の色および模様等)の一致度の評価を行うための腕中心部矩形領域、および(3)「上腕部」および「前腕部」の外側近傍に設定され、「上腕部」および「前腕部」のエッジ特徴の一致度の評価を行うための腕外側部矩形領域の3種類よりなる。
この例において設定される矩形領域は、仮想的な顔の輪郭の内側領域に設定され、目や鼻等の特徴を一致度の評価を行うための顔中心部矩形領域、および仮想的な顔の輪郭の近傍に配置され、エッジ特徴の一致度の評価を行うための顔外側部矩形領域よりなる。
しかし、図5はあくまでも一例であり、例えば、人間の腕の空間モデルにおける手先部矩形領域のように、顔のエッジ特徴および目や鼻等のテクスチュア特徴の両者を抽出するための単一の矩形領域を設定してもよい。
ワールド座標系と、左画像および右画像のローカル座標系との関係を図6に示す。
ワールド座標系における3次元座標(X,Y,Z)が与えられた場合、左画像および右画像のローカル座標系における対応点pLおよびpRの座標(xL,y)、(xR,y)は、それぞれ次式(I)〜(III)で与えられる。
座標変換手段23では、上式を用いて、各矩形領域の4つの頂点のワールド座標系における3次元座標を、左画像および右画像のローカル座標系における2次元座標に変換する。このようにして得られた各矩形領域に対応する比較ウインドウの4つの頂点の2次元座標は、比較ウインドウ記憶手段24に記憶される。
ここで、前処理部25におけるエッジおよび肌色ピクセル領域の抽出処理について説明する。
エッジ抽出手段26におけるエッジの抽出は、例えば、空間1次微分処理(ソーベル(Sobel)オペレータ等)、空間2次微分処理(4方向または8方向ラプラシアンフィルタ等)等の任意の公知の手段を用いて行うことができる。
より具体的には、RGB表色系における標準的な肌色に相当するR、G、Bの値を予め定めたものを肌色モデルデータとして用い、第1および第2の画像の各画素毎に肌色モデルデータとの比較を行い、例えば、肌色と判定されたピクセルの値を1、肌色と判定されなかったピクセルの値を0とすることにより2値画像が得られる。
肌色モデルデータとして、標準値に基づいて定めたものの代わりに、被写対象となる人間の肌色ピクセル領域をサンプリングし、その領域内のR、G、B値の平均値を用いてもよい。
また、RGB表色系の代わりに、HSV表色系、YIQ表色系等を用いて肌色ピクセル領域の抽出を行ってもよい。
このようにして得られた前処理画像は、前処理画像記憶手段28に記憶される。
このようにして得られた比較ウインドウを左画像および右画像上に投影した際に、各比較ウインドウ内部の部分画像は、部分画像抽出手段30により抽出され、それぞれ部分画像記憶手段31に記憶される。
部分画像抽出手段30における部分画像の抽出は、例えば、各比較ウインドウより、その輪郭および内部の画素値を1、外部の画素値を0とするマスク画像を生成し、次式(IV)で表される画素間演算処理(マスク処理)を実行することにより行われる。
物体の位置および姿勢認識システム10は、左画像および右画像間の対応付けを行わず、両画像上に設定された比較ウインドウ内部の部分画像同士について比較演算および物体の空間モデルの位置および姿勢を表す空間モデルパラメータの更新を反復し、部分画像同士の一致度が最大となるときの空間モデルパラメータより物体の位置および姿勢の認識を行う。
部分画像同士の一致度の指標として、一致度が高くなるほど値が大きくなる評価関数を定義し、評価関数演算手段34においてその演算を行う。
評価関数の演算においては、例えば、下式(V)に示すように、左画像および右画像から抽出された部分画像IM1,nおよびIM2,nの比較演算を、全ての識別子nの組について行い、その総和を評価関数とする。
まず、NSKINの演算について説明する。
NSKINの初期値を0に設定し、手先部矩形領域より左画像および右画像上に設定された比較ウインドウを用いたマスク処理により抽出された内部画像について、同一の位置座標(i,j)で表されるピクセルが、両者ともに肌色であるか否か判定を行い、両者ともに肌色であると判定される場合には、下式(VI)に示すように、NSKINの値に1を加算する。
NEDGEの初期値を0に設定し、手先部矩形領域より左画像および右画像上に設定された比較ウインドウを用いたマスク処理により抽出された内部画像について、同一の位置座標(i,j)で表されるピクセルがともにエッジであり、かつ両者の画素値の相違度の尺度であるSAD(Sum of Absolute Difference:差の絶対値和)が予め設定された閾値ζSADより小さい場合には、下式(VII)に示すように、NEDGEの値に1を加算する。
識別子nを有する腕中心部の部分画像同士についてのSnは、SADを用いて下式(IX)の様に定義される。これを全ての腕中心部比較ウインドウについて合計したものをSFとする。
NORIENTの演算においては、3×3ピクセルよりなるマスクを用い、まず、エッジ近傍、および座標変換部により左画像および右画像上に投影された腕モデルのリンク近傍の画像についてマスク処理を行う。
エッジの方向は、図9に示すように水平方向を基準(0°)とし、反時計回りにそれぞれ45°、90°、および135°と定義する。
このようにして、エッジ上の各ピクセルについて方向を定め、近傍に位置する腕モデルのリンクの方向と一致しているピクセル数を求め、これをNORIENTの値とする。
なお、評価関数Oは、NSKIN、SF、NEDGE、およびNORIENTを用いて、下式(X)のように書き表すこともできる。
このようにして得られた評価関数Oの値は評価関数記憶手段35に記憶される。次に、パラメータ更新手段37により、空間モデル記憶手段18に記憶された空間モデルパラメータ、および矩形領域記憶手段21に記憶された矩形領域パラメータの値を更新する。
こうして得られた評価関数Oの値を、評価関数記憶手段35に記憶された値と比較し、収束判定手段36において、評価関数Oが最大値に収束したか否か判定する。
評価関数が最大値を与えるときの左画像および右画像に最もマッチする空間モデルの位置、または位置および姿勢を表す空間モデルパラメータが、物体の位置および姿勢認識の結果となる。
このモデルの3次元空間における位置および姿勢を表すのに必要な空間モデルパラメータは、ワールド座標系における肩の3次元座標xS、yS、zS、肩関節の屈曲(伸展)角度θ1、肩関節の内転(外転)角度θ2、肘関節の内旋(外旋)角度θ3、および肘関節の屈曲(伸展)角度θ4の7つであるが、これらを全て同時に変化させながら、評価関数Oが最大となる組み合わせを見出すためには膨大な計算コストを要する。そこで、まず、肩の位置を表すxS、yS、zSの最適値を求めることで空間モデルの肩部分と左画像および右画像とのマッチングを行い、次いで評価関数Oを最大にするθ1〜θ4の組み合わせを求めることにより空間モデルの上腕部および前腕部と左画像および右画像とのマッチングを行う。このようにマッチング演算処理を行うことにより、計算量の削減を行うことができる。
より具体的には、評価関数Oを、下式(XI)に示すように、上腕部に関する項OUおよび前腕部に関する項OFに分離した形に書き直す。
人間の頭部は、広い肌色ピクセル領域を有するとともに、目や鼻等のエッジ部分が多く存在するため、肩部よりも位置の検出が容易であるため、より高精度なマッチングが可能である。そのため、直接肩部において空間モデルと左画像および右画像とのマッチングを行う場合に比べ、マッチングの精度を高めることができる。
ここで、図11、図12、および図13はそれぞれ、実施例1において平行ステレオカメラにより撮像された左画像および右画像、図11に示した左画像および右画像より得られたエッジおよび肌色抽出画像、図11および図12に示す画像を用いて行った位置および姿勢認識の結果を示す図である。
また、実施例2、3において様々な腕のポーズを取った複数の被験者について行った認識結果を図14および図15に示す。
平行ステレオカメラを、位置および姿勢認識方法を実行するプログラムをインストールしたノート型パソコンに接続し、人間の腕の位置および姿勢認識を行った。CPUはクロック周波数2GHzのMobile Pentium 4(登録商標)である。
図10に、本実施例において空間モデル上に設定された矩形領域の配置を示す。上腕部および前腕部のリンク上にそれぞれ3つの腕中心部矩形領域を設定し、その両側にそれぞれ6つずつの腕外側部矩形領域を設定した。手先部には、1つの手先部矩形領域を設定した。さらに、肩位置のマッチングをより確実に行うため、本実施例では、顔部にも矩形領域を設定し、顔の位置に基づいて肩位置の決定を行った。
こうして得られたエッジおよび肌色抽出画像を用いて、式(X)で表される評価関数(ここでは、wF=wORIENT=0とする)が最大となる空間モデルの顔の位置を決定し、空間モデルにおける顔部と肩部の位置関係より肩位置を決定した。
(a)手首および肘のワールド座標系における3次元位置が、ともに肩の3次元位置よりも身体に対して外側に位置する場合のみを考慮した。
(b)評価関数Oを、前記した式(XI)に示すように、上腕部に関する項OUおよび前腕部に関する項OFに分離した。
また、図14、図15にそれぞれ実施例2、3として、様々な腕のポーズを取った複数の被験者について行った認識結果(ここでは左画像のみ示している)を示す。このように、多様なポーズを取った、体型の異なる複数の被験者について、同一の空間モデルによる位置および姿勢認識を行うことができた。
例えば、前記実施の形態のステレオ画像を利用した物体の位置および姿勢認識システムにおいて、評価関数Oに含まれるテクスチュア特徴の一致度の指標であるSFの演算において、対となる部分画像間のSADを計算する代わりに、テンプレートデータとのSADを計算してもよい。
Claims (12)
- ステレオ画像を利用した、概略形状が既知である物体の位置および姿勢認識システムであって、
(1)被写対象となる前記物体を含む領域について前記ステレオ画像を構成する第1および第2の画像の撮像をそれぞれ行う第1および第2のカメラを有するステレオカメラよりなる撮像部と、
(2)前記物体の概略形状に基づいて設定されるa)空間モデルの形状、およびb)該空間モデルのワールド座標系における位置、またはこの位置および姿勢を表す空間モデルパラメータの初期値を設定する空間モデル設定部と、
(3)それぞれ固有の識別子を有する仮想的な矩形領域の各辺の長さ、および該矩形領域のワールド座標系における位置を表す矩形領域パラメータの初期値を、前記空間モデル上に前記物体の概略形状に基づいて設定する矩形領域設定部と、
(4)前記矩形領域のワールド座標系における3次元座標を、前記第1および第2の画像のローカル座標系における2次元座標に変換し、前記第1および第2の画像上に、それぞれ前記矩形領域と同一の識別子を有する比較ウインドウを設定する比較ウインドウ設定部と、
(5)前記比較ウインドウ設定部により前記第1および第2の画像上に設定された、前記比較ウインドウ内部の部分画像を抽出し、前記比較ウインドウと同一の識別子を有する部分画像を生成する部分画像生成部と、
(6)前記部分画像生成部により生成された、同一の識別子を有する前記部分画像同士の全ての組について、前記部分画像同士の一致度が高いほど値が大きくなるよう定義された評価関数の演算を行い、前記評価関数が最大値に収束するまで前記空間モデルパラメータおよび前記矩形領域パラメータの更新、前記比較ウインドウの設定、前記部分画像の抽出、ならびに前記評価関数の演算を反復し、前記空間モデルと前記第1および第2の画像のマッチングを行うマッチング演算部とを有することを特徴とするステレオ画像を利用した物体の位置および姿勢認識システム。 - 請求項1記載のステレオ画像を利用した物体の位置および姿勢認識システムにおいて、前記マッチング演算部における前記評価関数の演算は、同一の識別子を有する前記部分画像同士についてのエッジ特徴の一致度およびテクスチュアの一致度に関する評価演算を含むことを特徴とするステレオ画像を利用した物体の位置および姿勢認識システム。
- 請求項1または2記載のステレオ画像を利用した物体の位置および姿勢認識システムにおいて、前記部分画像生成部は、同一の識別子を有する前記部分画像間の視差による大きさの違いを補正する部分画像視差補正手段をさらに有することを特徴とするステレオ画像を利用した物体の位置および姿勢認識システム。
- 請求項1〜3のいずれか1項に記載のステレオ画像を利用した物体の位置および姿勢認識システムにおいて、前記第1および第2の画像に対してエッジおよび肌色ピクセル領域の抽出処理を行う前処理部をさらに有することを特徴とするステレオ画像を利用した物体の位置および姿勢認識システム。
- ステレオ画像を利用した、概略形状が既知である物体の位置および姿勢認識方法を実行するプログラムであって、
前記物体の概略形状に基づいて設定されるa)空間モデルの形状、およびb)該空間モデルのワールド座標系における位置、またはこの位置および姿勢を表す空間モデルパラメータの初期値を設定する第1のステップと、
それぞれ固有の識別子を有する仮想的な矩形領域の各辺の長さ、および該矩形領域のワールド座標系における位置を表す矩形領域パラメータの初期値を、前記空間モデル上に前記物体の概略形状に基づいて設定する第2のステップと、
前記物体を含む領域を撮像した第1および第2のカメラからの画像をそれぞれ取り込む第3のステップと、
前記矩形領域のワールド座標系における3次元座標を、前記第1および第2の画像のローカル座標系における2次元座標に変換し、前記第1および第2の画像上に、それぞれ前記矩形領域と同一の識別子を有する比較ウインドウを設定する第4のステップと、
前記第4のステップで前記第1および第2の画像上に設定された前記比較ウインドウ内部の部分画像を抽出し、前記比較ウインドウと同一の識別子を有する部分画像を生成する第5のステップと、
前記第5のステップで生成された同一の識別子を有する前記部分画像同士の全ての組について、前記部分画像同士の一致度が高いほど値が大きくなるよう定義された評価関数の演算を行い、前記評価関数が最大値に収束するまで前記空間モデルパラメータおよび前記矩形領域パラメータの更新、前記第1〜第5のステップ、ならびに前記評価関数の演算を反復し、前記空間モデルと前記第1および第2の画像のマッチングを行う第6のステップとをコンピュータに実行させることを特徴とするステレオ画像を利用した物体の位置および姿勢認識方法を実行するプログラム。 - 請求項5記載のステレオ画像を利用した物体の位置および姿勢認識方法を実行するプログラムにおいて、前記第6のステップにおける前記評価関数の演算は、同一の識別子を有する前記部分画像同士についてのエッジ特徴の一致度およびテクスチュアの一致度に関する評価演算を含むことを特徴とするステレオ画像を利用した物体の位置および姿勢認識方法を実行するプログラム。
- 請求項5または6記載のステレオ画像を利用した物体の位置および姿勢認識方法を実行するプログラムにおいて、前記矩形領域は、前記第1および第2の画像のローカル座標系における座標面と平行になるように設定されることを特徴とするステレオ画像を利用した物体の位置および姿勢認識方法を実行するプログラム。
- 請求項5〜7のいずれか1項に記載のステレオ画像を利用した物体の位置および姿勢認識方法を実行するプログラムにおいて、前記第5のステップと第6のステップの間に、同一の識別子を有する前記部分画像間の視差による大きさの違いを補正するステップAをさらにコンピュータに実行させることを特徴とするステレオ画像を利用した物体の位置および姿勢認識方法を実行するプログラム。
- 請求項5記載のステレオ画像を利用した物体の位置および姿勢認識方法を実行するプログラムにおいて、前記物体は人間の腕であって、
前記第1のステップにおいて設定される前記空間モデルは、ワールド座標系における肩の3次元座標xS、yS、zS、肩関節の屈曲角度θ1、肩関節の内転角度θ2、肘関節の内旋角度θ3、および肘関節の屈曲角度θ4からなる前記空間モデルパラメータを有し、前腕および上腕部分をそれぞれ一定の長さを有するリンクで表現した、肩部および肘部に関節を有する前記人間の腕の空間モデルであり、
前記第2のステップにおいて、前記矩形領域は前記第1および第2の画像のローカル座標系における座標面と平行になるように設定され、該矩形領域は、手先部のエッジ特徴および肌色ピクセルの一致度の評価を行う手先部矩形領域と、前腕部および上腕部における輪郭の内側の領域についてテクスチュアの一致度の評価を行う腕中心部矩形領域と、前腕部および上腕部におけるエッジ特徴の一致度の評価を行う腕外側部矩形領域とからなり、
前記第6のステップにおける前記評価関数の演算は、前記エッジ特徴、テクスチュア、および肌色ピクセルの一致度の評価演算を含み、
前記第5のステップと第6のステップの間に、前記第1および第2の画像上に設定された同一の識別子を有する前記比較ウインドウ間の視差による大きさの違いを補正するステップAをさらにコンピュータに実行させることを特徴とするステレオ画像を利用した物体の位置および姿勢認識方法を実行するプログラム。 - 請求項9記載のステレオ画像を利用した物体の位置および姿勢認識方法を実行するプログラムにおいて、前記第3のステップの後に前記第1および第2の画像に対して、前処理としてエッジおよび肌色ピクセル領域の抽出処理を行うステップBをさらにコンピュータに実行させることを特徴とするステレオ画像を利用した物体の位置および姿勢認識方法を実行するプログラム。
- 請求項9または10記載のステレオ画像を利用した物体の位置および姿勢認識方法を実行するプログラムにおいて、前記第6のステップにおいて、まず、前記空間モデルパラメータのうちxS、ySおよびzSの1または複数の更新および前記評価関数の演算を反復し、前記人間の腕の空間モデルの肩位置と前記第1および第2の画像のマッチングを行い、次に、前記肩関節の屈曲角度θ1、および前記肩関節の内転角度θ2の1または複数の更新および前記評価関数の演算を反復し、前記人間の腕の空間モデルの上腕部および肘位置と前記第1および第2の画像のマッチングを行い、最後に前記肘関節の内旋角度θ3、および前記肘関節の屈曲角度θ4の1または複数の更新および前記評価関数の演算を反復し、前記人間の腕の空間モデルの前腕部と前記第1および第2の画像のマッチングを行うことを特徴とするステレオ画像を利用した物体の位置および姿勢認識方法を実行するプログラム。
- 請求項9または10記載のステレオ画像を利用した物体の位置および姿勢認識方法を実行するプログラムにおいて、
前記第1のステップにおいて設定される前記人間の腕の空間モデルは、そのワールド座標系における3次元座標xH、yH、zHからなる前記空間モデルパラメータで表される頭部の中心をさらに有しており、
前記第2のステップにおいて設定される前記矩形領域は、前記頭部の中心点上に設定され、前記頭部のエッジ特徴および肌色ピクセルの一致度の評価を行う頭部矩形領域をさらに有しており、
前記第6のステップにおいて、前記空間モデルパラメータのうちxH、yHおよびzHの1または複数の更新および前記評価関数の演算を反復し、頭部位置について前記人間の腕の空間モデルと前記第1および第2の画像のマッチングを行い、前記空間モデルの頭部と肩部との位置関係から、前記空間モデルの肩部および前記第1および第2の画像とのマッチングを行うことを特徴とするステレオ画像を利用した物体の位置および姿勢認識方法を実行するプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006239190A JP4765075B2 (ja) | 2006-09-04 | 2006-09-04 | ステレオ画像を利用した物体の位置および姿勢認識システムならびに物体の位置および姿勢認識方法を実行するプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006239190A JP4765075B2 (ja) | 2006-09-04 | 2006-09-04 | ステレオ画像を利用した物体の位置および姿勢認識システムならびに物体の位置および姿勢認識方法を実行するプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2008065368A JP2008065368A (ja) | 2008-03-21 |
JP4765075B2 true JP4765075B2 (ja) | 2011-09-07 |
Family
ID=39288070
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2006239190A Active JP4765075B2 (ja) | 2006-09-04 | 2006-09-04 | ステレオ画像を利用した物体の位置および姿勢認識システムならびに物体の位置および姿勢認識方法を実行するプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4765075B2 (ja) |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012128638A (ja) * | 2010-12-15 | 2012-07-05 | Canon Inc | 画像処理装置、位置合わせ方法及びプログラム |
KR101695638B1 (ko) * | 2011-07-18 | 2017-01-13 | 한국전자통신연구원 | 인터렉티브 컨텐츠의 제어 방법 및 이를 이용한 사용자 인터페이스 장치 |
JP5838940B2 (ja) * | 2012-09-20 | 2016-01-06 | 株式会社デンソー | 画像処理装置及び車両制御システム |
JP6252343B2 (ja) * | 2014-05-02 | 2017-12-27 | 富士通株式会社 | 可動範囲測定装置、可動範囲測定方法及び可動範囲測定プログラム |
EP3343508B1 (en) | 2015-11-20 | 2020-05-20 | Sony Corporation | Image processing device and method |
WO2018087933A1 (ja) | 2016-11-14 | 2018-05-17 | 富士通株式会社 | 情報処理装置、情報処理方法、およびプログラム |
CN108052942B (zh) * | 2017-12-28 | 2021-07-06 | 南京理工大学 | 一种飞机飞行姿态的视觉图像识别方法 |
CN109820486B (zh) * | 2018-12-07 | 2023-09-26 | 南京医科大学 | 基于永磁定位技术的三维上肢运动检测系统及方法 |
CN112308904A (zh) * | 2019-07-29 | 2021-02-02 | 北京初速度科技有限公司 | 一种基于视觉的建图方法、装置及车载终端 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS62134773A (ja) * | 1985-12-06 | 1987-06-17 | Nec Corp | 伸縮ステレオマツチング方式 |
-
2006
- 2006-09-04 JP JP2006239190A patent/JP4765075B2/ja active Active
Also Published As
Publication number | Publication date |
---|---|
JP2008065368A (ja) | 2008-03-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4765075B2 (ja) | ステレオ画像を利用した物体の位置および姿勢認識システムならびに物体の位置および姿勢認識方法を実行するプログラム | |
CN108475439B (zh) | 三维模型生成系统、三维模型生成方法和记录介质 | |
Chua et al. | Model-based 3D hand posture estimation from a single 2D image | |
JP5852364B2 (ja) | 情報処理装置、情報処理装置の制御方法、およびプログラム | |
US9089971B2 (en) | Information processing apparatus, control method thereof and storage medium | |
JP4479194B2 (ja) | 動作識別装置、及び対象物の姿勢識別装置 | |
KR20210011425A (ko) | 이미지 처리 방법 및 디바이스, 이미지 장치, 및 저장 매체 | |
KR101711736B1 (ko) | 영상에서 동작 인식을 위한 특징점 추출 방법 및 골격 정보를 이용한 사용자 동작 인식 방법 | |
US20160214255A1 (en) | Method for calibrating an articulated end effector employing a remote digital camera | |
CN112083800B (zh) | 基于自适应手指关节规则滤波的手势识别方法及系统 | |
JP2019096113A (ja) | キーポイントデータに関する加工装置、方法及びプログラム | |
Schröder et al. | Real-time hand tracking using synergistic inverse kinematics | |
JP6708260B2 (ja) | 情報処理装置、情報処理方法、およびプログラム | |
JP2018119833A (ja) | 情報処理装置、システム、推定方法、コンピュータプログラム、及び記憶媒体 | |
JP2018128897A (ja) | 対象物の姿勢等を検出する検出方法、検出プログラム | |
WO2018207282A1 (ja) | 対象物認識方法、装置、システム、プログラム | |
TWI499879B (zh) | 工序分析監控系統及其方法 | |
Phan et al. | Towards 3D human posture estimation using multiple kinects despite self-contacts | |
JP2022516466A (ja) | 情報処理装置、情報処理方法、並びにプログラム | |
KR102456872B1 (ko) | 영상센서와 관성센서의 강결합 융합을 이용한 손동작 추적시스템 및 방법 | |
US20230245340A1 (en) | Information processing device, information processing method, and program | |
WO2018135326A1 (ja) | 画像処理装置、画像処理システム、画像処理プログラム、及び画像処理方法 | |
Großmann et al. | Communicating unknown objects to robots through pointing gestures | |
Zhang et al. | Stereo vision information system using median theorem and attitude compensation with nonlinear differential equations | |
CN113971835A (zh) | 一种家电设备的控制方法、装置、存储介质及终端设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20090310 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20110217 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20110301 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20110421 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20110517 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |