JP2517531B2 - ステレオ画像を用いた姿勢検出装置 - Google Patents

ステレオ画像を用いた姿勢検出装置

Info

Publication number
JP2517531B2
JP2517531B2 JP6030035A JP3003594A JP2517531B2 JP 2517531 B2 JP2517531 B2 JP 2517531B2 JP 6030035 A JP6030035 A JP 6030035A JP 3003594 A JP3003594 A JP 3003594A JP 2517531 B2 JP2517531 B2 JP 2517531B2
Authority
JP
Japan
Prior art keywords
image
posture
certainty factor
certainty
detecting
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP6030035A
Other languages
English (en)
Other versions
JPH07239213A (ja
Inventor
耕一 石淵
圭介 岩崎
治雄 竹村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ei Tei Aaru Tsushin Shisutemu Kenkyusho Kk
Original Assignee
Ei Tei Aaru Tsushin Shisutemu Kenkyusho Kk
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ei Tei Aaru Tsushin Shisutemu Kenkyusho Kk filed Critical Ei Tei Aaru Tsushin Shisutemu Kenkyusho Kk
Priority to JP6030035A priority Critical patent/JP2517531B2/ja
Publication of JPH07239213A publication Critical patent/JPH07239213A/ja
Application granted granted Critical
Publication of JP2517531B2 publication Critical patent/JP2517531B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Description

【発明の詳細な説明】
【0001】
【産業上の利用分野】この発明は、ステレオ画像を用い
た姿勢検出装置に関し、特に、平面形状とみなせる厚さ
の物体の位置および姿勢を検出することができるような
ステレオ画像を用いた姿勢検出装置に関する。
【0002】
【従来の技術および発明が解決しようとする課題】最
近、仮想環境に対するヒューマンコンピュータインタフ
ェイス関連の研究が多くなされている。仮想環境とは、
人とコンピュータとの対話が、我々の現実の世界との関
わり方に基づく、対話的で、多感覚で、三次元の環境で
ある。フィッシャーはテレロボット工学用のバーチャル
リアリティの原型システムを構築した。スターマンは、
対話的環境でのハンドジェスチャー使用の可能性を研究
した。これらの研究の多くはハンドジェスチャーを認識
するためにデータグローブ(商標名)などの装着型装置
を利用していた。
【0003】ところで、異なる場所にいる参加者の間で
会議を行なえ、さらに現実的な感覚を伴なう「バーチャ
ルスペース遠隔会議システム」が提案されている。参加
者たちは討議の対象となっている仮想物体を直接的に操
作するために、装着型装置を装着する。装着型装置が用
いられた場合にシステムが使用されると、その度ごとに
キャリブレーションが行なわなければならない。したが
って、装着型装置は、この種のシステムには向いていな
い。
【0004】一方、非装着型装置では、非剛体対象物の
構造を認識するために実時間の画像処理が必要とされ、
製作は難しい。実時間の処理が必要でないにしても、非
剛体対象物の動きや構造を安定して認識することがオク
ルージョンのために困難であることは、コンピュータビ
ジョンの研究分野で共通認識である。ここで、オクルー
ジョンとは、平面形状とみなせる厚さの物体を同一平面
上にある視点から見た場合に、極端な例として1本の直
線のように見えることなどをいう。
【0005】一般に、ハンドジェスチャーは時系列の手
の位置、姿勢および形として表される。手の形を認識す
ることは最も難しく、そのため認識の方法は用途によっ
て異なる。ハンドジェスチャーに対する非装着型装置で
は、伸ばした指の数などのいくつかの典型的な手の形を
コマンドとして相互に区別されれば十分である。しかし
ながら、仮想物体を直接的に操作するためには、手の位
置とその姿勢は重要である。また、予測および実時間処
理が不可欠であるため、オクルージョンの問題を避ける
ことはできない。
【0006】一方、どの種類の手の特徴について実時間
で抽出するかおよびどのようにして抽出するかという問
題は重要である。たとえば、磁気センサを備えるデータ
グローブ(商標名)では、指の関節の角度と手の姿勢が
検出される。しかしながら、指の関節は画像上では曖昧
であり、画像処理で検出することは困難である。他の方
法としては、磁気センサでのハンドジェスチャー認識に
関して1991年、「対話型環境のためのハンドジェス
チャー認識の研究」、ヒューマンインタフェイスに関す
る第7回シンポジウム予稿集第691頁〜696頁で大
西他が提案した方法がある。その方法は、固定した手の
座標により決定される三次元の指先端の位置がハンドジ
ェスチャーを区別する上で役立つことに基づくものであ
る。その場合、画像処理によって指の先端部は比較的容
易に検出されるが、世界座標から固定した手の座標への
変換マトリクスが予測される必要がある。この予測は困
難であり、そのため、従来は画像処理によって手の姿勢
を検出する装置はなかった。
【0007】ゆえに、この発明は、手のような平面形状
とみなせる厚さの物体の特徴を可能な限り抽出し、その
抽出された特徴に基づいて平面形状とみなせる物体の姿
勢を検出することができるようなステレオ画像を用いた
姿勢検出装置を提供することである。
【0008】
【課題を解決するための手段】請求項1の発明に係るス
テレオ画像を用いた姿勢検出装置は、少なくとも第1の
視点による左視野内の第1の画像および第2の視点によ
る右視野内の第2の画像に基づいて、三次元空間内に存
在する平面形状とみなせる厚さの物体の位置および姿勢
を検出するステレオ画像を用いた姿勢検出装置であっ
て、それぞれが第1および第2の画像上に設けられかつ
物体の特徴点に対応すべき画像特徴点に対して、第1の
画像上の画像特徴点と第2の画像上の画像特徴点との間
での対応づけの確信度を検出する第1の確信度検出手段
と、それぞれが第1および第2の画像上の画像特徴点に
よって得られる三次元空間内の三次元的特徴点と物体の
特徴点との間での対応づけの確信度を検出する第2の確
信度検出手段と、物体と交わる異なる平面の空間的位置
に基づいて、第1または第2の画像上の画像特徴点間で
の対応度を検出する対応度検出手段と、第1の確信度検
出手段が検出した確信度、第2の確信度検出手段が検出
した確信度および対応度検出手段が検出した対応度に応
じて、物体の姿勢を検出する姿勢検出手段とを備えてい
る。
【0009】請求項2では、請求項1の確信度検出手段
は、第1の視点と第1の画像上の画像特徴点とを結ぶ直
線および第2の視点と第2の画像上の画像特徴点とを結
ぶ直線間の距離に基づいて、確信度を検出する。
【0010】請求項3では、請求項2の確信度は、距離
が大きくなることに応じて小さな値になる。
【0011】請求項4では、請求項1の第2の確信度検
出手段は、物体上の所定の1点と三次元的特徴点との間
の距離に基づいて、確信度を検出する。
【0012】請求項5では、請求項4の確信度は、距離
が一定の範囲からはずれることに応じて小さな値にな
る。
【0013】請求項6では、請求項1の対応度検出手段
は、一方の面が第1および第2の視点に対向する第1の
平面と、一方の面が第1の視点に対向し、他方の面が第
2の視点に対向する第2の平面との空間的位置に基づい
て、確信度を検出する。
【0014】請求項7では、請求項6の対応度検出手段
は、第1または第2の視点と第1または第2の画像の画
像特徴点とを結ぶ直線の方向ベクトルと、物体の方向ベ
クトルとの内積に応じて、確信度を検出する。
【0015】請求項8では、請求項1の姿勢検出手段
は、第1の画像上の複数の画像特徴点と第2の画像上の
複数の画像特徴点に対して、第1の確信度検出手段が検
出した確信度、第2の確信度検出手段が検出した確信度
および対応度検出手段が検出した対応度を求め、物体が
姿勢を変化させたことに応じて得られるパラメータを用
いて、物体の姿勢を最適に検出する。
【0016】
【作用】請求項1の発明に係るステレオ画像を用いた姿
勢検出装置は、第1の画像上の画像特徴点と第2の画像
上の画像特徴点との間での対応付けの確信度を検出し、
第1および第2の画像上の画像特徴点によって得られる
三次元的特徴点と物体の特徴点との間での対応付けの確
信度を検出し、物体と交わる異なる平面の空間的位置に
基づいて、第1または第2の画像上の画像特徴点間での
対応度を検出し、得られた2つの確信度および対応度に
よって物体の特徴点の状態を検出して物体の姿勢を検出
できる。
【0017】請求項2の発明に係るステレオ画像を用い
た姿勢検出装置は、第1の視点と第1の画像上の画像特
徴点とを結ぶ直線および第2の視点と第2の画像上の画
像特徴点とを結ぶ直線間の距離に基づいて、確信度を検
出でき、第1および第2の画像間での誤差を極力抑える
ことができる。
【0018】請求項3の発明に係るステレオ画像を用い
た姿勢検出装置は、距離が大きくなることに応じて小さ
な値をとる確信度を用いて、第1および第2の画像間で
の対応付けを行なえる。
【0019】請求項4の発明に係るステレオ画像を用い
た姿勢検出装置は、物体上の所定の1点と三次元的特徴
点との間の距離に基づいて、確信度を検出し、物体の特
徴点と三次元的特徴点との対応付けを行なえる。
【0020】請求項5の発明に係るステレオ画像を用い
た姿勢検出装置は、距離が一定の範囲からはずれること
に応じて小さな値をとる確信度を用いて、物体の特徴点
と三次元的特徴点との間の対応付けを精度よく行なえ
る。
【0021】請求項6の発明に係るステレオ画像を用い
た姿勢検出装置は、異なる平面として、一方の面が第1
および第2の視点に対向する第1の平面と、一方の面が
第1の視点に対向し、他方の面が第2の視点に対向する
第2の平面を用いて、その空間的位置に基づいて、第1
および第2の画像上での画像特徴点の対応度を検出し、
その対応度に応じて不要な画像特徴点を除去できる。
【0022】請求項7の発明に係るステレオ画像を用い
た姿勢検出装置は、第1または第2の視点と第1または
第2の画像上の画像特徴点とを結ぶ直線の方向ベクトル
と、物体の方向ベクトルとの内積の大きさに応じて、対
応度を検出し、不要な画像特徴点を排除できる。
【0023】請求項8の発明に係るステレオ画像を用い
た姿勢検出装置は、物体の複数の特徴点に対応すべき第
1の画像上の複数の画像特徴点および第2の画像上の複
数の画像特徴点に対して、2つの確信度および対応度を
求めて物体の特徴を可能な限り抽出し、さらに物体が姿
勢を変化させたことを考慮に入れてたとえば前の姿勢の
状態に応じて次の姿勢の状態を検出するので、物体の姿
勢を最適に検出できる。
【0024】
【実施例】まず、この発明に係るステレオ画像を用いた
姿勢検出装置の実施例を説明する上で、前提となる事柄
について説明する。すなわち、この発明に係るステレオ
画像を用いた姿勢検出装置の実施例では、手のような平
面形状とみなせる厚さの物体の特徴を示す特徴量とし
て、従来例で述べた指の先端の位置のみならず、手の重
心、手の方向を用いて物体の姿勢および位置を検出す
る。そこで、図1に、各画像で得られる二次元の手の重
心、二次元の指の先端の位置、二次元の手の方向を抽出
できる特徴抽出部1の概略ブロック図を示す。
【0025】図1を参照して、特徴抽出部1は、色空間
変換部3と、色彩を用いた手領域確率分布部5と、ソベ
ルフィルタ7と、フレーム間差分演算部9と、乗算器1
1と、ロウパスフィルタ13と、レベル弁別部15と、
統計演算部17,19と、アフィン変換部21と、ラン
レングス符号化部23と、エッジ検出部25と、群処理
部27とを含む。
【0026】色空間変換部3は、入力されるRGB画像
をHSV画像に変換して、H画像およびS画像を色彩を
用いた手領域確率分布部5に入力し、V画像をソベルフ
ィルタ7およびフレーム間差分演算部9に入力する。フ
レーム間差分演算部9には、背景画像も入力され、入力
された画像のフレーム間に対して差分演算を行ない、乗
算器11に出力する。乗算器11には、色彩を用いた手
領域確率分布部5によって得られたH,S画像も入力さ
れており、乗算された結果を表わす画像がロウパスフィ
ルタ13に与えられる。
【0027】ロウパスフィルタ13は与えられた画像を
フィルタリングしてレベル弁別部15に与える。レベル
弁別部15は、所定のしきい値で2値化し、2値化した
2値画像を統計演算部17,19に出力する。統計演算
部17は与えられる2値画像を統計演算子で演算処理し
て二次元の手の重心に関するデータを出力する。このデ
ータは、アフィン変換部21にも与えられている。
【0028】一方、統計演算部19は、ソベルフィルタ
7でフィルタリングされたV画像とレベル弁別部15で
2値化された2値画像とを統計演算子で演算処理し、二
次元の手の方向に関するデータを出力する。このデータ
はアフィン変換部21にも与えられる。アフィン変換部
21は、二次元の手の重心および二次元の手の方向によ
って設定されるパラメータを有するアフィン演算子でア
フィン変換する。アフィン変換されたアフィン変換画像
は、ランレングス符号化部23に与えられる。ランレン
グス符号化部23は、アフィン変換画像をランレングス
符号化画像に符号化してエッジ検出部25に与える。エ
ッジ検出部25は、高速にエッジ検出を行なう。高速に
エッジ検出されたエッジは、群処理部27に与えられ、
画像の上から下までのグループにグループ分けされた
後、指に相当する画像がグループを形成しているので、
そのグループを除去することにより指の先端の点が得ら
れる。
【0029】ここで、エッジ検出とグループ決め以外の
処理はパイプライン化することができる。また、すべて
のプロセスは並列的に両眼画像について行なえる。すな
わち、並列パイプラインアルゴリズムを用いて、効果的
に両眼画像からの手の特徴が抽出される。以下、このよ
うに抽出された二次元の手の特徴に基づいて、オクルー
ジョンが生じた場合でも三次元の手の姿勢を検出するこ
とができるステレオ画像を用いた姿勢検出装置について
説明する。
【0030】図2は、この発明の一実施例によるステレ
オ画像を用いた姿勢検出装置の概略ブロック図である。
【0031】図2を参照して、二次元の手の重心29、
二次元の指の先端の位置31および手の方向33から手
の姿勢を検出できるステレオ画像を用いた姿勢検出装置
は、第1の確信度検出部(図面ではCd (i,j)で表
わす)39と、三次元的特徴点抽出部45と、乗算器4
7,48と、第2の確信度検出部(図面ではCs (i,
j)で表わす)49と、対応度検出部(図面ではPm,k
(i,j)で表わす)51と、姿勢検出部53とを含
む。
【0032】特に、この装置において重要な構成として
は、第1の確信度検出部39と、第2の確信度検出部4
9と、対応度検出部51と、姿勢検出部53である。姿
勢検出部53は、誤対応除去表作成部55と、判定部5
7と、最適誤対応除去表作成部59と、乗算器60とを
含んでいる。そして、姿勢検出部53は、オイラー角Φ
58を推定する。
【0033】一方、三次元的特徴点抽出部45は、三次
元の手の重心検出部35と、座標変換部37と、変換部
43と、オイラー角検出部41とを含んでいる。
【0034】以下、図2に示す各構成の動作について説
明するために、それぞれの動作に必要な原理を含めて詳
細に説明する。
【0035】図3は、第1の確信度検出部の動作に対す
る原理を説明するための図であり、図4は、第1の確信
度検出部の内部構成を示した概略ブロック図である。
【0036】図3を参照して、特徴点の三次元的位置が
三角測量による両眼画像から決定され得ることがよく知
られている。第1の視点XOl に対する画像61上の画
像特徴点である二次元の指の先端座標は、xl (i)↑
(↑は、以下ベクトルを表わす。)=((xl (i),
l (i))T として規定される。同様に、第2の視点
XOr に対する画像62上の画像特徴点である二次元の
指の先端の座標は、x r (j)↑=(xr (j),yr
(j))T として規定される。左の画像61のi番目の
指の先端xl (i)↑が右の画像のj番目の指の先端x
r (j)↑に対応して、カメラのパラメータがわかって
いる場合、三次元指先端位置X(i,j)↑=(X
(i,j),Y((i,j),Z(i,j))T は、直
線Ll (i)と直線Lr (j)との交点をみつけること
により決定される。この直線Ll (i)および直線Lr
(j)は、それぞれ第1の視点XOl と画像特徴点xl
(i)↑とを結んだ直線および第2の視点XOr と画像
特徴点xr (j)↑とを結んだ直線である。
【0037】しかしながら、画像特徴点xl (i)↑と
画像特徴点xr (j)↑との対応関係がわからなけれ
ば、交点は発生しない。すなわち、図3のように直線L
l (i)と直線Lr (j)とはねじれの関係にある場合
がある。その場合には、距離d(i,j)隔てている。
そこで、雑音の影響を考えて画像特徴点xl (i)↑と
r (j)↑との対応関係の度合いを示す確信度関数C
d (i,j)を第(1)式のように定義する。ここで、
d(i,j)は、直線Ll (i)と直線Lr (j)との
距離であり、かつd0 は定数である。この定数d0 は、
必要とされる確信度に応じて決定されればよい。第
(1)式は、各画像に関する一次元の限定しか示してお
らず、対応関係のすべてが決定されるわけでない。
【0038】このような原理の基づく第1の確信度検出
部39は、直線Ll (i)を算出する第1の直線算出部
63と、直線Lr (j)を算出する第2の直線算出部6
4と、距離d(i,j)を算出する距離算出部65と、
第(1)式に示す確信度の関数で確信度を決定する確信
度決定部67とを含んでいる。
【0039】
【数1】
【0040】ところで、図3に示した原理に基づく第1
の確信度検出部39は、距離という一次元の限定しか示
すことができず、すべての対応関係を決定していない。
そのため、次に、図3に示す三次元的特徴点である三次
元指先端点X(i,j)↑を検出する三次元的特徴点抽
出部45について説明する。
【0041】図5は、手の重心を原点として手に固定し
たXh h h 座標系とXYZ世界座標系との関係を示
した図である。
【0042】図5を参照して、三次元の手の重心O=
(Xo ,YO ,ZO T と三次元の手の方向ベクトルV
↑=(XV ,YV ,ZV T は、二次元の手の重心と二
次元の手の方向ベクトルすなわちvl ↑=(Xvl
vlT およびvr ↑=(Xvr,Y vrT からそれぞれ
容易に決定される。これらの決定は、図2に示す三次元
の手の重心検出部35と図示しない手の方向検出部が決
定している。ここで、図5に示すように、手に関して固
定したXh h h 座標系において、オイラーの角Φ,
Θ,Ψで、点Xh (i,j)↑=(Xh (i,j),Y
h (i,j),Zh (i,j))T は、第(2)式によ
り、点X(i,j)に変換される。但し、Mx,My
よびMz は、Xh ,Yh およびZh 軸を中心とした回転
マトリクスである。これらの演算を、座標変換部37が
行なっている。
【0043】さらに、ΘおよびΨは、三次元の手の方向
ベクトルV↑から容易に導き出されるので、そのこと
を、オイラー角検出部41が行なっている。そして、三
次元の手の重心検出部35で検出された三次元の手の重
心O、座標変換部37で変換された点X(i,j)↑お
よびオイラーの角Θ,Ψによって、第(3)式が成り立
つ。この演算を、変換部43が行なっている。
【0044】ところが、変換部43で変換された点X′
(i,j)↑は、ある意味で三次元先端点を示している
が、この三次元先端点には、誤対応点と呼ばれる誤った
対応関係により発生する点も含まれている。そこで、誤
った対応関係による誤対応点が除去されて、X′(i,
j)↑から残りのオイラーの角Φが最終的に予測される
必要がある。
【0045】次に、第2の確信度検出部49について説
明する。伸ばした指の先端の位置が手の重心からある距
離に位置しているとの仮定に基づき、第(4)式に示す
ように、点X′(i,j)↑の空間的に存在する確信度
関数Cs (i,j)が定義される。ここで、a、r0
よびr1 は定数である。特に、aは、第1の確信度検出
部39によって得られる値であり、r0 およびr1 は、
手の大きさ等により決定される定数である。この第
(4)式に示す演算は、乗算器47が行なっており、そ
のため、この乗算器47が、第2の確信度検出部49内
に設けられた場合であってもよいが、演算を明確にする
ために敢えて乗算器47を図示した。
【0046】第(4)式により得られることは、手の重
心とその指の先端の位置との距離の限定に留まるので、
まだすべての誤対応点が除去されるわけではない。
【0047】
【数2】
【0048】図6は、対応度検出部の動作に対する原理
を説明するための図である。図6を参照して、一次元の
限定によって誤対応点を除去する。指の先端が三次元表
面上に存在する場合、これらを両眼画像に投影するには
2つのタイプがある。すなわち、平面S1のように、一
方の面に対向して第1の視点XOl および第2の視点X
r が対向している場合と、平面S2のように第1の視
点XOl が一方の面に対向し、他方の面に第2の視点X
r が対向する場合である。平面S1の場合には、画像
61および画像62における指の先端の相互の対応関係
は、n(xl (i)↑T )↑・n(vl T )↑とn
(x)r (j)↑T )↑・n(v r T )↑とからなる
規模のオーダにする必要がある。一方、平面S2の場合
には、n(xl (i)↑T )↑・n(v1 T)↑と、
n(xr (j)↑T )↑・n(vr T )↑とからなる
オーダにする必要がある。但し、n(* )はベクトル*
が正規化されたベクトルを示す。たとえば、各画像から
5つおよび4つの指先端部が抽出され、n(xl (i)
T )↑・n(vl T )↑およびn(xr(j)
T )↑・n(vr T )↑の大きさに従ってi、jに
対応する表が作成されると、それは表1に示すように2
つの典型的なタイプの除去表Pm,1 (i,j)とPm,2
(i,j)が規定される。これらの除去表を対応度検出
部51が作成している。
【0049】
【表1】
【0050】そして、姿勢検出部53は、作成された除
去表Pm,k (i,j)と確信度Cd(i,j)と確信度
s (i,j)とを第(5)式のように組合せて、k番
目の誤対応除去表P,k(i,j)を規定する。ここで、
乗算器48は、乗算器47と同様に敢えて図示した。さ
らに、最適誤対応除去表Pm,opt (i,j)が第(6)
式のように得られるので、それを最適誤対応除去表作成
部59が作成している。ここで、cは定数であり、かつ
w′はAR/MAモデルによって予測されるベクトル
で、前の手のポーズを反映するようにこのフレーム上の
wを指定する。さらに、時間ファクタをtとすると、第
(7)式が得られる。次のフレーム上のwは、第(8)
式により予想される。但し、al (l=1,…,n)、
l (l=0,…,r)およびGは定数である。
【0051】最終姿勢wは最大固有値を有する第(9)
式で規定されるMの固有ベクトルにより得られる。
【0052】
【数3】
【0053】なお、図2に示すブロック図は、これらの
方法に関してのデータフロー図にも対応しているため、
前述したように乗算器47,48を図示している。
【0054】次に、2つの対象を、並進なしてアームの
軸を中心に手を回転させた場合の、入力画像から二次元
の手の特徴を抽出し、その特徴に基づいて予想される手
の姿勢を収集する実験結果について説明する。
【0055】図7および図8は、実験結果を説明するた
めの図である。特に、図7は、入力された左の画像、左
の画像上での特徴、右の画像上での特徴および手の姿勢
を示した図である。さらに、図7において、左から順
に、フレーム毎に左の画像、左の画像上の特徴、右の画
像上の特徴、手の姿勢を並べている。また、図8(a)
は、実際のオイラー角Φ,Ψ,Θの回転軌道を示した図
であり、図8(b)は、測定されたオイラー角Φ′,
Ψ′,Θ′の回転軌道を示した図であり、図8(c)
は、手の重心の位置(XO ,YO ,ZO )の軌道を示し
た図である。図8(a)および図8(b)の横軸にはフ
レームに対応する番号を、縦軸にはオイラー角としてd
egree単位で表示している。図8(c)の横軸には
フレーム番号を示し、縦軸にはXYZ座標系をcm単位
で表示している。
【0056】図7および図8を参照して、左側に並んだ
入力された左の画像は、その右側に並ぶ左の特徴量とし
て検出される。この左の特徴量としては、指の先端の位
置、手の方向、手の重心などが表されている。同様に、
図示していないが右の画像から右の特徴量が得られる。
そして、最終的に最も右側に並べた手の姿勢が検出され
る。
【0057】手の姿勢は、X′Y′Z軸とXh およびY
h 軸により作り出されるウィングとを重ね合わせること
により、視覚的な知覚が容易にされている。このウィン
グは、0から180°までXh 軸を中心に回転しかつ逆
回転により復元する手を示す。7番目、10番目、18
番目および21番目のフレームでは、かなりのオクルー
ジョンがあるにも拘らず、手の姿勢の予測は安定してい
る。しかしながら、18番目のフレームでは、指の先端
の様子が誤って検出されており、オクルージョンの仮定
は検出される手の姿勢に対して悪影響を与えることは明
らかである。
【0058】次に、図8(a)〜図8(c)を参照し
て、実際のオイラー角ΘおよびΨは、平均角度が0に設
定されている。Xh 軸を中心とする回転ジェスチャーの
全体を通して、標準的な偏位は6.2および6.8°で
あり、最大誤差は、それぞれ9.7および14.9°で
あった。Φはオクルージョンが生じても、緩やかにその
値を変えた。予測された角度も同じような傾向を見せて
いる。さらに、連続性が改善されている。したがって、
このように精度よく予想角度が検出されることにより、
この装置のシステムへの有用性が証明されている。
【0059】次に、三次元の手の重心の動きに関して
は、この動作を通して、最大誤差は2.2cmであっ
た。最大三次元特徴点検出誤差は最大1.2cmである
ことも確かめられている。したがって、十分に本装置が
誤対応点を除去できると考えられる。
【0060】このような実験結果に保証されたステレオ
画像を用いた姿勢検出装置は、特にハンドジェスチャー
を認識するのに有用な手の姿勢検出装置である。特徴と
しては、オクルージョンが生じても、三次元予測モデル
を使用する誤対応対応除去表により、手の姿勢が予測さ
れることである。さらに、この装置は、仮想環境の構築
に対して有用である。
【0061】なお、実施例では、姿勢検出の対象として
手について説明したが、これに限るものでなく、手のよ
うな平面形状の厚さとみなせる物体に対しても同様の効
果が得られる。これは、平面形状とみなせる物体では、
たとえば、見る位置によってその物体が直線のように一
次元に見えるオクルージョンが生じるからである。
【0062】また、第(1)式で示した確信度Cd(i
rj)は、反比例の関係式によって与えられるだけでな
く、距離が小さくなれば大きな値を示し、距離が大きく
なれば小さな値を示す関数によって与えられればよい。
【0063】さらに、第(4)式で示した確信度Cs
(irj)は、与えられた範囲から距離が外れるにつれ
て小さな値を示す関数によって与えられればよい。
【0064】
【発明の効果】以上のように、この発明によれば、平面
形状とみなせる厚さの物体の特徴点に対応すべき画像上
の画像特徴点に基づいて、2つの確信度と対応度を求
め、それらの値に基づいて物体の姿勢を検出できるの
で、たとえば仮想環境に対して有用な姿勢検出装置を提
供できる。
【図面の簡単な説明】
【図1】この発明の一実施例によるステレオ画像を用い
た姿勢検出装置に必要とされる原理について説明するた
めの図である。
【図2】この発明の一実施例によるステレオ画像を用い
た姿勢検出装置の概略ブロック図である。
【図3】第1の確信度検出部の動作に対する原理を説明
するための図である。
【図4】第1の確信度検出部の内部構成を示した概略ブ
ロック図である。
【図5】手の重心に固定したXh h h 座標系とXY
Z世界座標系との関係を示した図である。
【図6】対応度検出部の動作に対する原理を説明するた
めの図である。
【図7】実験結果を説明するための第1の図である。
【図8】実験結果を説明するための第2の図である。
【符号の説明】
39 第1の確信度検出部 49 第2の確信度検出部 51 対応度検出部 53 姿勢検出部
───────────────────────────────────────────────────── フロントページの続き (72)発明者 竹村 治雄 京都府相楽郡精華町大字乾谷小字三平谷 5番地 株式会社エイ・ティ・アール通 信システム研究所内 (56)参考文献 特開 平5−256613(JP,A) 特開 平2−47506(JP,A) 特開 平4−303704(JP,A) 特開 平5−28246(JP,A) 特開 平5−141919(JP,A) 特開 平7−239218(JP,A)

Claims (8)

    (57)【特許請求の範囲】
  1. 【請求項1】 少なくとも第1の視点による左視野内の
    第1の画像および第2の視点による右視野内の第2の画
    像に基づいて、三次元空間内に存在する平面形状とみな
    せる厚さの物体の位置および姿勢を検出するステレオ画
    像を用いた姿勢検出装置であって、 それぞれが前記第1および第2の画像上に設けられかつ
    前記物体の特徴点に対応すべき画像特徴点に対して、前
    記第1の画像上の画像特徴点と前記第2の画像上の画像
    特徴点との間での対応づけの確信度を検出する第1の確
    信度検出手段と、 それぞれが前記第1および第2の画像上の画像特徴点に
    よって得られる前記三次元空間内の三次元的特徴点と前
    記物体の特徴点との間での対応づけの確信度を検出する
    第2の確信度検出手段と、 前記物体と交わる異なる平面の空間的位置に基づいて、
    前記第1または第2の画像上の画像特徴点間での対応度
    を検出する対応度検出手段と、 前記第1の確信度検出手段が検出した確信度、前記第2
    の確信度検出手段が検出した確信度および前記対応度検
    出手段が検出した対応度に応じて、前記物体の姿勢を検
    出する姿勢検出手段とを備えた、ステレオ画像を用いた
    姿勢検出装置。
  2. 【請求項2】 前記第1の確信度検出手段は、前記第1
    の視点と前記第1の画像上の画像特徴点とを結ぶ直線お
    よび前記第2の視点と前記第2の画像上の画像特徴点と
    を結ぶ直線間の距離に基づいて、前記確信度を検出する
    ことを特徴とする、請求項1記載のステレオ画像を用い
    た姿勢検出装置。
  3. 【請求項3】 前記確信度は、前記距離が大きくなるこ
    とに応じて小さな値になることを特徴とする、請求項2
    記載のステレオ画像を用いた姿勢検出装置。
  4. 【請求項4】 前記第2の確信度検出手段は、前記物体
    上の所定の1点と前記三次元的特徴点との間の距離に基
    づいて、前記確信度を検出することを特徴とする、請求
    項1記載のステレオ画像を用いた姿勢検出装置。
  5. 【請求項5】 前記確信度は、前記距離が一定の範囲か
    らはずれることに応じて小さな値になることを特徴とす
    る、請求項4記載のステレオ画像を用いた姿勢検出装
    置。
  6. 【請求項6】 前記対応度検出手段は、一方の面が前記
    第1および第2の視点に対向する第1の平面と、一方の
    面が前記第1の視点に対向し、他方の面が前記第2の視
    点に対向する第2の平面との空間的位置に基づいて、前
    記確信度を検出することを特徴とする、請求項1記載の
    ステレオ画像を用いた姿勢検出装置。
  7. 【請求項7】 前記対応度検出手段は、前記第1または
    第2の視点と前記第1または第2の画像上の画像特徴点
    とを結ぶ直線の方向ベクトルと、前記物体の方向ベクト
    ルとの内積に応じて、前記確信度を検出することを特徴
    とする、請求項6記載のステレオ画像を用いた姿勢検出
    装置。
  8. 【請求項8】 前記姿勢検出手段は、前記第1の画像上
    の複数の画像特徴点と前記第2の画像上の複数の画像特
    徴点に対して、前記第1の確信度検出手段が検出した確
    信度、前記第2の確信度検出手段が検出した確信度およ
    び前記対応度検出手段が検出した対応度を求め、前記物
    体が姿勢を変化させたことに応じて得られるパラメータ
    を用いて、前記物体の姿勢を最適に検出することを特徴
    とする、請求項1記載のステレオ画像を用いた姿勢検出
    装置。
JP6030035A 1994-02-28 1994-02-28 ステレオ画像を用いた姿勢検出装置 Expired - Fee Related JP2517531B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP6030035A JP2517531B2 (ja) 1994-02-28 1994-02-28 ステレオ画像を用いた姿勢検出装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP6030035A JP2517531B2 (ja) 1994-02-28 1994-02-28 ステレオ画像を用いた姿勢検出装置

Publications (2)

Publication Number Publication Date
JPH07239213A JPH07239213A (ja) 1995-09-12
JP2517531B2 true JP2517531B2 (ja) 1996-07-24

Family

ID=12292573

Family Applications (1)

Application Number Title Priority Date Filing Date
JP6030035A Expired - Fee Related JP2517531B2 (ja) 1994-02-28 1994-02-28 ステレオ画像を用いた姿勢検出装置

Country Status (1)

Country Link
JP (1) JP2517531B2 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2338114B1 (en) * 2008-09-03 2017-03-15 Oblong Industries, Inc. Control system for navigating a principal dimension of a data space
CN102224476B (zh) * 2008-10-14 2017-08-01 奥布隆工业有限公司 多进程交互系统和方法
JP5648443B2 (ja) * 2010-11-26 2015-01-07 ソニー株式会社 画像処理装置および方法、並びにプログラム

Also Published As

Publication number Publication date
JPH07239213A (ja) 1995-09-12

Similar Documents

Publication Publication Date Title
US10109055B2 (en) Multiple hypotheses segmentation-guided 3D object detection and pose estimation
Hasan et al. RETRACTED ARTICLE: Static hand gesture recognition using neural networks
US6128003A (en) Hand gesture recognition system and method
Sarkar et al. Hand gesture recognition systems: a survey
Azad et al. Stereo-based 6d object localization for grasping with humanoid robot systems
Abe et al. Virtual 3-D interface system via hand motion recognition from two cameras
JPH10214346A6 (ja) ハンドジェスチャ認識システムおよび方法
CN110751097B (zh) 一种半监督的三维点云手势关键点检测方法
Wang et al. A LINE-MOD-based markerless tracking approachfor AR applications
JP2986455B1 (ja) 手振り認識装置
CN112613123A (zh) 一种飞机管路ar三维注册方法及装置
Wang et al. Immersive human–computer interactive virtual environment using large-scale display system
Allen Mapping haptic exploratory procedures to multiple shape representations
Tang et al. Hand tracking and pose recognition via depth and color information
Wang Gesture recognition by model matching of slope difference distribution features
Wang et al. Grasping objects mixed with towels
Lin et al. The manipulation of real-time Kinect-based robotic arm using double-hand gestures
JP2517531B2 (ja) ステレオ画像を用いた姿勢検出装置
Simion et al. Finger detection based on hand contour and colour information
Ishibuchi et al. Real time hand gesture recognition using 3d prediction model
Nakano Stereo vision based single-shot 6d object pose estimation for bin-picking by a robot manipulator
JP2573153B2 (ja) ステレオ画像間対応づけ確信度検出装置および方法
Kim et al. Method for user interface of large displays using arm pointing and finger counting gesture recognition
Wang et al. Hand Gesture Recognition and motion estimation using the Kinect Sensor
Rong et al. RGB-D hand pose estimation using fourier descriptor

Legal Events

Date Code Title Description
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 19960130

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080430

Year of fee payment: 12

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090430

Year of fee payment: 13

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100430

Year of fee payment: 14

LAPS Cancellation because of no payment of annual fees