JPH08263629A - 物体の形状・姿勢検出装置 - Google Patents

物体の形状・姿勢検出装置

Info

Publication number
JPH08263629A
JPH08263629A JP7062788A JP6278895A JPH08263629A JP H08263629 A JPH08263629 A JP H08263629A JP 7062788 A JP7062788 A JP 7062788A JP 6278895 A JP6278895 A JP 6278895A JP H08263629 A JPH08263629 A JP H08263629A
Authority
JP
Japan
Prior art keywords
image information
image
shape
image pickup
cameras
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP7062788A
Other languages
English (en)
Other versions
JP2832333B2 (ja
Inventor
Akira Uchiumi
章 内海
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ATR TSUSHIN SYST KENKYUSHO KK
Original Assignee
ATR TSUSHIN SYST KENKYUSHO KK
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ATR TSUSHIN SYST KENKYUSHO KK filed Critical ATR TSUSHIN SYST KENKYUSHO KK
Priority to JP7062788A priority Critical patent/JP2832333B2/ja
Publication of JPH08263629A publication Critical patent/JPH08263629A/ja
Application granted granted Critical
Publication of JP2832333B2 publication Critical patent/JP2832333B2/ja
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Abstract

(57)【要約】 【目的】 手等の物体の形状および姿勢を安定して検出
することを可能にすることである。 【構成】 少なくとも3台のカメラ1〜3によって物体
が撮像される。それらのうちの2台のカメラの画像情報
が、画像情報選択部4によって選択されて検出部5へ与
えられる。検出部5では、3次元空間内での物体の形状
および姿勢を検出する。画像情報選択部4は、検出部5
から与えられる姿勢の検出情報に基づいて得られる物体
の平面の法線ベクトルと、各カメラのカメラ軸とがなす
角度が小さい順に2つのカメラの画像情報を選択する。
これにより、物体を撮像するのに最適なカメラが常に2
つ選択される。

Description

【発明の詳細な説明】
【0001】
【産業上の利用分野】この発明は、物体の形状および姿
勢を検出する装置に関し、特に、2方向の画像情報に基
づいて、3次元空間内での物体の形状および姿勢を検出
する装置に関する。
【0002】
【従来の技術】互いに遠く離れた場所にいる人々が、臨
場感をもって通信会議を行ない得るシステムとして、仮
想空間提示システムの研究開発が進められている。
【0003】その仮想空間提示システムは、コンピュー
タシステムによって仮想的に形成される仮想空間を、通
信会議の場所として提示するシステムである。
【0004】しかし、これまでに提案されている仮想空
間提示システムは、多くの場合において、システムの利
用者が、立体画像表示におけるHMD(ヘッドマウント
ディスプレイ)のような特殊な装置を身につける必要が
あるという難点があった。
【0005】また、仮想空間内での手の動作を実現する
ために、利用者の実際の手の動作を検出することが行な
われる。手振り動作の認識を行なう場合には、利用者
が、センサが付加された特殊な手袋を装着することが一
般的である。したがって、その場合は、そのような手袋
の着脱が煩雑である等の理由から利用者への負担が大き
いという難点があった。
【0006】これに対して、そのような特殊な手袋を装
着した場合と同様の手振り動作の認識を、そのような特
殊な手袋を装着することなく実現可能にするビジョンベ
ースの手振り認識装置の開発が進められている。ビジョ
ンベースの手振り認識装置とは、カメラ等の撮像装置で
得られる手の画像情報を用いて手振りの認識を行なう装
置である。
【0007】中嶋らは、指先と、指の付け根とからなる
モデルを用いて、1台のカメラ(以下、単眼という)で
指の動きを追跡する方法を提案した(「仮想現実世界構
築のための指の動き検出法」グラフィックスとCAD6
7−6,pp.41−46,1994.)。その方法で
は、指の動作の検出に必要な特徴点を検出するために指
に特殊なマーカを張りつけておき、単眼で指を撮像す
る。
【0008】しかし、その方法では、特殊なマーカを貼
りつけることが煩雑であるという難点があり、さらに、
単眼での撮像を行なうため、復元精度が高くないという
難点もあった。ここで、復元精度とは、現実の空間での
物体を仮想空間内で復元した場合の精度をいう。
【0009】また、岩井らは、時系列の2値画像を用い
て単眼で3次元復元を行なう方法を提案した(「Virtua
l reality のための拳の運動復元」信学技報PRU93
−57,pp.23−30,1993.)。その方法で
は、多フレーム間の対応づけによる姿勢復元が可能であ
る。しかし、その方法では、累積的な誤差が大きくなる
という難点があった。
【0010】また、岡村らは、いくつかの種類のゼスチ
ャーの各々に対応して指の長さ等の特徴量を予め用意し
ておき、その特徴量と、検出された特徴量との照合を行
なうことで、ゼスチャーの認識を行なう方法を提案した
(「非接触手形状認識とその応用」信学技報HC93−
6,pp.31−38,1993.)。しかし、その方
法では、ゼスチャーの認識を行なうことに主眼が置かれ
ており、手の姿勢を連続的に検出することができないと
いう難点があった。
【0011】そこで、以上に説明したような種々の難点
を解決することが可能なシステムが考えられている(石
淵他:「画像処理を用いた実時間手形状認識とマンマシ
ンインタフェースへの応用」電子情報通信学会秋季大会
予稿集,pp.1−132−1−132,1991.お
よび、石淵他:「パイプライン型画像処理装置を用いた
実時間手形状認識」電子情報通信学会春季大会予稿集,
pp.1−291−1−291,1992.)。
【0012】そのシステムでは、手のひらを平面形状と
みなし、その平面内で、特徴点である手の重心および指
先点のそれぞれの位置を表わすことにより、手の形状お
よび姿勢を表現するという比較的単純なモデルが用いら
れる。そして、2台のカメラから得られる画像情報によ
りそれらの特徴点を追跡し、運動復元を含む処理を実時
間で行なう。
【0013】そのシステムでは、マーカの貼付けを必要
とぜす、かつ、運動復元を含む処理を実時間で行なうこ
とが可能になる。さらに、そのシステムでは、2台のカ
メラで撮像された2つの画像間で指先のマッチング処理
を行なうことにより、手の回転動作に対応することが可
能になる。
【0014】
【発明が解決しようとする課題】しかしながら、そのよ
うな運動復元を含む処理を実時間で行なう方法では、手
の動きによって、カメラ軸(カメラの撮像の中心軸)
と、手のひらの平面とが平行になるような条件におい
て、指先点を正しく求めることができないおそれがあっ
た。このため、その場合には、手の形状および姿勢を安
定して検出することができないという問題があった。
【0015】この発明は、このような問題を解決するた
めになされたものであり、手等の物体の形状および姿勢
を安定して検出することが可能である物体の形状および
姿勢検出装置を提供することを目的とする。
【0016】
【課題を解決するための手段】請求項1に記載の本発明
は、平面形状とみなせる移動可能な物体の形状および姿
勢を検出する物体の形状・姿勢検出装置であって、検出
手段、少なくとも3つの撮像手段および画像情報選択手
段を備える。
【0017】検出手段は、物体を2方向から撮像して得
られる2方向の画像情報に基づいて、3次元空間内での
物体の形状および姿勢を検出する。
【0018】少なくとも3つの撮像手段は、相互に異な
る方向から物体に向かって配置され、各々が、物体に向
かう撮像軸を中心として物体を撮像し、それにより得ら
れた画像情報を出力する。
【0019】画像情報選択手段は、検出手段において検
出された姿勢の情報から得られる物体の平面の法線ベク
トルと、予め定められた各撮像手段の撮像軸のベクトル
とがなす角度が小さいものから順に2つの撮像手段を選
択し、選択した2つの撮像手段から出力される2方向の
画像情報を、物体の形状および姿勢の検出のために、検
出手段へ与える。
【0020】請求項2に記載の本発明は、請求項1に記
載の発明において、画像情報選択手段が、内積演算手段
および画像選択手段を含む。
【0021】内積演算手段は、物体の平面の法線ベクト
ルと、各撮像手段の撮像軸のベクトルとの内積をそれぞ
れ求める。
【0022】画像選択手段は、内積演算手段の演算結果
に基づいて、内積が大きいものから順に2つの撮像手段
を選択し、選択した2つの撮像手段から出力される2方
向の画像情報を検出手段へ与える。
【0023】
【作用】請求項1に記載の本発明によれば、少なくとも
3つの撮像手段によって異なる方向から物体が撮像され
る。それらの撮像により得られる画像情報のうちの2方
向の画像情報に基づいて、検出手段が、3次元空間内で
の物体の形状および姿勢を検出する。
【0024】その場合の画像情報の選択は、画像情報選
択手段において、検出手段で検出された姿勢の情報から
得られる物体の平面の法線ベクトルと、予め定められた
各撮像手段の撮像軸のベクトルとがなす角度に基づいて
なされる。すなわち、そのような角度が小さい場合に
は、撮像手段が適正に物体を撮像できるため、画像情報
選択手段においては、その角度が小さい順に2つの撮像
手段を選択し、それらから出力される2方向の画像情報
を検出手段へ与える。
【0025】したがって、物体が移動する場合におい
て、物体の形状および姿勢を検出するために検出手段に
与えられる画像情報が、移動している物体の撮像に適し
た位置にある2つの撮像手段の画像情報に常に切換えら
れる。
【0026】請求項2に記載の本発明によれば、内積演
算手段によって、検出手段で検出された姿勢から得られ
る物体の平面の法線ベクトルと、予め定められた各撮像
手段の撮像軸のベクトルとの内積が求められる。その内
積が大きい撮像手段は、物体の平面の法線ベクトルと、
撮像手段の撮像軸のベクトルとがなす角度が小さいの
で、適正に物体を撮像できる。
【0027】このため、画像選択手段により、選択され
る、内積が大きい2つの撮像手段の2方向の画像情報
は、物体の撮像に適した位置から撮像された画像情報と
して検出手段に与えられる。
【0028】
【実施例】次に、この発明の実施例を図面に基づいて詳
細に説明する。
【0029】まず、この発明の実施例による実時間形状
・姿勢検出装置の概要について説明する。この装置は、
手のひらを平面形状とみなし、その平面内で、特徴点で
ある手の重心および指先点のそれぞれの位置を表わすこ
とにより、手の形状および姿勢を表現し、複数台のカメ
ラで得られる画像情報に基づいて、その平面と、その平
面内での特徴点の動きを追跡するものである。
【0030】この実施例による装置の特徴は、形状およ
び姿勢の検出の対象となる手が動くことに対応して、最
適な2つのカメラを選択的に用いることである。すなわ
ち、手の動きに対応して、画像情報を得るカメラを切換
える。
【0031】このように選択された2台のカメラから得
られた2方向の画像情報が、手の形状および姿勢の検出
に用いられる。この実施例により得られた手の形状およ
び姿勢の検出結果は、仮想空間提示システムのデータと
して用いられる。
【0032】図1は、この発明の実施例による実時間形
状・姿勢検出装置におけるカメラの配置状態を示す概念
図である。
【0033】図1を参照して、水平面H上に、平面形状
を含む物体である手のひらが、手のひら平面10として
存在する。その手のひら平面10の周りに3台以上のカ
メラ1,2,3,…,kが固定的に配置される。各カメ
ラは、カメラ軸(撮像軸)を手のひら平面10に向けて
配置される。このように配置されたカメラ1,2,3,
…,kの各々は、カメラ軸を中心とした所定範囲を撮像
することにより、手のひら平面10およびその背景を含
む画像を得る。
【0034】このように、多数のカメラ1,2,3,
…,kによって、多数の方向から手のひら平面10が撮
像される。そのような撮像により得られた手のひら平面
10の画像情報は、各カメラから検出部(後述する)へ
伝送される。
【0035】次に、この実施例による形状・姿勢検出装
置の全体的な構成を説明する。図2は、この発明の実施
例による形状・姿勢検出装置の構成を示すブロック図で
ある。
【0036】この図2においては、図1に示されるカメ
ラが3台設けられた場合の構成が示される。図2を参照
して、この装置は、3台のカメラ1,2,3、画像情報
選択部4および検出部5を含む。
【0037】カメラ1は、撮像部11、領域分割部1
2、主軸検出部13、回転変換部14および指先候補点
検出部15を含む。カメラ2および3の各々は、カメラ
1と同様の構成を有する。したがって、ここではその説
明を省略する。
【0038】画像情報選択部4は、内積演算部41およ
び画像切換部42を含む。検出部5は、重心・主軸3次
元復元部51、指先点3次元復元部52、姿勢推定部5
3および指先位置推定部54を含む。
【0039】まず、この装置の動作の概略を説明する。
カメラ1〜3の各々においては、撮像対象の手(手のひ
ら平面10)を撮像することにより得られる画像情報に
基づいて、手の指先が画像上で上を向くように回転変換
された画像情報と、後で指先の位置の推定のために用い
られる指先候補点の検出結果を示す画像情報とを得る。
そのように得られた画像情報は、カメラ1〜3の各々か
ら画像情報選択部4へ与えられる。
【0040】画像情報選択部4では、カメラ1〜3から
それぞれ与えられた画像情報のうち、2つのカメラから
の画像情報(2方向の画像情報)を選択し、その選択し
た画像情報を検出部5へ与える。画像情報選択部4にお
ける画像情報の選択状態は、検出部5から与えられる手
のひら平面10の姿勢に関連する情報に基づいて切換え
られる。
【0041】検出部5は、画像情報選択部4から与えら
れた2方向の画像情報に基づいて、手のひら平面10の
姿勢を推定することにより手のひらの姿勢を検出し、か
つ、手の指先の位置を推定することにより指先の位置を
検出する。
【0042】次に、この装置の各部分の詳細な動作につ
いて説明する。カメラ1〜3は、次のように動作する。
カメラ1〜3の各々は同様の構成を有し、同様の動作を
実行するため、ここでは、カメラ1の動作を代表例とし
て説明する。
【0043】カメラ1においては、撮像部11が、撮像
対象の手(手のひら平面10)を撮像する。その撮像の
結果として得られた画像情報が、領域分割部12に与え
られる。領域分割部12では、与えられた画像情報によ
り得られる画像を、手の領域と、背景領域との2つの領
域に分割する。その領域の分割は、画像情報に含まれる
色情報および輝度情報を判断基準として用いて行なわれ
る。領域分割部12によって領域分割された画像情報
は、主軸検出部13および指先候補点検出部15へ与え
られる。
【0044】主軸検出部13では、与えられた画像情報
に基づいて、指先のエッジの平均的な方向である平均エ
ッジ方向を求める。その平均エッジ方向は、手の方向と
して認識される。ここで、主軸とは、手の中指が向く方
向をいう。主軸検出部13での処理の結果を示す画像情
報は、回転変換部14へ与えられる。
【0045】回転変換部14では、主軸検出部13から
与えられた手の方向の情報に基づき、手の指先が画像上
で上方を向くように手の画像を回転変換する処理が行な
われる。
【0046】指先候補点検出部15では、領域分割部1
1から与えられた画像情報と、検出部5(後述する重心
・主軸3次元復元部51)から与えられる3次元復元さ
れた回転変換後の画像情報とに基づいて、指先候補点
(手の指先の候補となる点)を抽出する。その抽出は、
ラベリング処理により行なわれる。
【0047】そのラベリング処理とは、回転変換された
画像上において、その画像の上部から順に手の領域を探
索していき、上に凸である部分を指先の先端とみなす処
理である。このような抽出が行なわれた指先候補点の情
報は、指先候補点検出部15から指先候補点の検出結果
として出力される。
【0048】このような処理が行なわれるカメラ1にお
いては、回転変換部14および指先候補点検出部15の
それぞれから出力される画像情報が、ともに画像情報選
択部4へ与えられる。
【0049】画像情報選択部4は、カメラ1〜3からそ
れぞれ与えられた画像情報のうち、最適な画像情報が得
られる2台のカメラを選択し、その選択した2台のカメ
ラからの画像情報をそれぞれ検出部5へ与える。この画
像情報選択部4の詳細な動作については、検出部5の動
作の説明の後に述べる。
【0050】検出部5では、次のような動作を行なう。
この検出部5では、2台のカメラから与えられる画像情
報を並列的に処理する。
【0051】重心・主軸3次元復元部51は、選択され
た2つのカメラの各々の回転変換部から与えられた画像
情報を受ける。重心・主軸3次元復元部51において
は、回転変換された画像を3次元復元する。ここで、3
次元復元とは、撮像により得られた2次元の画像を、3
次元の画像に変換(復元)する処理をいう。
【0052】重心・主軸3次元復元部51では、2方向
の画像に基づいて、回転変換され手の主軸方向および重
心を3次元に復元する処理を行なう。その3次元復元さ
れた画像情報は、各カメラの指先候補点検出部(15,
25,35)および姿勢推定部53へ与えられる。
【0053】指先点3次元復元部52は、選択された2
つのカメラの各々の指先候補点検出部から与えられた2
方向の画像情報を3次元復元する処理を行なう。
【0054】その3次元復元は、2方向の画像間におい
て、特徴点をマッチングさせることにより行なわれる。
そのマッチングは、Koichi Ishibuchiらの「Real time
handgesture recognition using 3d prediction mode
l」In International Conference on Systems,Man and
Cybernetics, pp.324-328, 1993.に示された確信度テ
ーブルを用いて行なう。
【0055】その確信度テーブルとは、2方向の画像間
において特徴点をマッチングさせる場合に、そのマッチ
ングの対応関係の度合いを示す確信度関数をテーブル化
したものである。
【0056】このような確信度テーブルは、たとえば次
のような種類がある。すなわち、重心からある特徴点ま
での距離に関する確信度テーブル、各指の並びに関する
確信度テーブル、および、マッチングをした場合の精度
を示す確信度テーブル等である。
【0057】姿勢推定部53は、3次元復元部51およ
び52から、3次元復元された画像情報をそれぞれ受け
る。姿勢推定部53では、与えられた情報に基づいて、
3次元での重心位置、主軸ベクトル(3次元空間での主
軸の向き)および主軸周りの手のひら平面10の回転角
の情報を用いて、手のひら平面10(手のひら)の姿勢
を推定する処理を行なう。
【0058】指先位置推定部54は、選択された2つの
カメラの各々の指先候補点検出部からの画像情報と、姿
勢推定部53からの画像情報とを受ける。指先位置推定
部54では、姿勢推定部53で姿勢が推定された手のひ
ら平面10に対して指先候補点を投影し、指先位置を推
定する処理を行なう。
【0059】このように、検出部5においては、画像情
報選択部4から選択的に与えられた2方向の画像情報に
基づいて、手の位置および姿勢を検出することができ
る。
【0060】次に、画像情報選択部4の動作を説明す
る。画像情報選択部4においては、画像切換部42が、
カメラ1〜3のそれぞれから与えられる画像情報を受け
る。また、内積演算部41が、姿勢推定部53で推定さ
れた手のひら平面10の姿勢の情報を受ける。
【0061】内積演算部41には、カメラ1〜3のそれ
ぞれのカメラ軸のベクトルc1↑,c2↑,c3↑が予
め記憶されている。ここで、↑は、ベクトル記号を示
す。それは、以下の説明においても同じである。内積演
算部41では、それらのカメラ軸のベクトルc1↑,c
2↑およびc3↑と、姿勢推定部53で推定された手の
ひら平面10の姿勢の情報に基づいて得られる手のひら
平面10の法線ベクトルpとのそれぞれの内積(ベクト
ルp1↑・ベクトルc1↑,ベクトルp↑・ベクトルc
2↑,ベクトルp↑・ベクトルc3↑)を演算する。そ
して、内積演算部41からそのような内積の演算結果が
画像切換部42へ与えられる。
【0062】画像切換部42では、内積演算部41から
与えられた内積の演算結果に基づいて、その内積の値が
大きいものから順に2つのカメラを選択し、選択した2
つのカメラに対応する画像情報をそれぞれ検出部5へ与
える。そのように内積の演算結果に対応してカメラを選
択する場合の条件は、下記(1)式で与えられる。下記
(1)式は、カメラがn台設けられた場合の条件式であ
る。
【0063】 p↑・ci↑+p↑・cj↑ →Max …(1) この(1)式は、2つの内積を加算する組合せを考えた
場合において、2つの内積の組合せが最も大きくなる
(Max)場合の組合せに対応する2つのカメラを選択
することを示している。
【0064】言い換えると、画像情報選択部では、カメ
ラ1,2および3のカメラ軸のベクトルc1↑,c2↑
およびc3↑と、手のひら平面10の法線ベクトルp↑
とのそれぞれがなす角度のうち、角度が小さいものから
順に2台のカメラを選択し、それらのカメラに対応する
画像情報を検出部5へ与えるのである。
【0065】このような動作が行なわれる形状・姿勢検
出装置では、撮像対象の手が動くことによって手のひら
平面10が動いても、その手のひら平面10の姿勢に応
じて、最適な角度から撮像する2台のカメラが選択され
る。このため、この形状・姿勢検出装置では、手のひら
平面10の姿勢が変化しても、撮像対象の物体の形状お
よび姿勢を安定して検出することができる。
【0066】次に、この発明の効果を明らかにするため
に行なった実験の結果について説明する。まず、その実
験の条件について説明する。
【0067】実験には、3台のカメラが用いられた。そ
れらのカメラは、撮像対象の手が位置される部分を含む
鉛直平面上に放射状に配置された。それらのカメラの各
々は、手に向けて固定された。手の背景部分は、手の領
域を抽出することが輝度のみで可能になるようにするた
め、黒色とした。
【0068】そして、その手を開いて、3台のカメラが
向かう中央部付近でカメラの配置面の法線まわりに回転
させた。そして、実験は、2台のカメラのみで撮像する
従来の装置による撮像方法と、3台のカメラを自動的に
切換えて撮像するこの発明の装置による撮像方法との2
通りの方法でそれぞれ、手のひらの回転角を検出した。
【0069】図3にその実験結果を示す。図3は、手の
回転角度を検出した実験の実験結果を、本願発明による
装置と、従来例による装置とで比較して示したグラフで
ある。この図3においては、その実験により得られたデ
ータとして、2台のカメラのみを使用した場合(従来例
の場合)に検出された回転角度D2、3台のカメラを切
換えて使用した場合(本願発明の場合)に検出された回
転角度D3、および、3台のカメラを切換えて使用した
場合の選択されたカメラの番号No1〜No3と、プロ
セスステップ(0〜160)とのそれぞれの関係が示さ
れる。なお、選択されたカメラは、カメラ番号に対応す
る部分に、選択された期間が太い実線にて示される。
【0070】この図3から明らかなように、2台のカメ
ラのみを使用した場合は、プロセスステップの中程の期
間において、手の回転にかかわらず検出角度が一定にな
ってしまった。それは、オクルージョンによって、検出
精度が低下したためである。
【0071】一方、3台のカメラを切換えて使用した場
合には、カメラが切換えられることにより、2台のカメ
ラのみでは検出することが難しいプロセスステップの中
程の期間においても、精度よく回転角度が検出された。
このように、この実験によれば、本願発明による形状・
姿勢検出装置が、従来のものよりも優れていることが明
らかとなった。
【0072】
【発明の効果】請求項1に記載の本発明によれば、物体
の形状および姿勢を検出するために検出手段に与えられ
る2方向の画像情報が、移動している物体の撮像に適し
た位置にある2つの撮像手段からの2方向の画像情報
に、常に切換えられる。このため、3次元空間内での物
体の形状および姿勢の検出を安定して行なうことができ
る。
【0073】請求項2に記載の本発明によれば、検出手
段で検出された物体の姿勢の情報から得られる物体の平
面の法線ベクトルと、予め定められた各撮像手段の撮像
軸のベクトルとの内積が大きい2つの撮像手段からの2
方向の画像情報を、物体の撮像に適した位置から撮像さ
れた画像情報として検出手段に与えることができる。
【図面の簡単な説明】
【図1】この発明の実施例による実時間形状・姿勢検出
装置におけるカメラの配置状態を示す概念図である。
【図2】この発明の実施例による実時間形状・姿勢検出
装置の構成を示すブロック図である。
【図3】手の回転角度を検出する実験の実験結果を本願
発明による装置と従来例による装置とで比較して示した
グラフである。
【符号の説明】
1,2,3 カメラ 4 画像情報選択部 5 検出部 10 手のひら平面 41 内積演算部 42 画像切換部
───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.6 識別記号 庁内整理番号 FI 技術表示箇所 H04N 7/15 9061−5H G06F 15/70 350M 9061−5H 350H

Claims (2)

    【特許請求の範囲】
  1. 【請求項1】 平面形状とみなせる移動可能な物体の形
    状および姿勢を検出する物体の形状・姿勢検出装置であ
    って、 前記物体を2方向から撮像して得られる2方向の画像情
    報に基づいて、3次元空間内での前記物体の形状および
    姿勢を検出する検出手段と、 相互に異なる方向から前記物体に向かって配置され、各
    々が、前記物体に向かう撮像軸を中心として前記物体を
    撮像し、それにより得られた画像情報を出力する少なく
    とも3つの撮像手段と、 前記検出手段において検出された姿勢の情報から得られ
    る前記物体の平面の法線ベクトルと、予め定められた各
    前記撮像手段の撮像軸のベクトルとがなす角度が小さい
    ものから順に2つの前記撮像手段を選択し、選択した2
    つの撮像手段から出力される2方向の画像情報を、前記
    物体の形状および姿勢の検出のために、前記検出手段へ
    与える画像情報選択手段とを備えた、物体の形状・姿勢
    検出装置。
  2. 【請求項2】 前記画像情報選択手段は、 前記物体の平面の法線ベクトルと、各前記撮像手段の撮
    像軸のベクトルとの内積をそれぞれ求める内積演算手段
    と、 前記内積演算手段の演算結果に基づいて、前記内積が大
    きいものから順に2つの前記撮像手段を選択し、選択し
    た2つの撮像手段から出力される2方向の画像情報を前
    記検出手段へ与える画像選択手段とを含む、請求項1記
    載の物体の形状・姿勢検出装置。
JP7062788A 1995-03-22 1995-03-22 物体の形状・姿勢検出装置 Expired - Lifetime JP2832333B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP7062788A JP2832333B2 (ja) 1995-03-22 1995-03-22 物体の形状・姿勢検出装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP7062788A JP2832333B2 (ja) 1995-03-22 1995-03-22 物体の形状・姿勢検出装置

Publications (2)

Publication Number Publication Date
JPH08263629A true JPH08263629A (ja) 1996-10-11
JP2832333B2 JP2832333B2 (ja) 1998-12-09

Family

ID=13210445

Family Applications (1)

Application Number Title Priority Date Filing Date
JP7062788A Expired - Lifetime JP2832333B2 (ja) 1995-03-22 1995-03-22 物体の形状・姿勢検出装置

Country Status (1)

Country Link
JP (1) JP2832333B2 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6819782B1 (en) 1999-06-08 2004-11-16 Matsushita Electric Industrial Co., Ltd. Device and method for recognizing hand shape and position, and recording medium having program for carrying out the method recorded thereon
US7593552B2 (en) 2003-03-31 2009-09-22 Honda Motor Co., Ltd. Gesture recognition apparatus, gesture recognition method, and gesture recognition program
JP2009295129A (ja) * 2008-06-09 2009-12-17 Nippon Telegr & Teleph Corp <Ntt> 静止画の動画化方法、装置およびプログラム
KR101016848B1 (ko) * 2004-03-22 2011-02-22 엘지전자 주식회사 지문 대칭축 추출 방법

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6819782B1 (en) 1999-06-08 2004-11-16 Matsushita Electric Industrial Co., Ltd. Device and method for recognizing hand shape and position, and recording medium having program for carrying out the method recorded thereon
US7593552B2 (en) 2003-03-31 2009-09-22 Honda Motor Co., Ltd. Gesture recognition apparatus, gesture recognition method, and gesture recognition program
KR101016848B1 (ko) * 2004-03-22 2011-02-22 엘지전자 주식회사 지문 대칭축 추출 방법
JP2009295129A (ja) * 2008-06-09 2009-12-17 Nippon Telegr & Teleph Corp <Ntt> 静止画の動画化方法、装置およびプログラム

Also Published As

Publication number Publication date
JP2832333B2 (ja) 1998-12-09

Similar Documents

Publication Publication Date Title
Yao et al. Contour model-based hand-gesture recognition using the Kinect sensor
Murthy et al. Hand gesture recognition using neural networks
Bobick et al. The recognition of human movement using temporal templates
Lee et al. Handy AR: Markerless inspection of augmented reality objects using fingertip tracking
Oka et al. Real-time tracking of multiple fingertips and gesture recognition for augmented desk interface systems
Jennings Robust finger tracking with multiple cameras
Kulshreshth et al. Poster: Real-time markerless kinect based finger tracking and hand gesture recognition for HCI
CN111930226A (zh) 手势追踪方法及装置
EP3572910A1 (en) Method, system and computer program for remotely controlling a display device via head gestures
Plouffe et al. Natural human-computer interaction using static and dynamic hand gestures
JP2868449B2 (ja) 手振り認識装置
CN110910426A (zh) 动作过程和动作趋势识别方法、存储介质和电子装置
Lee et al. Multi-modal user interaction method based on gaze tracking and gesture recognition
Utsumi et al. Multi-camera hand pose recognition system using skeleton image
KR20200076267A (ko) 골격의 길이 정보를 이용한 제스쳐 인식 방법 및 처리 시스템
Stark et al. Video based gesture recognition for human computer interaction
JP2832333B2 (ja) 物体の形状・姿勢検出装置
Abdallah et al. An overview of gesture recognition
JP2934190B2 (ja) 手振り認識装置
Frigola et al. Visual human machine interface by gestures
Hoshino et al. Real-time human motion analysis based on analysis of silhouette contour and color blob
Hannuksela et al. Face tracking for spatially aware mobile user interfaces
CN113408435A (zh) 一种安全监控方法、装置、设备和存储介质
Ghosh et al. Real-time 3d markerless multiple hand detection and tracking for human computer interaction applications
De Beugher et al. Semi-automatic hand annotation making human-human interaction analysis fast and accurate

Legal Events

Date Code Title Description
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 19980818