JP2832333B2 - Object shape / posture detection device - Google Patents

Object shape / posture detection device

Info

Publication number
JP2832333B2
JP2832333B2 JP7062788A JP6278895A JP2832333B2 JP 2832333 B2 JP2832333 B2 JP 2832333B2 JP 7062788 A JP7062788 A JP 7062788A JP 6278895 A JP6278895 A JP 6278895A JP 2832333 B2 JP2832333 B2 JP 2832333B2
Authority
JP
Japan
Prior art keywords
image information
posture
shape
imaging
detecting
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP7062788A
Other languages
Japanese (ja)
Other versions
JPH08263629A (en
Inventor
章 内海
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ei Tei Aaru Tsushin Shisutemu Kenkyusho Kk
Original Assignee
Ei Tei Aaru Tsushin Shisutemu Kenkyusho Kk
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ei Tei Aaru Tsushin Shisutemu Kenkyusho Kk filed Critical Ei Tei Aaru Tsushin Shisutemu Kenkyusho Kk
Priority to JP7062788A priority Critical patent/JP2832333B2/en
Publication of JPH08263629A publication Critical patent/JPH08263629A/en
Application granted granted Critical
Publication of JP2832333B2 publication Critical patent/JP2832333B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Landscapes

  • Image Processing (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Image Analysis (AREA)

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【産業上の利用分野】この発明は、物体の形状および姿
勢を検出する装置に関し、特に、2方向の画像情報に基
づいて、3次元空間内での物体の形状および姿勢を検出
する装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an apparatus for detecting the shape and orientation of an object, and more particularly to an apparatus for detecting the shape and orientation of an object in a three-dimensional space based on image information in two directions.

【0002】[0002]

【従来の技術】互いに遠く離れた場所にいる人々が、臨
場感をもって通信会議を行ない得るシステムとして、仮
想空間提示システムの研究開発が進められている。
2. Description of the Related Art Research and development of a virtual space presentation system has been promoted as a system in which people far away from each other can hold a communication conference with a sense of reality.

【0003】その仮想空間提示システムは、コンピュー
タシステムによって仮想的に形成される仮想空間を、通
信会議の場所として提示するシステムである。
[0003] The virtual space presentation system is a system for presenting a virtual space virtually formed by a computer system as a place for a communication conference.

【0004】しかし、これまでに提案されている仮想空
間提示システムは、多くの場合において、システムの利
用者が、立体画像表示におけるHMD(ヘッドマウント
ディスプレイ)のような特殊な装置を身につける必要が
あるという難点があった。
[0004] However, the virtual space presentation systems proposed so far often require the user of the system to wear a special device such as an HMD (head mounted display) for displaying stereoscopic images. There was a disadvantage that there is.

【0005】また、仮想空間内での手の動作を実現する
ために、利用者の実際の手の動作を検出することが行な
われる。手振り動作の認識を行なう場合には、利用者
が、センサが付加された特殊な手袋を装着することが一
般的である。したがって、その場合は、そのような手袋
の着脱が煩雑である等の理由から利用者への負担が大き
いという難点があった。
[0005] In addition, in order to realize a hand motion in a virtual space, the actual hand motion of a user is detected. When recognizing a hand gesture, it is common for a user to wear a special glove to which a sensor is added. Therefore, in that case, there is a problem that the burden on the user is large because such gloves are complicated to put on and take off.

【0006】これに対して、そのような特殊な手袋を装
着した場合と同様の手振り動作の認識を、そのような特
殊な手袋を装着することなく実現可能にするビジョンベ
ースの手振り認識装置の開発が進められている。ビジョ
ンベースの手振り認識装置とは、カメラ等の撮像装置で
得られる手の画像情報を用いて手振りの認識を行なう装
置である。
[0006] On the other hand, a vision-based hand gesture recognition device capable of recognizing a hand gesture similar to that when wearing such special gloves can be realized without wearing such special gloves. Is being promoted. A vision-based hand gesture recognition device is a device that recognizes hand gestures using hand image information obtained by an imaging device such as a camera.

【0007】中嶋らは、指先と、指の付け根とからなる
モデルを用いて、1台のカメラ(以下、単眼という)で
指の動きを追跡する方法を提案した(「仮想現実世界構
築のための指の動き検出法」グラフィックスとCAD6
7−6,pp.41−46,1994.)。その方法で
は、指の動作の検出に必要な特徴点を検出するために指
に特殊なマーカを張りつけておき、単眼で指を撮像す
る。
Nakajima et al. Have proposed a method of tracking the movement of a finger with a single camera (hereinafter referred to as a single eye) using a model consisting of a fingertip and the base of the finger (" Finger Motion Detection Method "Graphics and CAD6
7-6, pp. 41-46, 1994. ). In that method, a special marker is attached to a finger in order to detect a feature point necessary for detecting the movement of the finger, and the finger is imaged with a single eye.

【0008】しかし、その方法では、特殊なマーカを貼
りつけることが煩雑であるという難点があり、さらに、
単眼での撮像を行なうため、復元精度が高くないという
難点もあった。ここで、復元精度とは、現実の空間での
物体を仮想空間内で復元した場合の精度をいう。
However, this method has a drawback that it is troublesome to attach a special marker.
Since imaging is performed with a single eye, there is a disadvantage that the restoration accuracy is not high. Here, the restoration accuracy refers to the accuracy when an object in a real space is restored in a virtual space.

【0009】また、岩井らは、時系列の2値画像を用い
て単眼で3次元復元を行なう方法を提案した(「Virtua
l reality のための拳の運動復元」信学技報PRU93
−57,pp.23−30,1993.)。その方法で
は、多フレーム間の対応づけによる姿勢復元が可能であ
る。しかし、その方法では、累積的な誤差が大きくなる
という難点があった。
Have proposed a method for performing three-dimensional reconstruction with a single eye using a time-series binary image (see "Virtua").
l Reconstruction of fist movement for reality "IEICE Technical Report PRU93
-57, pp. 23-30, 1993. ). In that method, posture restoration by associating multiple frames is possible. However, this method has a disadvantage that a cumulative error increases.

【0010】また、岡村らは、いくつかの種類のゼスチ
ャーの各々に対応して指の長さ等の特徴量を予め用意し
ておき、その特徴量と、検出された特徴量との照合を行
なうことで、ゼスチャーの認識を行なう方法を提案した
(「非接触手形状認識とその応用」信学技報HC93−
6,pp.31−38,1993.)。しかし、その方
法では、ゼスチャーの認識を行なうことに主眼が置かれ
ており、手の姿勢を連続的に検出することができないと
いう難点があった。
Also, Okamura et al. Prepare in advance a feature amount such as a finger length corresponding to each of several types of gestures, and collate the feature amount with the detected feature amount. We proposed a method to recognize gestures by doing ("Non-contact hand shape recognition and its application" IEICE HC93-
6, pp. 31-38, 1993. ). However, in such a method, the main focus is on performing gesture recognition, and there is a problem that the posture of the hand cannot be detected continuously.

【0011】そこで、以上に説明したような種々の難点
を解決することが可能なシステムが考えられている(石
淵他:「画像処理を用いた実時間手形状認識とマンマシ
ンインタフェースへの応用」電子情報通信学会秋季大会
予稿集,pp.1−132−1−132,1991.お
よび、石淵他:「パイプライン型画像処理装置を用いた
実時間手形状認識」電子情報通信学会春季大会予稿集,
pp.1−291−1−291,1992.)。
Therefore, a system capable of solving various difficulties as described above has been proposed (Ishibuchi et al .: "Real-time hand shape recognition using image processing and application to man-machine interface"). Proceedings of IEICE Fall Meeting, pp. 1-132-132, 1991. and Ishibuchi et al .: "Real-time Hand Shape Recognition Using a Pipelined Image Processing Device" IEICE Spring Conference Proceedings. ,
pp. 1-21-1-1-291, 1992. ).

【0012】そのシステムでは、手のひらを平面形状と
みなし、その平面内で、特徴点である手の重心および指
先点のそれぞれの位置を表わすことにより、手の形状お
よび姿勢を表現するという比較的単純なモデルが用いら
れる。そして、2台のカメラから得られる画像情報によ
りそれらの特徴点を追跡し、運動復元を含む処理を実時
間で行なう。
In this system, the palm is regarded as a planar shape, and the positions and positions of the center of gravity and the fingertips of the hand, which are characteristic points, are represented in the plane, thereby expressing the shape and posture of the hand. Model is used. Then, these feature points are tracked by image information obtained from the two cameras, and processing including motion restoration is performed in real time.

【0013】そのシステムでは、マーカの貼付けを必要
とぜす、かつ、運動復元を含む処理を実時間で行なうこ
とが可能になる。さらに、そのシステムでは、2台のカ
メラで撮像された2つの画像間で指先のマッチング処理
を行なうことにより、手の回転動作に対応することが可
能になる。
In the system, it becomes possible to perform the processing including the need for attaching the marker and the motion recovery in real time. Further, in the system, by performing a fingertip matching process between two images captured by two cameras, it becomes possible to cope with a hand rotation operation.

【0014】[0014]

【発明が解決しようとする課題】しかしながら、そのよ
うな運動復元を含む処理を実時間で行なう方法では、手
の動きによって、カメラ軸(カメラの撮像の中心軸)
と、手のひらの平面とが平行になるような条件におい
て、指先点を正しく求めることができないおそれがあっ
た。このため、その場合には、手の形状および姿勢を安
定して検出することができないという問題があった。
However, in the method of performing such processing including motion restoration in real time, the camera axis (the central axis of the camera image) is controlled by the hand movement.
Under such conditions that the plane of the palm is parallel, there is a possibility that the fingertip point cannot be obtained correctly. Therefore, in that case, there is a problem that the shape and posture of the hand cannot be detected stably.

【0015】この発明は、このような問題を解決するた
めになされたものであり、手等の物体の形状および姿勢
を安定して検出することが可能である物体の形状および
姿勢検出装置を提供することを目的とする。
The present invention has been made in order to solve such a problem, and provides an object shape and orientation detection apparatus capable of stably detecting the shape and orientation of an object such as a hand. The purpose is to do.

【0016】[0016]

【課題を解決するための手段】請求項1に記載の本発明
は、平面形状とみなせる移動可能な物体の形状および姿
勢を検出する物体の形状・姿勢検出装置であって、検出
手段、少なくとも3つの撮像手段および画像情報選択手
段を備える。
According to a first aspect of the present invention, there is provided an object shape / posture detecting apparatus for detecting a shape and a posture of a movable object which can be regarded as a planar shape. Image pickup means and image information selection means.

【0017】検出手段は、物体を2方向から撮像して得
られる2方向の画像情報に基づいて、3次元空間内での
物体の形状および姿勢を検出する。
The detecting means detects the shape and orientation of the object in a three-dimensional space based on image information in two directions obtained by imaging the object from two directions.

【0018】少なくとも3つの撮像手段は、相互に異な
る方向から物体に向かって配置され、各々が、物体に向
かう撮像軸を中心として物体を撮像し、それにより得ら
れた画像情報を出力する。
The at least three image pickup means are arranged toward the object from different directions, each of which picks up an image of the object around an image pickup axis toward the object and outputs image information obtained thereby.

【0019】画像情報選択手段は、検出手段において検
出された姿勢の情報から得られる物体の平面の法線ベク
トルと、予め定められた各撮像手段の撮像軸のベクトル
とがなす角度が小さいものから順に2つの撮像手段を選
択し、選択した2つの撮像手段から出力される2方向の
画像情報を、物体の形状および姿勢の検出のために、検
出手段へ与える。
[0019] The image information selecting means may select an image having a small angle formed by a normal vector of the plane of the object obtained from the information on the posture detected by the detecting means and a predetermined vector of the imaging axis of each imaging means. The two image pickup means are selected in order, and the image information in two directions output from the selected two image pickup means is provided to the detection means for detecting the shape and posture of the object.

【0020】請求項2に記載の本発明は、請求項1に記
載の発明において、画像情報選択手段が、内積演算手段
および画像選択手段を含む。
According to a second aspect of the present invention, in the first aspect, the image information selecting means includes an inner product calculating means and an image selecting means.

【0021】内積演算手段は、物体の平面の法線ベクト
ルと、各撮像手段の撮像軸のベクトルとの内積をそれぞ
れ求める。
The inner product calculating means obtains the inner product of the normal vector of the plane of the object and the vector of the imaging axis of each imaging means.

【0022】画像選択手段は、内積演算手段の演算結果
に基づいて、内積が大きいものから順に2つの撮像手段
を選択し、選択した2つの撮像手段から出力される2方
向の画像情報を検出手段へ与える。
The image selection means selects two imaging means in descending order of inner product based on the calculation result of the inner product calculation means, and detects two-directional image information output from the selected two imaging means. Give to.

【0023】[0023]

【作用】請求項1に記載の本発明によれば、少なくとも
3つの撮像手段によって異なる方向から物体が撮像され
る。それらの撮像により得られる画像情報のうちの2方
向の画像情報に基づいて、検出手段が、3次元空間内で
の物体の形状および姿勢を検出する。
According to the first aspect of the present invention, an object is imaged from different directions by at least three imaging means. Based on the image information in two directions among the image information obtained by the imaging, the detecting unit detects the shape and posture of the object in the three-dimensional space.

【0024】その場合の画像情報の選択は、画像情報選
択手段において、検出手段で検出された姿勢の情報から
得られる物体の平面の法線ベクトルと、予め定められた
各撮像手段の撮像軸のベクトルとがなす角度に基づいて
なされる。すなわち、そのような角度が小さい場合に
は、撮像手段が適正に物体を撮像できるため、画像情報
選択手段においては、その角度が小さい順に2つの撮像
手段を選択し、それらから出力される2方向の画像情報
を検出手段へ与える。
In this case, the image information is selected by the image information selection means by using the normal vector of the plane of the object obtained from the information of the posture detected by the detection means and the predetermined imaging axis of each imaging means. This is based on the angle between the vector and the vector. That is, when such an angle is small, the imaging means can appropriately image the object. Therefore, the image information selection means selects two imaging means in ascending order of the angle, and outputs two directions. Is given to the detecting means.

【0025】したがって、物体が移動する場合におい
て、物体の形状および姿勢を検出するために検出手段に
与えられる画像情報が、移動している物体の撮像に適し
た位置にある2つの撮像手段の画像情報に常に切換えら
れる。
Therefore, when the object moves, the image information given to the detecting means for detecting the shape and orientation of the object is determined by the image information of the two image capturing means located at a position suitable for capturing the moving object. Always switched to information.

【0026】請求項2に記載の本発明によれば、内積演
算手段によって、検出手段で検出された姿勢から得られ
る物体の平面の法線ベクトルと、予め定められた各撮像
手段の撮像軸のベクトルとの内積が求められる。その内
積が大きい撮像手段は、物体の平面の法線ベクトルと、
撮像手段の撮像軸のベクトルとがなす角度が小さいの
で、適正に物体を撮像できる。
According to the second aspect of the present invention, the normal vector of the plane of the object obtained from the posture detected by the detection means by the inner product calculation means and the predetermined imaging axis of each imaging means. The inner product with the vector is determined. The imaging means having a large inner product includes a normal vector of the plane of the object,
Since the angle formed by the vector of the imaging axis of the imaging means is small, the object can be properly imaged.

【0027】このため、画像選択手段により、選択され
る、内積が大きい2つの撮像手段の2方向の画像情報
は、物体の撮像に適した位置から撮像された画像情報と
して検出手段に与えられる。
For this reason, the image information in the two directions of the two imaging units having a large inner product selected by the image selection unit is given to the detection unit as image information captured from a position suitable for imaging the object.

【0028】[0028]

【実施例】次に、この発明の実施例を図面に基づいて詳
細に説明する。
Next, an embodiment of the present invention will be described in detail with reference to the drawings.

【0029】まず、この発明の実施例による実時間形状
・姿勢検出装置の概要について説明する。この装置は、
手のひらを平面形状とみなし、その平面内で、特徴点で
ある手の重心および指先点のそれぞれの位置を表わすこ
とにより、手の形状および姿勢を表現し、複数台のカメ
ラで得られる画像情報に基づいて、その平面と、その平
面内での特徴点の動きを追跡するものである。
First, an outline of a real-time shape / posture detecting apparatus according to an embodiment of the present invention will be described. This device is
The palm is regarded as a planar shape, and the positions of the center of gravity of the hand and the fingertip points, which are characteristic points, are represented in the plane to represent the shape and posture of the hand, and the image information obtained by a plurality of cameras is used. Based on this, the plane and the movement of the feature points in the plane are tracked.

【0030】この実施例による装置の特徴は、形状およ
び姿勢の検出の対象となる手が動くことに対応して、最
適な2つのカメラを選択的に用いることである。すなわ
ち、手の動きに対応して、画像情報を得るカメラを切換
える。
A feature of the apparatus according to this embodiment is that two optimal cameras are selectively used in response to movement of a hand whose shape and posture are to be detected. That is, the camera that obtains the image information is switched according to the hand movement.

【0031】このように選択された2台のカメラから得
られた2方向の画像情報が、手の形状および姿勢の検出
に用いられる。この実施例により得られた手の形状およ
び姿勢の検出結果は、仮想空間提示システムのデータと
して用いられる。
The image information in two directions obtained from the two cameras thus selected is used for detecting the shape and posture of the hand. The detection result of the shape and posture of the hand obtained in this embodiment is used as data of the virtual space presentation system.

【0032】図1は、この発明の実施例による実時間形
状・姿勢検出装置におけるカメラの配置状態を示す概念
図である。
FIG. 1 is a conceptual diagram showing the arrangement of cameras in a real-time shape / posture detecting apparatus according to an embodiment of the present invention.

【0033】図1を参照して、水平面H上に、平面形状
を含む物体である手のひらが、手のひら平面10として
存在する。その手のひら平面10の周りに3台以上のカ
メラ1,2,3,…,kが固定的に配置される。各カメ
ラは、カメラ軸(撮像軸)を手のひら平面10に向けて
配置される。このように配置されたカメラ1,2,3,
…,kの各々は、カメラ軸を中心とした所定範囲を撮像
することにより、手のひら平面10およびその背景を含
む画像を得る。
Referring to FIG. 1, a palm, which is an object including a planar shape, exists on a horizontal plane H as a palm plane 10. Three or more cameras 1, 2, 3, ..., k are fixedly arranged around the palm plane 10. Each camera is arranged with the camera axis (imaging axis) facing the palm plane 10. Cameras 1, 2, 3, arranged in this way
, K obtain an image including the palm plane 10 and its background by imaging a predetermined range centered on the camera axis.

【0034】このように、多数のカメラ1,2,3,
…,kによって、多数の方向から手のひら平面10が撮
像される。そのような撮像により得られた手のひら平面
10の画像情報は、各カメラから検出部(後述する)へ
伝送される。
As described above, a large number of cameras 1, 2, 3,
, K, the palm plane 10 is imaged from many directions. Image information of the palm plane 10 obtained by such imaging is transmitted from each camera to a detection unit (described later).

【0035】次に、この実施例による形状・姿勢検出装
置の全体的な構成を説明する。図2は、この発明の実施
例による形状・姿勢検出装置の構成を示すブロック図で
ある。
Next, the overall configuration of the shape / posture detecting apparatus according to this embodiment will be described. FIG. 2 is a block diagram showing the configuration of the shape / posture detecting device according to the embodiment of the present invention.

【0036】この図2においては、図1に示されるカメ
ラが3台設けられた場合の構成が示される。図2を参照
して、この装置は、3台のカメラ1,2,3、画像情報
選択部4および検出部5を含む。
FIG. 2 shows a configuration in which three cameras shown in FIG. 1 are provided. Referring to FIG. 2, this device includes three cameras 1, 2, 3, an image information selection unit 4 and a detection unit 5.

【0037】カメラ1は、撮像部11、領域分割部1
2、主軸検出部13、回転変換部14および指先候補点
検出部15を含む。カメラ2および3の各々は、カメラ
1と同様の構成を有する。したがって、ここではその説
明を省略する。
The camera 1 includes an imaging section 11 and an area dividing section 1
2. It includes a spindle detection unit 13, a rotation conversion unit 14, and a fingertip candidate point detection unit 15. Each of the cameras 2 and 3 has the same configuration as the camera 1. Therefore, the description is omitted here.

【0038】画像情報選択部4は、内積演算部41およ
び画像切換部42を含む。検出部5は、重心・主軸3次
元復元部51、指先点3次元復元部52、姿勢推定部5
3および指先位置推定部54を含む。
The image information selecting section 4 includes an inner product calculating section 41 and an image switching section 42. The detection unit 5 includes a center of gravity / main axis three-dimensional restoration unit 51, a fingertip point three-dimensional restoration unit 52, and a posture estimation unit 5.
3 and a fingertip position estimating unit 54.

【0039】まず、この装置の動作の概略を説明する。
カメラ1〜3の各々においては、撮像対象の手(手のひ
ら平面10)を撮像することにより得られる画像情報に
基づいて、手の指先が画像上で上を向くように回転変換
された画像情報と、後で指先の位置の推定のために用い
られる指先候補点の検出結果を示す画像情報とを得る。
そのように得られた画像情報は、カメラ1〜3の各々か
ら画像情報選択部4へ与えられる。
First, an outline of the operation of the apparatus will be described.
In each of the cameras 1 to 3, based on image information obtained by imaging a hand (palm plane 10) to be imaged, image information that has been rotationally transformed so that the fingertip of the hand faces upward on the image. , And image information indicating the detection result of the fingertip candidate point used for estimating the position of the fingertip later.
The image information thus obtained is provided to the image information selection unit 4 from each of the cameras 1 to 3.

【0040】画像情報選択部4では、カメラ1〜3から
それぞれ与えられた画像情報のうち、2つのカメラから
の画像情報(2方向の画像情報)を選択し、その選択し
た画像情報を検出部5へ与える。画像情報選択部4にお
ける画像情報の選択状態は、検出部5から与えられる手
のひら平面10の姿勢に関連する情報に基づいて切換え
られる。
The image information selecting section 4 selects image information from two cameras (image information in two directions) from the image information provided from the cameras 1 to 3, and detects the selected image information. Give to 5. The selection state of the image information in the image information selection unit 4 is switched based on information related to the posture of the palm plane 10 given from the detection unit 5.

【0041】検出部5は、画像情報選択部4から与えら
れた2方向の画像情報に基づいて、手のひら平面10の
姿勢を推定することにより手のひらの姿勢を検出し、か
つ、手の指先の位置を推定することにより指先の位置を
検出する。
The detecting unit 5 detects the posture of the palm by estimating the posture of the palm plane 10 based on the image information in two directions given from the image information selecting unit 4, and detects the position of the fingertip of the hand. Is detected to detect the position of the fingertip.

【0042】次に、この装置の各部分の詳細な動作につ
いて説明する。カメラ1〜3は、次のように動作する。
カメラ1〜3の各々は同様の構成を有し、同様の動作を
実行するため、ここでは、カメラ1の動作を代表例とし
て説明する。
Next, the detailed operation of each part of the apparatus will be described. The cameras 1 to 3 operate as follows.
Since each of the cameras 1 to 3 has the same configuration and performs the same operation, the operation of the camera 1 will be described here as a representative example.

【0043】カメラ1においては、撮像部11が、撮像
対象の手(手のひら平面10)を撮像する。その撮像の
結果として得られた画像情報が、領域分割部12に与え
られる。領域分割部12では、与えられた画像情報によ
り得られる画像を、手の領域と、背景領域との2つの領
域に分割する。その領域の分割は、画像情報に含まれる
色情報および輝度情報を判断基準として用いて行なわれ
る。領域分割部12によって領域分割された画像情報
は、主軸検出部13および指先候補点検出部15へ与え
られる。
In the camera 1, the imaging section 11 images the hand (palm plane 10) to be imaged. Image information obtained as a result of the imaging is provided to the area dividing unit 12. The region dividing unit 12 divides an image obtained from the given image information into two regions, a hand region and a background region. The division of the area is performed using the color information and the luminance information included in the image information as determination criteria. The image information segmented by the segmentation unit 12 is provided to the spindle detection unit 13 and the fingertip candidate point detection unit 15.

【0044】主軸検出部13では、与えられた画像情報
に基づいて、指先のエッジの平均的な方向である平均エ
ッジ方向を求める。その平均エッジ方向は、手の方向と
して認識される。ここで、主軸とは、手の中指が向く方
向をいう。主軸検出部13での処理の結果を示す画像情
報は、回転変換部14へ与えられる。
The main axis detecting section 13 obtains an average edge direction which is an average direction of the edge of the fingertip based on the given image information. The average edge direction is recognized as a hand direction. Here, the main axis refers to the direction in which the middle finger of the hand faces. The image information indicating the result of the processing in the spindle detection unit 13 is provided to the rotation conversion unit 14.

【0045】回転変換部14では、主軸検出部13から
与えられた手の方向の情報に基づき、手の指先が画像上
で上方を向くように手の画像を回転変換する処理が行な
われる。
The rotation converter 14 performs a process of rotationally converting the image of the hand so that the fingertip of the hand is directed upward on the image, based on the information on the direction of the hand given from the main axis detector 13.

【0046】指先候補点検出部15では、領域分割部1
1から与えられた画像情報と、検出部5(後述する重心
・主軸3次元復元部51)から与えられる3次元復元さ
れた回転変換後の画像情報とに基づいて、指先候補点
(手の指先の候補となる点)を抽出する。その抽出は、
ラベリング処理により行なわれる。
In the fingertip candidate point detecting section 15, the area dividing section 1
1 and the three-dimensionally restored image information after rotation conversion given from the detection unit 5 (centroid / main axis three-dimensional restoration unit 51 described later) based on the image information given by ) Are extracted. The extraction is
This is performed by a labeling process.

【0047】そのラベリング処理とは、回転変換された
画像上において、その画像の上部から順に手の領域を探
索していき、上に凸である部分を指先の先端とみなす処
理である。このような抽出が行なわれた指先候補点の情
報は、指先候補点検出部15から指先候補点の検出結果
として出力される。
The labeling process is a process of searching for a hand region in order from the top of the image on the rotationally transformed image, and regarding the upwardly convex portion as the tip of the fingertip. Information on the fingertip candidate points from which such extraction has been performed is output from the fingertip candidate point detection unit 15 as a detection result of the fingertip candidate points.

【0048】このような処理が行なわれるカメラ1にお
いては、回転変換部14および指先候補点検出部15の
それぞれから出力される画像情報が、ともに画像情報選
択部4へ与えられる。
In the camera 1 in which such processing is performed, the image information output from each of the rotation conversion unit 14 and the fingertip candidate point detection unit 15 is both provided to the image information selection unit 4.

【0049】画像情報選択部4は、カメラ1〜3からそ
れぞれ与えられた画像情報のうち、最適な画像情報が得
られる2台のカメラを選択し、その選択した2台のカメ
ラからの画像情報をそれぞれ検出部5へ与える。この画
像情報選択部4の詳細な動作については、検出部5の動
作の説明の後に述べる。
The image information selecting section 4 selects two cameras from which the optimum image information can be obtained from the image information given from the cameras 1 to 3, and selects the image information from the selected two cameras. Are given to the detection unit 5 respectively. The detailed operation of the image information selection unit 4 will be described after the operation of the detection unit 5 is described.

【0050】検出部5では、次のような動作を行なう。
この検出部5では、2台のカメラから与えられる画像情
報を並列的に処理する。
The detecting section 5 performs the following operation.
The detection unit 5 processes image information provided from the two cameras in parallel.

【0051】重心・主軸3次元復元部51は、選択され
た2つのカメラの各々の回転変換部から与えられた画像
情報を受ける。重心・主軸3次元復元部51において
は、回転変換された画像を3次元復元する。ここで、3
次元復元とは、撮像により得られた2次元の画像を、3
次元の画像に変換(復元)する処理をいう。
The center-of-gravity / main axis three-dimensional restoration section 51 receives image information given from the rotation conversion sections of each of the two selected cameras. The centroid / spindle three-dimensional restoration unit 51 three-dimensionally restores the rotationally transformed image. Where 3
Dimensional restoration means that a two-dimensional image obtained by imaging is
It refers to the process of converting (restoring) to a two-dimensional image.

【0052】重心・主軸3次元復元部51では、2方向
の画像に基づいて、回転変換され手の主軸方向および重
心を3次元に復元する処理を行なう。その3次元復元さ
れた画像情報は、各カメラの指先候補点検出部(15,
25,35)および姿勢推定部53へ与えられる。
The center-of-gravity / main-axis three-dimensional restoring unit 51 performs a process of three-dimensionally restoring the direction of the main axis of the hand and the center of gravity, which are rotationally converted, based on the image in two directions. The three-dimensionally restored image information is output to the fingertip candidate point detection unit (15,
25, 35) and a posture estimating unit 53.

【0053】指先点3次元復元部52は、選択された2
つのカメラの各々の指先候補点検出部から与えられた2
方向の画像情報を3次元復元する処理を行なう。
The fingertip point three-dimensional restoring unit 52
Given from the fingertip candidate point detection units of each of the two cameras
A process of three-dimensionally restoring the image information in the direction is performed.

【0054】その3次元復元は、2方向の画像間におい
て、特徴点をマッチングさせることにより行なわれる。
そのマッチングは、Koichi Ishibuchiらの「Real time
handgesture recognition using 3d prediction mode
l」In International Conference on Systems,Man and
Cybernetics, pp.324-328, 1993.に示された確信度テ
ーブルを用いて行なう。
The three-dimensional restoration is performed by matching feature points between images in two directions.
The matching is based on Koichi Ishibuchi's “Real time
handgesture recognition using 3d prediction mode
l "In International Conference on Systems, Man and
This is performed using the confidence table shown in Cybernetics, pp.324-328, 1993.

【0055】その確信度テーブルとは、2方向の画像間
において特徴点をマッチングさせる場合に、そのマッチ
ングの対応関係の度合いを示す確信度関数をテーブル化
したものである。
The certainty table is a table of certainty functions indicating the degree of correspondence in matching when feature points are matched between images in two directions.

【0056】このような確信度テーブルは、たとえば次
のような種類がある。すなわち、重心からある特徴点ま
での距離に関する確信度テーブル、各指の並びに関する
確信度テーブル、および、マッチングをした場合の精度
を示す確信度テーブル等である。
There are the following types of such confidence tables, for example. That is, there are a certainty table relating to the distance from the center of gravity to a certain feature point, a certainty table relating to the arrangement of the fingers, a certainty table indicating the accuracy when matching is performed, and the like.

【0057】姿勢推定部53は、3次元復元部51およ
び52から、3次元復元された画像情報をそれぞれ受け
る。姿勢推定部53では、与えられた情報に基づいて、
3次元での重心位置、主軸ベクトル(3次元空間での主
軸の向き)および主軸周りの手のひら平面10の回転角
の情報を用いて、手のひら平面10(手のひら)の姿勢
を推定する処理を行なう。
The posture estimating unit 53 receives the three-dimensionally restored image information from the three-dimensional restoring units 51 and 52, respectively. In the posture estimating unit 53, based on the given information,
A process of estimating the posture of the palm plane 10 (palm) is performed using information on the position of the center of gravity in three dimensions, the principal axis vector (the direction of the principal axis in the three-dimensional space), and the rotation angle of the palm plane 10 around the principal axis.

【0058】指先位置推定部54は、選択された2つの
カメラの各々の指先候補点検出部からの画像情報と、姿
勢推定部53からの画像情報とを受ける。指先位置推定
部54では、姿勢推定部53で姿勢が推定された手のひ
ら平面10に対して指先候補点を投影し、指先位置を推
定する処理を行なう。
The fingertip position estimating unit 54 receives the image information from the fingertip candidate point detecting units and the image information from the posture estimating unit 53 of each of the two selected cameras. The fingertip position estimating unit 54 performs a process of projecting fingertip candidate points onto the palm plane 10 whose posture has been estimated by the posture estimating unit 53 and estimating the fingertip position.

【0059】このように、検出部5においては、画像情
報選択部4から選択的に与えられた2方向の画像情報に
基づいて、手の位置および姿勢を検出することができ
る。
As described above, the detecting unit 5 can detect the position and the posture of the hand based on the image information in two directions selectively given from the image information selecting unit 4.

【0060】次に、画像情報選択部4の動作を説明す
る。画像情報選択部4においては、画像切換部42が、
カメラ1〜3のそれぞれから与えられる画像情報を受け
る。また、内積演算部41が、姿勢推定部53で推定さ
れた手のひら平面10の姿勢の情報を受ける。
Next, the operation of the image information selecting section 4 will be described. In the image information selection unit 4, the image switching unit 42
It receives image information given from each of the cameras 1 to 3. Further, the inner product calculation unit 41 receives information on the posture of the palm plane 10 estimated by the posture estimation unit 53.

【0061】内積演算部41には、カメラ1〜3のそれ
ぞれのカメラ軸のベクトルc1↑,c2↑,c3↑が予
め記憶されている。ここで、↑は、ベクトル記号を示
す。それは、以下の説明においても同じである。内積演
算部41では、それらのカメラ軸のベクトルc1↑,c
2↑およびc3↑と、姿勢推定部53で推定された手の
ひら平面10の姿勢の情報に基づいて得られる手のひら
平面10の法線ベクトルpとのそれぞれの内積(ベクト
ルp1↑・ベクトルc1↑,ベクトルp↑・ベクトルc
2↑,ベクトルp↑・ベクトルc3↑)を演算する。そ
して、内積演算部41からそのような内積の演算結果が
画像切換部42へ与えられる。
The vector c1 #, c2 #, c3 # of each camera axis of the cameras 1 to 3 is stored in the inner product calculation section 41 in advance. Here, ↑ indicates a vector symbol. This is the same in the following description. In the inner product calculation unit 41, the vectors c1 ↑, c
2} and c3}, and the respective inner products of the normal vector p of the palm plane 10 obtained based on the posture information of the palm plane 10 estimated by the posture estimating unit 53 (vector p1 ↑ · vector c1 ↑, vector p ↑ · vector c
2 ↑, vector p ↑ · vector c3 ↑). The calculation result of such inner product is provided from the inner product calculation unit 41 to the image switching unit 42.

【0062】画像切換部42では、内積演算部41から
与えられた内積の演算結果に基づいて、その内積の値が
大きいものから順に2つのカメラを選択し、選択した2
つのカメラに対応する画像情報をそれぞれ検出部5へ与
える。そのように内積の演算結果に対応してカメラを選
択する場合の条件は、下記(1)式で与えられる。下記
(1)式は、カメラがn台設けられた場合の条件式であ
る。
The image switching unit 42 selects two cameras in descending order of the value of the inner product based on the calculation result of the inner product given from the inner product calculation unit 41, and selects the selected two cameras.
Image information corresponding to each of the cameras is provided to the detection unit 5. The condition for selecting a camera in accordance with the calculation result of the inner product is given by the following equation (1). The following expression (1) is a conditional expression when n cameras are provided.

【0063】 p↑・ci↑+p↑・cj↑ →Max …(1) この(1)式は、2つの内積を加算する組合せを考えた
場合において、2つの内積の組合せが最も大きくなる
(Max)場合の組合せに対応する2つのカメラを選択
することを示している。
P ↑ · ci ↑ + p ↑ · cj ↑ → Max (1) In the formula (1), when a combination of adding two inner products is considered, the combination of the two inner products becomes the largest (Max). (2) indicates that two cameras corresponding to the combination are selected.

【0064】言い換えると、画像情報選択部では、カメ
ラ1,2および3のカメラ軸のベクトルc1↑,c2↑
およびc3↑と、手のひら平面10の法線ベクトルp↑
とのそれぞれがなす角度のうち、角度が小さいものから
順に2台のカメラを選択し、それらのカメラに対応する
画像情報を検出部5へ与えるのである。
In other words, in the image information selecting section, the vectors c1c and c2 ↑ of the camera axes of the cameras 1, 2, and 3
And c3} and the normal vector p ↑ of the palm plane 10
The two cameras are selected in order from the smaller angle among the angles made by the two cameras, and the image information corresponding to those cameras is provided to the detection unit 5.

【0065】このような動作が行なわれる形状・姿勢検
出装置では、撮像対象の手が動くことによって手のひら
平面10が動いても、その手のひら平面10の姿勢に応
じて、最適な角度から撮像する2台のカメラが選択され
る。このため、この形状・姿勢検出装置では、手のひら
平面10の姿勢が変化しても、撮像対象の物体の形状お
よび姿勢を安定して検出することができる。
In the shape / posture detecting device in which such an operation is performed, even if the palm plane 10 moves due to the movement of the hand to be imaged, an image is taken from an optimum angle according to the posture of the palm plane 10. Cameras are selected. For this reason, this shape / posture detection device can stably detect the shape and posture of the object to be imaged even if the posture of the palm plane 10 changes.

【0066】次に、この発明の効果を明らかにするため
に行なった実験の結果について説明する。まず、その実
験の条件について説明する。
Next, the results of experiments conducted to clarify the effects of the present invention will be described. First, the conditions of the experiment will be described.

【0067】実験には、3台のカメラが用いられた。そ
れらのカメラは、撮像対象の手が位置される部分を含む
鉛直平面上に放射状に配置された。それらのカメラの各
々は、手に向けて固定された。手の背景部分は、手の領
域を抽出することが輝度のみで可能になるようにするた
め、黒色とした。
In the experiment, three cameras were used. These cameras were radially arranged on a vertical plane including a portion where a hand to be imaged was located. Each of those cameras was fixed towards the hand. The background portion of the hand is set to black so that the hand region can be extracted only with the luminance.

【0068】そして、その手を開いて、3台のカメラが
向かう中央部付近でカメラの配置面の法線まわりに回転
させた。そして、実験は、2台のカメラのみで撮像する
従来の装置による撮像方法と、3台のカメラを自動的に
切換えて撮像するこの発明の装置による撮像方法との2
通りの方法でそれぞれ、手のひらの回転角を検出した。
Then, the hand was opened, and the camera was rotated around the normal to the plane where the cameras are arranged in the vicinity of the center where the three cameras faced. Experiments were conducted in two ways: an imaging method using a conventional device that captures images with only two cameras, and an imaging method using the device of the present invention that captures images by automatically switching between three cameras.
The rotation angle of the palm was detected in each of the following methods.

【0069】図3にその実験結果を示す。図3は、手の
回転角度を検出した実験の実験結果を、本願発明による
装置と、従来例による装置とで比較して示したグラフで
ある。この図3においては、その実験により得られたデ
ータとして、2台のカメラのみを使用した場合(従来例
の場合)に検出された回転角度D2、3台のカメラを切
換えて使用した場合(本願発明の場合)に検出された回
転角度D3、および、3台のカメラを切換えて使用した
場合の選択されたカメラの番号No1〜No3と、プロ
セスステップ(0〜160)とのそれぞれの関係が示さ
れる。なお、選択されたカメラは、カメラ番号に対応す
る部分に、選択された期間が太い実線にて示される。
FIG. 3 shows the experimental results. FIG. 3 is a graph showing experimental results of an experiment in which the rotation angle of the hand is detected by comparing the apparatus according to the present invention with the apparatus according to the related art. In FIG. 3, as the data obtained by the experiment, the rotation angle D2 detected when only two cameras are used (in the case of the conventional example) and when three cameras are switched and used (this application). The relationship between the rotation angle D3 detected in the case of the invention), the number of the selected camera No. 1 to No. 3 when three cameras are switched and used, and the process steps (0 to 160) are shown. It is. In the selected camera, the selected period is indicated by a bold solid line in a portion corresponding to the camera number.

【0070】この図3から明らかなように、2台のカメ
ラのみを使用した場合は、プロセスステップの中程の期
間において、手の回転にかかわらず検出角度が一定にな
ってしまった。それは、オクルージョンによって、検出
精度が低下したためである。
As is apparent from FIG. 3, when only two cameras are used, the detection angle becomes constant regardless of the rotation of the hand during the middle of the process steps. This is because the detection accuracy has been reduced by occlusion.

【0071】一方、3台のカメラを切換えて使用した場
合には、カメラが切換えられることにより、2台のカメ
ラのみでは検出することが難しいプロセスステップの中
程の期間においても、精度よく回転角度が検出された。
このように、この実験によれば、本願発明による形状・
姿勢検出装置が、従来のものよりも優れていることが明
らかとなった。
On the other hand, when three cameras are switched and used, the cameras are switched so that the rotation angle can be accurately determined even in the middle of a process step in which it is difficult to detect with only two cameras. Was detected.
Thus, according to this experiment, the shape and
It turned out that the attitude detection device is superior to the conventional one.

【0072】[0072]

【発明の効果】請求項1に記載の本発明によれば、物体
の形状および姿勢を検出するために検出手段に与えられ
る2方向の画像情報が、移動している物体の撮像に適し
た位置にある2つの撮像手段からの2方向の画像情報
に、常に切換えられる。このため、3次元空間内での物
体の形状および姿勢の検出を安定して行なうことができ
る。
According to the first aspect of the present invention, the image information in two directions given to the detecting means for detecting the shape and posture of the object is a position suitable for imaging the moving object. Is always switched to the bidirectional image information from the two image pickup means. Therefore, it is possible to stably detect the shape and the posture of the object in the three-dimensional space.

【0073】請求項2に記載の本発明によれば、検出手
段で検出された物体の姿勢の情報から得られる物体の平
面の法線ベクトルと、予め定められた各撮像手段の撮像
軸のベクトルとの内積が大きい2つの撮像手段からの2
方向の画像情報を、物体の撮像に適した位置から撮像さ
れた画像情報として検出手段に与えることができる。
According to the second aspect of the present invention, the normal vector of the plane of the object obtained from the information on the posture of the object detected by the detecting means, and the vector of the predetermined imaging axis of each imaging means From the two imaging means with a large inner product of
The image information in the direction can be provided to the detection unit as image information captured from a position suitable for capturing an object.

【図面の簡単な説明】[Brief description of the drawings]

【図1】この発明の実施例による実時間形状・姿勢検出
装置におけるカメラの配置状態を示す概念図である。
FIG. 1 is a conceptual diagram showing an arrangement state of cameras in a real-time shape / posture detecting apparatus according to an embodiment of the present invention.

【図2】この発明の実施例による実時間形状・姿勢検出
装置の構成を示すブロック図である。
FIG. 2 is a block diagram showing a configuration of a real-time shape / posture detection device according to an embodiment of the present invention.

【図3】手の回転角度を検出する実験の実験結果を本願
発明による装置と従来例による装置とで比較して示した
グラフである。
FIG. 3 is a graph showing an experimental result of an experiment for detecting a rotation angle of a hand in a device according to the present invention and a device according to a conventional example.

【符号の説明】[Explanation of symbols]

1,2,3 カメラ 4 画像情報選択部 5 検出部 10 手のひら平面 41 内積演算部 42 画像切換部 1, 2, 3 camera 4 image information selection unit 5 detection unit 10 palm plane 41 inner product calculation unit 42 image switching unit

Claims (2)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】 平面形状とみなせる移動可能な物体の形
状および姿勢を検出する物体の形状・姿勢検出装置であ
って、 前記物体を2方向から撮像して得られる2方向の画像情
報に基づいて、3次元空間内での前記物体の形状および
姿勢を検出する検出手段と、 相互に異なる方向から前記物体に向かって配置され、各
々が、前記物体に向かう撮像軸を中心として前記物体を
撮像し、それにより得られた画像情報を出力する少なく
とも3つの撮像手段と、 前記検出手段において検出された姿勢の情報から得られ
る前記物体の平面の法線ベクトルと、予め定められた各
前記撮像手段の撮像軸のベクトルとがなす角度が小さい
ものから順に2つの前記撮像手段を選択し、選択した2
つの撮像手段から出力される2方向の画像情報を、前記
物体の形状および姿勢の検出のために、前記検出手段へ
与える画像情報選択手段とを備えた、物体の形状・姿勢
検出装置。
An object shape / posture detection device for detecting the shape and orientation of a movable object that can be regarded as a planar shape, based on image information in two directions obtained by imaging the object from two directions. Detecting means for detecting the shape and orientation of the object in a three-dimensional space; and detecting means for arranging the object from different directions toward the object, each of which images the object about an imaging axis toward the object. At least three image pickup means for outputting image information obtained thereby, a normal vector of a plane of the object obtained from information of the posture detected by the detection means, and a predetermined normal The two imaging units are selected in order from the one with the smallest angle between the vector of the imaging axis and the selected 2
An object shape / posture detecting apparatus, comprising: image information selecting means for providing image information in two directions output from two image pickup means to the detecting means for detecting the shape and posture of the object.
【請求項2】 前記画像情報選択手段は、 前記物体の平面の法線ベクトルと、各前記撮像手段の撮
像軸のベクトルとの内積をそれぞれ求める内積演算手段
と、 前記内積演算手段の演算結果に基づいて、前記内積が大
きいものから順に2つの前記撮像手段を選択し、選択し
た2つの撮像手段から出力される2方向の画像情報を前
記検出手段へ与える画像選択手段とを含む、請求項1記
載の物体の形状・姿勢検出装置。
2. The image information selecting means includes: an inner product calculating means for obtaining an inner product of a normal vector of a plane of the object and a vector of an imaging axis of each of the imaging means; 2. An image selection unit for selecting two imaging units in descending order of the inner product on the basis of the inner product, and providing two-direction image information output from the selected two imaging units to the detection unit. An object shape / posture detection device according to the description.
JP7062788A 1995-03-22 1995-03-22 Object shape / posture detection device Expired - Lifetime JP2832333B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP7062788A JP2832333B2 (en) 1995-03-22 1995-03-22 Object shape / posture detection device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP7062788A JP2832333B2 (en) 1995-03-22 1995-03-22 Object shape / posture detection device

Publications (2)

Publication Number Publication Date
JPH08263629A JPH08263629A (en) 1996-10-11
JP2832333B2 true JP2832333B2 (en) 1998-12-09

Family

ID=13210445

Family Applications (1)

Application Number Title Priority Date Filing Date
JP7062788A Expired - Lifetime JP2832333B2 (en) 1995-03-22 1995-03-22 Object shape / posture detection device

Country Status (1)

Country Link
JP (1) JP2832333B2 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4332649B2 (en) 1999-06-08 2009-09-16 独立行政法人情報通信研究機構 Hand shape and posture recognition device, hand shape and posture recognition method, and recording medium storing a program for executing the method
DE602004006190T8 (en) 2003-03-31 2008-04-10 Honda Motor Co., Ltd. Device, method and program for gesture recognition
KR101016848B1 (en) * 2004-03-22 2011-02-22 엘지전자 주식회사 Fingerprint symmetry axis extraction method
JP2009295129A (en) * 2008-06-09 2009-12-17 Nippon Telegr & Teleph Corp <Ntt> Animation method, device, and program for still image

Also Published As

Publication number Publication date
JPH08263629A (en) 1996-10-11

Similar Documents

Publication Publication Date Title
Yao et al. Contour model-based hand-gesture recognition using the Kinect sensor
Lee et al. Handy AR: Markerless inspection of augmented reality objects using fingertip tracking
US6147678A (en) Video hand image-three-dimensional computer interface with multiple degrees of freedom
WO2022002133A1 (en) Gesture tracking method and apparatus
Bhuyan et al. Fingertip detection for hand pose recognition
EP3090382B1 (en) Real-time 3d gesture recognition and tracking system for mobile devices
US10755422B2 (en) Tracking system and method thereof
WO2010099034A1 (en) Capturing and recognizing hand postures using inner distance shape contexts
Yao et al. Real-time hand pose estimation from RGB-D sensor
KR20190099537A (en) Motion learning device, function determining device and function determining system
Plouffe et al. Natural human-computer interaction using static and dynamic hand gestures
Pisharady et al. Kinect based body posture detection and recognition system
JP5174492B2 (en) Image recognition apparatus, image recognition method, image recognition program, gesture motion recognition system, gesture motion recognition method, and gesture motion recognition program
Yousefi et al. 3D gesture-based interaction for immersive experience in mobile VR
JP2000331170A (en) Hand motion recognizing device
CN110910426A (en) Action process and action trend identification method, storage medium and electronic device
JP2868449B2 (en) Hand gesture recognition device
JP2832333B2 (en) Object shape / posture detection device
CN110377187A (en) Estimation is blocked method and apparatus, gesture recognition system and the storage medium of finger tip
Stark et al. Video based gesture recognition for human computer interaction
JP2017227687A (en) Camera assembly, finger shape detection system using camera assembly, finger shape detection method using camera assembly, program implementing detection method, and recording medium of program
JP2934190B2 (en) Hand gesture recognition device
Hannuksela et al. Face tracking for spatially aware mobile user interfaces
Hoshino et al. Real-time human motion analysis based on analysis of silhouette contour and color blob
Kondori et al. A direct method for 3d hand pose recovery

Legal Events

Date Code Title Description
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 19980818