JPH0620055A - Method and device for picture signal processing - Google Patents

Method and device for picture signal processing

Info

Publication number
JPH0620055A
JPH0620055A JP4134292A JP13429292A JPH0620055A JP H0620055 A JPH0620055 A JP H0620055A JP 4134292 A JP4134292 A JP 4134292A JP 13429292 A JP13429292 A JP 13429292A JP H0620055 A JPH0620055 A JP H0620055A
Authority
JP
Japan
Prior art keywords
target object
dimensional shape
dimensional
edge
finger
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP4134292A
Other languages
Japanese (ja)
Other versions
JP3182876B2 (en
Inventor
Touu Piitaa
トゥー ピーター
Satoyuki Hiroi
聡幸 広井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP13429292A priority Critical patent/JP3182876B2/en
Publication of JPH0620055A publication Critical patent/JPH0620055A/en
Application granted granted Critical
Publication of JP3182876B2 publication Critical patent/JP3182876B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Abstract

PURPOSE:To correctly and quickly detect a human finger used as a direct input interface device by retrieving a deep local minimum corresponding to the front end of the finger in its direction. CONSTITUTION:A video camera 2, an edge detecting unit 4, a Hough transformation calculating unit 6, a possibility retrieval unit 8, and a clustering unit 10 are provided. The human finger is read and is outputted as picture data in a form of two-dimensional pixel data, and the edge of the hand is detected based on each pixel data, The image line of the detected edge is converted into parameters in a parameter space and is suitably subjected to Hough transformation, and edge pixels are integrated in the parameter space to determine the direction of the finger. A deep local minimum corresponding to the front end of the finger is retrieved in this determined direction, and end points prescribing the front end of the finger are clustered to determine the front end of the human finger.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は画像信号処理方法および
画像信号処理装置に関するものであり,特に,2次元画
像データから3次元形状を実時間で復元する三次元形状
復元方法およびその装置,対象物体の特徴を抽出する方
法とその装置,および,マンマシンインターフェースと
して使用される人間の手の指を検出する方法とその装置
に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image signal processing method and an image signal processing apparatus, and more particularly to a three-dimensional shape restoring method and apparatus for restoring a three-dimensional shape from two-dimensional image data in real time. The present invention relates to a method for extracting a feature of an object and its apparatus, and a method for detecting a finger of a human hand used as a man-machine interface and its apparatus.

【0002】対象物体をCCDビデオカメラなどの撮像
手段で撮像し,その撮像画像から対象物体の3次元形状
を復元することが望まれている。このような3次元形状
復元方法は,たとえば,産業用ロボットにおけるロボッ
トハンドの動きと,その把持状態の認識における視覚認
識手段への適用が考えられている。3次元形状復元方法
の他の適用例としては,コンピュータシステムにおける
マン・マシン・インターフェース手段としての人間の体
の一部,たとえば,腕,手,掌,指などを使用する場合
にこれら身体の一部の3次元形状を復元する場合におけ
る認識手段への適用などがある。
It is desired to image a target object with an image pickup means such as a CCD video camera and restore the three-dimensional shape of the target object from the picked-up image. Such a three-dimensional shape restoration method is considered to be applied to, for example, a visual recognition means for recognizing the movement of a robot hand in an industrial robot and its gripping state. As another application example of the three-dimensional shape restoration method, when a part of a human body as a man-machine interface means in a computer system, for example, an arm, a hand, a palm, or a finger is used, one of those bodies is used. For example, it may be applied to a recognition unit when the three-dimensional shape of a part is restored.

【0003】人間がコンピュータシステムに入力するイ
ンターフェースとして最も一般的なものとしては,ある
種のトランスデューサ,または,たとえば,CRTキィ
ボード,ジョイステック,トラックボール,マウスなど
のユーザーによって操作されるアクチュエータがある。
対象物体としての人間の腕,掌,指の動きなどは,現在
使用使用されているコンピュータシステムにおけるマン
・マシン・インターフェース装置,たとえば,マウス,
ジョイステックなどの間接的なマン・マシン・インター
フェース装置よりも,直接的かつ有効なマン・マシン・
インターフェース装置として機能することが知られてき
ており,かかる人間の体の一部など動きのある対象物
体,すなわち,変形可能な対象物体の実時間での実用的
な3次元形状の復元方法が要望されている。
The most common human input interface to a computer system is some type of transducer or actuator operated by the user, such as a CRT keyboard, joystick, trackball or mouse.
Human arm, palm, and finger movements as target objects are man-machine interface devices, such as a mouse, in computer systems currently in use.
Direct and effective man-machine interface rather than indirect man-machine interface device such as Joystick
It is known to function as an interface device, and there is a demand for a real-time practical three-dimensional shape restoration method of a moving target object such as a part of the human body, that is, a deformable target object. Has been done.

【0004】従来,3次元形状を有する対象物体を撮像
した2次元画像情報からその対象物体の3次元形状を復
元するには対象物体の頂点やエッジ成分を検出し,それ
らの情報をもとに3次元空間で矛盾がないように対象物
体の形状を復元構成する手法が使われている。
Conventionally, in order to restore the three-dimensional shape of the target object from the two-dimensional image information of the target object having a three-dimensional shape, the vertex and edge components of the target object are detected, and based on these information. A method of reconstructing the shape of the target object so that there is no contradiction in a three-dimensional space is used.

【0005】[0005]

【発明が解決しようとする課題】しかしながら,これら
のインターフェース装置が使用される従来の全ての方法
は,それらのインターフェース装置はユーザーがハード
ウエアと物理的に接触することを要求し,そのような入
力装置の操作をユーザー習熟するまでに通常長い訓練期
間を要するという問題がある。従来の方法はまた,情報
が伝達される範囲が狭いという問題がある。たとえば,
マウスは単にコンピュータシステムの中央処理装置に位
置と移動ベクトルを送出するだけである。
However, all prior art methods in which these interface devices are used require that the interface device be in physical contact with the user by the user, and such input There is a problem that it usually takes a long training period to become familiar with the operation of the device by the user. The conventional method also has a problem that a range in which information is transmitted is narrow. For example,
The mouse simply sends the position and movement vector to the central processing unit of the computer system.

【0006】従来の3次元形状復元方法ではエッジなど
の特徴情報の数が少なかったり,特徴情報がはっきり取
れない場合や,特徴情報のなかに誤った情報が混ざった
場合,3次元形状の復元が困難になるという問題に遭遇
している。特徴情報の誤り情報に対応しようとすると取
りうる形状の組み合わせをすべて考え,それぞれの入力
情報とつじつまが合うか否かを探索して調べる必要があ
るので,計算量が組み合わせ的に莫大になる場合があ
り,その計算時間が非常に長くかかり,たとえば,産業
用ロボットへの実時間処理への適用,あるいは,人間の
身体の一部をマン・マシン・インターフェース手段とし
て使用するような場合に要望される3次元形状を実時間
で実現しようとする要件を満足することができない。特
に,3次元形状を有する対象物体をビデオカメラなどの
撮像装置が撮像した2次元画像データは奥行情報を有し
ていないため,3次元形状を復元する困難さに遭遇して
いる。
In the conventional three-dimensional shape restoration method, when the number of feature information such as edges is small, the feature information cannot be clearly obtained, or when erroneous information is mixed in the feature information, the three-dimensional shape is restored. I am running into the problem of becoming difficult. It is necessary to consider all possible combinations of shapes when trying to deal with error information of feature information, and to search and check whether each input information is consistent with each other. However, the calculation time is very long, and it is required, for example, when it is applied to real-time processing for industrial robots or when a part of the human body is used as a man-machine interface means. It is not possible to satisfy the requirement for real-time realization of a three-dimensional shape. In particular, the two-dimensional image data obtained by capturing an image of a target object having a three-dimensional shape with an imaging device such as a video camera does not have depth information, and thus encounters difficulty in restoring the three-dimensional shape.

【0007】本発明の第1の目的は,直接的な入力イン
ターフェース装置として使用される人間の手の指を,正
しくそして高速に検出する方法およびその装置を提供す
ることにある。本発明の第2の目的は,動きのある対象
物体を2次元画像データとして撮像し,その対象物体の
3次元形状を実時間で復元可能な三次元形状復元方法お
よびその装置を提供することを目的とする。本発明の第
3の目的は,人間の手の指を検出する方法を一般の対象
物体に拡張し,上記三次元形状復元方法における特徴点
抽出に適用して,好適に三次元形状を復元する方法とそ
の装置を提供することにある。本発明の第4の目的は,
対象物体を人間の手とした場合に,画像信号処理方法を
上記三次元形状復元方法に適用して,人間の手を有効な
マンマシン・インターフェース手段として適用可能とす
ることにある。
A first object of the present invention is to provide a method and apparatus for correctly and rapidly detecting a finger of a human hand used as a direct input interface device. A second object of the present invention is to provide a three-dimensional shape restoration method and apparatus capable of picking up a moving target object as two-dimensional image data and restoring the three-dimensional shape of the target object in real time. To aim. A third object of the present invention is to extend the method for detecting a finger of a human hand to a general target object and apply it to the feature point extraction in the above-mentioned three-dimensional shape restoration method to suitably restore the three-dimensional shape. A method and apparatus therefor. The fourth object of the present invention is to
When the target object is a human hand, the image signal processing method is applied to the above three-dimensional shape restoration method so that the human hand can be applied as an effective man-machine interface means.

【0008】[0008]

【課題を解決するための手段】上記問題を解決するた
め,本発明の第1の観点によれば,人間の手の指を検出
する方法とその装置が提供される。人間の手の指を検出
する方法は,人間の手を読み取り2次元ピクセルデータ
形態の画像データとして出力する段階,上記ピクセルデ
ータに基づいて上記手のエッジ(縁)を検出する段階,
上記検出されたエッジのイメージライン(画像の線)を
パラメータ空間にパラメータ変換し該パラメータ空間に
おいてエッジピクセルを積算して上記指の向きを決定す
る段階,該向きに沿って指の先端に対応する深いローカ
ルミニマムを検索する段階,および,上記指の先端を規
定する端点をクラスタリングする段階を有する。
In order to solve the above problems, according to a first aspect of the present invention, there is provided a method and apparatus for detecting a finger of a human hand. A method of detecting a finger of a human hand includes a step of reading a human hand and outputting as image data in a two-dimensional pixel data form, a step of detecting an edge of the hand based on the pixel data,
The step of parameter-converting the image line of the detected edge (the line of the image) into a parameter space and integrating the edge pixels in the parameter space to determine the direction of the finger, corresponding to the tip of the finger along the direction. There is a step of searching a deep local minimum and a step of clustering the end points that define the tip of the finger.

【0009】好適には,上記エッジを検出する段階は,
各々がグレーレベルを示す上記ピクセルデータの2次元
方向の傾きを計算する段階,上記計算した傾きの絶対値
をしきい値レベルと比較する段階,および,上記計算さ
れた絶対値が上記しきい値レベルよりも大きいときエッ
ジとして決定する段階を有する。また好適には,上記パ
ラメータ変換およびエッジピクセル積算段階は,上記検
出エッジを示す直線状の座標系,たとえば,3次元直交
座標系から極座標系に変換する段階,上記パラメータ空
間においてエッジの点を積算する段階,および,上記イ
メージラインの各々について最も大きい積算値を求めて
上記手の指の向きを決定する段階を有する。好適には,
上記検索段階は,ランダム方向決定メカニズムによって
上記深いローカルミニマムを決定し,浅いローカルミニ
マムを回避する段階を有する。好適には,上記クラスタ
リング段階は,クラスタ内に任意の位置を選択する段
階,少なくともユークリッド距離に基づいて各検索の端
点ピクセルをクラスタ位置に割りつける段階,および,
上記クラスタへ割りつけられたピクセルの全ての中心を
計算することにより新しいクラスタ位置を決定する段階
を有する。
Preferably, the step of detecting the edge is
Calculating a two-dimensional slope of the pixel data, each of which indicates a gray level, comparing the absolute value of the calculated slope with a threshold level, and calculating the absolute value with the threshold value. If it is larger than the level, it has a step of determining the edge. Also preferably, the parameter conversion and edge pixel integration step is a step of converting a linear coordinate system showing the detected edge, for example, a three-dimensional orthogonal coordinate system to a polar coordinate system, and integrating edge points in the parameter space. And the step of determining the orientation of the finger of the hand by obtaining the largest integrated value for each of the image lines. Preferably,
The searching step includes the step of determining the deep local minimum by a random direction determination mechanism and avoiding the shallow local minimum. Preferably, the clustering step comprises selecting an arbitrary position within the cluster, allocating the end point pixel of each search to the cluster position based on at least the Euclidean distance, and
There is the step of determining a new cluster position by calculating the centers of all the pixels assigned to the cluster.

【0010】人間の手の指を検出する装置は,上記人間
の手の指を検出する方法を実施する構成となる。
An apparatus for detecting a finger of a human hand is configured to implement the method for detecting a finger of the human hand.

【0011】さらに本発明の第2の観点によれば,対象
物体の特徴を抽出する方法とその装置が提供される。対
象物体の特徴を抽出する方法は,対象物体を撮像し,2
次元ピクセルデータ形態の画像データとして出力する段
階,上記ピクセルデータに基づいて上記対象物体のエッ
ジを検出する段階,上記検出されたエッジのイメージラ
インをパラメータ空間にパラメータ変換し,該パラメー
タ空間においてエッジピクセルを積算して上記対象物体
の向きを決定する段階,該向きに沿って対象物体の先端
に対応する深いローカルミニマムを検索する段階,およ
び,上記対象物体の先端を規定する端点をクラスタリン
グする段階を有する。この対象物体の特徴を抽出する方
法は,上述した人間の手の指を検出する方法を一般的な
対象物体に一般化したものである。対象物体の特徴を抽
出する装置は,上記対象物体の特徴を抽出する方法を実
施する構成となる。
Further, according to a second aspect of the present invention, there is provided a method and apparatus for extracting a feature of a target object. The method of extracting the feature of the target object is to image the target object,
Outputting as image data in the form of three-dimensional pixel data, detecting edges of the target object based on the pixel data, converting the image lines of the detected edges into a parameter space, and converting the edge pixels into the parameter space. To determine the orientation of the target object, search for a deep local minimum corresponding to the tip of the target object along the orientation, and cluster the endpoints that define the tip of the target object. Have. The method of extracting the characteristics of the target object is a generalized version of the above-described method of detecting the finger of the human hand. The apparatus for extracting the feature of the target object is configured to execute the method for extracting the feature of the target object.

【0012】本発明の第3の観点によれば,三次元形状
復元方法とその装置が提供される。三次元形状復元方法
は,ノードを介して接続されるバネを有し力学的拘束を
バネモデルで表わす力学方程式で示される対象物体の動
きを撮像した2次元画像データを入力する段階と,該2
次元画像データから特徴を抽出して特徴抽出データを生
成する特徴抽出段階と,上記対象物体の力学モデルに上
記特徴抽出点の2次元座標からの力を加えて対象物体モ
デルを変形させて奥行情報を補い上記対象物体の3次元
形状を復元する段階とを有する。好適には,上記3次元
形状を復元する段階は,対象物体の変形の少ない部分領
域に分割し,各部分領域ごとのモードごとに上記3次元
形状復元計算を行う。
According to a third aspect of the present invention, a three-dimensional shape restoration method and apparatus are provided. A three-dimensional shape restoration method includes a step of inputting two-dimensional image data obtained by imaging a movement of a target object represented by a mechanical equation having a spring connected via a node and representing a mechanical constraint by a spring model, and
Feature extraction step of extracting features from three-dimensional image data to generate feature extraction data, and applying force from the two-dimensional coordinates of the feature extraction points to the dynamic model of the target object to deform the target object model and depth information. And restoring the three-dimensional shape of the target object. Preferably, in the step of restoring the three-dimensional shape, the target object is divided into partial regions with less deformation, and the three-dimensional shape restoration calculation is performed for each mode for each partial region.

【0013】上記特徴抽出として,上述した対象物体の
特徴を抽出する方法を適用できる。三次元形状復元装置
は上記三次元形状復元方法を実施する構成となる。好適
な対象物体は人間の手である。
As the feature extraction, the method of extracting the feature of the target object described above can be applied. The three-dimensional shape restoration device is configured to carry out the above three-dimensional shape restoration method. The preferred target object is the human hand.

【0014】[0014]

【作用】人間の手の指を検出する方法は,人間の手を読
み取り2次元ピクセルデータ形態の画像データとして出
力し,これらのピクセルデータに基づいて上記手のエッ
ジ(縁)を検出する。検出されたエッジのイメージライ
ンをパラメータ空間にパラメータ変換し,好適には,ハ
フ変換して,該パラメータ空間においてエッジピクセル
を積算して上記指の向きを決定する。この決定された向
きに沿って指の先端に対応する深いローカルミニマムを
検索し,上記指の先端を規定する端点をクラスタリング
する。このクラスタリング結果に基づいて,人間の手の
先端を決定する。
According to the method of detecting the finger of the human hand, the human hand is read and output as image data in the form of two-dimensional pixel data, and the edge of the hand is detected based on these pixel data. The image line of the detected edge is parameter-transformed into a parameter space, preferably Hough-transformed, and the edge pixels are integrated in the parameter space to determine the direction of the finger. A deep local minimum corresponding to the tip of the finger is searched for along the determined orientation, and the end points that define the tip of the finger are clustered. The tip of the human hand is determined based on this clustering result.

【0015】上記人間の手の指を検出する方法を,たと
えば,指の先端に代えて,対象物体の特徴とすることに
より,対象物体の特徴抽出に拡張できる。
The method for detecting the finger of the human hand can be extended to the feature extraction of the target object by using the feature of the target object instead of the tip of the finger.

【0016】三次元形状復元方法においては,対象物体
の力学的拘束をバネモデルで表し,対象物体を撮像した
2次元画像の特徴点から上記対象物体の力学方程式を解
いて上記対象物体の3次元形状を復元する。特に,対象
物体のモデルに上記特徴抽出点の2次元座標からの力を
加えて対象物体モデルを変形させることにより奥行情報
を補うことができ,上記対象物体の3次元形状を短時間
で,正確に復元することができる。対象物体の変形の少
ない部分領域に分割し,各部分領域ごとのモードごとに
上記3次元形状復元計算を行うことで,3次元形状復元
処理をさらに高速に行うことができる。
In the three-dimensional shape restoring method, the mechanical constraint of the target object is represented by a spring model, and the three-dimensional shape of the target object is solved by solving the dynamic equation of the target object from the feature points of the two-dimensional image of the target object. To restore. In particular, the depth information can be supplemented by applying a force from the two-dimensional coordinates of the feature extraction points to the model of the target object to deform the target object model, and the three-dimensional shape of the target object can be accurately calculated in a short time. Can be restored to. By dividing the target object into sub-regions with less deformation and performing the above-mentioned three-dimensional shape restoration calculation for each mode for each partial region, the three-dimensional shape restoration processing can be performed at a higher speed.

【0017】[0017]

【実施例】本発明の画像信号処理方法および画像信号処
理装置の第1実施態様としての人間の手の指を検出する
方法およびその装置を添付図面に関連づけて述べる。図
1は本発明に基づく人間の手の指を検出する装置のブロ
ック図である。図2は人間の手の向きを決定すること,
および,指の先端を検索(サーチ)するときの指の向き
と検索開始線(スタートライン)の関係を説明するため
の手の拡大図である。図3は深いローカルミニマムを発
見するための方向規定メカニズムを示す図である。図4
は均一な確率分布関数PDFと伝達関数との関係を示す
特性図である。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS A first embodiment of an image signal processing method and an image signal processing apparatus according to the present invention will be described with reference to the accompanying drawings, a method and apparatus for detecting a finger of a human hand. FIG. 1 is a block diagram of an apparatus for detecting a finger of a human hand according to the present invention. Figure 2 is to determine the orientation of the human hand,
FIG. 7 is an enlarged view of a hand for explaining the relationship between the direction of the finger when searching the tip of the finger (search) and the search start line (start line). FIG. 3 is a diagram showing a direction defining mechanism for discovering a deep local minimum. Figure 4
FIG. 3 is a characteristic diagram showing a relationship between a uniform probability distribution function PDF and a transfer function.

【0018】指の先端はディスプレイユニットに表示さ
れるある項目を直接指定する,および,位置決めする,
あるいは,いずれか1つの操作を行うのに使用できる。
図1に示した人間の手の指を検出する装置は,通常用い
られている標準の撮像手段としてのビデオカメラ2,エ
ッジ検出ユニット4,ハフ変換(Hough Transformatio
n)計算ユニット6,可能性(probabilistic )検索ユ
ニット8,および,クラスタリングユニット10を有す
る。ビデオカメラ2は人間の手12を撮像して2次元状
画像データを出力し,クラスタリングユニット10は指
の先端の位置を出力する。エッジ検出ユニット4,ハフ
変換計算ユニット6,可能性検索ユニット8,および,
クラスタリングユニット10はディジタルコンピュータ
システムによって実現されている。
The tip of the finger directly designates and positions an item displayed on the display unit,
Alternatively, it can be used to perform any one operation.
The apparatus for detecting a finger of a human hand shown in FIG. 1 includes a video camera 2 as a standard image pickup means that is normally used, an edge detection unit 4, and a Hough transform ratio.
n) Computation unit 6, probabilistic search unit 8 and clustering unit 10. The video camera 2 images the human hand 12 and outputs two-dimensional image data, and the clustering unit 10 outputs the position of the tip of the finger. Edge detection unit 4, Hough transform calculation unit 6, possibility search unit 8, and
The clustering unit 10 is realized by a digital computer system.

【0019】ディジタルコンピュータシステムによって
実現される人間の手の指を検出する装置の各ユニットの
処理内容を図5〜図10のフローチャートに示す。図5
はビデオカメラ2による画像入力処理とエッジ検出ユニ
ット4によるエッジ検出処理を示すフローチャートであ
る。図6および図7はハフ変換計算ユニット6における
ハフ変換処理を示すフローチャートである。図8および
図9は可能性検索ユニット8における可能性検索処理を
示すフローチャートである。図10はクラスタリングユ
ニット10におけるクラスタリング処理を示すフローチ
ャートである。上記ディジタルコンピュータシステムに
おけるの処理の一部のプログラムコードを表1〜表4に
示す。これらのプログラムコードは一連の流れに沿って
処理されるが図解の関係で分割して示している。
The processing contents of each unit of the apparatus for detecting a finger of a human hand realized by a digital computer system are shown in the flow charts of FIGS. Figure 5
3 is a flowchart showing image input processing by the video camera 2 and edge detection processing by the edge detection unit 4. 6 and 7 are flowcharts showing the Hough transform process in the Hough transform calculation unit 6. 8 and 9 are flowcharts showing the possibility search processing in the possibility search unit 8. FIG. 10 is a flowchart showing the clustering process in the clustering unit 10. Tables 1 to 4 show a part of program codes of the processing in the digital computer system. Although these program codes are processed according to a series of flows, they are divided and shown for the sake of illustration.

【表1】 [Table 1]

【表2】 [Table 2]

【表3】 [Table 3]

【表4】 表1はハフ変換処理において使用するアキュムレータの
初期化処理を示すプログラムコードである。表2はエッ
ジについての画像を検索する処理を示すプログラムコー
ドである。表3はハフ変換処理における10本の最良な
ラインを検索するプログラムコードである。表4は可能
性検索処理における画像ラインについての可能性のある
候補としてのアキュムレータの値が最大となる位置
m ,tm を出力するプログラムコードである。表1〜
表4に示すプログラムコードはディジタルコンピュータ
システムで処理する一部を示しており,図5〜図10の
処理内容とは必ずしも一対一には一致していない。
[Table 4] Table 1 is a program code showing the initialization process of the accumulator used in the Hough conversion process. Table 2 is a program code showing a process of searching an image for an edge. Table 3 is a program code for searching the 10 best lines in the Hough transform process. Table 4 is a program code that outputs the positions r m and t m at which the value of the accumulator is the maximum as a possible candidate for the image line in the possibility search process. Table 1
The program code shown in Table 4 shows a part of processing by the digital computer system, and does not necessarily correspond to the processing contents of FIGS. 5 to 10 one to one.

【0020】図5のステップS01に示すように,チャ
ージカップルデバイス(CCD)を有するビデオカメラ
2は,手を読み取り,その手の画像をディジタル化し,
その手の2次元画像データ,すなわち,エッジピクセル
(画像)データI(i,j)(ただし,I(i,j)は
画像位置(i,j)におけるグレーレベル強度である)
をエッジ検出ユニット4に出力する。
As shown in step S01 of FIG. 5, the video camera 2 having a charge couple device (CCD) reads a hand, digitizes the image of the hand,
Two-dimensional image data of the hand, that is, edge pixel (image) data I (i, j) (where I (i, j) is the gray level intensity at the image position (i, j))
Is output to the edge detection unit 4.

【0021】図5のステップS02〜S010に示すよ
うに,エッジ検出ユニット4は傾斜方法によるエッジ検
出アルゴリズムによって手のエッジを検出する。すなわ
ち,エッジ検出ユニット4は下記式1に基づいて画像の
傾きgradI(i,j)を計算する。gradはまた
逆三角形の記号,ナブラとしても表現する。
As shown in steps S02 to S010 of FIG. 5, the edge detection unit 4 detects the edge of the hand by the edge detection algorithm based on the inclination method. That is, the edge detection unit 4 calculates the gradient gradI (i, j) of the image based on the following equation 1. Grad is also expressed as an inverted triangle symbol, nabla.

【数1】 エッジ検出ユニット4は下記の方法で人間の手のエッジ
を決定する。もしピクセルの傾きgradI(i,j)
の絶対値が所定のしきい値Tよりも大きいときは,その
ピクセル(i,j)はエッジピクセルである。すなわ
ち,ピクセルの微分値がしきい値を越えているときエッ
ジとする。エッジ検出ユニット4はそのピクセルがエッ
ジピクセルと判断した場合,エッジピクセルI(i,
j)=1とし,そうでない場合は,I(i,j)=0と
する。エッジ検出ユニット4はこのエッジ検出処理を全
ての画像座標(i=1〜imax,j=1〜jmax)
について行う。
[Equation 1] The edge detection unit 4 determines the edge of the human hand by the following method. If the gradient of the pixel gradI (i, j)
If the absolute value of is greater than a predetermined threshold T, then that pixel (i, j) is an edge pixel. That is, the edge is defined when the differential value of the pixel exceeds the threshold value. If the edge detection unit 4 determines that the pixel is an edge pixel, the edge pixel I (i, i,
j) = 1 and otherwise I (i, j) = 0. The edge detection unit 4 performs this edge detection processing on all image coordinates (i = 1 to imax, j = 1 to jmax).
Do about.

【0022】図6および図7に示すように,ハフ変換計
算ユニット6は,アキュムレータを初期化した後(図6
のステップS21,表1に示すプログラムコード),ピ
クセルがラベルの上の場合アキュムレータを積算させ
(ステップS22〜S32,表2),このアキュムレー
タの値から10個の最良の線(ベストライン)を抽出す
る(図7のステップS33,表3のプログラムコー
ド)。図2に示すように,人間の手は相互にほぼ並行す
るほぼ10本の線で構成されており,これらの線を傾斜
およびY方向の経路を平均化することにより(図7のス
テップS34),最終的に,手を2分にして指に並行し
て走る手の向きを示す指向線を得ることができる。ハフ
変換方法において,全ての可能性ある画像ラインはパラ
メータ空間にパラメータ変換され,パラメータ空間内の
アキュムレータ(累積器)が各ラインの一部である全て
のエッジピクセルの経路を維持し,最も値の大きいピク
セルを有するラインが画像ラインとして選択される。ハ
フ変換の処理内容の詳細について以下に述べる。
As shown in FIGS. 6 and 7, the Hough transform calculation unit 6 initializes the accumulator (see FIG. 6).
Step S21, the program code shown in Table 1), the accumulator is integrated when the pixel is above the label (steps S22 to S32, Table 2), and the 10 best lines (best lines) are extracted from the value of this accumulator. (Step S33 of FIG. 7, program code of Table 3). As shown in FIG. 2, a human hand is composed of approximately 10 lines that are substantially parallel to each other. By sloping these lines and averaging the paths in the Y direction (step S34 in FIG. 7). , Finally, it is possible to obtain a directional line indicating the direction of the hand that runs in parallel with the finger by dividing the hand into two minutes. In the Hough transform method, all possible image lines are parametrically transformed into a parameter space, and the accumulator in the parameter space maintains the path of all edge pixels that are part of each line, The line with the larger pixels is selected as the image line. The details of the Hough transform process will be described below.

【0023】ユークリッド2次元空間の任意の線は下記
式2で規定される。
An arbitrary line in the Euclidean two-dimensional space is defined by the following equation 2.

【数2】 ここで,XおよびYは直線状の座標系,たとえば,3次
元直交座標系における所定のライン上の任意の点の座標
であり,θおよびρは極座標系における原点に最も近い
ライン上の位置を規定する。この実施において,画像空
間を通過しうる全ての可能なラインは,ρmin 〜ρmax
とθmin 〜θmax の範囲にあるρおよびθの値にベクト
ル量子化される。ある画像内の各々のエッジ位置x,y
について,全ての可能なラインがθを変化させて決定さ
れ,その結果として与えられたx,yに基づいてρが決
定される。決定された各ラインについて,そのラインに
ついてのアキュムレータの値が増加させられる(図6の
ステップS25〜S26,表2のプログラムコード)。
全てのエッジ点についての処理が終了した後,アキュム
レータが検索され,最も大きい値の大きいアキュムレー
タに関連する10本のベストラインが選択される(図7
のステップS33,表3のプログラムコード)。
[Equation 2] Here, X and Y are coordinates of an arbitrary point on a predetermined line in a linear coordinate system, for example, a three-dimensional orthogonal coordinate system, and θ and ρ are positions on the line closest to the origin in the polar coordinate system. Stipulate. In this implementation, all possible lines that can pass through the image space are ρ min ˜ρ max
And vector-quantized to values of ρ and θ in the range of θ min to θ max . Each edge position x, y in an image
For, all possible lines are determined by varying θ, and ρ is determined based on the resulting x, y. For each determined line, the value of the accumulator for that line is increased (steps S25-S26 in FIG. 6, program code in Table 2).
After the processing for all edge points is completed, the accumulator is searched and the 10 best lines associated with the accumulator having the largest value are selected (see FIG. 7).
Step S33, the program code of Table 3).

【0024】ラインを示す形態をy=mx+bの形式に
変換するため,下記式3および式4が用いられる。
The following equations 3 and 4 are used to convert the form showing the line into the format of y = mx + b.

【数3】 [Equation 3]

【数4】 慣性モーメントmおよびbが全ての推奨(候補)ライン
について決定され,それからmの平均とbの平均が計算
され,これらの平均が図2に示す手の向きを示す指向線
となる。
[Equation 4] Moments of inertia m and b are determined for all recommended (candidate) lines, and then the average of m and the average of b are calculated, which are the pointing lines indicating the hand orientation shown in FIG.

【0025】可能性検索ユニット8が行う可能性検索処
理のフローチャートを図8および図9に示す。 図8,ステップS41〜S48:可能性検索ユニット8
は指向線と直交し最も慣性モーメントの大きい線を選択
して手の指向線を決定する。 図9,ステップS49〜S55:一旦,手の指向線が決
定されると,可能性検索ユニット8において,全てのピ
クセルについて複数回の検索SEARCHが行われ「深
いローカルミニマム」を発見する。この深いローカルミ
ニマムは指の先端に対応している。 これらの検索の開始位置は指の向きを示す指向線に直交
するラインに沿っている。開始線と指向線の交差(直
交)する位置は指向線に対して最も大きな量の位置を検
出することにより決定され,これは親指のすぐ下の掌の
厚い部分に対応している。
Flowcharts of the possibility retrieval processing performed by the possibility retrieval unit 8 are shown in FIGS. 8 and 9. FIG. 8, steps S41 to S48: Possibility search unit 8
Selects the line that is orthogonal to the pointing line and has the largest moment of inertia to determine the pointing line of the hand. FIG. 9, Steps S49 to S55: Once the hand pointing line is determined, the possibility search unit 8 performs search SEARCH a plurality of times on all pixels to find a “deep local minimum”. This deep local minimum corresponds to the tip of your finger. The start position of these searches is along a line orthogonal to the directivity line indicating the direction of the finger. The crossing (orthogonal) position of the starting line and the pointing line is determined by detecting the largest amount of position with respect to the pointing line, which corresponds to the thick part of the palm just below the thumb.

【0026】各々の検索は手の指の向きの方向に向かう
傾向を示す。検索はエッジ領域を横切ることができな
い。浅いローカルミニマムを回避するため,検索は指の
先端に向かってバイアスされたランダム方向性決定メカ
ニズムによって与えられる。各々の検索はあるピクセル
についてある容量のプログラム処理ステップを有してお
り,表1〜表4に示すように,全部で400ステップが
許容されている。経路決定メカニズムのランダム性によ
り,浅いローカルミニマムが容易に回避できるが,指の
先端は罠(トラップ)のようである。
Each search shows a tendency towards the direction of the fingers of the hand. Search cannot cross edge regions. To avoid the shallow local minimum, the search is provided by a random directional decision mechanism biased towards the tip of the finger. Each search has a certain amount of program processing steps for a pixel, allowing a total of 400 steps, as shown in Tables 1-4. Due to the random nature of the routing mechanism, shallow local minimums can be easily avoided, but the tip of the finger appears to be a trap.

【0027】方向性決定メカニズムについて,図8およ
び図9に加えて図3および図4を参照して述べる。各々
の所定のプログラム処理ステップについて,角度αが所
定の確率分布を有する乱数発生器によってある角度につ
いて決定され,上下左右のピクセルのうちの次に入るべ
きピクセルが決定される。もし次のピクセルがエッジピ
クセルの場合,検索はそのステップの間初期ピクセル位
置に残る。
The directionality determining mechanism will be described with reference to FIGS. 3 and 4 in addition to FIGS. For each given program processing step, the angle α is determined for a given angle by a random number generator having a given probability distribution, and the next upper, lower, left or right pixel to be entered is determined. If the next pixel is an edge pixel, the search remains at the initial pixel location during that step.

【0028】乱数発生器は0から1の範囲で均一な確率
分布を有する乱数を発生する(図8,ステップS4
5)。図4に示すように,この確率分布を所望の確率分
布関数PDFに変換するため,その所望のPDFに関す
る累積分布関数CDFが決定される。もしuxが均一な
乱数変数で,F(x)が所望のPDFのCDFである場
合,dx=F-1(ux)が所望のPDFについての乱数
変数である。dxに2πが乗ぜられ,図3に基づいて新
しい角度が得られ,図4に基づいて新しいピクセルが算
出される(ステップS46〜S48)。確率分布関数P
DFの選択は指の向きの方向を強調するように行われ
る。この場合,簡単な確率分布が図4に示すように試み
られた。確率分布に有限な数が存在し,その確率分布の
選択が検索の性能を向上させるあるいは後退させる。
The random number generator generates a random number having a uniform probability distribution in the range of 0 to 1 (step S4 in FIG. 8).
5). As shown in FIG. 4, in order to convert this probability distribution into a desired probability distribution function PDF, a cumulative distribution function CDF regarding the desired PDF is determined. If ux is a uniform random variable and F (x) is the CDF of the desired PDF, then dx = F −1 (ux) is the random variable for the desired PDF. dx is multiplied by 2π, a new angle is obtained based on FIG. 3, and a new pixel is calculated based on FIG. 4 (steps S46 to S48). Probability distribution function P
The DF is selected so as to emphasize the direction of the finger direction. In this case, a simple probability distribution was attempted as shown in FIG. There is a finite number of probability distributions, and the selection of that probability distribution improves or degrades the search performance.

【0029】全ての検索が終了した後,クラスタリング
ユニット10において,「K手段(K−Means )」アル
ゴリズムなどのクラスタリングアルゴリズムが用いら
れ,5本の指の先端に対応して5つのクラスタが存在す
るという事実に基づいて検索要素の位置がクラスタされ
る。これらのクラスタ位置は指の先端の位置を決定す
る。なおクラスタとは画像処理データの固まりを意味す
る。
After all the searches are completed, a clustering algorithm such as the "K-Means" algorithm is used in the clustering unit 10, and there are five clusters corresponding to the tips of the five fingers. The location of the search element is clustered based on the fact that These cluster positions determine the position of the tip of the finger. The cluster means a group of image processing data.

【0030】「K手段」アルゴリズムの実施について図
10に示すフローチャートを参照して述べる。 ステップS61:任意に初期の5個のクラスタ位置
(群)z1,z2,z3,z4,z5を選択する。ここ
で,ziはi番目のクラスタの位置である。 ステップS62,S63:各々の検索の終わりのピクセ
ルを少なくともユークリッド距離に基づいて,最短の距
離にあるものを同じクラスタ位置にあるものとしてクラ
スタ位置に割りつける。 ステップS64〜S66:クラスタに対して割りつけら
れたピクセルの全ての中心を計算することにより新しい
クラスタ位置を決定する。 ステップS67:もしあるクラスタ位置が変化したら,
ステップS63に戻る。 ステップS68:手についての試験的な画像が用いら
れ,アルゴリズムが指の先端の位置の決定を可能にす
る。
The implementation of the "K means" algorithm will be described with reference to the flow chart shown in FIG. Step S61: Arbitrarily select the initial five cluster positions (group) z1, z2, z3, z4, z5. Here, zi is the position of the i-th cluster. Steps S62 and S63: The pixels at the end of each search are allocated to the cluster positions as the ones at the shortest distance at the same cluster position based on at least the Euclidean distance. Steps S64-S66: Determine a new cluster position by calculating the centers of all of the pixels assigned to the cluster. Step S67: If a cluster position changes,
It returns to step S63. Step S68: A trial image of the hand is used and the algorithm allows the position of the tip of the finger to be determined.

【0031】上述したように異なる確率分布関数PDF
の使用は検索の性能を驚く程変化させ,動作時間を向上
させ(短縮し),そして,適切な大きさのプログラム処
理ステップがスケール空間技法の使用を実施可能とす
る。ハフ変換における雑音の効果は比較的小さいが,背
景エッジは信号前処理によって除去すべきである。もし
S/N比が高い場合,検索の対象となる確率分布関
DFはバックトラッキングの程度を大きくすることを許
容するように変更されるべきである。この形式のインタ
ーフェースの有利な点は,手動式入力装置を容易に使用
するために要求される巧妙な操作をユーザーが必要とし
ないことである。さらに,手の移動によって伝達される
情報の量が非常に多いので,この種のインターフェース
は広範囲の用途に使用できることである。
As described above, different probability distribution function PDFs
The use of will dramatically change the performance of the search, improve (reduce) operation time, and allow appropriately sized program processing steps to implement the use of scale space techniques. Although the effect of noise on the Hough transform is relatively small, background edges should be removed by signal preprocessing. If S / N ratio is high, the probability distribution function number be searched P
The DF should be modified to allow a greater degree of backtracking. The advantage of this type of interface is that the user does not need the elaborate manipulations required to easily use the manual input device. Moreover, the amount of information transmitted by the movement of the hands is so large that this kind of interface can be used in a wide range of applications.

【0032】上述した本発明に基づく方法と装置は手の
寸法と手の形状に制限されないから,誰でも容易にこの
方法と装置を操作することができる。以上に述べたよう
に,本発明の画像信号処理方法の第1の実施態様によれ
ば,直接的な入力インターフェース装置として使用され
る人間の手の指を,容易に正しくそして高速に検出する
方法およびその装置が提供される。
Since the above-described method and apparatus according to the present invention is not limited to the size and shape of the hand, anyone can easily operate the method and apparatus. As described above, according to the first embodiment of the image signal processing method of the present invention, a method for easily and correctly detecting a finger of a human hand used as a direct input interface device at high speed. And a device therefor are provided.

【0033】上述した人間の手の指を検出する方法は,
特定的な例として,対象物体を源の手の指を例示した
が,上述した人間の手の指を検出する方法をより一般的
な対象物体,たとえば,産業用ロボットのハンドなどに
適用することができる。
The method for detecting the finger of the human hand described above is
As a specific example, the finger of the hand that is the source of the target object is illustrated, but the method of detecting the finger of the human hand described above is applied to a more general target object, for example, the hand of an industrial robot. You can

【0034】本発明の画像信号処理方法およびその装置
の第2実施態様として,2次元画像データから3次元形
状復元を行うる三次元形状復元方法とその装置について
述べる。図11は三次元形状復元装置の構成図である。
三次元形状復元装置は,2次元画像データ入力手段10
1,特徴抽出手段103および3次元形状復元処理手段
105を有している。2次元画像データ入力手段101
はたとえば,CCDビデオカメラで実現でき,特徴抽出
手段103および3次元形状復元処理手段105はコン
ピュータシステムで実現できる。
As a second embodiment of the image signal processing method and its apparatus of the present invention, a three-dimensional shape restoring method and apparatus for performing three-dimensional shape restoration from two-dimensional image data will be described. FIG. 11 is a block diagram of a three-dimensional shape restoration device.
The three-dimensional shape restoration device includes a two-dimensional image data input means 10
1. It has a feature extraction means 103 and a three-dimensional shape restoration processing means 105. Two-dimensional image data input means 101
Can be realized by, for example, a CCD video camera, and the feature extraction means 103 and the three-dimensional shape restoration processing means 105 can be realized by a computer system.

【0035】図12は図11に示した三次元形状復元装
置の各部の基本動作を示すフローチャートである。 ステップS101:2次元画像データ入力手段101
は,たとえば,対象物体を2次元状態において撮像する
CCDビデオカメラであり,このビデオカメラにおいて
撮像された対象物体の2次元状画像データが特徴抽出手
段103に印加される。 ステップS102:特徴抽出手段103はビデオカメラ
から入力された2次元画像データから特徴抽出を行い,
特徴点の2次元座標を出力する。 特徴抽出方法としては従来から知られている種々の方法
を適用することができる。そのような特徴抽出方法とし
ては,たとえば,対象物体の特徴点にあらかじめ付けら
れたマーカーの色を検出して判別するこにより特徴点の
座標を検出する方法,対象物体のエッジを検出して局所
的な形状で判別することにより特徴点の座標を検出する
方法などがあり,本発明の特徴抽出手段103において
も,これらのいずれかを使用する。好適には,上記対象
物体の特徴を抽出する方法をこの三次元形状復元装置に
適用する。これについては後述する。
FIG. 12 is a flow chart showing the basic operation of each part of the three-dimensional shape restoration device shown in FIG. Step S101: Two-dimensional image data input means 101
Is a CCD video camera that images a target object in a two-dimensional state, and the two-dimensional image data of the target object imaged by this video camera is applied to the feature extraction means 103. Step S102: The feature extraction means 103 performs feature extraction from the two-dimensional image data input from the video camera,
The two-dimensional coordinates of the feature points are output. Various conventionally known methods can be applied as the feature extraction method. As such a feature extraction method, for example, a method of detecting the coordinates of a feature point by detecting the color of a marker attached to the feature point of the target object in advance and detecting the edge of the target object There is a method of detecting the coordinates of the characteristic point by discriminating the characteristic shape, and any one of these is also used in the characteristic extracting means 103 of the present invention. Preferably, the method for extracting the features of the target object is applied to this three-dimensional shape restoration device. This will be described later.

【0036】特徴抽出手段103において抽出された特
徴点の2次元座標は3次元形状復元処理手段105に印
加される。 ステップS103:3次元形状復元処理手段105にお
いては,特徴抽出手段103からの特徴抽出点の2次元
座標を用いて,対象物体の力学方程式(力学的モデル)
をもとにしてその対象物体の3次元形状を復元する。 上述したように,本発明の画像処理装置においては,対
象物体の力学的拘束をバネモデルで表し,対象物体を撮
像した2次元画像の特徴点から対象物体の力学方程式を
解いて対象物体の3次元形状を復元する。
The two-dimensional coordinates of the feature points extracted by the feature extraction means 103 are applied to the three-dimensional shape restoration processing means 105. Step S103: In the three-dimensional shape restoration processing means 105, using the two-dimensional coordinates of the feature extraction points from the feature extraction means 103, the dynamic equation (dynamic model) of the target object.
Based on, the three-dimensional shape of the target object is restored. As described above, in the image processing apparatus of the present invention, the mechanical constraint of the target object is represented by a spring model, and the dynamic equation of the target object is solved from the feature points of the two-dimensional image of the target object to obtain the three-dimensional image of the target object. Restore the shape.

【0037】図13は上述した本発明の三次元形状復元
装置の処理動作のより詳細な処理内容,特に,3次元形
状復元処理手段105における3次元形状復元処理方法
の第1の形態の動作フローチャートである。図14は図
13における3次元形状復元処理対象である対象物体の
具体例として,コンピュータシステムにおけるマン・マ
シン・インターフェース手段としての人間の掌と指の画
像データとその特徴抽出結果を示した図である。図13
におけるステップS111およびS112の動作内容は
図12を用いた述べたステップS101およびS102
の動作と同様である。ステップS113〜S116に示
す動作が3次元形状復元処理手段105における詳細動
作を示す。
FIG. 13 is a more detailed processing content of the processing operation of the above-described three-dimensional shape restoring apparatus of the present invention, in particular, an operation flowchart of the first form of the three-dimensional shape restoring processing method in the three-dimensional shape restoring processing means 105. Is. FIG. 14 is a diagram showing image data of human palms and fingers as man-machine interface means in a computer system and a feature extraction result thereof as a specific example of the target object which is the target of the three-dimensional shape restoration processing in FIG. is there. FIG.
The operation contents of steps S111 and S112 in step S101 are the same as steps S101 and S102 described with reference to FIG.
The operation is similar to. The operation shown in steps S113 to S116 shows the detailed operation in the three-dimensional shape restoration processing unit 105.

【0038】図13に示したステップS113に示す処
理動作以降の3次元形状復元処理内容について述べる。
まず,対象物体についての力学方程式の一般論について
述べる。一般に対象物体の力学方程式は下記式5で表さ
れる。
The contents of the three-dimensional shape restoration processing after the processing operation shown in step S113 shown in FIG. 13 will be described.
First, we describe the general theory of dynamical equations for a target object. Generally, the dynamic equation of the target object is expressed by the following equation 5.

【数5】 ただし,記号Fは力であり,記号Mは質量であり,記号
Cはダンピング(摩擦)係数であり,記号Kはステッフ
ネス(固さ)であり,記号Uはノード位置を示す。
[Equation 5] However, the symbol F is a force, the symbol M is a mass, the symbol C is a damping (friction) coefficient, the symbol K is stiffness (stiffness), and the symbol U is a node position.

【0039】ノード位置Uの頭上に付けられている
(・)は1階微分を示し,(・・)は2階微分を示す。
ただし,本明細書の記述においては電子出願制度におけ
る表記方法の制限から,ノード位置Uの1階微分をU
(.) ,2階微分をU(..)として示す。他の場合も同様で
ある。ノード位置Uは,各ノードについて3次元座標系
におけるX,Y,Z成分を並べたベクトルU=〔Ux,U
y,Uz 〕であり,ノード数をnとすれば下記式6に示す
ように3n個の成分を持つ。
The mark (.) Attached above the node position U indicates the first derivative, and the mark (.) Indicates the second derivative.
However, in the description of this specification, the first derivative of the node position U is U due to the limitation of the notation method in the electronic filing system.
(.) And the second derivative are shown as U (..) . The same applies to other cases. The node position U is a vector U = [Ux, U in which X, Y, Z components in the three-dimensional coordinate system are arranged for each node.
y, Uz], and if the number of nodes is n, it has 3n components as shown in Equation 6 below.

【数6】 ただし,本明細書の記述においては,ベクトルUの表記
についても,電子出願制度における表記方法の制限か
ら,通常の表記方法である太線または頭に矢印をつけた
表現にしていない。他の場合も同様である。
[Equation 6] However, in the description of the present specification, the notation of the vector U is not the usual notation such as a bold line or an arrow with a head because of the limitation of the notation in the electronic filing system. The same applies to other cases.

【0040】ノード位置Uには仮想的な質量Mが与えら
れ,また系を安定するため摩擦(ダンピング)係数Cが
与えられる。たとえば,図14に図解したように,掌お
よび指などの関節部分を3次元空間におけるノード位置
Uとして,指の骨の部分をバネKとして表している。質
量M,ダンピング係数C,ステッフネスKはそれぞれ,
3nx3nのマトリクスで表現される。これら3nx3
nのマトリクスで表現される質量マトリクスMの1つの
M1,ダンピング係数マトリクスCの1つのC1および
ステッフネスマトリクスKの1つのK1を下記式7〜式
9に示す。
A virtual mass M is given to the node position U, and a friction (damping) coefficient C is given to stabilize the system. For example, as illustrated in FIG. 14, a joint portion such as a palm and a finger is shown as a node position U in a three-dimensional space, and a finger bone portion is shown as a spring K. The mass M, damping coefficient C, and stiffness K are
It is represented by a 3nx3n matrix. These 3nx3
Equations 7 to 9 below show one M1 of the mass matrix M, one C1 of the damping coefficient matrix C, and one K1 of the stiffness matrix K represented by the matrix of n.

【数7】 [Equation 7]

【数8】 [Equation 8]

【数9】 [Equation 9]

【0041】本実施例においては上記式1に示した力F
として,力ベクトルFi と力ベクトルFk を導入する。
非線形的内力ベクトルFk はノードの相対的位置により
規定される量であり,非線形な値を示す。この非線形的
内力ベクトルFk は対象物体のバネモデルだけでは表さ
れない非線形的な動き(変形)を癖を表現するものであ
り,「変形のしかたの知識」ともいえるものである。力
ベクトルFi は特徴抽出手段103において抽出した2
次元特徴抽出座標から求めた外力ベクトルFi を示す。
式5を非線形的内力ベクトルFk と2次元特徴抽出座標
から求めた外力ベクトルFi を用いて変形すると式10
が得られる。
In this embodiment, the force F shown in the above equation 1 is used.
Then, the force vector F i and the force vector F k are introduced.
The non-linear internal force vector F k is a quantity defined by the relative position of the node and shows a non-linear value. This non-linear internal force vector F k expresses a habit of a non-linear movement (deformation) that is not represented only by the spring model of the target object, and can be said to be “knowledge of how to deform”. The force vector F i is 2 extracted by the feature extraction means 103.
An external force vector F i obtained from the dimensional feature extraction coordinates is shown.
When Equation 5 is transformed using the nonlinear internal force vector F k and the external force vector F i obtained from the two-dimensional feature extraction coordinates, Equation 10 is transformed.
Is obtained.

【数10】 [Equation 10]

【0042】3次元形状復元処理手段105の動作内容
を図13を参照して述べる。 ステップS113:3次元形状復元処理手段105は特
徴抽出手段103において特徴抽出した2次元特徴抽出
座標を入力する。 ステップS114:3次元形状復元処理手段105は入
力した2次元特徴抽出座標と対象物体の力学モデル内の
対応する点との間に働くX,Y座標内,すなわち,2次
元空間内の上記2次元特徴抽出座標から求めた外力ベク
トルFi を計算して決定する。この2次元特徴抽出座標
から求めた外力ベクトルFi は,一般的に奥行成分を持
たないX,Y平面と平行な面の上に置かれたバネのよう
な力を意味しており,各特徴点に対応するノードその間
にバネをおくモデルとして表現される。 ステップS115:本実施例においては,2次元特徴抽
出座標から求めた外力ベクトルFi を加えて対象物体の
モデルを変形して,式10に示した力学方程式を解く。
通常,式10の力学方程式を解く場合,コンピュータを
用いた周知の数値計算による収束計算を行う。 ステップS116:式10を収束計算によって解く場
合,計算の反復回数,ノード位置Uの前回の結果との偏
差などを考慮して適切な条件において,収束計算を打切
り,得られたノード位置Uを出力する。 ステップS117:オンライン実時間処理を想定した場
合,たとえば,2次元画像データ入力手段101として
のビデオカメラから連続ビデオフレームで動画像データ
が特徴抽出手段103に入力されその特徴抽出が行われ
る,3次元形状復元処理手段105においてその時の3
次元形状復元を行うとき,上述した処理を繰り返す。 その結果として,3次元形状復元処理手段105からは
連続したビデオフレームに対応して連続的にノード位置
Uが出力される。
The operation contents of the three-dimensional shape restoration processing means 105 will be described with reference to FIG. Step S113: The three-dimensional shape restoration processing means 105 inputs the two-dimensional feature extraction coordinates extracted by the feature extraction means 103. Step S114: The three-dimensional shape restoration processing means 105 is in the X and Y coordinates acting between the input two-dimensional feature extraction coordinates and the corresponding point in the dynamic model of the target object, that is, the two-dimensional space in the two-dimensional space. The external force vector F i obtained from the feature extraction coordinates is calculated and determined. The external force vector F i obtained from the two-dimensional feature extraction coordinates means a spring-like force placed on a plane parallel to the X and Y planes, which generally has no depth component, and each feature A node corresponding to a point is expressed as a model in which a spring is placed between the nodes. Step S115: In this embodiment, the model of the target object is deformed by adding the external force vector F i obtained from the two-dimensional feature extraction coordinates, and the dynamic equation shown in Expression 10 is solved.
Normally, when solving the dynamic equation of Expression 10, convergence calculation is performed by well-known numerical calculation using a computer. Step S116: When solving the equation 10 by the convergence calculation, the convergence calculation is aborted under an appropriate condition in consideration of the number of iterations of the calculation, the deviation of the node position U from the previous result, and the obtained node position U is output. To do. Step S117: In the case of assuming online real-time processing, for example, moving image data is input to the feature extraction unit 103 by continuous video frames from the video camera as the two-dimensional image data input unit 101, and the feature extraction is performed, three-dimensional 3 at that time in the shape restoration processing means 105
When the three-dimensional shape is restored, the above processing is repeated. As a result, the node position U is continuously output from the three-dimensional shape restoration processing means 105 in correspondence with continuous video frames.

【0043】図14に示したように人間の掌および指な
どのように動画像として撮像される対象物体を扱った場
合,画像信号処理における各ビデオフレームにおいて微
分方程式としての式10に示した力学方程式を解くと
き,ノード位置Uの初期値として前ビデオフレームでも
求めたノード位置U用いることができるので,前後のビ
デオフレーム間であまりノード位置が変わらない場合,
式10の収束計算を速めることができる。かりに式10
に示す力学方程式の解が複数存在しても前フレームの解
と近い解が選ばれるので正しい解が得られる。いくつか
の特徴点が隠れて特徴抽出手段3における特徴抽出情報
に欠落があったり,ノイズ等の原因で中に誤った情報が
混入した場合でも,この力学系は力学モデルのエネルギ
ー状態が安定な所へたどり着こうとするので,最もらし
い解が出力されるという利点がある。
As shown in FIG. 14, when a target object captured as a moving image such as a human palm and a finger is handled, the dynamics shown in Equation 10 as a differential equation in each video frame in the image signal processing. When solving the equation, since the node position U obtained in the previous video frame can be used as the initial value of the node position U, when the node position does not change much between the preceding and following video frames,
The convergence calculation of Expression 10 can be speeded up. Equation 10
Even if there are multiple solutions of the dynamic equation shown in, the solution that is close to the solution of the previous frame is selected, so the correct solution can be obtained. Even if some feature points are hidden and the feature extraction information in the feature extraction means 3 is missing, or erroneous information is mixed in due to noise or the like, this dynamic system has a stable energy state of the dynamic model. There is an advantage that the most plausible solution is output because it tries to reach the place.

【0044】図14は人間の掌および指をビデオカメラ
で撮像し,特徴抽出手段3において2次元特徴抽出点を
抽出し,その結果から3次元形状復元処理手段105に
おいて3次元形状を復元した結果を概略的に示す図であ
る。特徴抽出手段103における特徴抽出のため,掌の
底部,指先(爪)の先端に,たとえば,赤のマークをつ
けた。
FIG. 14 shows the result of reconstructing the three-dimensional shape by the three-dimensional shape reconstructing processing means 105 from the two-dimensional feature extraction points extracted by the feature extracting means 3 by imaging the human palm and finger with a video camera. It is a figure which shows schematically. For the feature extraction by the feature extracting means 103, for example, a red mark is attached to the bottom of the palm and the tip of the fingertip (nail).

【0045】三次元形状復元方法とその装置の第1実施
例としては,上述したように,対象物体を力学的モデル
で表し,対象物体をビデオカメラなどの2次元画像デー
タ入力手段101で撮像し,2次元画像データを特徴抽
出手段103において特徴抽出してその特徴抽出点を3
次元形状復元処理手段105に入力し,3次元形状復元
処理手段105において,入力された2次元特徴情報を
計算上で力をしてそのモデルに作用させる。その結果,
特徴情報量が少ない場合でも,対象物体の系が安定であ
ればその3次元形状を復元することができる。また特徴
情報がはっきり取れない場合や,中に誤った情報が混入
した場合でも,他の正しい特徴情報や力学モデルからの
拘束により誤った情報の影響は自動的に軽減されてつじ
つまの合う解が得られるから,原理的に,時間のかかる
探索動作を用いない復元手法である。その結果,従来技
術において問題となっている組み合わせ的計算量の莫大
さに依存しない。さらに本実施例によれば,複数のビデ
オカメラを用いることなく1台のビデオカメラのみでも
奥行き情報を再現することが可能である。
As a first embodiment of the three-dimensional shape restoration method and its apparatus, as described above, the target object is represented by a mechanical model, and the target object is imaged by the two-dimensional image data input means 101 such as a video camera. , The two-dimensional image data is feature-extracted by the feature-extracting means 103 and the feature-extraction points are set to three
It is input to the three-dimensional shape restoration processing unit 105, and the two-dimensional feature information input is applied to the model by exerting a force on the calculation in the three-dimensional shape restoration processing unit 105. as a result,
Even if the amount of characteristic information is small, if the system of the target object is stable, its three-dimensional shape can be restored. In addition, even if the characteristic information cannot be obtained clearly or incorrect information is mixed in, the influence of incorrect information is automatically reduced by the constraint from other correct characteristic information or the dynamic model, and a consistent solution can be obtained. In principle, this is a restoration method that does not use a time-consuming search operation. As a result, it does not depend on the enormous amount of combinatorial calculation, which is a problem in the prior art. Furthermore, according to the present embodiment, it is possible to reproduce the depth information with only one video camera without using a plurality of video cameras.

【0046】本発明の三次元形状復元方法とその装置の
第2実施例について述べる。第2実施例は上述した第1
実施例における計算時間をさらに短縮させるものであ
る。第1実施例においては,3次元形状復元における力
学モデルで使用されるノード数の3倍の連立して力学方
程式(微分方程式)を解く必要があり,依然として計算
量が多いという難点がある。かかる問題を解決する方法
として,力学モデルにおけるバネマトリクスを固有値分
解し,振動のモードごとに独立して計算し,連立方程式
を解かず解を得る周知の方法を適用することも考えられ
る。しかしながらこの周知の方法は対象物体が大きく変
形(移動)する場合はバネマトリクスも大きく変わって
しまい,逐次固有値分解をする必要が生ずる。この計算
量がむしろ無視できなくなり,結果的に,たとえば,人
間の掌と指,あるいは,産業用ロボットのハンドなど比
較的動きのある変形する対象物体に適用することは好ま
しくないことが判った。
A second embodiment of the three-dimensional shape restoration method and apparatus according to the present invention will be described. The second embodiment is the first described above.
This further shortens the calculation time in the embodiment. In the first embodiment, it is necessary to solve the dynamic equations (differential equations) simultaneously with three times the number of nodes used in the dynamic model in the three-dimensional shape restoration, and there is a drawback that the calculation amount is still large. As a method of solving such a problem, it is possible to apply a well-known method in which a spring matrix in a dynamic model is eigenvalue decomposed, the vibration modes are independently calculated, and a solution is obtained without solving simultaneous equations. However, in this known method, when the target object is largely deformed (moved), the spring matrix is also greatly changed, and it becomes necessary to perform eigenvalue decomposition sequentially. This calculation amount cannot be neglected, and as a result, it has been found that it is not preferable to apply it to a deformable target object that is relatively moving, such as a human palm and finger, or an industrial robot hand.

【0047】かかる観点から第2実施例においては,対
象物体の3次元力学モデルをそれぞれ変形の少ない部分
領域に分割することにより,モードごとの計算を可能に
して,計算時間の短縮を図ること目的としている。図1
5は第2の例示に適用する対象物体の一部を複数の分割
領域に区分(分割)することを示す図である。
From this point of view, in the second embodiment, by dividing the three-dimensional dynamic model of the target object into sub-regions with less deformation, the calculation for each mode becomes possible and the calculation time is shortened. I am trying. Figure 1
FIG. 5 is a diagram showing that a part of the target object applied to the second example is divided (divided) into a plurality of divided areas.

【0048】図16に三次元形状復元についての第2実
施例の装置の動作処理のフローチャートを示す。第2実
施例においても三次元形状復元装置の構成は図11に示
したと同じ構成となる。2次元画像データ入力手段10
1における撮像処理(ステップS121)および特徴抽
出手段103における特徴抽出処理(ステップS12
2)は図13に示した処理と同様である。3次元形状復
元処理手段105におけるステップS123〜S128
で示される処理内容が第1の例示とは異なる。
FIG. 16 shows a flowchart of the operation processing of the apparatus of the second embodiment for three-dimensional shape restoration. Also in the second embodiment, the configuration of the three-dimensional shape restoration device is the same as that shown in FIG. Two-dimensional image data input means 10
1 (step S121) and the feature extraction means 103 feature extraction process (step S12).
2) is similar to the processing shown in FIG. Steps S123 to S128 in the three-dimensional shape restoration processing unit 105
The processing content indicated by is different from the first example.

【0049】以下,第2実施例の3次元形状復元動作に
ついて述べる。3次元形状復元処理手段105において
は,基本的には,式5で示した力学方程式を解く。Fは
対象物体のモデルに加わる力ベクトルであり,上述した
ように,非線形的内力ベクトルFk および2次元特徴抽
出座標から求めた外力ベクトルFi を含む力ベクトルで
ある。したがって,本実施例においても式10を解くこ
とになる。ただし,その解法は上述したように,第1実
施例とは異なる。対象物体がたとえば,図15に示した
ように,人体,手などにおける形状が変化しない脚部,
腕,指などの部分領域が関節などで結合されているもの
と考えることができる。このような仮定をおく場合,バ
ネマトリクスKにおける各分割領域をm個の独立なブロ
ック行列K1,K2,・・・,Kmで表し,これらのブ
ロック行列を結合する関節に相当するバネ結合力をFj
として,式1の右辺の力ベクトルFに移項する。
The three-dimensional shape restoring operation of the second embodiment will be described below. The three-dimensional shape restoration processing means 105 basically solves the dynamic equation shown in Expression 5. F is a force vector added to the model of the target object, and is a force vector including the nonlinear internal force vector F k and the external force vector F i obtained from the two-dimensional feature extraction coordinates, as described above. Therefore, Equation 10 is solved also in this embodiment. However, the solution is different from that of the first embodiment, as described above. For example, as shown in FIG. 15, the target object is a leg portion whose shape does not change in the human body, hands, etc.
It can be considered that partial regions such as arms and fingers are connected by joints. When such an assumption is made, each divided area in the spring matrix K is represented by m independent block matrices K1, K2, ..., Km, and the spring coupling force corresponding to the joint connecting these block matrices is expressed. Fj
Is transferred to the force vector F on the right side of Expression 1.

【0050】式5の項(KU)を式11に示すように表
す。
The term (KU) in Equation 5 is expressed as shown in Equation 11.

【数11】 ただし,式11のKb は式12のブロック行列で表され
る。
[Equation 11] However, Kb in Expression 11 is represented by the block matrix in Expression 12.

【数12】 その結果,式5は式13で表される。[Equation 12] As a result, Expression 5 is expressed by Expression 13.

【数13】 [Equation 13]

【0051】式13について固有値分解を行い,周知の
方法により,質量マトリクスM,ダンピング係数マトリ
クスC,ステッフネスマトリクスKbをそれぞれ,M
(<) ,C(<) ,Kb(<) に対角化するようを行列Pを求
めれば,式13を式14に書き換えることができる。な
お,本明細書においては電子出願制度における表記上の
制限から,対角化した質量マトリクスMを示すMの上の
山形表記をM(<) における(<) として示す。その他につ
いても同様である。
The eigenvalue decomposition is carried out with respect to the equation 13, and the mass matrix M, the damping coefficient matrix C, and the stiffness matrix Kb are respectively M by known methods.
If the matrix P is obtained so as to diagonalize (<) , C (<) , and Kb (<) , Equation 13 can be rewritten as Equation 14. Incidentally, the notation limitations in electronic filing system is herein denotes chevron representation on the M indicating the mass matrix M which diagonalized as M in (<) (<). The same applies to the other cases.

【数14】 ここで,M(<) ,C(<) ,Kb (<) ,U(<) ,F(<)
よびFj (<) は下記式で示される。
[Equation 14] Here, M (<) , C (<) , Kb (<) , U (<) , F (<) and F j (<) are represented by the following formulas.

【数15】 ただし,PT は行列Pの転置行列を示す。[Equation 15] However, P T represents a transposed matrix of the matrix P.

【0052】対象物体があまり変形しない場合はステッ
フネスマトリクスKはあまり変化せず,同じ行列Pで対
角化可能であるが,時間とともに対象物体が大きく変化
する場合は逐次固有値分解をし直して新しい行列Pを求
める必要がある。そこで,各分割領域におけるブロック
行列Kiは一定で,それぞれAiだけ回転し,また,質
量マトリクスM,ダンピング係数マトリクスCが定数行
列とすると,式16で示すことができる。
When the target object is not deformed so much, the stiffness matrix K does not change much and can be diagonalized by the same matrix P. However, when the target object changes greatly with time, the eigenvalue decomposition is re-executed again. It is necessary to find a new matrix P. Therefore, assuming that the block matrix Ki in each divided region is constant and rotates by Ai, and the mass matrix M and the damping coefficient matrix C are constant matrices, it can be expressed by Expression 16.

【数16】 回転変形後のステッフネスマトリクスKb は式17で表
される。
[Equation 16] The stiffness matrix Kb after rotational deformation is expressed by Equation 17.

【数17】 変形後の力学方程式としては式18として表すことがで
きる。
[Equation 17] The mechanical equation after the deformation can be expressed as Equation 18.

【数18】 [Equation 18]

【0053】回転マトリクスAはユニタリ行列であるか
ら,式18は式19に書き改めることができる。
Since the rotation matrix A is a unitary matrix, equation 18 can be rewritten as equation 19.

【数19】 質量マトリクスMおよびダンピング係数マトリクスCは
定数行列であるから,式19は式20として表すことが
できる。
[Formula 19] Since the mass matrix M and the damping coefficient matrix C are constant matrices, Equation 19 can be expressed as Equation 20.

【数20】 ただし,U(<)',F(<) ’およびFj (<)'は下記式21
で表される。
[Equation 20] However, U (<) ' , F (<) ' and F j (<) ' are expressed by the following formula 21.
It is represented by.

【数21】 式20は対角化されているので,もはや連立方程式では
なく収束計算をすることなく,変形を伴う対象物体に対
するノード位置Uを高速に求めることができる。
[Equation 21] Since the equation 20 is diagonalized, it is no longer a simultaneous equation, and the node position U for the target object with deformation can be obtained at high speed without performing convergence calculation.

【0054】図16におけるステップS123〜ステッ
プS128の処理動作は3次元形状復元処理手段105
における上述した演算処理を示す。 ステップS123:3次元形状復元処理手段105は特
徴抽出手段103からの特徴抽出座標を入力する。 ステップS124:3次元形状復元処理手段105は式
16に示したユニタリ行列Aを求める。 ステップS125:3次元形状復元処理手段105は特
徴点から働く力などのよる力ベクトルFと,各分割領域
を結合する力Fjを求める。 ステップS126:3次元形状復元処理手段105は式
21に示した転置行列PT を用いて変換処理を行う。 ステップS127:3次元形状復元処理手段105は式
20の力学方程式を解く。式20の力学方程式は対角化
されているので,もはや連立方程式ではなく,収束計算
をすることなく高速に解くことができることに留意され
たい。 ステップS128:3次元形状復元処理手段105は求
められたU(<) からノード位置Uを変換し,求められた
ノード位置Uを出力する。 ステップS129:次のフレームについて上記動作を反
復する。
The processing operation of steps S123 to S128 in FIG. 16 is the three-dimensional shape restoration processing means 105.
The above-mentioned arithmetic processing in FIG. Step S123: The three-dimensional shape restoration processing unit 105 inputs the feature extraction coordinates from the feature extraction unit 103. Step S124: The three-dimensional shape restoration processing means 105 obtains the unitary matrix A shown in Expression 16. Step S125: The three-dimensional shape restoration processing means 105 obtains a force vector F such as a force acting from the feature point and a force Fj connecting the divided areas. Step S126: The three-dimensional shape restoration processing means 105 performs the conversion processing using the transposed matrix P T shown in Expression 21. Step S127: The three-dimensional shape restoration processing means 105 solves the dynamic equation of Expression 20. It should be noted that, since the dynamic equation of the equation 20 is diagonalized, it is no longer a simultaneous equation and can be solved at high speed without performing convergent calculation. Step S128: The three-dimensional shape restoration processing means 105 transforms the node position U from the obtained U (<) and outputs the obtained node position U. Step S129: Repeat the above operation for the next frame.

【0055】以上のように,三次元形状復元についての
第2実施例においては,対象物体をあまり変形しない部
分に分割して作ったステッフネスマトリクスKb を予め
固有値分解して固有行列Pを求めておき,各分割領域の
初期状態からのずれを計算される回転マトリクスAを用
いてF(<) ’およびFj (<)'を計算し,式20を解くこ
とにより,ノード位置U’を求め,このノード位置U’
と固有行列Pおよび回転マトリクスAからノード位置U
を求める。固有行列Pおよび鑑定マトリクスAで力ベク
トルFおよびFj,ノード位置UをそれぞれF(<) ,F
j (<) ,U(<) に変換する必要があるが,式5で表され
る連立方程式をそのまま解く手法に比較して計算量は少
なくなり,高速な処理が可能となる。つまり,三次元形
状復元についての第2実施例においては,対象物体の3
次元モデルを変形の少ない部分領域に分割し,各分割領
域ではバネマトリクスが変化しないと仮定してモードご
との計算を可能とし,各分割領域を結合するバネによる
力については逐次計算を行い,全体として3次元形状復
元計算時間を短縮する。
As described above, in the second embodiment for three-dimensional shape restoration, the stiffness matrix Kb, which is created by dividing the target object into parts that are not so deformed, is eigenvalue decomposed in advance to obtain the eigenmatrix P. Then, F (<) 'and F j (<)' are calculated by using the rotation matrix A in which the deviation of each divided area from the initial state is calculated, and the node position U'is obtained by solving Expression 20. , This node position U '
And the eigen matrix P and the rotation matrix A to the node position U
Ask for. The force vectors F and Fj and the node position U are F (<) and F with the eigenmatrix P and the appraisal matrix A, respectively.
Although it needs to be converted into j (<) and U (<) , the amount of calculation is smaller than that in the method of solving the simultaneous equations represented by Expression 5 as they are, and high-speed processing is possible. That is, in the second embodiment of the three-dimensional shape restoration, 3
The dimensional model is divided into sub-regions with few deformations, and it is possible to calculate for each mode assuming that the spring matrix does not change in each divided region. As a result, the three-dimensional shape restoration calculation time is shortened.

【0056】本発明の三次元形状復元装置を実施するに
際しては,上述した特徴抽出手段103および3次元形
状復元処理手段105の動作処理の他,他の処理を適用
することができる。たとえば,上述した実施例において
は,2次元画像データ入力手段101における撮像デー
タを2次元情報について例示したが,距離画像データな
どを入力する場合でも,上記実施例と同様に処理するこ
とができる。
When carrying out the three-dimensional shape restoration device of the present invention, other processing than the operation processing of the feature extraction means 103 and the three-dimensional shape restoration processing means 105 described above can be applied. For example, in the above-described embodiment, the image pickup data in the two-dimensional image data input means 101 is illustrated for the two-dimensional information. However, even when the distance image data is input, the same processing as in the above-described embodiment can be performed.

【0057】図17は本発明の三次元形状復元装置の特
定的な適用例として,マン・マシン・インターフェース
手段としての人間の掌と指を対象物体として用いること
を想定した場合の3次元形状復元処理動作を示すフロー
チャートである。図18は図17に示す3次元形状復元
処理を行うに際して,予め,掌と指の諸態様を分析した
結果を示す図である。図18(A)は掌と指を開いたと
きの撮像データから特徴抽出した結果を示す。左側は表
面特徴抽出図,右側は側面特徴抽出図である。以下,図
18(B)から図18(D)に向かって順次,小指,薬
指,中指,人指指を折り曲げていったときの正面図と側
面図を示す。
FIG. 17 shows, as a specific application example of the three-dimensional shape restoration apparatus of the present invention, a three-dimensional shape restoration assuming that a human palm and a finger as man-machine interface means are used as target objects. It is a flowchart which shows a processing operation. FIG. 18 is a diagram showing a result of previously analyzing various aspects of the palm and the finger when performing the three-dimensional shape restoration process shown in FIG. FIG. 18A shows the result of feature extraction from the imaged data when the palm and fingers are opened. The left side is a surface feature extraction diagram, and the right side is a side feature extraction diagram. Hereinafter, a front view and a side view when the little finger, the ring finger, the middle finger, and the index finger are bent in order from FIG. 18 (B) to FIG. 18 (D) are shown.

【0058】図17に示したフローチャートを参照し
て,3次元形状復元処理手段105の動作処理を述べ
る。 ステップS131:3次元形状復元処理手段105は特
徴抽出手段103から現在の特徴点を入力する。 ステップS132:3次元形状復元処理手段105は画
像特徴点と対応する点との間のX,Y面における力ベク
トルを計算する。 ステップS133:3次元形状復元処理手段105は
X,Yバネ力Fi を決定し,適切な力マトリクスに加え
る。 ステップS134:3次元形状復元処理手段105はセ
グメント間の結合力を決定し,適切な力マトリクスに加
える。 ステップS135:手のモデルが不自然な場合,3次元
形状復元処理手段105において「手の知識の力」を適
切な力マトリクスに加える。 ステップS136:3次元形状復元処理手段5は各セグ
メントについて行列Pと回転マトリクスAを計算する。 ステップS137:3次元形状復元処理手段105は各
セグメントについて行列Pと回転マトリクスAを用いて
力学方程式を式20に示すクローズ形式の力学方程式に
変換する。 ステップS138:3次元形状復元処理手段105は各
Ui(<について微分(差分)時間δtを用いて簡単な線
形差分方程式を解く。 ステップS139:3次元形状復元処理手段105はノ
ード位置マトリクスU(<) からノード位置マトリクスU
を決定し,指の各関節位置を更新する。 ステップS140:3次元形状復元処理手段105は以
上の処理を手のモデルと画像とが一致するまで反復す
る。
The operation processing of the three-dimensional shape restoration processing means 105 will be described with reference to the flow chart shown in FIG. Step S131: The three-dimensional shape restoration processing unit 105 inputs the current feature point from the feature extraction unit 103. Step S132: The three-dimensional shape restoration processing means 105 calculates the force vector in the X and Y planes between the image feature point and the corresponding point. Step S133: The three-dimensional shape restoration processing means 105 determines the X and Y spring forces F i and adds them to the appropriate force matrix. Step S134: The three-dimensional shape restoration processing means 105 determines the coupling force between the segments and adds it to the appropriate force matrix. Step S135: When the model of the hand is unnatural, the “power of hand knowledge” is added to the appropriate force matrix in the three-dimensional shape restoration processing unit 105. Step S136: The three-dimensional shape restoration processing means 5 calculates the matrix P and the rotation matrix A for each segment. Step S137: The three-dimensional shape restoration processing means 105 uses the matrix P and the rotation matrix A for each segment to convert the dynamic equation into the closed-form dynamic equation shown in Equation 20. Step S138: The three-dimensional shape restoration processing unit 105 solves a simple linear difference equation by using the differential (difference) time δt for each Ui (< . Step S139: The three-dimensional shape restoration processing unit 105 causes the node position matrix U (< ) To the node position matrix U
Is determined and each joint position of the finger is updated. Step S140: The three-dimensional shape restoration processing unit 105 repeats the above processing until the hand model and the image match.

【0059】図19および図20は上述した演算処理結
果を示す図である。図19(A)は対象物体としての手
の形状として指をやや曲げた状態の2次元画像データ入
力手段101による撮像結果である。図19(B)〜図
19(D)は図19(A)に示した撮像結果を特徴抽出
手段103および3次元形状復元処理手段105を介し
て3次元形状復元したそれぞれ上部からみた図,正面図
および側面図を示す。図20(A)は対象物体としての
手の形状として中指を曲げ,人指指の先端をヤヤ曲げ,
薬指もやや曲げ,小指の先端を若干曲げた時の2次元画
像データ入力手段101による撮像結果である。図20
(B)〜図20(D)は図20(A)に示した撮像結果
を特徴抽出手段103および3次元形状復元処理手段1
05を介して3次元形状復元したそれそれ上部からみた
図,正面図および側面図を示す。図19および図20の
図解から明らかなように,先ず,ビデオカメラなどの2
次元画像データ入力手段101で撮像した2次元画像デ
ータから3次元形状が復元されていることが判る。図1
9(B)〜図19(D)と図20(B)〜図20(D)
とは復元データとして明らかに異なっており,この手の
動きの差異を利用して,人間の手をマン・マシン・イン
ターフェース手段として用いることができる。
19 and 20 are diagrams showing the results of the above-mentioned arithmetic processing. FIG. 19A shows an image pickup result by the two-dimensional image data input unit 101 in a state where a finger is slightly bent as the shape of a hand as a target object. 19B to 19D are three-dimensional shape reconstructions of the imaging result shown in FIG. 19A through the feature extraction means 103 and the three-dimensional shape reconstruction processing means 105, respectively, as viewed from the top and the front. A figure and a side view are shown. FIG. 20 (A) shows a shape of a hand as a target object, in which the middle finger is bent and the tip of the forefinger is bent.
It is an image pickup result by the two-dimensional image data input means 101 when the ring finger is slightly bent and the tip of the little finger is slightly bent. Figure 20
20B to 20D show the feature extraction means 103 and the three-dimensional shape restoration processing means 1 based on the imaging result shown in FIG.
The figure, the front view, and the side view which looked at each three-dimensional shape restored through 05 are shown. As is clear from the illustrations of FIGS. 19 and 20, first, a video camera or the like 2
It can be seen that the three-dimensional shape is restored from the two-dimensional image data captured by the three-dimensional image data input means 101. Figure 1
9 (B) to FIG. 19 (D) and FIG. 20 (B) to FIG. 20 (D)
And are obviously different as the restored data, and human hands can be used as the man-machine interface means by utilizing this difference in the movement of the hands.

【0060】本発明の三次元形状復元装置は人間の手な
どに限らず,対象物体として,たとえば,産業用ロボッ
トのハンドとその把持状態などの認識における3次元形
状復元に使用することができる。
The three-dimensional shape restoration device of the present invention is not limited to human hands, but can be used as a target object for three-dimensional shape restoration in recognition of, for example, the hand of an industrial robot and its gripping state.

【0061】図11に示した特徴抽出手段3と3次元形
状復元処理手段105とは機能的に異なるために分離し
て構成して示したが,通常,特徴抽出手段103および
3次元形状復元処理手段105はコンピュータを用いて
実現するから,同じコンピュータに一体化することがで
きる。勿論,特徴抽出手段103と3次元形状復元処理
手段105とを異なるマイクロコンピュータなどで分散
処理させることもできる。
Since the feature extracting means 3 and the three-dimensional shape restoring processing means 105 shown in FIG. 11 are functionally different from each other, they are shown separately. However, in general, the feature extracting means 103 and the three-dimensional shape restoring processing are shown. Since the means 105 is realized by using a computer, it can be integrated in the same computer. Of course, the feature extraction means 103 and the three-dimensional shape restoration processing means 105 can be distributed and processed by different microcomputers.

【0062】以上述べたように,本発明の三次元形状復
元方法とその装置によれば,力学方程式に変形力を加え
ることにより,対象物体についての2次元画像データか
ら3次元形状を復元することができる。また本発明の三
次元形状復元方法とその装置によれば,対象物体のうち
変形が少ないか変形しない部分を分割して処理すること
により,高速に対象物体についての2次元画像データか
らの3次元形状復元が可能になる。
As described above, according to the three-dimensional shape restoration method and apparatus of the present invention, the three-dimensional shape is restored from the two-dimensional image data of the target object by applying the deforming force to the dynamic equation. You can Further, according to the three-dimensional shape restoration method and the apparatus thereof of the present invention, by dividing and processing a portion of the target object which is little or not deformed, the three-dimensional image data of the target object from the two-dimensional image data can be processed at high speed. The shape can be restored.

【0063】図21は本発明の三次元形状復元装置の構
成図である。この三次元形状復元装置は,図11示した
三次元形状復元装置に対して,特徴抽出手段103を図
1に示した人間の手の指を検出する装置を特徴点抽出手
段103Aとして組み込んだものである。この三次元形
状復元装置は,特徴抽出手段103Aを用いて人間の手
の特徴点を抽出し,この特徴点を用いて人間の手の三次
元形状を復元するに好適な装置である。図21における
個々の構成要素とよびその動作は上述したものと同様で
あるから,その詳細な記述は割愛する。
FIG. 21 is a block diagram of a three-dimensional shape restoration device of the present invention. This three-dimensional shape restoring device has the feature extracting means 103 incorporated into the three-dimensional shape restoring device shown in FIG. 11 as a feature point extracting means 103A as a device for detecting a finger of a human hand shown in FIG. Is. This three-dimensional shape restoration device is a device suitable for extracting feature points of a human hand using the feature extraction means 103A and restoring the three-dimensional shape of a human hand using these feature points. Since the individual constituent elements in FIG. 21 and their operations are the same as those described above, their detailed description will be omitted.

【0064】なお,図21に図解した三次元形状復元装
置を人間の手の三次元形状復元だけでなく,たとえば,
産業用ロボットのハンドはもとより,その他の対象物体
に適用することができる。
The three-dimensional shape restoration device illustrated in FIG. 21 is not limited to the three-dimensional shape restoration of a human hand
It can be applied not only to the hands of industrial robots, but also to other target objects.

【0065】図22は人間の手の指の検出と,人間の手
の三次元形状の復元とを同時的に行う画像信号処理装置
の構成図である。ビデオカメラ2などの2次元画像デー
タ入力手段101が人間の手を撮像する。この撮像デー
タは2次元ピクセルデータとしてエッジ検出ユニット4
および特徴抽出手段103に印加され,それぞれ,並列
的に,人間の手の指の検出,および,人間の手の三次元
形状復元が行われる。エッジ検出ユニット4,ハフ変換
計算ユニット6,可能性検索ユニット8,および,クラ
スタリングユニット10からなる特徴抽出手段103A
の出力結果を特徴点抽出結果として,特徴抽出手段10
3に使用することもできる。もちろん,図22に図解し
た画像信号処理装置を人間の手以外の対象物体に適用す
ることができる。
FIG. 22 is a block diagram of an image signal processing apparatus for simultaneously detecting the fingers of the human hand and restoring the three-dimensional shape of the human hand. The two-dimensional image data input means 101 such as the video camera 2 images a human hand. This imaging data is used as two-dimensional pixel data as the edge detection unit 4
And applied to the feature extraction means 103, respectively, to detect the fingers of the human hand and restore the three-dimensional shape of the human hand in parallel. Feature extraction means 103A including an edge detection unit 4, a Hough transform calculation unit 6, a possibility search unit 8 and a clustering unit 10.
The feature extraction means 10 outputs the output result of
It can also be used for 3. Of course, the image signal processing device illustrated in FIG. 22 can be applied to a target object other than a human hand.

【0066】上述した人間の手の指を検出する方法とそ
の装置,三次元形状復元方法とその装置は例示であり,
本発明は上述した例示に限定されない。つまり,本発明
の種々の広範囲な異なる実施態様が本発明の技術的思想
および本発明の範囲を逸脱することなく構成することが
でき,本発明が上述した特定的な実施例に制限されない
ことは容易に理解されよう。
The above-mentioned method and apparatus for detecting a finger of a human hand and the three-dimensional shape restoration method and apparatus are examples.
The present invention is not limited to the above examples. That is, a wide variety of different embodiments of the present invention can be configured without departing from the technical idea of the present invention and the scope of the present invention, and the present invention is not limited to the specific embodiments described above. Easy to understand.

【0067】[0067]

【発明の効果】上述したように,本発明によれば,迅速
かつ正確に人間の手の指を検出することができる。この
人間の手の指を検出する方法は一般的な対象物体の検出
に適用できる。また本発明によれば,2次元画像データ
から3次元形状を復元することができる。特に,本発明
の三次元形状復元は実時間処理に適用可能な迅速性と正
確さを示す。
As described above, according to the present invention, the finger of a human hand can be detected quickly and accurately. This method of detecting a finger of a human hand can be applied to detection of a general target object. Further, according to the present invention, a three-dimensional shape can be restored from the two-dimensional image data. In particular, the three-dimensional shape restoration of the present invention shows the speed and accuracy applicable to real-time processing.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明に基づく人間の手の指を検出する画像処
理装置のブロック図である。
FIG. 1 is a block diagram of an image processing apparatus for detecting a finger of a human hand according to the present invention.

【図2】本発明の手の向きを決定すること,および,指
の先端を検索するときの指の向きと検索開始線との関係
を説明するための手の拡大図である。
FIG. 2 is an enlarged view of a hand for explaining the determination of the hand orientation of the present invention and the relationship between the orientation of the finger and the search start line when searching the tip of the finger.

【図3】本発明の人間の手の深いローカルミニマムを発
見するための方向検出メカニズムを示す図である。
FIG. 3 is a diagram showing a direction detection mechanism for finding a deep local minimum of the human hand of the present invention.

【図4】本発明の確率分布関数と伝達関数との関係を示
す特性図である。
FIG. 4 is a characteristic diagram showing a relationship between a probability distribution function and a transfer function of the present invention.

【図5】本発明の画像入力処理およびエッジ検出処理を
示すフローチャートである。
FIG. 5 is a flowchart showing image input processing and edge detection processing of the present invention.

【図6】本発明のハフ変換処理の一部の処理を示すフロ
ーチャートである。
FIG. 6 is a flowchart showing a part of the Hough conversion process of the present invention.

【図7】本発明のハフ変換処理の残りの処理を示す部分
フローチャートである。
FIG. 7 is a partial flowchart showing the remaining processing of the Hough conversion processing of the present invention.

【図8】本発明の可能性検索処理の一部の処理を示すフ
ローチャートである。
FIG. 8 is a flowchart showing a part of the possibility search processing of the present invention.

【図9】本発明の可能性検索処理の残りの処理を示すフ
ローチャートである。
FIG. 9 is a flowchart showing the remaining processing of the possibility search processing of the present invention.

【図10】本発明のクラスタリング処理を示すフローチ
ャートである。
FIG. 10 is a flowchart showing a clustering process of the present invention.

【図11】本発明の三次元形状復元装置の実施例構成を
示す図である。
FIG. 11 is a diagram showing a configuration of an embodiment of a three-dimensional shape restoration device of the present invention.

【図12】図11に示した三次元形状復元装置の基本動
作処理を示すフローチャートである。
12 is a flowchart showing a basic operation process of the three-dimensional shape restoration device shown in FIG.

【図13】図11に示した三次元形状復元装置の第1実
施例の処理を示すフローチャートである。
FIG. 13 is a flowchart showing a process of the first example of the three-dimensional shape restoration device shown in FIG.

【図14】図13における処理に適用する対象とする物
体の1例としての人間の掌と指との動きを示す図であ
る。
FIG. 14 is a diagram showing movements of a human palm and finger as an example of an object to be applied to the processing in FIG.

【図15】本発明の三次元形状復元装置における対象物
体の変形の少ない部分を部分領域に分割することを説明
する図である。
FIG. 15 is a diagram illustrating division of a portion of a target object, which is less deformed, into partial regions in the three-dimensional shape restoration device of the invention.

【図16】図11に示した三次元形状復元装置の第2実
施例の処理を示すフローチャートである。
16 is a flowchart showing a process of a second embodiment of the three-dimensional shape restoration device shown in FIG.

【図17】図11に示した三次元形状復元装置の特定的
な例示として,対象物体を人間の掌と指にした場合の本
発明の三次元形状復元装置における画像処理方法を説明
するフローチャートである。
FIG. 17 is a flowchart illustrating an image processing method in the three-dimensional shape restoration device of the present invention when a target object is a human palm and a finger, as a specific example of the three-dimensional shape restoration device shown in FIG. 11. is there.

【図18】図17における処理に用いた人間の掌と指の
特徴抽出モデル図である。
18 is a feature extraction model diagram of a human palm and finger used in the process in FIG.

【図19】図17に示した三次元形状復元装置の実施例
に基づく第1の結果を示す図である。
FIG. 19 is a diagram showing a first result based on the example of the three-dimensional shape restoration device shown in FIG. 17.

【図20】図17に示した三次元形状復元装置の実施例
に基づく第2の結果を示す図である。
FIG. 20 is a diagram showing a second result based on the example of the three-dimensional shape restoration device shown in FIG. 17.

【図21】本発明の他の三次元形状復元装置の構成図で
ある。
FIG. 21 is a configuration diagram of another three-dimensional shape restoration device of the present invention.

【図22】本発明の人間の手の指を検出する装置と三次
元形状復元装置の構成図である。
FIG. 22 is a configuration diagram of a device for detecting a finger of a human hand and a three-dimensional shape restoration device of the present invention.

【符号の説明】[Explanation of symbols]

2・・ビデオカメラ 4・・エッジ検出ユニット 6・・ハフ変換計算ユニット 8・・可能性検索ユニット 10・・クラスタリングユニット 12・・人間の手 101・・2次元画像データ入力手段 103・・特徴抽出手段 105・・3次元形状復元処理手段 2 ... Video camera 4 ... Edge detection unit 6 ... Hough transform calculation unit 8 ... Possibility search unit 10 ... Clustering unit 12 ... Human hand 101 ... 2D image data input means 103 ... Feature extraction Means 105 ... Three-dimensional shape restoration processing means

【手続補正書】[Procedure amendment]

【提出日】平成4年5月1日[Submission date] May 1, 1992

【手続補正1】[Procedure Amendment 1]

【補正対象書類名】明細書[Document name to be amended] Statement

【補正対象項目名】0021[Correction target item name] 0021

【補正方法】変更[Correction method] Change

【補正内容】[Correction content]

【0021】図5のステップS02〜S010に示すよ
うに,エッジ検出ユニット4は傾斜方法によるエッジ検
出アルゴリズムによって手のエッジを検出する。すなわ
ち,エッジ検出ユニット4は下記式1に基づいて画像の
傾きgradI(i,j)を計算する。gradはまた
逆三角形の記号,ナブラとしても表現する。
As shown in steps S02 to S010 of FIG. 5, the edge detection unit 4 detects the edge of the hand by the edge detection algorithm based on the inclination method. That is, the edge detection unit 4 calculates the gradient gradI (i, j) of the image based on the following equation 1. Grad is also expressed as an inverted triangle symbol, nabla.

【数1】 エッジ検出ユニット4は下記の方法で人間の手のエッジ
を決定する。もしピクセルの傾きgradI(i,j)
の絶対値が所定のしきい値Tよりも大きいときは,その
ピクセル(i,j)はエッジピクセルである。すなわ
ち,ピクセルの微分値がしきい値を越えているときエッ
ジとする。エッジ検出ユニット4はそのピクセルがエッ
ジピクセルと判断した場合,エッジピクセルI(i,
j)=1とし,そうでない場合は,I(i,j)=0と
する。エッジ検出ユニット4はこのエッジ検出処理を全
ての画像座標(i=1〜imax,j=1〜jmax)
について行う。
[Equation 1] The edge detection unit 4 determines the edge of the human hand by the following method. If the gradient of the pixel gradI (i, j)
If the absolute value of is greater than a predetermined threshold T, then that pixel (i, j) is an edge pixel. That is, the edge is defined when the differential value of the pixel exceeds the threshold value. If the edge detection unit 4 determines that the pixel is an edge pixel, the edge pixel I (i, i,
j) = 1 and otherwise I (i, j) = 0. The edge detection unit 4 performs this edge detection processing on all image coordinates (i = 1 to imax, j = 1 to jmax).
Do about.

Claims (22)

【特許請求の範囲】[Claims] 【請求項1】人間の手を読み取り,2次元ピクセルデー
タ形態の画像データとして出力する段階,上記ピクセル
データに基づいて上記手のエッジを検出する段階,上記
検出されたエッジのイメージラインをパラメータ空間に
パラメータ変換し,該パラメータ空間においてエッジピ
クセルを積算して上記指の向きを決定する段階,該向き
に沿って指の先端に対応する深いローカルミニマムを検
索する段階,および,上記指の先端を規定する端点をク
ラスタリングする段階を有する人間の手の指を検出する
方法。
1. A step of reading a human hand and outputting it as image data in the form of two-dimensional pixel data, a step of detecting the edge of the hand based on the pixel data, and an image line of the detected edge in a parameter space. Parameter conversion to determine the direction of the finger by integrating edge pixels in the parameter space, searching a deep local minimum corresponding to the direction of the finger along the direction, and measuring the tip of the finger. A method for detecting a finger of a human hand having a step of clustering defined endpoints.
【請求項2】上記エッジを検出する段階が,各々がグレ
ーレベルを示す上記ピクセルデータの2次元方向の傾き
を計算する段階,上記計算した傾きの絶対値をしきい値
レベルと比較する段階,および,上記計算された絶対値
が上記しきい値レベルよりも大きいときエッジとして決
定する段階を有する請求項1記載の人間の手の指を検出
する方法。
2. A step of detecting the edge, a step of calculating a two-dimensional inclination of the pixel data each showing a gray level, a step of comparing an absolute value of the calculated inclination with a threshold level, A method according to claim 1, further comprising the step of determining as an edge when the calculated absolute value is greater than the threshold level.
【請求項3】上記パラメータ変換およびエッジピクセル
積算段階が,上記検出エッジを示す直線状の座標系から
極座標系に変換する段階,上記パラメータ空間において
エッジの点を積算する段階,上記ラインの各々について
最も大きい積算値を求めて上記手の指の向きを決定する
段階を有する請求項1記載の人間の手の指を検出する方
法。
3. The step of converting the parameters and the step of integrating the edge pixels, converting the linear coordinate system showing the detected edge into a polar coordinate system, integrating the points of the edges in the parameter space, and each of the lines. The method for detecting a finger of a human hand according to claim 1, further comprising the step of obtaining a maximum integrated value to determine the direction of the finger of the hand.
【請求項4】上記検索段階が,ランダム方向決定メカニ
ズムによって上記深いローカルミニマムを決定し浅いロ
ーカルミニマムを回避する段階を有する請求項1記載の
人間の手の指を検出する方法。
4. The method of claim 1, wherein the searching step comprises the step of determining the deep local minimum and avoiding the shallow local minimum by a random orientation determination mechanism.
【請求項5】上記クラスタリング段階が,クラスタ内に
任意の位置を選択する段階,少なくともユークリッド距
離に基づいて各検索の端点ピクセルをクラスタ位置に割
りつける段階,および,上記クラスタへ割りつけられた
ピクセルの全ての中心を計算することにより新しいクラ
スタ位置を決定する段階を有する請求項1記載の人間の
手の指を検出する方法。
5. The step of clustering, selecting an arbitrary position within the cluster, allocating the end point pixel of each search to the cluster position based on at least the Euclidean distance, and the pixel allocated to the cluster. A method for detecting fingers of a human hand according to claim 1, comprising the step of determining a new cluster position by calculating all the centers of
【請求項6】人間の手を読み取り,2次元ピクセルデー
タ形態の画像データとして出力する手段,上記ピクセル
データに基づいて上記手のエッジを検出する手段,上記
検出されたエッジのイメージラインをパラメータ空間に
パラメータ変換し,該パラメータ空間においてエッジピ
クセルを積算して上記指の向きを決定する手段,該向き
に沿って指の先端に対応する深いローカルミニマムを検
索する手段,および,上記指の先端を規定する端点をク
ラスタリングする手段を有する人間の手の指を検出する
装置。
6. A means for reading a human hand and outputting it as image data in the form of two-dimensional pixel data, a means for detecting the edge of the hand based on the pixel data, and an image line of the detected edge in a parameter space. Parameter conversion into a parameter space, integrating edge pixels in the parameter space to determine the orientation of the finger, means for searching a deep local minimum corresponding to the orientation of the finger along the orientation, and the tip of the finger. An apparatus for detecting fingers of a human hand having means for clustering defined endpoints.
【請求項7】対象物体を撮像し,2次元ピクセルデータ
形態の画像データとして出力する段階,上記ピクセルデ
ータに基づいて上記対象物体のエッジを検出する段階,
上記検出されたエッジのイメージラインをパラメータ空
間にパラメータ変換し,該パラメータ空間においてエッ
ジピクセルを積算して上記対象物体の向きを決定する段
階,該向きに沿って対象物体の先端に対応する深いロー
カルミニマムを検索する段階,および,上記対象物体の
先端を規定する端点をクラスタリングする段階を有する
対象物体の特徴を抽出する方法。
7. A step of capturing an image of a target object and outputting it as image data in the form of a two-dimensional pixel data, a step of detecting an edge of the target object based on the pixel data,
A step of parameter-converting the image line of the detected edge into a parameter space and integrating the edge pixels in the parameter space to determine the direction of the target object; a deep local corresponding to the tip of the target object along the direction; A method of extracting a feature of a target object, which comprises a step of searching for a minimum and a step of clustering end points defining the tip of the target object.
【請求項8】対象物体を撮像し,2次元ピクセルデータ
形態の画像データとして出力する手段,上記ピクセルデ
ータに基づいて上記対象物体のエッジを検出する手段,
上記検出されたエッジのイメージラインをパラメータ空
間にパラメータ変換し,該パラメータ空間においてエッ
ジピクセルを積算して上記対象物体の向きを決定する手
段,該向きに沿って対象物体の先端に対応する深いロー
カルミニマムを検索する手段,および,上記対象物体の
先端を規定する端点をクラスタリングする手段を有する
対象物体の特徴を抽出する装置。
8. A means for picking up an image of a target object and outputting it as image data in the form of two-dimensional pixel data, a means for detecting an edge of the target object based on the pixel data,
A means for parameter-converting the detected image line of the edge into a parameter space and integrating the edge pixels in the parameter space to determine the direction of the target object, a deep local corresponding to the tip of the target object along the direction. An apparatus for extracting features of a target object, which has a means for searching a minimum and a means for clustering end points defining the tip of the target object.
【請求項9】ノードを介して接続されるバネを有し力学
的拘束をバネモデルで表わす力学方程式で示される対象
物体の動きを撮像した2次元画像データを入力する段階
と,該2次元画像データから特徴を抽出して特徴抽出デ
ータを生成する特徴抽出段階と,上記対象物体の力学モ
デルに上記特徴抽出点の2次元座標からの力を加えて対
象物体モデルを変形させて奥行情報を補い上記対象物体
の3次元形状を復元する段階とを有する三次元形状復元
方法。
9. A step of inputting two-dimensional image data obtained by imaging the movement of a target object represented by a mechanical equation having a spring connected to a node and representing a mechanical constraint by a spring model, and the two-dimensional image data. A feature extraction step of extracting features from the object to generate feature extraction data, and applying force from the two-dimensional coordinates of the feature extraction points to the dynamic model of the target object to deform the target object model to supplement the depth information. And a step of restoring the three-dimensional shape of the target object.
【請求項10】上記3次元形状を復元する段階は,各特
徴点と対象物体の対応点との間に働く2次元座標系にお
ける力を算出し,この力を対象物体の力学方程式に加え
て,対象物体の力学方程式モデルを変形して奥行情報を
補って対象物体の3次元形状を復元する請求項9記載の
三次元形状復元方法。
10. The step of restoring the three-dimensional shape calculates a force acting in a two-dimensional coordinate system between each feature point and a corresponding point of the target object, and adds this force to a dynamic equation of the target object. 10. The three-dimensional shape restoring method according to claim 9, wherein the three-dimensional shape of the target object is restored by deforming the dynamic equation model of the target object to supplement the depth information.
【請求項11】上記3次元形状を復元する段階は,対象
物体の変形の少ない部分領域に分割し,各部分領域ごと
のモードごとに上記3次元形状復元計算を行う請求項9
記載の三次元形状復元方法。
11. The step of restoring the three-dimensional shape is performed by dividing the target object into sub-regions with less deformation and performing the three-dimensional shape restoration calculation for each mode of each sub-region.
The three-dimensional shape restoration method described.
【請求項12】上記3次元形状を復元する段階は,各分
割領域の初期からの回転を求めて各回転行列を算出し,
各特徴点から働く力と各分領域を結合する力を算出し,
上記各特徴点に働く力と各分割領域に働く結合力につい
ての対角行列を算出し,これらの対角行列に基づく各特
徴点に働く力と各分割領域に働く結合力についての対角
化された力学方程式を算出し,対象物体の3次元形状を
復元する請求項10記載の三次元形状復元方法。
12. The step of reconstructing the three-dimensional shape, the rotation from each initial of each divided area is obtained, each rotation matrix is calculated,
Calculate the force that works from each feature point and the force that joins each subregion,
A diagonal matrix is calculated for the force acting on each feature point and the binding force acting on each divided region, and the diagonalization for the force acting on each feature point and the binding force acting on each divided region is calculated based on these diagonal matrices. The three-dimensional shape restoring method according to claim 10, wherein the three-dimensional shape of the target object is restored by calculating the calculated dynamic equation.
【請求項13】上記特徴抽出段階は,上記入力された2
次元画像データに基づいて上記対象物体のエッジを検出
する段階,上記検出されたエッジのイメージラインをパ
ラメータ空間にパラメータ変換し,該パラメータ空間に
おいてエッジピクセルを積算して上記対象物体の向きを
決定する段階,該向きに沿って対象物体の先端に対応す
る深いローカルミニマムを検索する段階,および,上記
対象物体の先端を規定する端点をクラスタリングする段
階を有する請求項9または11記載の三次元形状復元方
法。
13. The feature extraction step is performed by the input 2
Detecting the edge of the target object based on the three-dimensional image data, converting the image line of the detected edge into a parameter space, and integrating the edge pixels in the parameter space to determine the direction of the target object. 12. The three-dimensional shape restoration according to claim 9, further comprising: a step of searching a deep local minimum corresponding to the tip of the target object along the direction, and a step of clustering end points defining the tip of the target object. Method.
【請求項14】上記エッジを検出する段階が,各々がグ
レーレベルを示す上記ピクセルデータの2次元方向の傾
きを計算する段階,上記計算した傾きの絶対値をしきい
値レベルと比較する段階,および,上記計算された絶対
値が上記しきい値レベルよりも大きいときエッジとして
決定する段階を有する請求項13記載の三次元形状復元
方法。
14. A step of detecting the edge, a step of calculating a two-dimensional inclination of the pixel data each showing a gray level, a step of comparing the absolute value of the calculated inclination with a threshold level, 14. The three-dimensional shape restoration method according to claim 13, further comprising the step of determining as an edge when the calculated absolute value is larger than the threshold level.
【請求項15】上記パラメータ変換およびエッジピクセ
ル積算段階が,上記検出エッジを示す直線状の座標系か
ら極座標系に変換する段階,上記パラメータ空間におい
てエッジの点を積算する段階,上記ラインの各々につい
て最も大きい積算値を求めて上記対象物体の指の向きを
決定する段階を有する請求項14記載の三次元形状復元
方法。
15. The parameter conversion and edge pixel integration steps include: converting from a linear coordinate system indicating the detected edge to a polar coordinate system; integrating edge points in the parameter space; and each of the lines. 15. The three-dimensional shape restoration method according to claim 14, further comprising the step of determining the orientation of the finger of the target object by obtaining the largest integrated value.
【請求項16】上記検索段階が,ランダム方向決定メカ
ニズムによって上記深いローカルミニマムを決定し浅い
ローカルミニマムを回避する段階を有する請求項15記
載の三次元形状復元方法。
16. The method according to claim 15, wherein the searching step includes the step of determining the deep local minimum by a random direction determining mechanism and avoiding the shallow local minimum.
【請求項17】上記クラスタリング段階が,クラスタ内
に任意の位置を選択する段階,少なくともユークリッド
距離に基づいて各検索の端点ピクセルをクラスタ位置に
割りつける段階,および,上記クラスタへ割りつけられ
たピクセルの全ての中心を計算することにより新しいク
ラスタ位置を決定する段階を有する請求項16記載の三
次元形状復元方法。
17. The clustering step comprises the step of selecting an arbitrary position within the cluster, the step of allocating the end point pixel of each search to the cluster position based on at least the Euclidean distance, and the pixel allocated to the cluster. 17. The method of claim 16 including the step of determining new cluster positions by calculating all centers of
【請求項18】上記対象物体は人間の手である請求項9
記載の三次元形状復元方法。
18. The target object is a human hand.
The three-dimensional shape restoration method described.
【請求項19】ノードを介して接続されるバネを有し力
学的拘束をバネモデルで表わす力学方程式で示される対
象物体の動きを撮像した2次元画像データを入力する手
段と,該2次元画像データから特徴を抽出して特徴抽出
データを生成する特徴抽出手段と,上記対象物体の力学
モデルに上記特徴抽出点の2次元座標からの力を加えて
対象物体モデルを変形させて奥行情報を補い上記対象物
体の3次元形状を復元する手段とを有する三次元形状復
元装置。
19. A means for inputting two-dimensional image data obtained by imaging the movement of a target object represented by a mechanical equation having a spring connected to a node and representing a mechanical constraint by a spring model, and the two-dimensional image data. Feature extraction means for extracting features from the object to generate feature extraction data, and applying force from the two-dimensional coordinates of the feature extraction points to the dynamic model of the target object to deform the target object model to supplement the depth information. A three-dimensional shape restoration device having means for restoring the three-dimensional shape of the target object.
【請求項20】上記3次元形状復元手段は,対象物体の
変形の少ない部分領域に分割し,各部分領域ごとのモー
ドごとに上記3次元形状復元計算を行う請求項19記載
の三次元形状復元装置。
20. The three-dimensional shape restoration according to claim 19, wherein the three-dimensional shape restoration means divides the target object into sub-regions with less deformation and performs the three-dimensional shape restoration calculation for each mode of each sub-region. apparatus.
【請求項21】上記特徴抽出手段は,上記入力された2
次元画像データに基づいて上記対象物体のエッジを検出
する手段,上記検出されたエッジのイメージラインをパ
ラメータ空間にパラメータ変換し,該パラメータ空間に
おいてエッジピクセルを積算して上記対象物体の向きを
決定する手段,該向きに沿って対象物体の先端に対応す
る深いローカルミニマムを検索する手段,および,上記
対象物体の先端を規定する端点をクラスタリングする手
段を有し,上記クラスタリング結果に基づいて特徴抽出
点を規定し,上記対象物体の力学モデルに上記特徴抽出
点の2次元座標からの力を加えて対象物体モデルを変形
させて奥行情報を補い上記対象物体の3次元形状を復元
する請求項19または20記載の三次元形状復元装置。
21. The feature extracting means is configured to input the input 2
Means for detecting an edge of the target object based on three-dimensional image data; parameter conversion of the image line of the detected edge into a parameter space; integration of edge pixels in the parameter space to determine the direction of the target object Means, means for searching a deep local minimum corresponding to the tip of the target object along the direction, and means for clustering end points defining the tip of the target object, and feature extraction points based on the clustering result. And applying a force from the two-dimensional coordinates of the feature extraction points to the dynamic model of the target object to deform the target object model to supplement depth information and restore the three-dimensional shape of the target object. 20. The three-dimensional shape restoration device according to item 20.
【請求項22】上記対象物体は人間の手である請求項1
9記載の三次元形状復元装置。
22. The target object is a human hand.
9. The three-dimensional shape restoration device according to item 9.
JP13429292A 1991-05-24 1992-04-27 Image signal processing method and apparatus Expired - Fee Related JP3182876B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP13429292A JP3182876B2 (en) 1991-05-24 1992-04-27 Image signal processing method and apparatus

Applications Claiming Priority (7)

Application Number Priority Date Filing Date Title
JP14978491 1991-05-24
JP21152491 1991-07-29
JP3-149784 1992-03-24
JP3-211524 1992-03-24
JP4-97244 1992-03-24
JP9724492 1992-03-24
JP13429292A JP3182876B2 (en) 1991-05-24 1992-04-27 Image signal processing method and apparatus

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2000331312A Division JP2001188897A (en) 1991-05-24 2000-10-30 Three-dimensional shape restoration method and device therefor

Publications (2)

Publication Number Publication Date
JPH0620055A true JPH0620055A (en) 1994-01-28
JP3182876B2 JP3182876B2 (en) 2001-07-03

Family

ID=27468526

Family Applications (1)

Application Number Title Priority Date Filing Date
JP13429292A Expired - Fee Related JP3182876B2 (en) 1991-05-24 1992-04-27 Image signal processing method and apparatus

Country Status (1)

Country Link
JP (1) JP3182876B2 (en)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1996034332A1 (en) * 1995-04-28 1996-10-31 Matsushita Electric Industrial Co., Ltd. Interface device
JPH09185456A (en) * 1995-04-28 1997-07-15 Matsushita Electric Ind Co Ltd Interface device
JP2008250774A (en) * 2007-03-30 2008-10-16 Denso Corp Information equipment operation device
JP2012516504A (en) * 2009-01-30 2012-07-19 マイクロソフト コーポレーション Visual target tracking
US8259064B2 (en) 2008-04-23 2012-09-04 Kddi Corporation Terminal device
US8565476B2 (en) 2009-01-30 2013-10-22 Microsoft Corporation Visual target tracking
US8565477B2 (en) 2009-01-30 2013-10-22 Microsoft Corporation Visual target tracking
US8577085B2 (en) 2009-01-30 2013-11-05 Microsoft Corporation Visual target tracking
US8577084B2 (en) 2009-01-30 2013-11-05 Microsoft Corporation Visual target tracking
US8588465B2 (en) 2009-01-30 2013-11-19 Microsoft Corporation Visual target tracking
US8682028B2 (en) 2009-01-30 2014-03-25 Microsoft Corporation Visual target tracking
CN112972889A (en) * 2017-12-29 2021-06-18 深圳硅基仿生科技有限公司 Image processing device and method and retina stimulator

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09185456A (en) * 1995-04-28 1997-07-15 Matsushita Electric Ind Co Ltd Interface device
WO1996034332A1 (en) * 1995-04-28 1996-10-31 Matsushita Electric Industrial Co., Ltd. Interface device
JP2008250774A (en) * 2007-03-30 2008-10-16 Denso Corp Information equipment operation device
US8259064B2 (en) 2008-04-23 2012-09-04 Kddi Corporation Terminal device
US8565477B2 (en) 2009-01-30 2013-10-22 Microsoft Corporation Visual target tracking
US8565476B2 (en) 2009-01-30 2013-10-22 Microsoft Corporation Visual target tracking
JP2012516504A (en) * 2009-01-30 2012-07-19 マイクロソフト コーポレーション Visual target tracking
US8577085B2 (en) 2009-01-30 2013-11-05 Microsoft Corporation Visual target tracking
US8577084B2 (en) 2009-01-30 2013-11-05 Microsoft Corporation Visual target tracking
US8588465B2 (en) 2009-01-30 2013-11-19 Microsoft Corporation Visual target tracking
US8682028B2 (en) 2009-01-30 2014-03-25 Microsoft Corporation Visual target tracking
US9039528B2 (en) 2009-01-30 2015-05-26 Microsoft Technology Licensing, Llc Visual target tracking
US9842405B2 (en) 2009-01-30 2017-12-12 Microsoft Technology Licensing, Llc Visual target tracking
TWI469812B (en) * 2009-12-07 2015-01-21 Microsoft Corp Visual target tracking
CN112972889A (en) * 2017-12-29 2021-06-18 深圳硅基仿生科技有限公司 Image processing device and method and retina stimulator

Also Published As

Publication number Publication date
JP3182876B2 (en) 2001-07-03

Similar Documents

Publication Publication Date Title
Jiang et al. Hand-object contact consistency reasoning for human grasps generation
US11360570B2 (en) System for hand pose detection
US5548667A (en) Image processing system and method thereof in which three dimensional shape is reproduced from two dimensional image data
JP5403699B2 (en) Finger shape estimation device, finger shape estimation method and program
CN104937635B (en) More hypothesis target tracking devices based on model
Hasan et al. RETRACTED ARTICLE: Static hand gesture recognition using neural networks
Tam et al. Registration of 3D point clouds and meshes: A survey from rigid to nonrigid
JP3548226B2 (en) Finite element method for image registration and morphing
CN111795704A (en) Method and device for constructing visual point cloud map
Elgammal et al. Tracking people on a torus
JP6740033B2 (en) Information processing device, measurement system, information processing method, and program
Zeng et al. View-invariant gait recognition via deterministic learning
CN107292925A (en) Based on Kinect depth camera measuring methods
CN107953329A (en) Object identification and Attitude estimation method, apparatus and mechanical arm grasping system
US9734435B2 (en) Recognition of hand poses by classification using discrete values
CN109919971B (en) Image processing method, image processing device, electronic equipment and computer readable storage medium
JP2016099982A (en) Behavior recognition device, behaviour learning device, method, and program
WO2021098147A1 (en) Vr motion sensing data detection method and apparatus, computer device, and storage medium
CN111709268B (en) Human hand posture estimation method and device based on human hand structure guidance in depth image
JPH0620055A (en) Method and device for picture signal processing
CN107545242B (en) Method and device for deducing human body action posture through 2D image
CN110348359B (en) Hand gesture tracking method, device and system
Schröder et al. Design and evaluation of reduced marker layouts for hand motion capture
JP2001188897A (en) Three-dimensional shape restoration method and device therefor
Sanz et al. Including efficient object recognition capabilities in online robots: from a statistical to a Neural-network classifier

Legal Events

Date Code Title Description
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080427

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090427

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090427

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100427

Year of fee payment: 9

LAPS Cancellation because of no payment of annual fees