JP2573153B2 - Apparatus and method for detecting certainty between stereo images - Google Patents

Apparatus and method for detecting certainty between stereo images

Info

Publication number
JP2573153B2
JP2573153B2 JP6030036A JP3003694A JP2573153B2 JP 2573153 B2 JP2573153 B2 JP 2573153B2 JP 6030036 A JP6030036 A JP 6030036A JP 3003694 A JP3003694 A JP 3003694A JP 2573153 B2 JP2573153 B2 JP 2573153B2
Authority
JP
Japan
Prior art keywords
image
certainty
feature point
straight line
viewpoint
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP6030036A
Other languages
Japanese (ja)
Other versions
JPH07239218A (en
Inventor
耕一 石淵
圭介 岩崎
治雄 竹村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ei Tei Aaru Tsushin Shisutemu Kenkyusho Kk
Original Assignee
Ei Tei Aaru Tsushin Shisutemu Kenkyusho Kk
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ei Tei Aaru Tsushin Shisutemu Kenkyusho Kk filed Critical Ei Tei Aaru Tsushin Shisutemu Kenkyusho Kk
Priority to JP6030036A priority Critical patent/JP2573153B2/en
Publication of JPH07239218A publication Critical patent/JPH07239218A/en
Application granted granted Critical
Publication of JP2573153B2 publication Critical patent/JP2573153B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Measurement Of Optical Distance (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【産業上の利用分野】この発明は、ステレオ画像間対応
づけ確信度検出装置および方法に関し、特に、たとえば
輻輳角を持ったステレオ画像上の特徴点間の対応づけを
求めることができるようなステレオ画像間対応づけ確信
度検出装置および方法に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an apparatus and a method for detecting certainty between correspondences between stereo images, and more particularly, to such a stereo that can determine correspondence between feature points on a stereo image having a convergence angle. The present invention relates to an apparatus and method for detecting certainty between images.

【0002】[0002]

【従来の技術および発明が解決しようとする課題】ステ
レオ画像を用いた三次元計測において、中心投影方式の
センサによる画像を用いた方法がある。その一般的方法
は、後で説明するエピポーララインを利用しない方法で
ある。そのため、図9を用いて、まずエピポーラライン
について説明する。
2. Description of the Related Art In three-dimensional measurement using a stereo image, there is a method using an image by a sensor of a center projection system. The general method is a method that does not use an epipolar line described later. Therefore, the epipolar line will be described first with reference to FIG.

【0003】図9を参照して、画像L上の点Xl に対応
するもう一方の画像R上の点Xr は、2つの画像の投影
中心XOl ,XOr と点Xl が作る平面101と画像R
が交わる直線上にある。この直線103がエピポーララ
インと呼ばれている。画像L,Rがエピポーララインに
沿って再配列されれば、対応点探索のラインと画像のラ
インが一致するため、探索は一次元探索でよく、アルゴ
リズムが単純になる。したがって、画像がエピポーララ
インに沿って再配列されることは重要である。
[0003] With reference to FIG. 9, X r points on the other image R corresponding to the point X l on the image L is the projection center XO l of the two images, XO r and the point X l make plane 101 and image R
Are on the straight line where they intersect. This straight line 103 is called an epipolar line. If the images L and R are rearranged along the epipolar line, the line of the corresponding point search matches the line of the image, so that the search may be a one-dimensional search and the algorithm is simplified. Therefore, it is important that the image be rearranged along the epipolar line.

【0004】図10は、エピポーララインに沿った再配
列を説明するための図である。図10を参照して、画像
Lの投影中心XOl を原点とし、x′軸,y′軸がそれ
ぞれul 軸,vl 軸と平行となる座標系(x′,y′,
z′)を考える。この座標系をモデル座標系と呼ぶ。こ
のモデル座標系では、画像Lのセンサの投影中心の位置
は、(0,0,0)、姿勢は(0,0,0)となる。ま
た、画像Rのセンサの投影中心の位置は、(Bx
y ,BZ )、姿勢は、(ω′,φ′,κ′)となる。
x を単位長さにして、by =By /Bx 、bZ =BZ
/Bx とすれば、このモデル座標系とそれぞれの画像座
標系との間の座標変換式は、第(1)式のようになる。
この第(1)式における未知数は、画像Rに関する(b
y ,b Z )、(ω′,φ′,κ′)の5つである。この
5つの未知数は、第(2)式に示す共面条件式を満足す
るように決定される。
FIG. 10 shows a rearrangement along an epipolar line.
It is a figure for explaining a column. Referring to FIG.
Projection center X of LlIs the origin, and x 'axis and y' axis are
Each ulAxis, vlA coordinate system (x ′, y ′,
z '). This coordinate system is called a model coordinate system. This
In the model coordinate system, the position of the projection center of the sensor of the image L
Is (0,0,0) and the posture is (0,0,0). Ma
The position of the projection center of the sensor of the image R is (Bx,
By, BZ), And the posture is (ω ′, φ ′, κ ′).
BxIs the unit length, and by= By/ Bx, BZ= BZ
/ BxThen the model coordinate system and each image coordinate
The coordinate conversion equation between the target system and the coordinate system is as shown in Equation (1).
The unknown in the equation (1) is related to the image R by (b
y, B Z), (Ω ′, φ ′, κ ′). this
The five unknowns satisfy the coplanar condition expression shown in Expression (2).
Is determined as follows.

【0005】そのため、まず画像上で同一と認識できる
点を5点以上選点し、その画像座標を測定する必要があ
る。そして、測定された画像座標を用いて、5つの未知
数を決定する。
[0005] Therefore, it is necessary to first select five or more points that can be recognized as the same on an image and measure the image coordinates. Then, five unknowns are determined using the measured image coordinates.

【0006】したがって、エピポーララインを用いた画
像間の対応度を検出するためには、少なくとも5点が2
つの画像上で同一と認識されなければならない。そのた
め、5点以上同一と認識できる点が選定できない場合、
たとえば自動で5点以上の点が選定できない場合には、
このようにエピポーララインを用いたステレオ画像間の
対応づけは行なわれない。
Therefore, in order to detect the degree of correspondence between images using epipolar lines, at least five points must be 2 points.
Must be recognized as identical on one image. Therefore, if it is not possible to select five or more points that can be recognized as the same,
For example, if five or more points cannot be selected automatically,
In this manner, the correspondence between stereo images using epipolar lines is not performed.

【0007】一方、前述したようなエピポーララインに
沿った再配列が行なわれずに、対応点の探索が行なわれ
る方法もある。その方法では、中心投影方式のセンサ画
像での基本式として、平面画像座標系を(u,v)、対
象物空間座標系を(x,y,z)とすると、第(3)式
が得られる。ここで、(x0 ,y0 ,z0 )は、センサ
の投影中心の位置であり、(ω,φ,κ)は、センサの
姿勢であり、(u0 ,v0 )は、視点の位置であり、c
は、画像座標系への変換におけるスケールファクタであ
る。また、センサの投影中心の位置(x0 ,y0
0 )および姿勢(ω,φ,κ)および視点の位置(u
0 ,v0 )は、時刻tの関数である。
On the other hand, there is a method in which a corresponding point is searched for without rearrangement along the epipolar line as described above. In this method, assuming that a plane image coordinate system is (u, v) and an object space coordinate system is (x, y, z) as basic expressions in a center projection type sensor image, Expression (3) is obtained. Can be Here, (x 0 , y 0 , z 0 ) is the position of the projection center of the sensor, (ω, φ, κ) is the attitude of the sensor, and (u 0 , v 0 ) is the position of the viewpoint. Position and c
Is the scale factor in the transformation to the image coordinate system. Further, the position (x 0 , y 0 ,
z 0 ) and posture (ω, φ, κ) and viewpoint position (u
0 , v 0 ) is a function of time t.

【0008】第(3)式からわかるように、ステレオ画
像のそれぞれに対して、未知数であるセンサの投影中心
の位置(x0 ,y0 ,z0 )、センサの姿勢(ω,φ,
κ)、視点の位置(u0 ,v0 )および画像座標系の変
換におけるスケールファクタcが決定されなければなら
ない。これだけの未知数があるため、エピポーラライン
を使用しない方法での画像間での対応づけは困難であ
る。
As can be seen from equation (3), for each of the stereo images, the position (x 0 , y 0 , z 0 ) of the projection center of the sensor, which is an unknown number, and the attitude (ω, φ,
κ), the viewpoint position (u 0 , v 0 ) and the scale factor c in the transformation of the image coordinate system must be determined. Because of these unknowns, it is difficult to make correspondence between images using a method that does not use epipolar lines.

【0009】ゆえに、この発明は、上記のような問題を
解決し、簡単にステレオ画像間での特徴点の対応づけを
行なうことができるようなステレオ画像間対応づけ確信
度検出装置および方法を提供することである。
Therefore, the present invention solves the above-mentioned problem and provides a stereo image correspondence certainty detecting apparatus and method capable of easily associating feature points between stereo images. It is to be.

【0010】[0010]

【数1】 (Equation 1)

【0011】[0011]

【数2】 (Equation 2)

【0012】[0012]

【課題を解決するための手段】請求項1の発明に係るス
テレオ画像間対応づけ確信度検出装置は、第1の視点に
よる左視野内の第1の画像上の第1の画像特徴点と、第
2の視点による右視野内の第2の画像上の第2の画像特
徴点との対応関係に対しての確信度を検出するステレオ
画像間対応づけ確信度検出装置であって、第1の視点と
第1の画像特徴点とを通る第1の直線を算出する第1の
直線算出手段と、第2の視点と第2の画像特徴点とを通
る第2の直線を算出する第2の直線算出手段と、第1の
直線と第2の直線との距離を算出する距離算出手段と、
算出された距離に応じて、第1の画像特徴点と第2の画
像特徴点との対応関係に対しての確信度を決定する確信
度決定手段とを備えている。
According to a first aspect of the present invention, there is provided an apparatus for detecting the degree of certainty in associating a stereo image with a first image feature point on a first image in a left visual field from a first viewpoint. A stereo-image associative certainty detecting apparatus for detecting a certainty regarding a correspondence relationship with a second image feature point on a second image in a right visual field from a second viewpoint, comprising: A first straight line calculating means for calculating a first straight line passing through the viewpoint and the first image feature point; and a second straight line calculating means for calculating a second straight line passing through the second viewpoint and the second image feature point. Straight line calculation means, distance calculation means for calculating the distance between the first straight line and the second straight line,
There is provided certainty determining means for determining the certainty regarding the correspondence between the first image feature point and the second image feature point in accordance with the calculated distance.

【0013】請求項2では、請求項1の確信度決定手段
は、確信度を表現する関数であって、算出された距離に
反比例する関数に基づいて、確信度を決定する。
According to a second aspect, the certainty determining means of the first aspect determines the certainty based on a function representing the certainty, which is inversely proportional to the calculated distance.

【0014】請求項3では、請求項2の関数は、所定の
値以下では一定値になる。請求項4の発明に係るステレ
オ画像間対応づけ確信度検出方法は、第1の視点による
左視野内の第1の画像上の第1の画像特徴点と、第2の
視点による右視野内の第2の画像上の第2の画像特徴点
との対応関係に対しての確信度を検出するステレオ画像
間対応づけ確信度検出方法であって、第1の視点と第1
の画像特徴点とを通る第1の直線を算出する第1のステ
ップと、第2の視点と第2の画像特徴点とを通る第2の
直線を算出する第2のステップと、第1の直線と第2の
直線との距離を算出する第3のステップと、算出された
距離に応じて、第1の画像特徴点と第2の画像特徴点と
の対応関係に対しての確信度を決定する第4のステップ
とを含んでいる。
According to a third aspect, the function of the second aspect has a constant value below a predetermined value. According to the fourth aspect of the present invention, there is provided a stereoscopic image association certainty degree detecting method, wherein a first image feature point on a first image in a left view from a first viewpoint and a right image in a right view from a second viewpoint are provided. A stereoscopic image association certainty detecting method for detecting a certainty regarding a correspondence relationship with a second image feature point on a second image, comprising: a first viewpoint and a first viewpoint;
A first step of calculating a first straight line passing through the second image feature point; a second step of calculating a second straight line passing through the second viewpoint and the second image feature point; A third step of calculating a distance between the straight line and the second straight line, and determining, based on the calculated distance, a degree of certainty with respect to the correspondence between the first image feature point and the second image feature point. And a fourth step of determining.

【0015】請求項5では、請求項4の第4のステップ
は、確信度を表現する関数であって、算出された距離に
反比例する関数に基づいて、確信度を決定するステップ
を含んでいる。
According to a fifth aspect, the fourth step of the fourth aspect includes a step of determining the certainty based on a function representing the certainty, which is inversely proportional to the calculated distance. .

【0016】請求項6では、請求項5の関数は、所定の
値以下では一定値になる。
According to claim 6, the function of claim 5 has a constant value below a predetermined value.

【0017】[0017]

【作用】請求項1の発明に係るステレオ画像間対応づけ
確信度検出装置は、第1の視点と左視野内の第1の画像
上の第1の画像特徴点とを通る第1の直線を算出し、第
2の視点と右視野内の第2の画像上の第2の画像特徴点
とを通る第2の直線を算出し、算出された距離に応じ
て、第1および第2の画像特徴点間の対応づけの確信度
を決定できる。
According to the first aspect of the present invention, there is provided a stereo image associative certainty degree detecting apparatus for forming a first straight line passing through a first viewpoint and a first image feature point on a first image in a left visual field. Calculating, calculating a second straight line passing through the second viewpoint and the second image feature point on the second image in the right visual field, and calculating the first and second images according to the calculated distance. The certainty of the correspondence between the feature points can be determined.

【0018】請求項2の発明に係るステレオ画像間対応
づけ確信度検出装置は、確信度を算出された距離に反比
例する関数に基づいて決定できる。
According to the stereoscopic image association certainty detecting device according to the second aspect of the present invention, the certainty can be determined based on a function inversely proportional to the calculated distance.

【0019】請求項3の発明に係るステレオ画像間対応
づけ確信度検出装置は、所定の値以下では一定値になる
関数を用いて、所定の値以下の距離の場合には、確信度
を一定にできる。
According to a third aspect of the present invention, there is provided a stereo image correspondence certainty degree detecting apparatus which uses a function which becomes a constant value when the distance is equal to or less than a predetermined value, and which fixes the certainty degree when the distance is equal to or less than the predetermined value. Can be.

【0020】請求項4の発明に係るステレオ画像間対応
づけ確信度検出方法は、第1の視点と左視野内の第1の
画像上の第1の画像特徴点とを通る第1の直線を算出
し、第2の直線と右視野内の第2の画像上の第2の画像
特徴点とを第2の直線を算出し、第1の直線と第2の直
線との距離を算出し、算出された距離に応じて、第1お
よび第2の画像特徴点間の対応づけの確信度を決定でき
る。
According to a fourth aspect of the present invention, there is provided the stereoscopic image association certainty degree detecting method, wherein a first straight line passing through a first viewpoint and a first image feature point on a first image in a left visual field is formed. Calculating a second straight line between the second straight line and the second image feature point on the second image in the right field of view, calculating a distance between the first straight line and the second straight line, According to the calculated distance, the certainty factor of the correspondence between the first and second image feature points can be determined.

【0021】請求項5の発明に係るステレオ画像間対応
づけ確信度検出方法は、算出された距離に反比例する関
数に基づいて確信度を決定できる。
According to the fifth aspect of the present invention, the method of detecting the certainty factor between stereo images can determine the certainty factor based on a function inversely proportional to the calculated distance.

【0022】請求項6の発明に係るステレオ画像間対応
づけ確信度検出方法は、所定の値以下では一定値になる
関数を用いて、所定の値以下の距離の場合には、確信度
を一定にできる。
According to a sixth aspect of the present invention, there is provided a stereoscopic image association certainty degree detecting method using a function which becomes a constant value when the distance is equal to or less than a predetermined value. Can be.

【0023】[0023]

【実施例】図1は、この発明の一実施例によるステレオ
画像間対応づけ確信度検出装置の原理を説明するための
図であり、図2は、この発明の一実施例によるステレオ
画像間対応づけ確信度検出装置の構成を示した概略ブロ
ック図である。
FIG. 1 is a diagram for explaining the principle of a stereo image correspondence certainty detecting device according to an embodiment of the present invention. FIG. 2 is a diagram showing the correspondence between stereo images according to an embodiment of the present invention. It is the schematic block diagram which showed the structure of the attachment certainty detection apparatus.

【0024】図1を参照して、特徴点の三次元的位置が
三角測量により両眼画像から決定され得ることがよく知
られている。第1の視点XOl に対する画像61上の画
像特徴点である二次元の指の先端座標は、xl (i)↑
(↑は、以下ベクトルを表わす。)=((xl (i),
l (i))T として規定される。同様に、第2の視点
XOr に対する画像62上の画像特徴点である二次元の
指の先端の座標は、x r (j)↑=(xr (j),yr
(j))T として規定される。左の画像61のi番目の
指の先端xl (i)↑が右の画像のj番目の指の先端x
r (j)↑に対応して、カメラのパラメータがわかって
いる場合、三次元指先端位置X(i,j)↑=(X
(i,j),Y((i,j),Z(i,j))T は、直
線Ll (i)と直線Lr (j)との交点をみつけること
により決定される。この直線Ll (i)および直線Lr
(j)は、それぞれ第1の視点XOl と画像特徴点xl
(i)↑とを結んだ直線および第2の視点XOr と画像
特徴点xr (j)↑とを結んだ直線である。
Referring to FIG. 1, the three-dimensional position of the feature point is
It is well known that triangulation can be determined from binocular images
Have been. First viewpoint XOlImage on image 61 for
The coordinates of the tip of a two-dimensional finger that is an image feature point are xl(I) ↑
(↑ represents the following vector.) = ((Xl(I),
yl(I))TIs defined as Similarly, the second perspective
XOrTwo-dimensional image feature points on the image 62
The coordinates of the tip of the finger are x r(J) ↑ = (xr(J), yr
(J))TIs defined as I-th image 61
Finger tip xl(I) ↑ is the tip x of the j-th finger in the right image
r(J) Know the camera parameters corresponding to ↑
The three-dimensional finger tip position X (i, j) ↑ = (X
(I, j), Y ((i, j), Z (i, j))TIs straight
Line Ll(I) and straight line LrFind the intersection with (j)
Is determined by This straight line Ll(I) and straight line Lr
(J) respectively show the first viewpoint XOlAnd image feature point xl
(I) A straight line connecting ↑ and a second viewpoint XOrAnd images
Feature point xr(J) A straight line connecting ↑.

【0025】しかしながら、画像特徴点xl (i)↑と
画像特徴点xr (j)↑との対応関係がわからなけれ
ば、交点は発生しない。すなわち、図1のように直線L
l (i)と直線Lr (j)とはねじれの関係にある場合
がある。その場合には、距離d(i,j)隔てている。
そこで、雑音の影響を考えて画像特徴点xl (i)↑と
r (j)↑との対応関係の度合いを示す確信度関数C
d (i,j)を第(4)式のように定義する。ここで、
d(i,j)は、直線Ll (i)と直線Lr (j)との
距離であり、かつd0 は定数である。この定数d0 は、
必要とされる確信度に応じて決定されればよい。第
(4)式は、各画像に関する一次元の限定しか示してお
らず、対応関係のすべてが決定されるわけでない。ま
た、第(4)式は、確信度の大きさが、距離に反比例し
て小さくなることを示しており、距離がd 0 以下の場合
には、確信度が一定値(1/d0 )になることを示して
いる。さらに、第(4)式のみが確信度を決定するため
の関数ではなく、距離d(i,j)が大きくなれば、小
さな値を示し、距離d(i,j)が小さくなれば、大き
な値を示す関数であればよい。
However, the image feature point xl(I) and
Image feature point xr(J) Do not know the correspondence with ↑
If no intersections occur. That is, as shown in FIG.
l(I) and straight line LrWhen (j) has a torsion relationship
There is. In that case, they are separated by a distance d (i, j).
Then, considering the influence of noise, the image feature point xl(I) and
xr(J) Certainty function C indicating the degree of correspondence with ↑
d(I, j) is defined as in equation (4). here,
d (i, j) is a straight line Ll(I) and straight line Lr(J) and
Distance and d0Is a constant. This constant d0Is
What is necessary is just to determine according to the required certainty factor. No.
Equation (4) shows only a one-dimensional limitation for each image.
However, not all correspondences are determined. Ma
Equation (4) indicates that the magnitude of the certainty factor is inversely proportional to the distance.
And the distance becomes d 0When
Has a certainty factor (1 / d0)
I have. Furthermore, only equation (4) determines the certainty factor
If the distance d (i, j) becomes large instead of the function of
And the distance d (i, j) becomes smaller,
Any function can be used as long as the function shows a proper value.

【0026】このような原理の基づくステレオ画像間対
応づけ確信度検出装置39は、直線Ll (i)を算出す
る第1の直線算出部63と、直線Lr (j)を算出する
第2の直線算出部64と、距離d(i,j)を算出する
距離算出部65と、第(4)式に示す所定の関数で確信
度を決定する確信度決定部67とを含んでいる。
The stereo image correspondence certainty degree detecting device 39 based on such a principle includes a first straight line calculating section 63 for calculating a straight line L l (i) and a second straight line calculating section 63 for calculating a straight line L r (j). , A distance calculating unit 65 for calculating the distance d (i, j), and a certainty determining unit 67 for determining the certainty using a predetermined function shown in the equation (4).

【0027】[0027]

【数3】 (Equation 3)

【0028】次に、このステレオ画像間対応づけ確信度
検出装置39が適用された手の姿勢検出装置について説
明する。この手の姿勢検出装置は、非装着型装置であ
り、手のような平面形状とみなせる厚さの物体を同一平
面上にある視点から見た場合に、極端な例として1本の
直線のように見えるオクルージョンという現象が生じた
場合であっても、手の姿勢を検出できる。そのために、
この手の姿勢検出装置は、手の特徴を示す特徴量とし
て、指の先端の位置、手の重心および手の方向を用いて
物体の姿勢および位置を検出する。そこで、図3に、各
画像で得られる二次元の手の重心、二次元の指の先端の
位置、二次元の手の方向を抽出できる特徴抽出部1の概
略ブロック図を示す。
Next, a description will be given of a hand posture detecting apparatus to which the stereo image correspondence certainty degree detecting apparatus 39 is applied. This hand posture detection device is a non-wearable device, and when an object having a thickness that can be regarded as a planar shape such as a hand is viewed from a viewpoint on the same plane, as an extreme example, it is represented as a single straight line. The posture of the hand can be detected even when the phenomenon of occlusion which appears to occur. for that reason,
The hand posture detection device detects the posture and position of an object using the position of the tip of a finger, the center of gravity of the hand, and the direction of the hand as feature amounts indicating the characteristics of the hand. FIG. 3 is a schematic block diagram of the feature extracting unit 1 that can extract the center of gravity of the two-dimensional hand, the position of the tip of the two-dimensional finger, and the direction of the two-dimensional hand obtained in each image.

【0029】図3を参照して、特徴抽出部1は、色空間
変換部3と、色彩を用いた手領域確率分布部5と、ソベ
ルフィルタ7と、フレーム間差分演算部9と、乗算器1
1と、ロウパスフィルタ13と、レベル弁別部15と、
統計演算部17,19と、アフィン変換部21と、ラン
レングス符号化部23と、エッジ検出部25と、群処理
部27とを含む。
Referring to FIG. 3, feature extracting unit 1 includes color space converting unit 3, hand region probability distribution unit 5 using colors, Sobel filter 7, inter-frame difference calculating unit 9, multiplier 1
1, a low-pass filter 13, a level discriminator 15,
It includes statistical operation units 17 and 19, an affine transformation unit 21, a run-length encoding unit 23, an edge detection unit 25, and a group processing unit 27.

【0030】色空間変換部3は、入力されるRGB画像
をHSV画像に変換して、H画像およびS画像を色彩を
用いた手領域確率分布部5に入力し、V画像をソベルフ
ィルタ7およびフレーム間差分演算部9に入力する。フ
レーム間差分演算部9には、背景画像も入力され、入力
された画像のフレーム間に対して差分演算を行ない、乗
算器11に出力する。乗算器11には、色彩を用いた手
領域確率分布部5によって得られたH,S画像も入力さ
れており、乗算された結果を表わす画像がロウパスフィ
ルタ13に与えられる。
The color space conversion unit 3 converts the input RGB image into an HSV image, inputs the H image and the S image to the hand region probability distribution unit 5 using colors, and converts the V image into a Sobel filter 7 and It is input to the inter-frame difference calculator 9. The background image is also input to the inter-frame difference calculator 9, which performs a difference calculation between frames of the input image and outputs the result to the multiplier 11. The H and S images obtained by the hand region probability distribution unit 5 using colors are also input to the multiplier 11, and an image representing a result of the multiplication is supplied to the low-pass filter 13.

【0031】ロウパスフィルタ13は与えられた画像を
フィルタリングしてレベル弁別部15に与える。レベル
弁別部15は、所定のしきい値で2値化し、2値化した
2値画像を統計演算部17,19に出力する。統計演算
部17は与えられる2値画像を統計演算子で演算処理し
て二次元の手の重心に関するデータを出力する。このデ
ータは、アフィン変換部21にも与えられている。
The low-pass filter 13 filters the applied image and supplies the filtered image to the level discriminator 15. The level discrimination unit 15 binarizes the image with a predetermined threshold value and outputs the binarized binary image to the statistical operation units 17 and 19. The statistical operation unit 17 performs an arithmetic operation on the given binary image with a statistical operator and outputs data relating to the two-dimensional center of gravity of the hand. This data is also provided to the affine transformation unit 21.

【0032】一方、統計演算部19は、ソベルフィルタ
7でフィルタリングされたV画像とレベル弁別部15で
2値化された2値画像とを統計演算子で演算処理し、二
次元の手の方向に関するデータを出力する。このデータ
はアフィン変換部21にも与えられる。アフィン変換部
21は、二次元の手の重心および二次元の手の方向によ
って設定されるパラメータを有するアフィン演算子でア
フィン変換する。アフィン変換されたアフィン変換画像
は、ランレングス符号化部23に与えられる。ランレン
グス符号化部23は、アフィン変換画像をランレングス
符号化画像に符号化してエッジ検出部25に与える。エ
ッジ検出部25は、高速にエッジ検出を行なう。高速に
エッジ検出されたエッジは、群処理部27に与えられ、
画像の上から下までのグループにグループ分けされた
後、指に相当する画像がグループを形成しているので、
そのグループを除去することにより指の先端の点が得ら
れる。
On the other hand, the statistical operation unit 19 performs an arithmetic operation on the V image filtered by the Sobel filter 7 and the binary image binarized by the level discrimination unit 15 by using a statistical operator, and calculates a two-dimensional hand direction. Output data about This data is also provided to the affine transformation unit 21. The affine transformation unit 21 performs affine transformation using an affine operator having parameters set by the center of gravity of the two-dimensional hand and the direction of the two-dimensional hand. The affine-transformed image subjected to the affine transformation is provided to the run-length encoding unit 23. The run-length encoding unit 23 encodes the affine-transformed image into a run-length encoded image and supplies the encoded image to the edge detection unit 25. The edge detection section 25 performs edge detection at high speed. The edge detected at high speed is given to the group processing unit 27,
After being grouped into groups from the top to the bottom of the images, the images corresponding to the fingers form a group,
By removing the group, a point at the tip of the finger is obtained.

【0033】ここで、エッジ検出とグループ決めを含ま
ないすべての処理はパイプライン化することができる。
また、すべてのプロセスは並列的に両眼画像について行
なえる。すなわち、並列パイプラインアルゴリズムを用
いて、効果的に両眼画像からの手の特徴が抽出される。
以下、このように抽出された二次元の手の特徴に基づい
て、オクルージョンが生じた場合でも三次元の手の姿勢
を検出することができる手の姿勢検出装置について説明
する。
Here, all processing that does not include edge detection and grouping can be pipelined.
Also, all processes can be performed in parallel on binocular images. That is, the features of the hand from the binocular image are effectively extracted using the parallel pipeline algorithm.
Hereinafter, a hand posture detection device that can detect a three-dimensional hand posture even when occlusion has occurred based on the extracted two-dimensional hand characteristics will be described.

【0034】図4は、その手の姿勢検出装置の概略ブロ
ック図である。図4を参照して、二次元の手の重心2
9、二次元の指の先端の位置31および手の方向33か
ら手の姿勢を検出できる手の姿勢検出装置は、前述した
ステレオ画像間対応づけ確信度検出装置(図面ではCd
(i,j)で表わす)39を有している。さらに、手の
姿勢検出装置は、三次元的特徴点抽出部45と、乗算器
47,48と、確信度検出部(図面ではCs (i,j)
で表わす)49と、対応度検出部(図面ではP
m,k (i,j)で表わす)51と、姿勢検出部53とを
含む。
FIG. 4 is a schematic block diagram of the hand posture detecting device. Referring to FIG. 4, the center of gravity of the two-dimensional hand 2
9. The hand posture detecting device capable of detecting the hand posture from the two-dimensional finger tip position 31 and the hand direction 33 is the stereo image correspondence certainty degree detecting device (C d in the drawing ).
(Represented by (i, j)) 39. Further, the hand posture detection device includes a three-dimensional feature point extraction unit 45, multipliers 47 and 48, and a certainty detection unit (C s (i, j) in the drawing).
) 49 and a correspondence detection unit (P in the drawing)
m, k (i, j) 51) and a posture detector 53.

【0035】特に、この手の姿勢検出装置において重要
な構成としては、ステレオ画像間対応づけ確信度検出装
置39と、確信度検出部49と、対応度検出部51と、
姿勢検出部53である。姿勢検出部53は、誤対応除去
表作成部55と、判定部57と、最適誤対応除去表作成
部59と、乗算器60とを含んでいる。そして、姿勢検
出部53は、オイラー角Φ58を推定する。
In particular, important configurations of the hand posture detecting device include a stereo image correspondence certainty detecting device 39, a certainty detecting portion 49, a correspondence detecting portion 51,
The posture detection unit 53. The posture detection unit 53 includes an erroneous correspondence removal table creation unit 55, a determination unit 57, an optimal erroneous correspondence removal table creation unit 59, and a multiplier 60. Then, the posture detection unit 53 estimates the Euler angle Φ58.

【0036】一方、三次元的特徴点抽出部45は、三次
元の手の重心検出部35と、座標変換部37と、変換部
43と、オイラー角検出部41とを含んでいる。
On the other hand, the three-dimensional feature point extraction unit 45 includes a three-dimensional hand center-of-gravity detection unit 35, a coordinate conversion unit 37, a conversion unit 43, and an Euler angle detection unit 41.

【0037】以下、図2に示す各構成のうちでステレオ
画像間対応づけ確信度検出装置を除く構成の動作につい
て、原理を含めて詳細に説明する。
The operation of the configuration shown in FIG. 2 excluding the stereo image correspondence certainty detecting device will be described in detail including the principle.

【0038】ところで、図1に示した原理に基づくステ
レオ画像間対応づけ確信度検出装置39は、距離という
一次元の限定しか示すことができず、すべての対応関係
を決定していない。そのため、次に、図1に示す三次元
的特徴点である三次元指先端点X(i,j)↑を検出す
る三次元的特徴点抽出部45について説明する。
By the way, the stereo image associative certainty detector 39 based on the principle shown in FIG. 1 can indicate only one-dimensional limitation of distance, and does not determine all correspondences. Therefore, next, the three-dimensional feature point extraction unit 45 that detects the three-dimensional finger tip point X (i, j)} that is the three-dimensional feature point shown in FIG. 1 will be described.

【0039】図5は、手の重心を原点として手に固定し
たXh h h 座標系とXYZ世界座標系との関係を示
した図である。
[0039] FIG. 5 is a diagram showing the relationship between X h Y h Z h coordinate system and the XYZ world coordinate system fixed to the hand the center of gravity of the hand as the origin.

【0040】図5を参照して、三次元の手の重心O=
(Xo ,YO ,ZO T と三次元の手の方向ベクトルV
↑=(XV ,YV ,ZV T は、二次元の手の重心と二
次元の手の方向ベクトルすなわちvl ↑=(Xvl
vlT およびvr ↑=(Xvr,Y vrT からそれぞれ
容易に決定される。これらの決定は、図4に示す三次元
の手の重心検出部35と図示しない手の方向検出部が決
定している。ここで、図5に示すように、手に関して固
定したXh h h 座標系において、オイラーの角Φ,
Θ,Ψで、点Xh (i,j)↑=(Xh (i,j),Y
h (i,j),Zh (i,j))T は、第(5)式によ
り、点X(i,j)に変換される。但し、Mx,My
よびMz は、Xh ,Yh およびZh 軸を中心とした回転
マトリクスである。これらの演算を、座標変換部37が
行なっている。
Referring to FIG. 5, the center of gravity of the three-dimensional hand O =
(Xo, YO, ZO)TAnd three-dimensional hand direction vector V
↑ = (XV, YV, ZV)TIs the two-dimensional center of gravity of the hand
Dimensional hand direction vector or vl↑ = (Xvl,
Yvl)TAnd vr↑ = (Xvr, Y vr)TFrom each
It is easily determined. These decisions are made in three dimensions as shown in FIG.
The hand's center of gravity detection unit 35 and the hand direction detection unit (not shown) are determined.
I have decided. Here, as shown in FIG.
Defined XhYhZhIn the coordinate system, Euler angles Φ,
Θ, Ψ, the point Xh(I, j) ↑ = (Xh(I, j), Y
h(I, j), Zh(I, j))TIs given by equation (5).
Is converted to a point X (i, j). Where Mx, MyYou
And MzIs Xh, YhAnd ZhRotation around an axis
It is a matrix. These operations are performed by the coordinate conversion unit 37.
I do.

【0041】さらに、ΘおよびΨは、三次元の手の方向
ベクトルV↑から容易に導き出されるので、そのこと
を、オイラー角検出部41が行なっている。そして、三
次元の手の重心検出部35で検出された三次元の手の重
心O、座標変換部37で変換された点X(i,j)↑お
よびオイラーの角Θ,Ψによって、第(6)式が成り立
つ。この演算を、変換部43が行なっている。
Further, since Θ and Ψ are easily derived from the three-dimensional hand direction vector V ↑, the Euler angle detector 41 performs this. The three-dimensional hand center of gravity O detected by the three-dimensional hand center-of-gravity detecting unit 35, the point X (i, j) ↑ transformed by the coordinate transformation unit 37, and the Euler angles Θ, 、 form the ( 6) Equation holds. This calculation is performed by the conversion unit 43.

【0042】ところが、変換部43で変換された点X′
(i,j)↑は、ある意味で三次元先端点を示している
が、この三次元先端点には、誤対応点と呼ばれる誤った
対応関係により発生する点も含まれている。そこで、誤
った対応関係による誤対応点が除去されて、X′(i,
j)↑から残りのオイラー角Φが最終的に予測される必
要がある。
However, the point X 'converted by the conversion unit 43
(I, j)} indicates a three-dimensional tip point in a certain sense. The three-dimensional tip point includes a point called an erroneous correspondence point which is generated due to an incorrect correspondence. Then, an erroneous corresponding point due to an erroneous correspondence relationship is removed, and X ′ (i,
j) From ↑, the remaining Euler angle Φ needs to be finally predicted.

【0043】次に、確信度検出部49について説明す
る。伸ばした指の先端の位置が手の重心からある距離に
位置しているとの仮定に基づき、第(7)式に示すよう
に、点X′(i,j)↑が空間的に存在する確信度ファ
クタCs (i,j)が定義される。ここで、a、r0
よびr1 は定数である。特に、aは、ステレオ画像間対
応づけ確信度検出装置39によって得られる値であり、
0 およびr1 は、手の大きさ等により決定される定数
である。この第(7)式に示す演算は、乗算器47が行
なっており、そのため、この乗算器47が、確信度検出
部49内に設けられた場合であってもよいが、演算を明
確にするために敢えて乗算器47を図示した。
Next, the certainty detection unit 49 will be described. Based on the assumption that the position of the tip of the extended finger is located at a certain distance from the center of gravity of the hand, a point X ′ (i, j) ↑ spatially exists as shown in Expression (7). A confidence factor C s (i, j) is defined. Here, a, r 0 and r 1 are constants. In particular, a is a value obtained by the stereo image association certainty degree detecting device 39,
r 0 and r 1 are constants determined by the size of the hand and the like. The calculation shown in the expression (7) is performed by the multiplier 47. Therefore, the multiplier 47 may be provided in the certainty detection unit 49, but the calculation is clarified. For this reason, the multiplier 47 is shown in the figure.

【0044】第(7)式により得られることは、手の重
心とその指の先端の位置との距離の限定に留まるので、
まだすべての誤対応点が除去されるわけではない。
What can be obtained by the expression (7) is limited to the distance between the center of gravity of the hand and the position of the tip of the finger.
Not all miscorrespondence points have yet been removed.

【0045】[0045]

【数4】 (Equation 4)

【0046】図6は、対応度検出部の動作に対する原理
を説明するための図である。図6を参照して、一次元の
限定によって誤対応点を除去する。指の先端が三次元表
面上に存在する場合、これらを両眼画像に投影するには
2つのタイプがある。すなわち、平面S1のように、一
方の面に対向して第1の視点XOおよび第2の視点X
が対向している場合と、平面S2のように第1の視
点XOが一方の面に対向し、他方の面に第2の視点X
が対向する場合である。平面S1の場合には、画像
61および画像62における指の先端の相互の対応関係
は、n(x(i)↑)↑・n(v)↑とn
(x(j)↑)↑・n(v)↑とからなる規
模のオーダにする必要がある。一方、平面S2の場合に
は、n(x(i)↑)↑・n(v)↑と、−
n(x(j)↑)↑・n(v)↑とからなる
オーダにする必要がある。但し、n()はベクトル
が正規化されたベクトルを示す。たとえば、各画像から
5つおよび4つの指先端部が抽出され、n(x(i)
)↑・n(v)↑およびn(x(j)
)↑・n(v)↑の大きさに従ってi、jに
対応する表が作成されると、それは表1に示すように2
つの典型的なタイプの除去表Pm,1(i,j)とP
m,2(i,j)が規定される。これらの除去表を対応
度検出部51が作成している。
FIG. 6 is a diagram for explaining the principle of the operation of the correspondence detection unit. Referring to FIG. 6, erroneous corresponding points are removed by one-dimensional limitation. If the tips of the fingers are on a three-dimensional surface, there are two types of projecting them on the binocular image. That is, as in the plane S1, a first aspect XO 1 and a second aspect X opposite the one surface
And if the O r are opposed, facing the first viewpoint XO 1 is one surface as a plane S2, a second aspect X on the other side
Or is opposed. If the plane S1 is the tip mutual relationship of the finger in the image 61 and image 62, n (x 1 (i) ↑ T) ↑ · n (v 1 ↑ T) ↑ and n
(X r (j) ↑ T ) ↑ · n (v r ↑ T) ↑ and there is a need to scale of the order consisting. On the other hand, in the case of the plane S2 is a n (x 1 (i) ↑ T) ↑ · n (v 1 ↑ T) ↑, -
n (x r (j) ↑ T) ↑ · n (v r ↑ T) ↑ and it is necessary to become the order from. Where n ( * ) is a vector *
Indicates a normalized vector. For example, five and four finger tips are extracted from each image, and n (x 1 (i)
{ T ) ↑ · n (v 1T )} and n ( xr (j)
↑ T) ↑ · n (v r ↑ T) ↑ of i according to the size, the table is created that corresponds to j, it as shown in Table 1 2
Two typical types of elimination tables P m, 1 (i, j) and P
m, 2 (i, j) is defined. The correspondence detection section 51 creates these removal tables.

【0047】[0047]

【表1】 [Table 1]

【0048】そして、姿勢検出部53は、作成された除
去表Pm,k (i,j)と確信度Cd(i,j)と確信度
s (i,j)とを第(8)式のように組合せて、k番
目の誤対応除去表P,k(i,j)を規定する。ここで、
乗算器48は、乗算器47と同様に敢えて図示した。さ
らに、最適誤対応除去表Pm,opt (i,j)が第(9)
式のように得られるので、それを最適誤対応除去表作成
部59が作成している。ここで、cは定数であり、かつ
w′はAR/MAモデルによって予測されるベクトル
で、前の手の姿勢を反映するようにこのフレーム上のw
を指定する。さらに、時間ファクタをtとすると、第
(10)式が得られる。次のフレーム上のwは、第(1
1)式により予想される。但し、al (l=1,…,
n)、bl (l=0,…,r)およびGは定数である。
Then, the posture detecting section 53 compares the created removal table P m, k (i, j), the confidence C d (i, j) and the confidence C s (i, j) with the (8) ) To define the k-th erroneous correspondence removal table P , k (i, j). here,
The multiplier 48 is illustrated in the same manner as the multiplier 47. Furthermore, the optimal erroneous correspondence removal table P m, opt (i, j) is the (9)
Since it is obtained as in the equation, it is created by the optimum mis-correspondence removal table creating unit 59. Here, c is a constant, and w ′ is a vector predicted by the AR / MA model, and w ′ on this frame reflects the posture of the previous hand.
Is specified. Further, assuming that the time factor is t, Expression (10) is obtained. W on the next frame is the first (1
Expected by equation 1). Where a l (l = 1,...,
n), b l (l = 0,..., r) and G are constants.

【0049】最終姿勢wは最大固有値を有する第(1
2)式で規定されるMの固有ベクトルにより得られる。
The final posture w is the first (1) having the maximum eigenvalue.
2) It is obtained by M eigenvectors defined by the equation.

【0050】[0050]

【数5】 (Equation 5)

【0051】なお、図4に示すブロック図は、これらの
方法に関してのデータフロー図にも対応しているため、
前述したように乗算器47,48を図示している。
The block diagram shown in FIG. 4 also corresponds to a data flow diagram relating to these methods.
As described above, the multipliers 47 and 48 are illustrated.

【0052】次に、2つの対象を、並進なしてアームの
軸を中心に手を回転させた場合の、入力画像から二次元
の手の特徴を抽出し、その特徴に基づいて予想される手
の姿勢を収集する実験結果について説明する。
Next, a two-dimensional hand feature is extracted from the input image when the two objects are translated and the hands are rotated about the axis of the arm, and the hand predicted based on the feature is extracted. The experimental results of collecting the postures of the subjects will be described.

【0053】図7および図8は、実験結果を説明するた
めの図である。特に、図7は、入力された左の画像、左
の画像上での特徴、右の画像上での特徴および手の姿勢
を示した図である。さらに、図7において、左から順
に、フレーム毎に左の画像、左の画像上の特徴、右の画
像上の特徴、手の姿勢を並べている。また、図8(a)
は、実際のオイラー角Φ,Ψ,Θの回転軌道を示した図
であり、図8(b)は、測定されたオイラー角Φ′,
Ψ′,Θ′の回転軌道を示した図であり、図8(c)
は、手の重心の位置(XO ,YO ,ZO )の軌道を示し
た図である。図8(a)および図8(b)の横軸にはフ
レームに対応する番号を、縦軸にはオイラー角としてd
egree単位で表示している。図8(c)の横軸には
フレーム番号を示し、縦軸にはXYZ座標系をcm単位
で表示している。
FIGS. 7 and 8 are diagrams for explaining the experimental results. In particular, FIG. 7 is a diagram illustrating the input left image, the features on the left image, the features on the right image, and the posture of the hand. Further, in FIG. 7, the left image, the feature on the left image, the feature on the right image, and the posture of the hand are arranged for each frame in order from the left. FIG. 8 (a)
FIG. 8B is a diagram showing the rotation trajectory of the actual Euler angles Φ, Ψ, Θ, and FIG. 8B shows the measured Euler angles Φ ′,
FIG. 8C is a diagram showing the rotation orbits of Ψ ′ and Θ ′, and FIG.
Is a diagram showing the trajectory of the position (X O , Y O , Z O ) of the center of gravity of the hand. 8A and 8B, the horizontal axis represents the number corresponding to the frame, and the vertical axis represents the Euler angle d.
It is displayed in egree units. In FIG. 8C, the horizontal axis indicates the frame number, and the vertical axis indicates the XYZ coordinate system in cm.

【0054】図7および図8を参照して、左側に並んだ
入力された左の画像は、その右側に並ぶ左の特徴量とし
て検出される。この左の特徴量としては、指の先端の位
置、手の方向、手の重心などが表されている。同様に、
図示していないが右の画像から右の特徴量が得られる。
そして、最終的に最も右側に並べた手の姿勢が検出され
る。
Referring to FIGS. 7 and 8, the input left image arranged on the left side is detected as a left feature amount arranged on the right side. The left feature amount indicates the position of the tip of the finger, the direction of the hand, the center of gravity of the hand, and the like. Similarly,
Although not shown, the right feature amount is obtained from the right image.
Finally, the posture of the hands arranged on the rightmost side is detected.

【0055】手の姿勢は、X′Y′Z軸とXh およびY
h 軸により作り出されるウィングとを重ね合わせること
により、視覚的な知覚が容易にされている。このウィン
グは、0から180°までXh 軸を中心に回転しかつ逆
回転により復元する手を示す。7番目、10番目、18
番目および21番目のフレームでは、かなりのオクルー
ジョンがあるにも拘らず、手の姿勢の予測は安定してい
る。しかしながら、18番目のフレームでは、指の先端
の様子が誤って検出されており、オクルージョンの仮定
は検出される手の姿勢に対して悪影響を与えることは明
らかである。
[0055] of the hand posture, X'Y'Z axis and the X h and Y
Visual perception is facilitated by overlapping the wings created by the h- axis. The wing shows a hand that rotates about the Xh axis from 0 to 180 ° and restores by reverse rotation. 7th, 10th, 18th
In the 2nd and 21st frames, the hand posture prediction is stable despite significant occlusion. However, in the eighteenth frame, the appearance of the tip of the finger is erroneously detected, and it is clear that the occlusion assumption adversely affects the detected hand posture.

【0056】次に、図8(a)〜図8(c)を参照し
て、実際のオイラー角ΘおよびΨは、平均角度が0に設
定されている。Xh 軸を中心とする回転ジェスチャーの
全体を通して、標準的な偏位は6.2および6.8°で
あり、最大誤差は、それぞれ9.7および14.9°で
あった。Φはオクルージョンが生じても、緩やかにその
値を変えた。予測された角度も同じような傾向を見せて
いる。さらに、連続性が改善されている。したがって、
このように精度よく予想角度が検出されることにより、
この装置のシステムへの有用性が証明されている。
Next, with reference to FIGS. 8A to 8C, the actual Euler angles Θ and が have an average angle of 0. Throughout the rotation gesture around the X h-axis, the standard deviation is 6.2 and 6.8 °, the maximum error, were respectively 9.7 and 14.9 °. Φ changed its value slowly even if occlusion occurred. The predicted angles show a similar trend. Furthermore, the continuity is improved. Therefore,
By accurately detecting the expected angle in this way,
The utility of this device in systems has been proven.

【0057】次に、三次元の手の重心の動きに関して
は、この動作を通して、最大誤差は2.2cmであっ
た。最大三次元特徴点検出誤差は最大1.2cmである
ことも確かめられている。したがって、十分に本装置が
誤対応点を除去できると考えられる。
Next, regarding the movement of the center of gravity of the three-dimensional hand, the maximum error was 2.2 cm throughout this operation. It has been confirmed that the maximum three-dimensional feature point detection error is a maximum of 1.2 cm. Therefore, it is considered that the present apparatus can sufficiently remove erroneous corresponding points.

【0058】このような実験結果に保証された手の姿勢
検出装置は、特にハンドジェスチャーを認識するのに有
用である。特徴としては、隠れが生じても、三次元予測
モデルを使用する誤対応対応除去表により、手の姿勢が
予測されることである。さらに、この装置は、仮想環境
の構築に対して有用である。
The hand posture detecting device guaranteed for such experimental results is particularly useful for recognizing hand gestures. The feature is that even if occlusion occurs, the posture of the hand is predicted by the erroneous correspondence correspondence removal table using the three-dimensional prediction model. Further, this device is useful for constructing a virtual environment.

【0059】なお、実施例に示したステレオ画像間対応
づけ確信度検出装置の応用例として、姿勢検出装置につ
いて説明したが、これに限定されるものでなく、画像処
理を用いた形状認識分野に対してこの対応づけ確信度検
出装置は有用である。
Although the posture detecting device has been described as an application example of the stereo image associative certainty detecting device shown in the embodiment, the present invention is not limited to this, but is applied to the field of shape recognition using image processing. On the other hand, the associating certainty detecting device is useful.

【0060】[0060]

【発明の効果】以上のように、この発明によれば、第1
の視点による左視野内の第1の画像上の第1の画像特徴
点と第1の視点とを通る第1の直線と、第2の視点によ
る右視野内の第2の画像上の第2の画像特徴点と第2の
視点とを通る第2の直線との間の距離によって、第1の
画像特徴点と第2の画像特徴点との対応づけを行なえる
ので、たとえばエピポーララインに沿った再配列を行な
うことができないような状況での対応づけを容易に行な
うことができる。
As described above, according to the present invention, the first
A first image feature point on the first image in the left field of view from the first viewpoint, a first straight line passing through the first viewpoint, and a second line on the second image in the right field of view from the second viewpoint. The first image feature point and the second image feature point can be associated with each other by the distance between the second image feature point and the second straight line passing through the second viewpoint. It is possible to easily perform correspondence in a situation where rearrangement cannot be performed.

【図面の簡単な説明】[Brief description of the drawings]

【図1】この発明の一実施例によるステレオ画像間対応
づけ確信度検出装置に必要とされる原理について説明す
るための図である。
FIG. 1 is a diagram for describing a principle required for a stereo image correspondence certainty degree detection device according to an embodiment of the present invention.

【図2】この発明の一実施例によるステレオ画像間対応
づけ確信度検出装置の概略ブロック図である。
FIG. 2 is a schematic block diagram of a stereoscopic image association certainty detecting device according to an embodiment of the present invention;

【図3】この発明の一実施例によるステレオ画像間対応
づけ確信度検出装置が適用された手の姿勢検出装置に必
要とされる原理について説明するための図である。
FIG. 3 is a diagram for explaining a principle required for a hand posture detection device to which a stereo image association certainty detection device according to an embodiment of the present invention is applied;

【図4】この発明の一実施例によるステレオ画像間対応
づけ確信度検出装置が適用された手の姿勢検出装置の概
略ブロック図である。
FIG. 4 is a schematic block diagram of a hand posture detection device to which the stereo image correspondence certainty degree detection device according to one embodiment of the present invention is applied;

【図5】手の重心に固定したXh h h 座標系とXY
Z世界座標系との関係を示した図である。
FIG. 5: X h Y h Z h coordinate system fixed to center of gravity of hand and XY
FIG. 3 is a diagram illustrating a relationship with a Z world coordinate system.

【図6】対応度検出部の動作に対する原理を説明するた
めの図である。
FIG. 6 is a diagram for explaining the principle of operation of the correspondence detection unit.

【図7】実験結果を説明するための第1の図である。FIG. 7 is a first diagram for explaining an experimental result.

【図8】実験結果を説明するための第2の図である。FIG. 8 is a second diagram for explaining an experimental result.

【図9】エピポーララインを説明するための図である。FIG. 9 is a diagram for explaining an epipolar line.

【図10】エピポーララインに沿った再配列を説明する
ための図である。
FIG. 10 is a diagram for explaining rearrangement along an epipolar line.

【符号の説明】[Explanation of symbols]

39 ステレオ画像間対応づけ確信度検出装置 63 第1の直線算出部 64 第2の直線算出部 65 距離算出部 67 確信度決定部 39 Stereo image association certainty degree detection device 63 First straight line calculation part 64 Second straight line calculation part 65 Distance calculation part 67 Confidence degree determination part

フロントページの続き (72)発明者 竹村 治雄 京都府相楽郡精華町大字乾谷小字三平谷 5番地 株式会社エイ・ティ・アール通 信システム研究所内Continued on the front page (72) Haruo Takemura Inventor Haruo-cho, Soraku-gun, Kyoto 5th Sanraya, Inaya small-sized character

Claims (6)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】 第1の視点による左視野内の第1の画像
上の第1の画像特徴点と、第2の視点による右視野内の
第2の画像上の第2の画像特徴点との対応関係に対して
の確信度を検出するステレオ画像間対応づけ確信度検出
装置であって、 前記第1の視点と前記第1の画像特徴点とを通る第1の
直線を算出する第1の直線算出手段と、 前記第2の視点と前記第2の画像特徴点とを通る第2の
直線を算出する第2の直線算出手段と、 前記第1の直線と前記第2の直線との距離を算出する距
離算出手段と、 前記算出された距離に応じて、前記第1の画像特徴点と
前記第2の画像特徴点との対応関係に対しての前記確信
度を決定する確信度決定手段とを備えた、ステレオ画像
間対応づけ確信度検出装置。
1. A first image feature point on a first image in a left field of view from a first viewpoint and a second image feature point on a second image in a right field of view from a second viewpoint. A stereo image associating certainty degree detecting device for detecting a certainty degree with respect to the correspondence relationship, wherein a first straight line passing through the first viewpoint and the first image feature point is calculated. A straight line calculation means, a second straight line calculation means for calculating a second straight line passing through the second viewpoint and the second image feature point, and a first straight line and the second straight line Distance calculation means for calculating a distance; and certainty determination for determining the certainty regarding the correspondence between the first image feature point and the second image feature point according to the calculated distance. And a means for ascertaining the degree of association between stereo images.
【請求項2】 前記確信度決定手段は、前記確信度を表
現する関数であって、前記算出された距離に反比例する
関数に基づいて、前記確信度を決定することを特徴とす
る、請求項1記載のステレオ画像間対応づけ確信度検出
装置。
2. The method according to claim 1, wherein the certainty determining unit determines the certainty based on a function representing the certainty, the function being inversely proportional to the calculated distance. The stereoscopic image association certainty detection device according to claim 1.
【請求項3】 前記関数は、所定の値以下では一定にな
ることを特徴とする、請求項2記載のステレオ画像間対
応づけ確信度検出装置。
3. The stereo image associating certainty degree detecting apparatus according to claim 2, wherein the function is constant below a predetermined value.
【請求項4】 第1の視点による左視野内の第1の画像
上の第1の画像特徴点と、第2の視点による右視野内の
第2の画像上の第2の画像特徴点との対応関係に対して
の確信度を検出するステレオ画像間対応づけ確信度検出
方法であって、 前記第1の視点と前記第1の画像特徴点とを通る第1の
直線を算出する第1のステップと、 前記第2の視点と前記第2の画像特徴点とを通る第2の
直線を算出する第2のステップと、 前記第1の直線と前記第2の直線との距離を算出する第
3のステップと、 前記算出された距離に応じて、前記第1の画像特徴点と
前記第2の画像特徴点との対応関係に対しての前記確信
度を決定する第4のステップとを含む、ステレオ画像間
対応づけ確信度検出方法。
4. A first image feature point on a first image in a left field of view from a first viewpoint and a second image feature point on a second image in a right field of view from a second viewpoint. A stereo image associative certainty level detecting method for detecting a certainty factor with respect to the correspondence relationship, wherein a first straight line passing through the first viewpoint and the first image feature point is calculated. And a second step of calculating a second straight line passing through the second viewpoint and the second image feature point; and calculating a distance between the first straight line and the second straight line. A third step of determining the degree of certainty with respect to the correspondence between the first image feature point and the second image feature point according to the calculated distance. And a stereo image correspondence certainty degree detection method.
【請求項5】 前記第4のステップは、前記確信度を表
現する関数であって、前記算出された距離に反比例する
関数に基づいて、前記確信度を決定するステップを含
む、請求項4記載のステレオ画像間対応づけ確信度検出
方法。
5. The method according to claim 4, wherein the fourth step includes a step of determining the certainty factor based on a function representing the certainty factor, the function being inversely proportional to the calculated distance. Method for detecting the degree of certainty between stereo images.
【請求項6】 前記関数は、所定の値以下では一定にな
ることを特徴とする、請求項5記載のステレオ画像間対
応づけ確信度検出方法。
6. The stereo image associating certainty detecting method according to claim 5, wherein the function is constant below a predetermined value.
JP6030036A 1994-02-28 1994-02-28 Apparatus and method for detecting certainty between stereo images Expired - Fee Related JP2573153B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP6030036A JP2573153B2 (en) 1994-02-28 1994-02-28 Apparatus and method for detecting certainty between stereo images

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP6030036A JP2573153B2 (en) 1994-02-28 1994-02-28 Apparatus and method for detecting certainty between stereo images

Publications (2)

Publication Number Publication Date
JPH07239218A JPH07239218A (en) 1995-09-12
JP2573153B2 true JP2573153B2 (en) 1997-01-22

Family

ID=12292604

Family Applications (1)

Application Number Title Priority Date Filing Date
JP6030036A Expired - Fee Related JP2573153B2 (en) 1994-02-28 1994-02-28 Apparatus and method for detecting certainty between stereo images

Country Status (1)

Country Link
JP (1) JP2573153B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100469623B1 (en) * 2002-05-22 2005-02-02 (주)쎄트렉아이 Epipolar geometry model obtaining method
US11232315B2 (en) 2020-04-28 2022-01-25 NextVPU (Shanghai) Co., Ltd. Image depth determining method and living body identification method, circuit, device, and medium
CN111563924B (en) * 2020-04-28 2023-11-10 上海肇观电子科技有限公司 Image depth determination method, living body identification method, circuit, device, and medium

Also Published As

Publication number Publication date
JPH07239218A (en) 1995-09-12

Similar Documents

Publication Publication Date Title
US10109055B2 (en) Multiple hypotheses segmentation-guided 3D object detection and pose estimation
JP6430064B2 (en) Method and system for aligning data
EP0205628B1 (en) Method for identifying three-dimensional objects using two-dimensional images
JP4865557B2 (en) Computer vision system for classification and spatial localization of bounded 3D objects
JP6216508B2 (en) Method for recognition and pose determination of 3D objects in 3D scenes
Azad et al. Stereo-based 6d object localization for grasping with humanoid robot systems
Deriche et al. 2-D curve matching using high curvature points: application to stereo vision
Schmid et al. The geometry and matching of curves in multiple views
CN107818598B (en) Three-dimensional point cloud map fusion method based on visual correction
Taylor et al. Fusion of multimodal visual cues for model-based object tracking
JPH08136220A (en) Method and device for detecting position of article
Goron et al. Robustly segmenting cylindrical and box-like objects in cluttered scenes using depth cameras
CN109872343B (en) Weak texture object posture tracking method, system and device
JP3144400B2 (en) Gesture recognition device and method
JP7178803B2 (en) Information processing device, information processing device control method and program
Zhang et al. A stereo SLAM system with dense mapping
CN117870659A (en) Visual inertial integrated navigation algorithm based on dotted line characteristics
JP2573153B2 (en) Apparatus and method for detecting certainty between stereo images
JP2517531B2 (en) Posture detection device using stereo images
Svedman et al. Structure from stereo vision using unsynchronized cameras for simultaneous localization and mapping
Nakano Stereo vision based single-shot 6d object pose estimation for bin-picking by a robot manipulator
CN106056599B (en) A kind of object recognition algorithm and device based on Object Depth data
Sumi et al. 3D object recognition using segment-based stereo vision
Ling et al. Aircraft pose estimation based on mathematical morphological algorithm and Radon transform
CN112836544A (en) Novel sitting posture detection method

Legal Events

Date Code Title Description
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 19960709

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20071024

Year of fee payment: 11

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081024

Year of fee payment: 12

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081024

Year of fee payment: 12

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091024

Year of fee payment: 13

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101024

Year of fee payment: 14

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111024

Year of fee payment: 15

LAPS Cancellation because of no payment of annual fees