JPH10255053A - Method for associating subject characteristic point in 3d reconstruction and 3d reconstruction method using it - Google Patents

Method for associating subject characteristic point in 3d reconstruction and 3d reconstruction method using it

Info

Publication number
JPH10255053A
JPH10255053A JP9070918A JP7091897A JPH10255053A JP H10255053 A JPH10255053 A JP H10255053A JP 9070918 A JP9070918 A JP 9070918A JP 7091897 A JP7091897 A JP 7091897A JP H10255053 A JPH10255053 A JP H10255053A
Authority
JP
Japan
Prior art keywords
image
images
viewpoint
point
subject
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP9070918A
Other languages
Japanese (ja)
Inventor
Yoshiteru Ooi
祥照 大井
Sumuto Yoshikawa
澄人 吉川
Seikichi Takahashi
成吉 高橋
Shinji Ozawa
慎治 小沢
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
AINESU KK
INES CORP
Original Assignee
AINESU KK
INES CORP
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by AINESU KK, INES CORP filed Critical AINESU KK
Priority to JP9070918A priority Critical patent/JPH10255053A/en
Publication of JPH10255053A publication Critical patent/JPH10255053A/en
Pending legal-status Critical Current

Links

Landscapes

  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a method for associating a subject characteristic point which easily solves the correspondence problem of a characteristic point without needing a special device that measures view point movement nor special skill such as image processing and an object 3D reconstruction method using it. SOLUTION: In a method for associating subject characteristic points between 2D images when a subject is undergone 3D reconstruction through plural 2D images which are taken by continuously moving a view point, the view point is moved so that the distance between the view point and the subject may be larger than the distance between an initial coordinate and a coordinate after movement, and in this case, one optional point of characteristic points is positioned on the image origins of a 2D image of the initial coordinate and a 2D image of the coordinate after movement. The distance between a 2D position of the characteristic point of one optional point of each 2D image and the 2D image origin is introduced and the movement locus of the characteristic point of one optional point is made a coefficient only for a three-dimensional translational vector H. The movement of the characteristic point of one optional point is traced by using other 2D images, the movement locus in this case is contrasted with the movement locus, and the one that has the higher correlativity is selected.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、視点を連続的に移
動させて撮影した連続2D画像を用いて被写体を3D復
元する際に、被写体の特徴点を2D画像間で対応付ける
方法及びこの方法を用いた3D復元法に係り、更に詳細
には、ビデオ画像などの連続画像を用いて3D動画を復
元する際に、被写体の形状上の特徴を表す点(特徴点)
を各2D画像において適切且つ自動的に対応付ける方法
及びこれを利用した3D動画の復元法に関するもので、
本発明の対応付け方法及び3D復元法によれば、バーチ
ャルリアリティ映像を作成する際のモデリング及びレン
ダリング作業が簡略化される。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a method for associating feature points of a subject between 2D images when the subject is 3D-reconstructed using a continuous 2D image taken while the viewpoint is continuously moved, and a method thereof. More specifically, the present invention relates to a 3D restoration method used, and more specifically, a point (feature point) representing a feature on the shape of a subject when a 3D moving image is restored using a continuous image such as a video image.
And a method for appropriately and automatically associating each 2D image and a method for restoring a 3D moving image using the method.
According to the associating method and the 3D restoration method of the present invention, modeling and rendering operations when creating a virtual reality video are simplified.

【0002】[0002]

【従来の技術】近年、被写体に関して視差のある複数の
2D画像を用い、三角測量の原理に基づいて該被写体の
形状を3D復元する方法(以下、「ステレオ法」とい
う。)が注目されている。かかるステレオ法では、対象
とする2枚の2D画像において、対応する特徴点を指示
することが必要であるが、このような特徴点の対応付け
(以下、「対応問題の解決」という。)は困難な事項で
ある。
2. Description of the Related Art In recent years, a method of using a plurality of 2D images having parallax with respect to a subject and restoring the shape of the subject in 3D based on the principle of triangulation (hereinafter, referred to as a "stereo method") has attracted attention. . In such a stereo method, it is necessary to indicate corresponding feature points in two target 2D images, and such correspondence of feature points (hereinafter, referred to as “solution of correspondence problem”) is performed. It is a difficult matter.

【0003】このため、従来は、操作者が2枚の2D画
像を目視して対比することにより、対応問題を解決し、
ステレオ対応点を指示していた。また、最近では、連続
画像を時間軸上に密に並べた時空間画像を利用して、対
応問題を解決する方法も提案されている。
[0003] For this reason, conventionally, the operator solves the problem by visually observing and comparing two 2D images.
The stereo corresponding point was indicated. Recently, a method of solving a correspondence problem using a spatio-temporal image in which continuous images are densely arranged on a time axis has been proposed.

【0004】[0004]

【発明が解決しようとする課題】しかしながら、このよ
うな従来の方法において、目視による方法にあっては、
操作者の負担が大きく、多くの特徴点を指示することが
困難であるばかりか、2D画像には、他の2D画像との
間で対応性が悪く、3D復元に不適切な偽の特徴点も存
在するので、特徴点の真偽を判別するためには画像処理
の知識と熟練を要し、素人は勿論、経験者であっても簡
易には行うことができないという課題があった。また、
2枚の2D画像から精密な3D復元を行おうとすれば、
視差をできるだけ大きくする必要があるが、視差を大き
くすればするほど偽の特徴点を指定してしまう可能性が
大きくなるという課題もあった。
However, in such a conventional method, in the case of a visual method,
Not only is the burden on the operator heavy, and it is difficult to indicate many feature points, but also the 2D images have poor correspondence with other 2D images and are unsuitable for 3D reconstruction. Therefore, knowledge and skill in image processing are required to determine the authenticity of a feature point, and there is a problem that even an amateur or an experienced person cannot easily perform the determination. Also,
If you want to perform precise 3D reconstruction from two 2D images,
Although it is necessary to increase the parallax as much as possible, there is also a problem that as the parallax increases, the possibility of specifying a false feature point increases.

【0005】一方、時空間画像を用いる方法では、視点
の運動が既知であることを条件とするため、視点運動を
測定する特別な装置を必要とし、コストが増大するとい
う課題があった。また、屋外で視点運動を測定する装置
は、極めて大がかりなものとなり、被写体の周囲環境に
よっては、かかる測定装置を得られず、従って、時空間
画像手法を適用できる被写体は主として屋内の物体に限
られるという課題があった。
On the other hand, in the method using a spatiotemporal image, a special device for measuring the viewpoint movement is required since the movement of the viewpoint is known, and there is a problem that the cost is increased. Further, a device for measuring the viewpoint motion outdoors is extremely large-scale, and such a measuring device cannot be obtained depending on the surrounding environment of the subject. Therefore, the subject to which the spatiotemporal imaging method can be applied is mainly limited to indoor objects. There was a problem that it could be.

【0006】本発明は、このような従来技術の有する課
題に鑑みてなされたものであり、その目的とするところ
は、視点運動を測定する特殊装置や、画像処理などの特
殊技能を必要とせず、特徴点の対応問題を簡易に解決で
きる被写体特徴点の対応付け方法及びこれを用いた被写
体の3D復元法を提供することにある。
The present invention has been made in view of the above-mentioned problems of the prior art, and an object of the present invention is to eliminate the need for a special device for measuring a viewpoint movement or special skills such as image processing. Another object of the present invention is to provide a method of associating subject feature points, which can easily solve the feature point correspondence problem, and a 3D restoration method of a subject using the method.

【0007】[0007]

【課題を解決するための手段】本発明者らは、上記目的
を達成すべく鋭意検討を重ねた結果、各2D画像に特定
の制約を課し、更に特定量に注目することにより、上記
対応問題が簡易に解決できることを見出し、本発明を完
成するに至った。
Means for Solving the Problems As a result of intensive studies to achieve the above object, the present inventors have imposed a specific constraint on each 2D image, and further focused on a specific amount, thereby achieving the above-mentioned measures. The inventors have found that the problem can be easily solved, and have completed the present invention.

【0008】即ち、本発明の特徴点の対応付け方法は、
視点を連続的に移動させて撮影した複数の2D画像を用
いて被写体の立体形状を3D復元する際、上記複数の2
D画像間における上記被写体の特徴点の対応付けを行う
方法であって、(A)上記視点と上記被写体との距離
が、視点の初期座標と移動後座標との距離に比し十分大
きくなるように、これら視点を移動させ、この際、上記
特徴点のうちの任意の1点が初期座標による2D画像と
移動後座標による2D画像の画像原点に位置するように
し、(B)上記各2D画像における上記任意1点の特徴
点の2D位置と2D画像原点との距離を導入して、上記
視点の移動に伴う上記任意1点の特徴点の運動軌跡を3
次元並進ベクトルHのみの関数とし、(C)上記任意1
点の特徴点の運動を、(A)ステップで用いた以外の2
D画像を用いて追跡し、得られた運動軌跡と(B)ステ
ップで得られた運動軌跡とを対比し、相関性の高いもの
を真の特徴点の運動軌跡として採用し、これを利用し
て、各2D画像における他の特徴点を対応付けることを
特徴とする。
That is, the method for associating feature points according to the present invention is as follows.
When 3D reconstruction of the three-dimensional shape of the subject is performed using a plurality of 2D images taken while continuously moving the viewpoint, the plurality of 2D images are used.
A method for associating a feature point of the subject between D images, wherein (A) a distance between the viewpoint and the subject is sufficiently larger than a distance between initial coordinates of the viewpoint and coordinates after movement. Then, the viewpoints are moved, and at this time, any one of the feature points is located at the image origin of the 2D image based on the initial coordinates and the 2D image based on the coordinates after the movement. Introducing the distance between the 2D position of the arbitrary one feature point and the origin of the 2D image in the above, the motion trajectory of the arbitrary one feature point accompanying the movement of the viewpoint is set to 3
(C) The above arbitrary 1
2 except that the motion of the feature points of the point was used in step (A).
Tracking using the D image, comparing the obtained motion trajectory with the motion trajectory obtained in step (B), adopting a highly correlated motion trajectory as a true feature point motion trajectory, and using this Thus, another feature point in each 2D image is associated.

【0009】また、本発明の3D復元法は、視点を連続
的に移動させて撮影した複数の2D画像を用いて被写体
の立体形状を3D復元するに当たり、(1)上述した特
徴点の対応付け方法を適用して、各2D画像間における
特徴点の対応付けを完了し、次いで、上記複数の2D画
像から3D復元の対象となる少なくとも1対の2D画像
を選択し、各2D画像に対応する視点座標をそれぞれ初
期座標及び移動後座標とし、(2)上記各座標における
任意1点の特徴点の2D位置と2D画像原点との距離を
導入して、上記視点の運動を示す3次元並進ベクトルH
を算出し、(3)しかる後、(1)ステップで求めた対
応付けと(2)ステップで求めた3次元並進ベクトルと
を用いて、上記少なくとも1対の2D画像による3D画
像を得ることを特徴とする。
The 3D reconstruction method of the present invention is used for 3D reconstruction of an object using a plurality of 2D images photographed while continuously moving the viewpoint. The method is applied to complete the association of the feature points between the 2D images. Then, at least one pair of 2D images to be subjected to 3D restoration is selected from the plurality of 2D images, and the corresponding 2D images are selected. The viewpoint coordinates are set as initial coordinates and post-movement coordinates, respectively. (2) The three-dimensional translation vector indicating the movement of the viewpoint by introducing the distance between the 2D position of an arbitrary one feature point and the origin of the 2D image at each of the coordinates. H
And (3) after that, using the association obtained in the step (1) and the three-dimensional translation vector obtained in the step (2), obtaining a 3D image by the at least one pair of the 2D images. Features.

【0010】[0010]

【発明の実施の形態】以下、本発明を、図面を参照して
実施形態により詳細に説明する。図1は、視点(カメ
ラ)を任意且つ連続的に移動させて同一被写体の連続2
D画像を撮影している状態を示す斜視図である。なお、
3D復元は被写体の特徴点に着目して行われ、かかる特
徴点としては、一般に被写体の外形上の端点、分岐点及
び交差点などが抽出される。また、特徴点の抽出方法に
よっても、得られる3D画像の精密さ変化するが、その
詳細は後述する。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, the present invention will be described in detail by embodiments with reference to the drawings. FIG. 1 shows an example in which the viewpoint (camera) is arbitrarily and continuously moved so that a continuous
FIG. 3 is a perspective view showing a state in which a D image is being shot. In addition,
The 3D restoration is performed by focusing on the feature points of the subject. As such feature points, generally, an end point, a branch point, an intersection, and the like on the outer shape of the subject are extracted. In addition, the precision of the obtained 3D image changes depending on the method of extracting the feature points, which will be described in detail later.

【0011】本発明は、上述の如く、視点の微小移動区
間における注視点制約(ステップA)と、特徴点の相関
関係の検討(ステップC)とを主たる内容とする。な
お、ステップAにおける視点の微小移動区間は、必ずし
も連続2D画像の第1番目画像(静止状態)から開始す
るものとする必要はなく、視点移動全体のうちの特定区
間を抽出すれば十分である。
As described above, the present invention mainly has a gaze point restriction (step A) in a minute movement section of a viewpoint and a study of a correlation between feature points (step C). Note that the minute movement section of the viewpoint in step A does not necessarily need to start from the first image (still state) of the continuous 2D image, and it is sufficient to extract a specific section of the entire viewpoint movement. .

【0012】[ステップA及びB]本発明おいては、図
1に示すように、被写体2が任意のカメラ位置において
常にカメラ1の画像面に捉えられていることを要し、更
に詳細には、被写体2の任意特定の特徴点(注視点)が
カメラ移動中の2D画像の画像原点に位置するように制
御する(注視点制約を行う)必要があるが、この注視点
制約は画像処理で疑似的に座標系を回転させる手法(標
準変換)を用いることにより、容易に行うことができ
る。
[Steps A and B] In the present invention, as shown in FIG. 1, it is necessary that the subject 2 is always captured on the image plane of the camera 1 at an arbitrary camera position. It is necessary to control (constrain the gazing point) such that an arbitrary specific feature point (gazing point) of the subject 2 is located at the image origin of the 2D image being moved by the camera. The method can be easily performed by using a method of rotating the coordinate system in a pseudo manner (standard conversion).

【0013】図2に、カメラ連続移動撮影の一定区間に
おける3D座標の移動関係を示す。同図において、初期
座標はXk+1−Yk+1−Zk+1、移動後座標はXk+M−Y
k+M−Zk+Mで表され、カメラ位置は各座標の原点Ok+1
及びOk+Mであり、各Z軸はカメラの光軸と一致してい
る。また、各3D座標による2D画像座標の原点は、各
3D座標の原点から焦点距離fの位置にあり、例えば、
初期座標による2D画像座標はxk+1−yk+1で表されて
おり、各3D座標のX軸及びY軸は、対応する2D画像
座標のx軸及びy軸と平行となっている。
FIG. 2 shows a moving relationship of 3D coordinates in a fixed section of continuous camera shooting. In the figure, the initial coordinates are X k + 1 −Y k + 1 −Z k + 1 , and the coordinates after movement are X k + M −Y
k + M− Z k + M , and the camera position is the origin O k + 1 of each coordinate.
And O k + M , and each Z axis coincides with the optical axis of the camera. Also, the origin of the 2D image coordinates based on each 3D coordinate is located at a focal distance f from the origin of each 3D coordinate.
The 2D image coordinates based on the initial coordinates are represented by x k + 1 −y k + 1 , and the X axis and Y axis of each 3D coordinate are parallel to the x axis and y axis of the corresponding 2D image coordinate. .

【0014】また、カメラ位置Ok+1−Ok+M間の移動
は、3次元並進ベクトルH及び回転行列Rの合成により
定義され、回転行列Rは図示したようにX、Y、Z軸回
りの回転角度θX(チルド角)、θY(パン角)、θ
Z(ロール角)で表される。なお、被写体の全特徴点数
をN個とし、そのうちの任意の1点であるi番目特徴点
を符号iで示した。
The movement between the camera positions O k + 1 -O k + M is defined by the combination of a three-dimensional translation vector H and a rotation matrix R, and the rotation matrix R has X, Y, and Z axes as shown in the figure. Rotation angle θ X (tilted angle), θ Y (pan angle), θ
Expressed by Z (roll angle). Note that the number of all feature points of the subject is N, and the i-th feature point, which is an arbitrary one of them, is indicated by a symbol i.

【0015】ここで、全2D画像数がL枚、カメラを微
小移動させて撮影した2D画像数が第k+1番目画像か
ら第k+M番目画像までのM枚であるとし、これらM枚
の連続2D画像を用いて特徴点iの軌跡を検出する(但
し、kは正の整数であって、0,1,・・・,L−Mを示
し、iは自然数であって、1,・・・,Nを示す。)。
Here, it is assumed that the total number of 2D images is L, and the number of 2D images photographed by slightly moving the camera is M from the (k + 1) th image to the (k + M) th image. (Where k is a positive integer and represents 0, 1,..., LM, i is a natural number, and is 1,..., N.).

【0016】M枚の連続2D画像のうちの第k+1番目
画像と第k+m番目画像(mは自然数であって、1,
2,・・・,Mを示す。)に注目すると、図2において、
第k+1番目画像が初期座標に対応し、第k+m番目画
像が移動後座標に対応するので、移動後座標における特
徴点iの3D位置をPi k+mとすると、Pi k+mは次式で表
される。 Pi k+m=(Xi k+m,Yi k+m,Zi k+mT =RT(Pi k+1−H)・・・(1) 但し、式において、RTはRの転置行列を表し、RT
Z TY TX Tであり、RZ、RY、RXはそれぞれXk+1
k+1、Zk+1軸回りの回転行列である。
The (k + 1) -th image and the (k + m) -th image (m is a natural number, and 1,
2, ..., M are shown. ), In FIG.
The (k + 1) -th image corresponds to the initial coordinates, since the first k + m-th image corresponding to the moved coordinate, when the 3D position of the feature point i in the moving coordinates after the P i k + m, the P i k + m following It is expressed by an equation. P i k + m = (X i k + m, Y i k + m, Z i k + m) T = R T (P i k + 1 -H) ··· (1) where, in the formula, R T represents the transpose of R, where R T =
R Z T is R Y T R X T, R Z, R Y, each R X X k + 1,
This is a rotation matrix around the Y k + 1 and Z k + 1 axes.

【0017】ここで、上記RXを成分表示すると、次の
数1のように表せる。
Here, if the above R X is expressed as a component, it can be expressed as the following equation 1.

【0018】[0018]

【数1】 (Equation 1)

【0019】また、特徴点の3D位置Pi k+mに対応する
2D画像座標(xi k+m,yi k+m)は、射影変換を用いて
表示すると、次式のようになる。 xi k+m=f・Xi k+m/Zi k+m、yi k+m=f・Yi k+m/Zi k+m・・・(2)
Further, 2D image coordinates corresponding to the 3D position P i k + m of the feature point (x i k + m, y i k + m) , when displayed using the projective transformation, the following equations . x i k + m = f · X i k + m / Z i k + m, y i k + m = f · Y i k + m / Z i k + m ··· (2)

【0020】次に、特徴点の運動軌跡を求めるべく、特
徴点の3D位置Pi k+mとして注視点を考え、この注視点
をP1 k+mとすると、上記式は、次の(3)式のようにな
る。
Next, in order to obtain the motion trajectory of the feature point, a gazing point is considered as the 3D position P i k + m of the feature point, and this gazing point is P 1 k + m. It becomes like equation 3).

【0021】[0021]

【数2】 (Equation 2)

【0022】ここで、(3)式に左からRZを掛けると、次
の(4)式が得られる。 RZ1 k+m=P1 k+m =RY TX T(P1 k+1−H)・・・(4)
Here, when the equation (3) is multiplied by R Z from the left, the following equation (4) is obtained. R Z P 1 k + m = P 1 k + m = R Y T R X T (P 1 k + 1 -H) ··· (4)

【0023】そして、(4)式を解くことにより、次の注
視点制約式(5)を得る。 tanθX=HY/(Z1 k+1−HZ) ・・・(5) tanθY=−HX/{(Z1 k+1−HZ2−HY 21/2
Then, the following gazing point constraint equation (5) is obtained by solving equation (4). tan θ X = H Y / (Z 1 k + 1 −H Z ) (5) tan θ Y = −H X / {(Z 1 k + 1 −H Z ) 2 −H Y 21/2

【0024】また、(5)式からRXY Tを求めると、次の
(6)式となる。
Further, when R XY T is obtained from the equation (5), the following is obtained.
Equation (6) is obtained.

【0025】[0025]

【数3】 (Equation 3)

【0026】(ステップB)上述のように、注視点制約
を行うのみでは、ロール角(θZ)は求められない。そ
こで、ロール角に依存しない量を導入する。特徴点Pi
k+mの2D画像座標(xi k+m,yi k+m)の画像原点から
の距離(ri k+m)は、ロール角に依存しないので、これ
を利用して、(2)、(3)、(5)及び(6)式から次の(7)式が
導かれる。
(Step B) As described above, the roll angle (θ Z ) cannot be obtained only by restricting the gazing point. Therefore, an amount independent of the roll angle is introduced. Feature point P i
k + m of the 2D image coordinates (x i k + m, y i k + m) the distance from the image origin (r i k + m) does not depend on the roll angle, by using this, (2 ), (3), (5) and (6), the following equation (7) is derived.

【0027】 (ri k+m/f)2={(αi k+m2+(βi k+m2}/(γi k+m2・・・(7) 但し、αi k+m=(Xi k+1−HX)+tanθXtanθY
(Yi k+1−HY)−tanθY(Zi k+1−HZ) βi k+m=(Yi k+1−HY)+tanθX(Zi k+1−HZ) γi k+m=(Zi k+1−HZ)+tanθY(Xi k+1−HX
−tanθX(Yi k+1−HY
[0027] (r i k + m / f ) 2 = {(α i k + m) 2 + (β i k + m) 2} / (γ i k + m) 2 ··· (7) However, α i k + m = (X i k + 1 −H X ) + tan θ X tan θ Y
(Y i k + 1 -H Y ) -tanθ Y (Z i k + 1 -H Z) β i k + m = (Y i k + 1 -H Y) + tanθ X (Z i k + 1 -H Z ) γ i k + m = ( Z i k + 1 -H Z) + tanθ Y (X i k + 1 -H X)
−tan θ X (Y i k + 1 −H Y )

【0028】ここで、上述の微小移動よりMは十分小さ
いので、次式が成立する。 Z1 k+m≒Z1 k+1(m=2,3,・・・,M) また、この場合、カメラの移動は被写体までの距離(〜
i k+1)に比べて小さくなるので、HX/Z1 k+1《1、
Y/Z1 k+1《1、HZ/Z1 k+1《1などの関係が成立す
る。更に、被写体が常にカメラの画像面に捉えられると
いう条件より、Xk+1/Z1 k+1《1、Yk+1/Z1 k+1《1
などの関係も成立する。これらの関係を利用して、近似
計算を行うと、次の(8)式が得られる。
Here, since M is sufficiently smaller than the above-described minute movement, the following equation is established. Z 1 k + m ≒ Z 1 k + 1 (m = 2, 3,..., M) In this case, the movement of the camera depends on the distance to the subject (~
Z i k + 1 ), so that H X / Z 1 k + 1 << 1,
Relationships such as H Y / Z 1 k + 1 << 1 and H Z / Z 1 k + 1 << 1 are established. Further, from the condition that the subject is always captured on the image plane of the camera, X k + 1 / Z 1 k + 1 << 1, Y k + 1 / Z 1 k + 1 << 1
Such a relationship also holds. By performing an approximate calculation using these relationships, the following equation (8) is obtained.

【0029】 (ri k+m/f)2 =(ri k+1/f)2+ 2f(1−Z1 k+1/Zi k+1)(xi k+1・HX/Z1 k+1+yi k+1・HY/Z1 k+1)+ 2(ri k+12・Z1 k+1/Zi k+1・HZ/Z1 k+1・・・(8)[0029] (r i k + m / f ) 2 = (r i k + 1 / f) 2 + 2f (1-Z 1 k + 1 / Z i k + 1) (x i k + 1 · H X / Z 1 k + 1 + y i k + 1 · H Y / Z 1 k + 1) + 2 (r i k + 1) 2 · Z 1 k + 1 / Z i k + 1 · H Z / Z 1 k +1・ ・ ・ (8)

【0030】一方、上述の如く、カメラは被写体が常に
画面に入るように移動しているが、カメラの移動が小さ
く、直線運動とみなされる範囲では、3次元並進ベクト
ルHは、半径Z1 k+1、偏角δの円運動により近似でき
る。また、δは2D画像番号mに対応して離散値をと
る。この関係をδ=δ(m)と表現すると、次の(9)式
の関係が成立する。なお、上述の円運動による近似は、
カメラの移動距離が被写体とカメラとの距離の1/10
以下である場合に好ましく適用することができる。
On the other hand, as described above, the camera moves so that the subject always enters the screen. However, in a range where the movement of the camera is small and linear motion is considered, the three-dimensional translation vector H has a radius Z 1 k. +1 can be approximated by a circular motion with a declination δ. Δ takes a discrete value corresponding to the 2D image number m. If this relation is expressed as δ = δ (m), the following equation (9) holds. The approximation by the above-mentioned circular motion is
The moving distance of the camera is 1/10 of the distance between the subject and the camera
It can be preferably applied in the following cases.

【0031】[0031]

【数4】 (Equation 4)

【0032】(9)式において、「’」は偏角δでの微分
を示す。(8)式に(9)式を代入して、次の(10)式を得、こ
の結果、任意の特徴点iの運動軌跡をベクトルHのみの
関数とすることができた。 (ri k+m/f)2=(ri k+1/f)2+ai k+1δ(m)・・・(10) 但し、 ai k+1=2f(1−Z1 k+1/Zi k+1)(xi k+1・HX
(0)/Z1 k+1+yi k+1・HY’(0)/Z1 k+1)+2
(ri k+12・Z1 k+1/Zi k+1・HZ’(0)/Z1 k+1
In equation (9), “′” indicates the differentiation at the argument δ. The following equation (10) was obtained by substituting the equation (9) into the equation (8). As a result, the motion trajectory of an arbitrary feature point i could be made a function of only the vector H. (R i k + m / f ) 2 = (r i k + 1 / f) 2 + a i k + 1 δ (m) ··· (10) where, a i k + 1 = 2f (1-Z 1 k + 1 / Z i k + 1 ) (x i k + 1 · H X
(0) / Z 1 k + 1 + y i k + 1 · H Y '(0) / Z 1 k + 1) +2
(R i k + 1 ) 2 · Z 1 k + 1 / Z i k + 1 · H Z ′ (0) / Z 1 k + 1

【0033】ここで、3D復元に適切に用いられる特徴
点(以下、「真の特徴点」という。)の運動軌跡、即
ち、対象とする個々の特徴点のうちの真の特徴点は、各
2D画像において(10)式に従う。これに対し、オクルー
ジョン(異物による遮蔽)等により生ずる偽の特徴点
は、(10)式には従わないので、その相違から対象とする
特徴点の真偽を判別することができ、また、対象とする
少なくとも2枚の2D画像において、対応問題の解決が
成功か失敗か判別できることになる。
Here, the motion trajectory of a feature point appropriately used for 3D reconstruction (hereinafter, referred to as a “true feature point”), that is, a true feature point among individual target feature points is Equation (10) is followed for a 2D image. On the other hand, a false feature point caused by occlusion (obstruction by a foreign substance) does not follow the equation (10), so that the difference can be used to determine the true / false of the target feature point. It can be determined whether the solution of the corresponding problem is successful or unsuccessful in at least two 2D images.

【0034】また、(10)式においては、ri k+1、ai k+1
のようにi依存性を有し、選定した特徴点による影響が
出るが、かかるi依存性を除去すべく、(10)式におい
て、ri k+m値をmに関して平均値を0.0、標準偏差が
1.0となるように変換した値をui k+mとすると、(10)
式は次の(11)式のように表される。
In equation (10), r i k + 1 , a i k + 1
It has i dependence as, but leaves affected by the selected feature points, in order to remove such i dependency, an average value with respect to the (10) equation, the r i k + m value m 0.0 , And u i k + m is the value converted so that the standard deviation is 1.0, (10)
The equation is expressed as the following equation (11).

【0035】[0035]

【数5】 (Equation 5)

【0036】(11)式において、右辺は特徴点番号iに依
存していないことが分かる。このことは、真の特徴点が
いずれも(11)式を満足することを意味する。よって、真
の特徴点同士は相関性が高いことになり、上述の(10)式
による特徴点の真偽判断、対応問題の成否判断が肯定さ
れることになる。
In equation (11), it can be seen that the right side does not depend on the feature point number i. This means that all the true feature points satisfy Expression (11). Therefore, the true feature points have a high correlation, and the true / false determination of the feature point and the success / failure determination of the corresponding problem by the above equation (10) are affirmed.

【0037】[ステップC]以下、上述のカメラ微小移
動による第k+1番目画像から第k+m番目画像までの
M枚を用いて算出した真の特徴点の運動軌跡を用いて、
残りの2D画像における対応問題を解決する。ここで、
簡略化のためk=0とし、第1〜第M番目画像を用いて
上記同様に、真の特徴点の運動軌跡ri m((10)式参照)
を求めたとする。また、3D復元に用いる2D画像は、
1,・・・,M,M+1,・・・,LのL枚とする。
[Step C] Hereinafter, using the motion trajectory of the true feature point calculated using the M images from the (k + 1) th image to the (k + m) th image by the above-described camera minute movement,
Solve the correspondence problem in the remaining 2D images. here,
And k = 0 for simplicity, in the same manner as described above with reference to first to M th image, motion trajectory r i m of the true feature points (see (10) Formula)
Suppose you asked for The 2D image used for 3D restoration is
, M, M + 1,..., L.

【0038】上記運動軌跡ri mにおいて、mについて平
均値0.0、標準偏差1.0となるように変換した値を
i mとすると、上述の如く、真の特徴点の運動軌跡は相
互に相関が高いので、この相関性を利用して第1番目画
像における特徴点の真偽を判定でき、これと同時に、真
の特徴点に対しては第1番目画像〜第M番目画像までの
対応問題が解決ずみとなる。
[0038] In the motion trajectory r i m, an average value for m 0.0, when the converted value for the standard deviation 1.0 and u i m, as described above, the motion locus of the true feature points are Since the mutual correlation is high, it is possible to determine whether the feature point in the first image is true or false using this correlation, and at the same time, from the first image to the Mth image for the true feature point. Will be solved.

【0039】次に、上述の第1〜第M番目画像におい
て、特徴点軌跡を求めたのと同様の処理を、残余の2D
画像、即ち第(L−M)番目〜第L番目画像まで、画像
開始番号を1つずつずらしながら行い、上記ui mを利用
して相関性を判定する。これにより、第1番目画像から
第L−M番目画像までにおける特徴点の真偽が判定で
き、この結果、第1番目画像〜第L番目画像の対応問題
が解決できたことになる。なお、このCステップにおい
て、第1番目〜第L番目画像は、大きなカメラ移動をも
って撮影されたものであってもよい。
Next, in the above-mentioned first to M-th images, the same processing as that for obtaining the characteristic point trajectory is performed by the remaining 2D image.
Image, i.e., until the (L-M) th to the L th image, performed while shifting the image start number by one, determines the correlation by using the u i m. As a result, the authenticity of the feature points from the first image to the LM-th image can be determined, and as a result, the problem of correspondence between the first image and the L-th image can be solved. In the C step, the first to L-th images may be taken with a large camera movement.

【0040】[特徴点の抽出]次に、上述した特徴点の
抽出について詳細に説明する。複数の2D連続画像から
3D復元を行うに当たって、特徴点として如何なる点を
選定(抽出)するかは、得られる3D画像の精度を向上
する上で重要である。かかる特徴点の抽出は、方向分散
値、即ちテクスチャ情報の複雑さを示す尺度に着目する
ことにより行うことができ、具体的には、モラベック
(Moravec)の演算子を適用することにより行う
ことができるが、以下、まず、第1番目2D画像におけ
る特徴点の抽出について説明し、次いで、第2番目以降
の2D画像における特徴点の抽出について説明する。
[Extraction of Feature Points] Next, extraction of the feature points described above will be described in detail. In performing 3D restoration from a plurality of 2D continuous images, what point is selected (extracted) as a feature point is important in improving the accuracy of the obtained 3D image. The extraction of such feature points can be performed by focusing on the directional variance value, that is, a scale indicating the complexity of the texture information, and specifically, by applying a Moravec operator. Although it is possible, first, the extraction of the feature points in the first 2D image will be described, and then the extraction of the feature points in the second and subsequent 2D images will be described.

【0041】(第1番目画像における特徴点の抽出)ま
ず、前処理として、2D画像のコントラスト強調及び平
滑化を行う。かかるコントラスト強調等は、一般化ヒス
トグラム変換やメディアンフィルタを用いて行うことが
できる。そして、このように前処理した2D画像から、
被写体の形状上の境界線(以下、「エッジ」とい
う。)、例えば、端点、分岐点及び交差点を抽出し、こ
れを特徴点とするが、例えば、ゾーペルオペレータを使
用することにより、比較的良質のエッジ情報を得ること
ができる。
(Extraction of Feature Points in First Image) First, as preprocessing, contrast enhancement and smoothing of a 2D image are performed. Such contrast enhancement and the like can be performed using a generalized histogram conversion or a median filter. Then, from the pre-processed 2D image,
Boundaries (hereinafter, referred to as “edges”) on the shape of the subject, for example, end points, branch points, and intersections are extracted and used as feature points. For example, by using a Sopel operator, High quality edge information can be obtained.

【0042】次に、得られたエッジの2値化処理を、例
えば、微分ヒストグラム法により行い、更に、エッジを
細線化し、断線回復処理を行う。しかる後、指定サイズ
以下、例えば、1画素以下の微粒子を除去することによ
り、ノイズを除去する。
Next, binarization processing of the obtained edge is performed by, for example, a differential histogram method, and further, the edge is thinned and disconnection recovery processing is performed. Thereafter, noise is removed by removing fine particles of a specified size or less, for example, one pixel or less.

【0043】図3は、細線化されたエッジ情報の一例を
示す。同図において、マス目に記入されている数字は、
そのエッジの近傍に存在する8個の画素うち、当該エッ
ジが接触している画素の数を示している。特に、マス目
内の数字が3又は4であるエッジは方向分散値が大き
く、特徴点とするに好適である。上述の如く、このよう
に細線化されたエッジには、端点、分岐点及び交差点等
が存在するが、本発明では、まず、分岐点などを特徴点
とし、更に分岐点などを削除することで、エッジをセグ
メント化し、ラベル付けを行う。
FIG. 3 shows an example of thinned edge information. In the figure, the numbers entered in the squares are
It indicates the number of pixels in contact with the edge among the eight pixels existing near the edge. In particular, an edge whose number in the square is 3 or 4 has a large directional variance value and is suitable as a feature point. As described above, the thinned edge has an end point, a branch point, an intersection, and the like. In the present invention, first, the branch point and the like are used as feature points, and further, the branch point and the like are deleted. , Segment the edges and label them.

【0044】次に、セグメント化及びラベル付けを行っ
たエッジに対し、ラベル番号順に以下の処理を行う。即
ち、図4に示したように、あるラベル番号のエッジの始
点と終点とを結ぶ直線を求め、そのラベル番号のエッジ
と接触する全ての画素に対し、上記直線からの距離Bを
求める。この際、その距離の最大値Bmaxが閾値、例え
ば5画素以上であれば、この最大値に対応する画素を特
徴点とする。そして、上述のようにして抽出した特徴点
を新たな端点とし、上記同様の処理を再帰的に繰り返
し、他の特徴点を抽出し、第1番目画像における特徴点
の抽出を完了する。
Next, the following processing is performed on the segmented and labeled edges in the order of label numbers. That is, as shown in FIG. 4, a straight line connecting the start point and the end point of the edge of a certain label number is obtained, and the distance B from the straight line is obtained for all the pixels that come into contact with the edge of the label number. At this time, if the maximum value Bmax of the distance is a threshold value, for example, 5 pixels or more, a pixel corresponding to this maximum value is set as a feature point. Then, the feature point extracted as described above is set as a new end point, the same processing as above is recursively repeated, another feature point is extracted, and the extraction of the feature point in the first image is completed.

【0045】(第2番目画像以降における特徴点の追
跡)上述のようにして抽出した特徴点には、偽の特徴点
も含まれているため、得られる3D復元の精度を向上す
るには、このような偽の特徴点をある程度削除すること
が好ましい。このような偽特徴点の削除は、第2番目以
降の画像において行うテンプレートマッチングにより行
うことができる。以下、テンプレートマッチングにつき
説明する。
(Tracking of Feature Points in Second and Subsequent Images) Since the feature points extracted as described above include fake feature points, it is necessary to improve the accuracy of the obtained 3D reconstruction. It is preferable to delete such false feature points to some extent. Such false feature points can be deleted by template matching performed on the second and subsequent images. Hereinafter, template matching will be described.

【0046】このテンプレートマッチングは、上述のよ
うにして抽出した特徴点の近傍の一定領域(テンプレー
ト)に着目し、このテンプレートを複数画像において追
跡してテンプレート内の方向分散値の最小値を計算し、
その特徴点の値とすることにより行われる。そして、得
られた方向分散値の最小値に閾値処理を施し、更に端点
で方向分散値の小さい特徴点を削除し、残余のものを特
徴点として抽出する。このように抽出された特徴点うち
第1番目画像におけるi番目特徴点の位置を「ri 1」の
ように表す(但し、i=1,2,・・・,Nであり、Nは
方向分散値による閾値処理済みの特徴点数を示す。)。
This template matching focuses on a fixed area (template) near the feature points extracted as described above, traces this template in a plurality of images, and calculates the minimum value of the directional variance value in the template. ,
This is performed by setting the value of the feature point. Then, threshold processing is performed on the obtained minimum value of the directional variance value, and a feature point having a small directional variance value at an end point is deleted, and the remaining feature points are extracted as feature points. Thus representing the extracted position of the i-th feature point in the feature point among the first image as "r i 1" (where, i = 1,2, ···, a N, N is the direction This shows the number of feature points that have been subjected to threshold processing using a variance value.)

【0047】図5に、テンプレートマッチングの一例を
示す。同図において、符号3は、連続2D画像の第k番
目画像を示し、符号4は、第k番目画像の一部分を表す
コースカーソル(21×21画素の窓)を示し、符号5
は、第(k−1)番目画像の一部分を表すファインカー
ソル(11×11画素の窓)であって、このファインカ
ーソル5が上記テンプレートに相当する。
FIG. 5 shows an example of template matching. In the figure, reference numeral 3 denotes a k-th image of a continuous 2D image, reference numeral 4 denotes a coarse cursor (21 × 21 pixel window) representing a part of the k-th image, and reference numeral 5 denotes a cursor.
Is a fine cursor (11 × 11 pixel window) representing a part of the (k−1) th image, and the fine cursor 5 corresponds to the template.

【0048】図5に示したようなテンプレートマッチン
グにおいては、コースカーソル4内で1画素の精度で特
徴点位置を推定するが、この場合、ファインカーソル5
内の微分画像を用いて特徴点位置を計算する。図5にお
いて、特徴点位置はファインカーソル5の中心にある
が、第k番目画像における特徴点の概略位置は、前画像
である第(k−1)番目画像で計算された位置(ファイ
ンカーソル5の中心)を中心としたコースカーソル4で
示されている。
In the template matching as shown in FIG. 5, a feature point position is estimated with an accuracy of one pixel in the coarse cursor 4. In this case, the fine cursor 5
The feature point position is calculated by using the differential image in. In FIG. 5, the feature point position is at the center of the fine cursor 5, but the approximate position of the feature point in the k-th image is the position (fine cursor 5) calculated in the (k-1) th image which is the previous image. (The center of the cursor).

【0049】このような状態において、ファインカーソ
ル5とコースカーソル4とを対応させ、コースカーソル
4内で次の数6に示す類似度、即ち、両カーソルにおけ
るテクスチャ情報上の類似性が最小となる位置を計算
し、第k番目画像における特徴点の位置とする。
In such a state, the fine cursor 5 and the course cursor 4 are made to correspond to each other, and the similarity shown in the following Expression 6 within the course cursor 4, that is, the similarity in the texture information between the two cursors is minimized. The position is calculated and set as the position of the feature point in the k-th image.

【0050】[0050]

【数6】 (Equation 6)

【0051】上式において、Fはテンプレートを示し、
Cは微分画像を示す。また、シグマはファインカーソル
5内での総和を示している。なお、この式は、SSDA
法による処理の高速化に有効である。
In the above equation, F represents a template,
C indicates a differential image. Further, sigma indicates the total sum in the fine cursor 5. Note that this equation is SSDA
This is effective for speeding up processing by the method.

【0052】テンプレートマッチングは、例えば、上述
のように第1番目画像で抽出した全ての特徴点を全2D
画像に亘って追跡することにより行われる。具体的に
は、図6に示すように、k番目2D画像中のi番目特徴
点の位置は、コースカーソルサイズで予測され、次式の
関係が成立する。
In the template matching, for example, as described above, all feature points extracted from the first
This is done by tracking over the image. Specifically, as shown in FIG. 6, the position of the i-th feature point in the k-th 2D image is predicted by the course cursor size, and the following relationship holds.

【0053】r’i k=ri k-1(i=1,2,・・・N)、
(k=1,2,・・・,L)
R ′ i k = r i k−1 (i = 1, 2,... N),
(K = 1, 2,..., L)

【0054】但し、r’i kは第k番目画像中で予測され
たi番目コースカーソルの位置、ri k-1は第(k−1)
番目画像におけるi番目特徴点の位置、Nは全特徴点
数、Lは追跡する画像数を示す。また、r’i kは、コー
スカーソルの中心を示し、計算された特徴点の位置とな
るが、このコースカーソル内には、i番目特徴点が含ま
れている可能性が高い。
[0054] However, r 'i k is the predicted position of the i-th course cursor in the k-th image, r i k-1 is the first (k-1)
The position of the i-th feature point in the n-th image, N indicates the number of all feature points, and L indicates the number of images to be tracked. Also, r ′ i k indicates the center of the course cursor and is the position of the calculated feature point. It is highly possible that the course cursor contains the i-th feature point.

【0055】なお、特徴点間の相関性が悪いと上述のよ
うな追跡を行うことができなくなることがある。また、
エッジの途中部分のように、その近傍と方向分散値があ
まり異ならない特徴点が抽出されることもあり(「アパ
ーチャ問題」という。)、この結果、そのような特徴点
の運動軌跡が他の特徴点の運動軌跡と著しく異なってし
まうこともある。
If the correlation between the feature points is poor, the above tracking may not be performed. Also,
A feature point whose direction variance is not so different from that of the vicinity, such as a middle part of an edge, may be extracted (referred to as an “aperture problem”). It may be significantly different from the motion locus of the feature point.

【0056】[クラスタ化]次に、上述のステップCで
説明した特徴点の相関関係の検討に関する別法について
説明する。上述の如く、真の特徴点の運動軌跡は、本発
明所定の方法により算出することができるが、偽の特徴
点の運動軌跡は、算出することができない。従って、真
の特徴点の運動軌跡群は相互に相関性が高く、偽の特徴
点の運動軌跡群は、他のいかなる運動軌跡とも相関性が
低くなる。よって、特徴点の運動軌跡を以下のようにク
ラスタ化することにより、偽の特徴点を排除することが
でき、対応問題の解決精度を更に向上することができ
る。
[Clustering] Next, another method for examining the correlation between feature points described in step C will be described. As described above, the motion trajectory of the true feature point can be calculated by the predetermined method of the present invention, but the motion trajectory of the false feature point cannot be calculated. Therefore, the motion trajectories of the true feature points have a high correlation with each other, and the motion trajectories of the false feature points have a low correlation with any other motion trajectories. Therefore, by clustering the motion trajectories of the feature points as follows, false feature points can be eliminated, and the resolution accuracy of the correspondence problem can be further improved.

【0057】まず、ステップAで説明した注視点制約
と、ステップBで説明した特徴点2D画像座標の画像原
点からの距離の導入とを実行し、上記(10)式により、第
k番目画像におけるi番目特徴点の位置を示す(ri k
2を求める。次いで、次の定義式(数7)に従って相互
相関値ρijを求める。
First, the gazing point constraint described in step A and the introduction of the distance from the image origin of the feature point 2D image coordinates described in step B are executed. indicating the position of the i-th feature point (r i k)
Ask for 2 . Next, a cross-correlation value ρ ij is obtained according to the following definition equation (Equation 7).

【0058】[0058]

【数7】 (Equation 7)

【0059】上式において、ui kは上記(ri k2を正
規化したものを示し、ui kとuj kとの相互相関値ρij
定義より[−1,1]の値をとる。次に、算出した相互
相関値ρijマトリックス中において、同一性のある成分
をまとめて図解するデンドログラム処理を行い、各特徴
点の相関による分類を調べる(図7参照)。
[0059] In the above equation, u i k denotes a material obtained by normalizing the (r i k) 2, the cross-correlation value [rho ij between u i k and u j k of [-1,1] by definition Take a value. Next, in the calculated cross-correlation value ρ ij matrix, a dendrogram process for collectively illustrating components having the same identity is performed, and the classification based on the correlation of each feature point is examined (see FIG. 7).

【0060】このデンドログラム処理では、類似度の指
数として相互相関値ρijを用いる。最も理想的には、ρ
ijは1.0となるが、閾値を1.0から下げるに従って
クラスタが形成される。この際、クラスタの統合は、全
てのクラスタ間(Cm,Cn)で次の数8で示される計算
(dmax)を行い、最大値となるクラスタ対を統合する
ことにより行う。
In this dendrogram processing, a cross-correlation value ρ ij is used as an index of similarity. Most ideally, ρ
Although ij is 1.0, clusters are formed as the threshold is lowered from 1.0. At this time, cluster integration is performed by performing calculation (d max ) shown in the following Expression 8 between all clusters (C m , C n ) and integrating the cluster pair having the maximum value.

【0061】[0061]

【数8】 (Equation 8)

【0062】上述のようにクラスタの統合を行いなが
ら、クラスタの成長具合を観察することにより、対応問
題の解決を考えることができる。即ち、対応問題の解決
に成功した特徴点の運動軌跡は類似するが、失敗した特
徴点の運動軌跡は各々異なる。これを換言すると、対応
付けに成功した特徴点については、早期に大きなクラス
タとなるが、失敗した特徴点は小さなクラスタとなるこ
とを意味する。
By observing the degree of cluster growth while performing cluster integration as described above, it is possible to consider a solution to the correspondence problem. That is, the motion trajectories of the feature points for which the correspondence problem has been successfully solved are similar, but the motion trajectories of the failed feature points are different. In other words, a feature point that has been successfully associated is a large cluster early, but a failed feature point is a small cluster.

【0063】上述のことを利用して、閾値を0.5から
1.0に徐々に上げていくと、クラスタが分解されて行
き、真の特徴点である大きなクラスタ群と小さなクラス
タ群とに分離されるので、大きなクラスタ群を選択すれ
ば、対応問題が解決できたことになる。なお、相互相関
値ρijの閾値を0.9程度とすれば、信頼性のある対応
問題の解決が達成できる。
As described above, when the threshold is gradually increased from 0.5 to 1.0, the clusters are decomposed, and the true feature points are divided into a large cluster group and a small cluster group. Since they are separated, if a large cluster group is selected, the correspondence problem can be solved. If the threshold value of the cross-correlation value ρ ij is set to about 0.9, a reliable solution to the problem can be achieved.

【0064】次に、本発明の被写体の3D復元法につい
て説明する。本発明の3D復元法は、上述の対応付け方
法を利用した3D復元法であって、この3D復元法で
は、かかる対応付けが完了していることから、被写体の
3D形状が既知であることが前提条件となる。
Next, the 3D reconstruction method of the subject according to the present invention will be described. The 3D restoration method of the present invention is a 3D restoration method using the above-described association method. In this 3D restoration method, since the association is completed, the 3D shape of the subject may be known. It is a prerequisite.

【0065】以下、具体的に説明すると、まず、上述の
対応付け方法を適用して、連続2D画像の各画像間にお
ける特徴点の対応付けを完了し、次に、これら2D画像
から3D復元の対象となる少なくとも1対の2D画像を
選択し、各2D画像に対応する視点座標をそれぞれ初期
座標及び移動後座標とする((1)ステップ)。
In the following, a specific description will be given. First, the association method described above is applied to complete the association of the feature points between the images of the continuous 2D images, and then, the 3D reconstruction from these 2D images is performed. At least one pair of target 2D images is selected, and viewpoint coordinates corresponding to each 2D image are set as initial coordinates and post-movement coordinates, respectively (step (1)).

【0066】更に、初期座標と視点座標における任意1
点の特徴点(注視点)の2D位置と2D画像原点との距
離を導入して、上記視点の運動を示す3次元並進ベクト
ルH(以下、「カメラ運動パラメータ」という。)を算
出する((2)ステップ)。その後、(1)ステップで
求めた対応付けと(2)ステップで求めたカメラ運動パ
ラメータとを用いて、3D復元の対象とした少なくとも
1対の2D画像による3D画像を得る。そして、このよ
うな処理を他の2D画像についても適用することによ
り、連続2D画像に対応する3D動画を得ることができ
る。
Further, any one of the initial coordinates and the viewpoint coordinates
By introducing the distance between the 2D position of the feature point of the point (gaze point) and the origin of the 2D image, a three-dimensional translation vector H (hereinafter, referred to as “camera movement parameter”) indicating the movement of the viewpoint is calculated (( 2) Step). Thereafter, using the association obtained in step (1) and the camera motion parameters obtained in step (2), a 3D image of at least one pair of 2D images targeted for 3D restoration is obtained. Then, by applying such processing to other 2D images, a 3D moving image corresponding to a continuous 2D image can be obtained.

【0067】また、この3D復元法においては、(2)
ステップにおいて、カメラ運動パラメータを算出する際
に、任意の2D画像対にスプライン曲線を適用すること
により、この2D画像対の間に存在する中間画像での視
点の3D位置を推定し、この推定3D位置と実画像(当
該中間画像の実画像)における当該視点の3D位置との
位置ズレを算出し、この位置ズレを用いて、上記カメラ
運動パラメータの補正を行うことができ、これにより、
得られる3D動画の精度を向上させることができる。な
お、このようなスプライン曲線を用いた処理において、
上述の任意の2D画像対は、(1)ステップで選択した
少なくとも1対の画像と同一でもよいし異なっていても
い。
In this 3D reconstruction method, (2)
In the step, when calculating a camera motion parameter, a 3D position of a viewpoint in an intermediate image existing between the pair of 2D images is estimated by applying a spline curve to an arbitrary pair of 2D images, and the estimated 3D position is calculated. A position shift between the position and the 3D position of the viewpoint in the real image (the real image of the intermediate image) is calculated, and the camera movement parameter can be corrected using the position shift.
The accuracy of the obtained 3D moving image can be improved. In the processing using such a spline curve,
The arbitrary 2D image pair described above may be the same as or different from at least one pair of images selected in step (1).

【0068】[0068]

【実施例】以下、本発明を実施例により更に詳細に説明
するが、本発明はこれら実施例に限定されるものではな
い。なお、以下の実施例1及び2においては、画像処理
には専用の高速画像プロセッサを使用し、計算処理に
は、ワークステーション(SUS4)を使用した。
EXAMPLES Hereinafter, the present invention will be described in more detail with reference to examples, but the present invention is not limited to these examples. In the following Examples 1 and 2, a dedicated high-speed image processor was used for image processing, and a workstation (SUS4) was used for calculation processing.

【0069】(実施例1)白黒CCDカメラ(シャッタ
ースピード1/500秒)を用い、被写体を常に画像に
捉えながら移動撮影を行い、上記した(11)式の正当性を
判断した。使用したCCDカメラのカメラ特性及び撮影
条件を、以下に示す。
Example 1 Using a black-and-white CCD camera (shutter speed 1/500 sec), a moving image was taken while always capturing the subject as an image, and the validity of the above-mentioned expression (11) was judged. The camera characteristics and shooting conditions of the used CCD camera are shown below.

【0070】[カメラ特性] ・焦点距離(f):25.0(mm) ・画素換算比(EX,EY):(81.0,80.0)
[ピクセル/mm] ・画像中心(i0,j0):(273,235)[ピクセ
ル]
[0070] [Camera properties] - focal length (f): 25.0 (mm) · pixel conversion ratio (E X, E Y) :( 81.0,80.0)
[Pixel / mm] Image center (i 0 , j 0 ): (273, 235) [pixel]

【0071】[撮影条件]図8に示したように、1番目
のカメラ座標において、Zl方向にZ1 l=500.0m
mの位置に物体座標系の原点をおき、Xobj軸、Yobj
回りにそれぞれ45°回転させた。図示したように特徴
点数(N)は、#1〜#9の9個とした。また、カメラ
運動の並進運動は、H=(Z1 lδ,0,0)tとした。
但し、δ=δ(k)=(k−1+w(k))/(2(L
−1))であり、k=1,2,・・・,Lである。なお、
w(k)は、初期値w(1)=0であり、各画像フレー
ムkで値が1ずつランダムに増加・減少するランダムウ
ォーク変数である。更に、相関係数(ρij)に使用する
フレーム数Mは20、追跡フレーム数Lは101とし、
運動軌跡長の閾値(D)は0.1mmとした。
[Shooting Conditions] As shown in FIG. 8, at the first camera coordinate, Z 1 l = 500.0 m in the Z l direction.
The origin of the object coordinate system was set at the position of m, and the object was rotated by 45 ° around the Xobj axis and the Yobj axis. As shown in the figure, the number of feature points (N) was set to nine from # 1 to # 9. The translational motion of the camera motion is H = (Z 1 l δ, 0,0) t .
However, δ = δ (k) = (k−1 + w (k)) / (2 (L
-1)), and k = 1, 2,..., L. In addition,
w (k) is an initial value w (1) = 0, and is a random walk variable whose value randomly increases / decreases by 1 in each image frame k. Further, the number of frames M used for the correlation coefficient (ρ ij ) is 20, the number of tracking frames L is 101,
The threshold (D) for the length of the movement locus was 0.1 mm.

【0072】上述の操作による第1フレーム〜第Mフレ
ームにおける各特徴点のui kとδとを(11)式に代入して
得られた値と、その理論値をグラフ化し図9に示した。
同図に示すグラフは、データを縦方向にずらして観察し
易くしているが、特徴点番号#5と#8とは、Mフレー
ム間の軌跡の長さが閾値(D)以下である。このため、
これらの軌跡は他の特徴点の軌跡と比べて類似していな
いことが分かる。また、これら以外の特徴点について
は、各特徴点のui kが理論値と相関が高く、更に相互に
相関が高いことが明かである。
[0072] a value obtained by substituting the u i k and δ in (11) of each feature point in the first frame, second M frames by the operations described above, shows the theoretical values graphed 9 Was.
In the graph shown in the figure, the data is shifted in the vertical direction to facilitate observation, but for feature point numbers # 5 and # 8, the length of the trajectory between M frames is equal to or smaller than the threshold (D). For this reason,
It can be seen that these trajectories are not similar to the trajectories of other feature points. In addition, it is clear that u i k of each feature point has a high correlation with the theoretical value and further has a high correlation with each other.

【0073】(実施例2) [撮影]図10に示すように、カメラを固定し、被写体
10をマニピュレータ上に載せて回転させ、動画撮影
(VTR撮影)を行った。この際、常に被写体10が画
面に捉えられるようにし、回転間隔は0.3°とし、3
0.0°まで撮影した。また、全フレーム数(L)は1
01とし、軌跡長の閾値(D)は0.1mmとした。
Example 2 [Shooting] As shown in FIG. 10, the camera was fixed, and the subject 10 was placed on a manipulator and rotated to shoot a moving image (VTR shooting). At this time, the subject 10 is always captured on the screen, and the rotation interval is set to 0.3 °.
Photographed to 0.0 °. The total number of frames (L) is 1
01, and the threshold (D) of the locus length was 0.1 mm.

【0074】[特徴点の抽出]次に、第1フレーム画像
を用いて、被写体10の特徴点を抽出した。この際、図
4で説明した屈曲点の閾値(B)を5画素とし、方向分
散値の閾値は、50.0とした。この結果、特徴点は1
6点抽出された(図10参照)。なお、これら特徴点の
抽出に要した時間は、約2分であった。
[Extraction of Feature Points] Next, feature points of the subject 10 were extracted using the first frame image. At this time, the threshold (B) of the inflection point described with reference to FIG. 4 was set to 5 pixels, and the threshold of the direction variance was set to 50.0. As a result, the feature point is 1
Six points were extracted (see FIG. 10). The time required for extracting these feature points was about 2 minutes.

【0075】[特徴点の運動軌跡の抽出]上述したテン
プレートマッチングを行い、特徴点を追跡した。類似度
が0.25以上になった特徴点は追跡を中止した。な
お、類似度の閾値を上げすぎると、目視で追跡されるべ
き点まで追跡が中止されてしまい、閾値を下げすぎる
と、ほとんどの点が追跡されるてしまう。図11は、特
徴点の追跡を示す図であるが、7番目特徴点の追跡が途
中で失敗している例を示すものである。なお、全特徴点
の追跡に要した時間は、約10分であった。
[Extraction of Feature Point Motion Locus] The above-described template matching was performed to track feature points. Tracking of feature points having a similarity of 0.25 or more was stopped. If the threshold value of the similarity is too high, tracking is stopped up to a point to be tracked visually, and if the threshold value is too low, almost all points are tracked. FIG. 11 is a diagram illustrating tracking of a feature point, and illustrates an example in which tracking of a seventh feature point has failed halfway. The time required for tracking all the feature points was about 10 minutes.

【0076】[対応問題の解決]相関性を判断するのに
使用するフレーム数(M)を20とし、上述のクラスタ
化を行い、各フレームにおける特徴点の真偽判定を行っ
た。得られた判定結果を図12に示す。
[Solution of Correspondence Problem] The number of frames (M) used for judging the correlation was set to 20, the above-described clustering was performed, and the authenticity of the feature points in each frame was determined. FIG. 12 shows the obtained determination result.

【0077】図12において、横軸はフレーム番号を示
し、縦軸は特徴点番号を示している。図10及び図11
に示したように、特徴点1のような動きの少ない点、具
体的には、Mフレーム間の軌跡の長さが閾値(D=0.
1mm)以下の特徴点では判定を保留した。なお、特徴
点7については、72フレーム以降で追跡に失敗した。
In FIG. 12, the horizontal axis indicates the frame number, and the vertical axis indicates the feature point number. 10 and 11
As shown in (1), the point with little motion such as the feature point 1, specifically, the length of the trajectory between M frames is a threshold (D = 0.
1 mm) or less, the judgment was suspended. Tracking of the feature point 7 failed after 72 frames.

【0078】フレーム1〜101における対応問題の解
決につき、本実施例による結果を目視検査による結果と
対比し、表1に示した。なお、目視検査は、操作者が各
特徴点について、追跡結果を1フレーム毎に対応関係を
調査することにより行った。
Table 1 shows the results of the present embodiment in comparison with the results of the visual inspection for solving the corresponding problem in the frames 1 to 101. The visual inspection was performed by the operator checking the tracking results for each feature point for each frame.

【0079】表1において、操作者判定の○は、目視検
査に成功したことを示し、×は失敗したことを示す。ま
た、本実施例による計算機判定の○は、フレーム1〜1
01において、真又は保留と判定、偽の判定が出な
い、追跡不可能の判定がない、のいずれかを示し、こ
れ以外は×を示している。表1から、本実施例による真
偽判定は、16点中、正解が14点であり、正解率88
%であることが分かる。
In Table 1, ○ in the operator judgment indicates that the visual inspection was successful, and X indicates that the visual inspection failed. In the computer judgment according to the present embodiment, ○ indicates frames 1 to 1.
01 indicates any of a determination of true or pending, no determination of false, and no determination of tracking failure, and other than that indicates x. From Table 1, the true / false judgment according to the present embodiment is that the correct answer is 14 out of 16 points, and the correct answer rate is 88.
%.

【0080】[0080]

【表1】 [Table 1]

【0081】(実施例3)[スプライン推定によるカメ
ラ運動パラメータの補正] 本実施例では、上述したスプライン曲線を用いたカメラ
運動パラメータの補正について説明する。図13は、ス
プライン推定の概念を示す説明図であって、符号6は被
写体、6aは注視点、7は実際の視点位置、7’は推定
された視点位置を示している。また、以下の処理の前提
として、各連続2D画像における特徴点の対応付けは完
了しており、被写体6の3D形状も既知である。
(Embodiment 3) [Correction of Camera Motion Parameter by Spline Estimation] In this embodiment, correction of camera motion parameter using the above-described spline curve will be described. FIG. 13 is an explanatory view showing the concept of spline estimation, in which reference numeral 6 denotes a subject, 6a denotes a gazing point, 7 denotes an actual viewpoint position, and 7 ′ denotes an estimated viewpoint position. Further, as a premise of the following processing, the association of the feature points in each continuous 2D image has been completed, and the 3D shape of the subject 6 is also known.

【0082】スプライン推定では、まず、任意の2D画
像対を選択し、この2D画像対にスプライン曲線を適用
することにより、両2D画像の間に存在する中間画像に
おける視点の推定3Dを算出し、次に、当該中間画像に
おける視点の実在3D位置を決定し、両3D位置の位置
ズレを考慮して、視点の軌跡(カメラ運動パラメータ)
を補正するのである。
In spline estimation, first, an arbitrary pair of 2D images is selected, and a spline curve is applied to the pair of 2D images to calculate an estimated 3D of a viewpoint in an intermediate image existing between the two 2D images. Next, the actual 3D position of the viewpoint in the intermediate image is determined, and the trajectory of the viewpoint (camera motion parameter) is determined in consideration of the positional deviation between the two 3D positions.
Is corrected.

【0083】具体的には、上記任意の画像対における視
点の3D位置をそれぞれキー0及びキー1とし、キー0
及びキー1の3D位置を常法により求める。次に、キー
0及びキー1にスプライン曲線を適用して、キー0とキ
ー1との間に存在する中間画像における視点位置7’を
推定する(図13(a)参照)。次に、当該中間画像の
実画像における視点位置7を決定し、推定3D位置7’
と実在3D位置7との位置ズレhを求め、この位置ズレ
hが、一辺がΔlの立方体内に存在するか否かを判定す
る(図13(b)参照)。
Specifically, the 3D positions of the viewpoints in the above-mentioned arbitrary image pair are designated as key 0 and key 1, respectively.
And the 3D position of the key 1 is obtained by an ordinary method. Next, a spline curve is applied to keys 0 and 1, and a viewpoint position 7 'in an intermediate image existing between keys 0 and 1 is estimated (see FIG. 13A). Next, the viewpoint position 7 in the real image of the intermediate image is determined, and the estimated 3D position 7 ′ is determined.
And the actual 3D position 7 is determined, and it is determined whether or not the positional deviation h is within a cube having a side Δl (see FIG. 13B).

【0084】そして、位置ズレhが上記立方体内に存在
すれば、カメラ運動パラメータを3D計算せず、一方、
立方体内に存在しなければ、カメラ運動パラメータを3
D計算して求め、これを新たなキーとして採用し、他の
キー0又はキー1との関係で位置ズレが上記立方体内に
存在するようになるまで、上記同様の処理を繰り返し、
カメラ運動パラメータを推定するのである。
If the displacement h exists in the cube, the camera motion parameters are not calculated in 3D.
If it is not in the cube, set the camera motion parameter to 3
D is calculated and obtained, this is adopted as a new key, and the same processing as described above is repeated until a positional shift exists in the cube in relation to another key 0 or key 1,
It estimates camera motion parameters.

【0085】以下、図14に示す被写体8を用いて、ス
プライン推定を行う。同図に示すように、被写体8は、
25個の特徴点を有し、一辺の長さが100mmであ
り、被写体8とカメラとの奥行き距離(図13(a)に
示した符号Z0)は、500mmとした。また、カメラ
運動は、被写体8を中心とした円弧運動とし、円弧運動
の回転幅を0°〜30°として0.3°毎に撮影を行
い、合計101枚の連続2D画像を得た。図15に、カ
メラ運動が真値である場合(上述の円弧運動)のカメラ
運動パラメータHの成分HX、HY、HZの値をグラフ化
して示す。
Hereinafter, spline estimation is performed using the subject 8 shown in FIG. As shown in FIG.
It has 25 feature points, the length of one side is 100 mm, and the depth distance between the subject 8 and the camera (the symbol Z 0 shown in FIG. 13A) is 500 mm. In addition, the camera motion was an arc motion centering on the subject 8, and the rotation width of the arc motion was set to 0 ° to 30 °, and photographing was performed every 0.3 ° to obtain a total of 101 continuous 2D images. FIG. 15 is a graph showing the values of the components H X , H Y , and H Z of the camera motion parameter H when the camera motion is a true value (the above-described arc motion).

【0086】次に、上述のキー数を3、Δlを5mmと
してスプライン推定処理を行い、カメラ運動が真値であ
る場合との位置ズレを上記成分HX、HY、HZに関して
グラフ化したものを図16に示した。更に、キー数を
5、Δlを1mmとした場合を図17に示した。図16
及び図17を比較すると、図17の方が位置ズレが小さ
いことが分かる。また、図17では、位置ズレが極めて
小さく、従って、上述したような撮影条件では、5点程
度のキー点を指定してカメラ運動パラメータを補正する
ことにより、精度に優れる3D復元を行えることが分か
る。
Next, a spline estimation process was performed with the number of keys set to 3 and Δl set to 5 mm, and the positional deviation from the case where the camera motion was a true value was graphed with respect to the components H X , H Y , and H Z. Those are shown in FIG. FIG. 17 shows a case where the number of keys is 5 and Δl is 1 mm. FIG.
17 and FIG. 17, it can be seen that the positional deviation is smaller in FIG. In FIG. 17, the positional deviation is extremely small. Therefore, under the above-described shooting conditions, it is possible to perform highly accurate 3D reconstruction by specifying about five key points and correcting the camera motion parameters. I understand.

【0087】以上、本発明を実施例により詳細に説明し
たが、本発明はこれら実施例に限定されるものではな
く、本発明の要旨の範囲内で種々の変形が可能である。
例えば、連続2D画像を対象にして3D動画を得ること
を前提に説明を行ったが、かかる連続2D画像の撮影は
ビデオ装置などにより行うことができ、このようなビデ
オ画像を本発明で処理することにより、精度の良好な3
D動画を簡易に得ることができる。
Although the present invention has been described in detail with reference to the embodiments, the present invention is not limited to these embodiments, and various modifications can be made within the scope of the present invention.
For example, the description has been given on the assumption that a 3D moving image is obtained for a continuous 2D image. However, such a continuous 2D image can be captured by a video device or the like, and such a video image is processed by the present invention. As a result, a highly accurate 3
D moving images can be easily obtained.

【0088】また、視点を移動させながら、連続2D画
像を得る場合を例に採って説明したが、視点を固定し、
被写体を移動させてよいのは言うまでもない。
Also, the case where a continuous 2D image is obtained while moving the viewpoint has been described as an example.
It goes without saying that the subject can be moved.

【0089】[0089]

【発明の効果】以上説明したように、本発明によれば、
各2D画像に特定の制約を課し、更に特定量に注目する
こととしたため、視点運動を測定する特殊装置や、画像
処理などの特殊技能を必要とせず、特徴点の対応問題を
簡易に解決できる被写体特徴点の対応付け方法及びこれ
を用いた3D復元法を提供することができる。
As described above, according to the present invention,
A specific constraint is imposed on each 2D image and attention is paid to a specific amount. This eliminates the need for a special device for measuring the viewpoint movement or special skills such as image processing, and easily solves the problem of corresponding feature points. It is possible to provide a method of associating subject feature points and a 3D restoration method using the same.

【図面の簡単な説明】[Brief description of the drawings]

【図1】カメラを任意且つ連続的に移動させて同一被写
体の連続2D画像を撮影している状態を示す斜視図であ
る。
FIG. 1 is a perspective view showing a state in which a camera is arbitrarily and continuously moved to capture a continuous 2D image of the same subject.

【図2】カメラ連続移動撮影の一区間における3D座標
の移動関係を示す説明図である。
FIG. 2 is an explanatory diagram showing a moving relationship of 3D coordinates in one section of continuous camera movement shooting.

【図3】細線化されたエッジ情報の一例を示す説明図で
ある。
FIG. 3 is an explanatory diagram showing an example of thinned edge information.

【図4】屈曲点の抽出法の一例を示す説明図である。FIG. 4 is an explanatory diagram showing an example of a method of extracting a bending point.

【図5】テンプレートマッチングの一例を示す説明図で
ある。
FIG. 5 is an explanatory diagram illustrating an example of template matching.

【図6】テンプレートマッチングによる特徴点位置の予
測を示す説明図である。
FIG. 6 is an explanatory diagram showing prediction of a feature point position by template matching.

【図7】デンドログラム処理の一例を示す説明図であ
る。
FIG. 7 is an explanatory diagram illustrating an example of a dendrogram process.

【図8】実施例1における撮影状態を示す説明図であ
る。
FIG. 8 is an explanatory diagram illustrating a shooting state according to the first embodiment.

【図9】各特徴点のui kとδとを(11)式に代入した算出
した値及び理論値を示すグラフである。
FIG. 9 is a graph showing calculated values and theoretical values obtained by substituting u i k and δ of each feature point into equation (11).

【図10】実施例2における撮影状態を示す斜視図であ
る。
FIG. 10 is a perspective view illustrating a photographing state in the second embodiment.

【図11】特徴点を追跡している状態を示す斜視図であ
る。
FIG. 11 is a perspective view showing a state in which a feature point is being tracked.

【図12】特徴点の真偽判定の結果を示す説明図であ
る。
FIG. 12 is an explanatory diagram showing a result of a feature point authenticity determination.

【図13】スプライン推定における位置ズレを示す説明
図である。
FIG. 13 is an explanatory diagram showing a positional shift in spline estimation.

【図14】スプライン推定に用いた被写体を示す正面及
び側面図である。
FIG. 14 is a front view and a side view showing a subject used for spline estimation.

【図15】カメラ運動が真値である場合のカメラ運動パ
ラメータを示すグラフである。
FIG. 15 is a graph showing camera motion parameters when the camera motion is a true value.

【図16】スプライン推定と真値の場合とのカメラ運動
パラメータの差を示すグラフである。
FIG. 16 is a graph showing a difference between camera motion parameters between a spline estimation and a true value.

【図17】スプライン推定と真値の場合とのカメラ運動
パラメータの差を示すグラフである。
FIG. 17 is a graph showing a difference between camera motion parameters between a spline estimation and a true value.

【符号の説明】[Explanation of symbols]

1 カメラ 2 被写体 3 k番目画像 4 コースカーソル 5 ファインカーソル 6 被写体 6a 注視点 7 視点位置 7’ 視点位置(推定) 10 被写体 Reference Signs List 1 camera 2 subject 3 k-th image 4 course cursor 5 fine cursor 6 subject 6a fixation point 7 viewpoint position 7 'viewpoint position (estimated) 10 subject

───────────────────────────────────────────────────── フロントページの続き (72)発明者 小沢 慎治 神奈川県横浜市港北区日吉3丁目14番1号 慶應義塾大学理工学部内 ──────────────────────────────────────────────────の Continuing on the front page (72) Inventor Shinji Ozawa 3-14-1 Hiyoshi, Kohoku-ku, Yokohama, Kanagawa Prefecture Inside Keio University Faculty of Science and Technology

Claims (10)

【特許請求の範囲】[Claims] 【請求項1】 視点を連続的に移動させて撮影した複数
の2D画像を用いて被写体の立体形状を3D復元する
際、上記複数の2D画像間における上記被写体の特徴点
の対応付けを行う方法であって、(A)上記視点と上記
被写体との距離が、視点の初期座標と移動後座標との距
離に比し十分大きくなるように、これら視点を移動さ
せ、この際、上記特徴点のうちの任意の1点が初期座標
による2D画像と移動後座標による2D画像の画像原点
に位置するようにし、(B)上記各2D画像における上
記任意1点の特徴点の2D位置と2D画像原点との距離
を導入して、上記視点の移動に伴う上記任意1点の特徴
点の運動軌跡を3次元並進ベクトルHのみの関数とし、
(C)上記任意1点の特徴点の運動を、(A)ステップ
で用いた以外の2D画像を用いて追跡し、得られた運動
軌跡と(B)ステップで得られた運動軌跡とを対比し、
相関性の高いものを真の特徴点の運動軌跡として採用
し、これを利用して、各2D画像における他の特徴点を
対応付ける、ことを特徴とする特徴点の対応付け方法。
1. A method of associating a feature point of a subject between the plurality of 2D images when the stereoscopic shape of the subject is 3D-reconstructed using a plurality of 2D images photographed while the viewpoint is continuously moved. (A) moving these viewpoints so that the distance between the viewpoint and the subject is sufficiently larger than the distance between the initial coordinates and the moved coordinates of the viewpoint; Any one of these points is located at the image origin of the 2D image based on the initial coordinates and the image origin of the 2D image based on the coordinates after movement, and (B) the 2D position of the feature point of the arbitrary one point in each of the 2D images and the origin of the 2D image And the motion trajectory of the one arbitrary feature point accompanying the movement of the viewpoint as a function of only the three-dimensional translation vector H,
(C) The motion of the one arbitrary feature point is tracked using a 2D image other than the one used in (A) step, and the obtained motion trajectory is compared with the motion trajectory obtained in (B) step. And
A feature point associating method, wherein a feature having a high correlation is adopted as a motion trajectory of a true feature point, and this is used to associate another feature point in each 2D image.
【請求項2】 上記(B)ステップで得られた運動軌跡
を、上記(A)ステップでの視点移動に伴う2D画像枚
数の平均値を0とし、標準偏差を1とすることにより規
格化することを特徴とする請求項1記載の特徴点の対応
付け方法。
2. The motion trajectory obtained in the step (B) is normalized by setting the average value of the number of 2D images accompanying the viewpoint movement in the step (A) to 0 and the standard deviation to 1. 2. The method for associating feature points according to claim 1, wherein:
【請求項3】 上記(A)ステップにおいて、上記初期
座標と移動後座標との距離が、上記視点と被写体との距
離の1/10以下であることを特徴とする請求項1又は
2記載の特徴点の対応付け方法。
3. The method according to claim 1, wherein in the step (A), a distance between the initial coordinates and the coordinates after the movement is 1/10 or less of a distance between the viewpoint and the subject. How to associate feature points.
【請求項4】 上記(C)ステップで用いた2D画像
は、上記(A)ステップにおける視点の移動より大きな
移動をもって撮影されたものであることを特徴とする請
求項1〜3のいずれか1つの項に記載の特徴点の対応付
け方法。
4. The method according to claim 1, wherein the 2D image used in the step (C) is taken with a movement larger than the movement of the viewpoint in the step (A). The method of associating the feature points described in the two sections.
【請求項5】 上記初期座標による2D画像を、上記複
数の2D画像のうちの第1番目画像とし、上記特徴点を
上記被写体のテクスチャ情報上の境界線から抽出するこ
とを特徴とする請求項1〜4のいずれか1つの項に記載
の特徴点の対応付け方法。
5. The method according to claim 1, wherein the 2D image based on the initial coordinates is a first image of the plurality of 2D images, and the feature points are extracted from a boundary line on texture information of the subject. A method for associating feature points according to any one of items 1 to 4.
【請求項6】 上記複数の2D画像のうちの第2番目以
降の画像において、上記特徴点を、その近傍の一定領域
における方向分散値に着目して抽出することを特徴とす
る請求項5記載の特徴点の対応付け方法。
6. The method according to claim 5, wherein in the second and subsequent images of the plurality of 2D images, the feature points are extracted by focusing on a directional variance value in a certain area in the vicinity thereof. Method for associating feature points.
【請求項7】 上記視点を固定し、この視点の代わりに
上記被写体を連続的に移動させて請求項1〜6のいずれ
か1つの項に記載の方法を実行することを特徴とする特
徴点の対応付け方法。
7. The method according to claim 1, wherein the viewpoint is fixed, and the subject is continuously moved instead of the viewpoint, and the method according to claim 1 is executed. How to match.
【請求項8】 視点を連続的に移動させて撮影した複数
の2D画像を用いて被写体の立体形状を3D復元するに
当たり、(1)請求項1〜6のいずれか1つの項に記載
の特徴点の対応付け方法を適用して、各2D画像間にお
ける特徴点の対応付けを完了し、 次いで、上記複数の2D画像から3D復元の対象となる
少なくとも1対の2D画像を選択し、各2D画像に対応
する視点座標をそれぞれ初期座標及び移動後座標とし、
(2)上記各座標における任意1点の特徴点の2D位置
と2D画像原点との距離を導入して、上記視点の運動を
示す3次元並進ベクトルHを算出し、(3)しかる後、
(1)ステップで求めた対応付けと(2)ステップで求
めた3次元並進ベクトルHとを用いて、上記少なくとも
1対の2D画像による3D画像を得る、ことを特徴とす
る被写体の3D復元法。
8. The method according to claim 1, wherein the three-dimensional reconstruction of the subject is performed using a plurality of 2D images captured while the viewpoint is continuously moved. Applying the point associating method to complete the associating of the feature points between the 2D images, then selecting at least one pair of 2D images to be 3D-recovered from the plurality of 2D images, The viewpoint coordinates corresponding to the image are set as initial coordinates and coordinates after movement, respectively.
(2) Introduce the distance between the 2D position of one arbitrary feature point at each coordinate and the origin of the 2D image, calculate the three-dimensional translation vector H indicating the movement of the viewpoint, and (3) after that,
A 3D reconstruction method of a subject, characterized in that a 3D image of at least one pair of 2D images is obtained using the association determined in (1) step and the three-dimensional translation vector H determined in (2) step. .
【請求項9】 上記(2)ステップにおいて上記3次元
並進ベクトルHを算出する際、少なくとも1対の2D画
像にスプライン曲線を適用して、この1対の画像間に存
在する中間画像における視点の3D位置を推定し、この
推定3D位置と実際の中間画像における上記視点の3D
位置との位置ズレを算出し、この位置ズレを用いて上記
3次元並進ベクトルHの補正を行うことを特徴とする請
求項8記載の被写体の3D復元法。
9. When calculating the three-dimensional translation vector H in the step (2), a spline curve is applied to at least one pair of 2D images, and a viewpoint of an intermediate image existing between the pair of images is determined. The 3D position is estimated, and the estimated 3D position and the 3D of the viewpoint in the actual intermediate image are estimated.
9. The method according to claim 8, wherein a positional deviation from the position is calculated, and the three-dimensional translation vector H is corrected using the positional deviation.
【請求項10】 上記視点を固定し、この視点の代わり
に上記被写体を連続的に移動させて請求項8又は9記載
の方法を実行することを特徴とする被写体の3D復元
法。
10. A method of restoring a 3D object, wherein the viewpoint is fixed, and the object is continuously moved instead of the viewpoint, and the method according to claim 8 or 9 is executed.
JP9070918A 1997-03-10 1997-03-10 Method for associating subject characteristic point in 3d reconstruction and 3d reconstruction method using it Pending JPH10255053A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP9070918A JPH10255053A (en) 1997-03-10 1997-03-10 Method for associating subject characteristic point in 3d reconstruction and 3d reconstruction method using it

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP9070918A JPH10255053A (en) 1997-03-10 1997-03-10 Method for associating subject characteristic point in 3d reconstruction and 3d reconstruction method using it

Publications (1)

Publication Number Publication Date
JPH10255053A true JPH10255053A (en) 1998-09-25

Family

ID=13445373

Family Applications (1)

Application Number Title Priority Date Filing Date
JP9070918A Pending JPH10255053A (en) 1997-03-10 1997-03-10 Method for associating subject characteristic point in 3d reconstruction and 3d reconstruction method using it

Country Status (1)

Country Link
JP (1) JPH10255053A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006285946A (en) * 2005-03-07 2006-10-19 Nippon Telegr & Teleph Corp <Ntt> Method, device, and program for estimating depth distribution of image
JP2007327938A (en) * 2006-05-10 2007-12-20 Topcon Corp Image processing device and method therefor
KR100866491B1 (en) 2007-01-30 2008-11-03 삼성전자주식회사 Image processing method and apparatus
KR101725166B1 (en) * 2016-06-22 2017-04-12 주식회사 엑스콜로 3D image reconstitution method using 2D images and device for the same

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006285946A (en) * 2005-03-07 2006-10-19 Nippon Telegr & Teleph Corp <Ntt> Method, device, and program for estimating depth distribution of image
JP4631606B2 (en) * 2005-03-07 2011-02-16 日本電信電話株式会社 Image depth distribution estimation method, apparatus, and program
JP2007327938A (en) * 2006-05-10 2007-12-20 Topcon Corp Image processing device and method therefor
KR100866491B1 (en) 2007-01-30 2008-11-03 삼성전자주식회사 Image processing method and apparatus
KR101725166B1 (en) * 2016-06-22 2017-04-12 주식회사 엑스콜로 3D image reconstitution method using 2D images and device for the same

Similar Documents

Publication Publication Date Title
CN106251399B (en) A kind of outdoor scene three-dimensional rebuilding method and implementing device based on lsd-slam
CN105894574B (en) A kind of binocular three-dimensional reconstruction method
CN109934848B (en) Method for accurately positioning moving object based on deep learning
EP2265023B1 (en) Subject tracking device and subject tracking method
US9191650B2 (en) Video object localization method using multiple cameras
US20090092282A1 (en) System and Method for Tracking Objects with a Synthetic Aperture
JP2008535116A (en) Method and apparatus for three-dimensional rendering
WO2021052208A1 (en) Auxiliary photographing device for movement disorder disease analysis, control method and apparatus
DE102005025470B4 (en) Method and system for determining the position and orientation of a camera relative to a real object
Lin et al. Efficient vessel feature detection for endoscopic image analysis
CN113744315B (en) Semi-direct vision odometer based on binocular vision
JP2009288885A (en) Lane detection device, lane detection method and lane detection program
EP2916288A1 (en) Camera calibration method and apparatus using a color-coded structure
CN111127556B (en) Target object identification and pose estimation method and device based on 3D vision
CN116645697A (en) Multi-view gait recognition method and device, electronic equipment and storage medium
Fortin et al. Handling occlusions in real-time augmented reality: dealing with movable real and virtual objects
CN112991159A (en) Face illumination quality evaluation method, system, server and computer readable medium
Makris et al. Robust 3d human pose estimation guided by filtered subsets of body keypoints
JPH10255053A (en) Method for associating subject characteristic point in 3d reconstruction and 3d reconstruction method using it
CN117291930A (en) Three-dimensional reconstruction method and system based on target object segmentation in picture sequence
CN108830804B (en) Virtual-real fusion fuzzy consistency processing method based on line spread function standard deviation
RU2542876C2 (en) Apparatus for selecting highly detailed objects on scene image
Elloumi et al. Tracking orthogonal vanishing points in video sequences for a reliable camera orientation in manhattan world
CN109360270B (en) 3D face pose alignment method and device based on artificial intelligence
CN108426566B (en) Mobile robot positioning method based on multiple cameras