JP2000113194A - Method and device for extracting three-dimensional shape and recording medium - Google Patents

Method and device for extracting three-dimensional shape and recording medium

Info

Publication number
JP2000113194A
JP2000113194A JP10287876A JP28787698A JP2000113194A JP 2000113194 A JP2000113194 A JP 2000113194A JP 10287876 A JP10287876 A JP 10287876A JP 28787698 A JP28787698 A JP 28787698A JP 2000113194 A JP2000113194 A JP 2000113194A
Authority
JP
Japan
Prior art keywords
matrix
tracking
estimation
target object
missing value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP10287876A
Other languages
Japanese (ja)
Other versions
JP3711203B2 (en
Inventor
Eiketsu Kou
英傑 黄
Hirofumi Nishida
広文 西田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP28787698A priority Critical patent/JP3711203B2/en
Priority to US09/414,349 priority patent/US6628819B1/en
Publication of JP2000113194A publication Critical patent/JP2000113194A/en
Application granted granted Critical
Publication of JP3711203B2 publication Critical patent/JP3711203B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To highly accurately extract the three-dimensional(3D) shape of an object even when a defective value occurs in a tracking matrix composed of moving image or continuous still picture streams. SOLUTION: Shaping processing 502 of track matrix, construction 506 of estimate matrix and estimating operation of defective value are repeated while increasing an estimate matrix size little by little (512). When the construction of estimate matrix is disabled, the track matrix is vertically inverted (520) and similar defective value estimating processing is repeated. In the shaping processing, feature points are grouped corresponding to the tracking conditions of feature points and the feature points of the track matrix are rearranged in prescribed group order.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、デジタルビデオカ
メラなどによって対象物体を撮影した動画像などの画像
系列から、対象物体の3次元形状を抽出、復元する技術
に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a technique for extracting and restoring a three-dimensional shape of a target object from an image sequence such as a moving image obtained by photographing the target object by a digital video camera or the like.

【0002】[0002]

【従来の技術】デジタルビデオカメラやデジタルスチル
カメラのようなデジタルメディアによって取り込んだ動
画像や静止画像の系列から、対象物体の3次元形状を推
定する技術は、コンピュータヴィジョンの研究分野にお
ける重要な課題の一つである。また、その応用分野、例
えばロボットヴィジョン、自動走行車、ビデオカメラを
使った3次元形状入力、画像符号化、3次元モデリング
などでも大きな関心が持たれている。
2. Description of the Related Art A technique for estimating a three-dimensional shape of a target object from a sequence of moving images and still images captured by digital media such as a digital video camera and a digital still camera is an important subject in the field of computer vision research. one of. In addition, there is great interest in application fields such as robot vision, autonomous vehicles, three-dimensional shape input using a video camera, image coding, and three-dimensional modeling.

【0003】時系列の2次元動画像からの3次元情報の
抽出問題において、いわゆる「運動からの構造推定(St
ructure From Motion)」という方法では、運動(Motio
n)→距離(Depth)→形状(Shape)という手順にしたがっ
て、まずカメラの運動を求め、次に物体上の特徴点のカ
メラ中心からの距離を求めることにより、形状を推定す
るのが普通である。しかし、時系列動画像では、各フレ
ーム間での対応点の動きが小さいので、運動を平行運動
か回転運動かによって特定するのは不可能に近い。結
局、求められた奥行き(Depth)の解が不可能になり、形
状情報の復元が上手くいかない。逆に時系列のサンプリ
ング間隔を大きくとった場合、すなわち、各フレーム間
の対応点の動きが大きい場合には、特徴点の対応付けの
信頼性が低下してしまう。
In the problem of extracting three-dimensional information from a time-series two-dimensional moving image, a so-called “structure estimation from motion (St.
ructure From Motion) ”
According to the procedure of (n) → distance (Depth) → shape (Shape), it is common to estimate the shape by first calculating the motion of the camera and then calculating the distance from the camera center of the feature point on the object. is there. However, in the time-series moving image, since the movement of the corresponding point between each frame is small, it is almost impossible to specify the movement by the parallel movement or the rotation movement. Eventually, the solution of the obtained depth (Depth) becomes impossible, and the reconstruction of the shape information does not work well. Conversely, if the time-series sampling interval is set large, that is, if the movement of the corresponding point between each frame is large, the reliability of the association of the feature points will be reduced.

【0004】奥行きを計算せずに動きと形状を同時に計
算することによって解を安定させる方法として、Tomasi
とKanadeにより提案された「因子分解法(factorizatio
n)」がある( C.Tomasi and T.Kanade,「Shape and mot
ion from image streamunder orthography: A factoriz
ation method」, International Journal ofComputer V
ision,vol.9,1992,pp.137−154)。この方法は、正射影
モデルに基づいて線形定式化を行い、数値計算的に安定
な行列の特異値分解を用いるため、他の手法に比べて、
解が極めて安定であることが特徴である。
As a method for stabilizing a solution by calculating motion and shape simultaneously without calculating depth, Tomasi
And Kanade's proposed factorization
n) "(C. Tomasi and T. Kanade," Shape and mot
ion from image streamunder orthography: A factoriz
ation method '', International Journal of Computer V
ision, vol. 9, 1992, pp. 137-154). This method performs a linear formulation based on an orthographic model and uses a singular value decomposition of a matrix that is numerically stable.
The feature is that the solution is extremely stable.

【0005】さらに、定式化の線形性を保ちながら実際
のカメラモデルである中心射影により近い擬似中心射影
(paraperspective)モデルを利用する因子分解法が、Poe
lmanとKanadeにより提案された( C.J.Poelman and T.K
anade,「A paraperspectivefactorization method for
shape and motion recovery」, IEEE Transactionon Pa
ttern Analysis and Machine Intelligence,vol.19,no.
3,pp.206−218)。
Furthermore, a pseudo center projection closer to the center projection which is an actual camera model while maintaining the linearity of the formulation
(paraperspective)
proposed by lman and Kanade (CJPoelman and TK
anade, `` A paraperspectivefactorization method for
shape and motion recovery '', IEEE Transactionon Pa
ttern Analysis and Machine Intelligence, vol.19, no.
3, pp. 206-218).

【0006】ここで、この擬似中心射影モデルと、それ
を利用する因子分解法について説明する。
Here, the pseudo center projection model and a factor decomposition method using the model will be described.

【0007】まず擬似中心射影モデルについて述べる。
このモデルは、中心射影のスケーリング効果(近くの物
体が遠くの物体より大きく見えること)と、位置効果
(画像の端に写っている物体が、投影中心の近くにある
物体と違った角度で見える)を考慮しながら、正射影モ
デルの持つ線形性を保持している。擬似中心射影モデル
による物体の画像面への投影は、次のようなステップに
よって行われる。 (1)物体の重心を通り、画像面に平行な平面(仮想平
面)を定義する。 (2)カメラ中心と物体の重心を結ぶ直線の方向に沿っ
て、物体上の点を仮想平面に投影する。 (3)中心射影によって、その仮想平面上の点を画像面
に投影する。
First, a pseudo center projection model will be described.
The model uses a central projection scaling effect (making nearby objects appear larger than distant objects) and a position effect (objects at the edges of the image appear at different angles than objects near the center of projection). ) While maintaining the linearity of the orthographic model. The projection of the object onto the image plane by the pseudo center projection model is performed by the following steps. (1) A plane (virtual plane) that passes through the center of gravity of the object and is parallel to the image plane is defined. (2) A point on the object is projected onto a virtual plane along the direction of a straight line connecting the center of the camera and the center of gravity of the object. (3) A point on the virtual plane is projected on the image plane by central projection.

【0008】この操作を図1によって具体的に説明す
る。図1において、1はカメラ中心、2はカメラ中心1
から焦点距離だけ離れた画像面である。Cは、カメラに
より撮影された物体の特徴点(その一部が■マークで代
表して表されている)の集合の重心(物体の重心)であ
る。3は重心Cを通り画像面2に平行な仮想平面であ
る。ワールド座標系の原点を重心Cに採り、特徴点pの
ワールド座標系での3次元座標をsp∈R3とする。
This operation will be specifically described with reference to FIG. In FIG. 1, 1 is the camera center, 2 is the camera center 1
This is an image plane that is separated from the image by a focal length. C is the center of gravity (the center of gravity of the object) of a set of feature points of the object captured by the camera (a part of which is represented by the ■ mark). An imaginary plane 3 passes through the center of gravity C and is parallel to the image plane 2. Taken the origin of the world coordinate system to the center of gravity C, and the 3-dimensional coordinates in the world coordinate system of the feature point p and s p ∈R 3.

【0009】時系列画像中のある画像フレームfに関
し、ワールド座標系でのカメラ中心1の座標をtf、画
像面2の2次元ローカル座標系の基底ベクトルをif
f∈R3 (ただし、‖if‖=‖jf‖=1,if×jf
0)、カメラの光軸方向をkf=if×jf∈R3とする。
画像フレームfにおいて、画像面2と、ベクトルkf
交点Ofを原点に採り、単位直交ベクトルの組(if,j
f)により、2次元ローカル座標系Σf=(Of;if,j
f)を定義する。
[0009] Regarding an image frame f in a time-series image,
And the coordinates of the camera center 1 in the world coordinate system are represented by tf, Painting
Let the base vector of the two-dimensional local coordinate system of the image plane 2 be if,
jf∈RThree (However, ‖if‖ = ‖Jf‖ = 1, if× jf=
0), the optical axis direction of the camera is kf= If× jf∈RThreeAnd
In image frame f, image plane 2 and vector kfof
Intersection OfAt the origin, a set of unit orthogonal vectors (if, J
f), The two-dimensional local coordinate system Σf= (OfIf, J
f).

【0010】擬似中心射影では、前述のように、特徴点
pの画像面2への投影は次の2ステップで行われる。第
1のステップで、特徴点pを仮想平面3に投影するが、
この投影はカメラ中心1から重心Cに向かう直線と平行
に行う。そして第2のステップで、仮想平面3に投影さ
れた点を画像面2に中心射影する。特徴点pの画像面2
への投影点のΣf=(Of;if,jf)での座標を
(ufp,vfp)とする。ただし、カメラの焦点距離は1
とする。この(ufp,vfp)は、次のように表現され
る。
In the pseudo center projection, as described above, the projection of the feature point p on the image plane 2 is performed in the following two steps. In a first step, a feature point p is projected onto a virtual plane 3,
This projection is performed in parallel with a straight line from the camera center 1 to the center of gravity C. Then, in a second step, the point projected on the virtual plane 3 is centrally projected on the image plane 2. Image plane 2 of feature point p
Let (u fp , v fp ) be the coordinates of the projection point on Σ f = (O f ; if , j f ). However, the focal length of the camera is 1
And This (u fp , v fp ) is expressed as follows.

【0011】[0011]

【数1】 ただし、(Equation 1) However,

【0012】[0012]

【数2】 ここで、zfはカメラ中心1から仮想平面3までの距
離、(xp,yp)は物体の重心C(ワールド座標系の原
点)の中心射影による画像面2への投影である。また、
(Ufp,Vfp)は特徴点pを画像面2へ中心射影したと
きの投影点の座標であり、次式により表される。
(Equation 2) Here, z f distance from the camera center 1 to the virtual plane 3, which is projected to (x p, y p) is the image plane 2 by central projection of the object centroid C (the origin of the world coordinate system). Also,
(U fp , V fp ) are coordinates of a projection point when the feature point p is centrally projected on the image plane 2 and is represented by the following equation.

【0013】[0013]

【数3】 この(Ufp,Vfp)をzfの周りでテーラー展開するこ
とにより、擬似中心射影モデルは、中心射影を
(Equation 3) By Taylor-expanding this (U fp , V fp ) around z f , the pseudo-central projection model calculates the central projection

【0014】[0014]

【数4】 の仮定のもとで近似(一次近似)したものであることが
分かる。
(Equation 4) It can be seen that this is an approximation (first-order approximation) under the assumption of.

【0015】次に、因子分解法について説明する。因子
分解法においては、F枚の画像フレームにわたってP個
の特徴点を追跡し、その結果として、投影点の画像面Σ
f=(Of;if,jf)上での2次元ローカル座標
(ufp,vfp),f=1,2,...,F;p=1,2,...,Pを
(5)式のよう並べた2F×Pの行列W(「追跡行列」
と呼ぶ)を定義する。
Next, the factor decomposition method will be described. In the factorization method, P feature points are tracked over F image frames, and as a result, the image plane 投影
f = (O f; i f , j f) 2 -dimensional local coordinate on (u fp, v fp), f = 1,2, ..., F; p = 1,2, ..., P 2F × P matrix W (“tracking matrix”)
) Is defined.

【0016】[0016]

【数5】 この追跡行列の上半分は特徴点のx座標値ufpを表し、
下半分は特徴点のy座標値vfpを表す。追跡行列の各列
は一つの特徴点に対する追跡結果、各行は単一フレーム
内の全特徴点のx座標値又はy座標値に対応する。
(Equation 5) The upper half of this tracking matrix represents the x coordinate value ufp of the feature point,
The lower half represents the y coordinate value vfp of the feature point. Each column of the tracking matrix corresponds to the tracking result of one feature point, and each row corresponds to the x coordinate value or y coordinate value of all the feature points in a single frame.

【0017】次に、各フレーム毎に全特徴点のx座標値
の平均値xfとy座標値の平均値yf
Next, the average value y f of the average value x f and y coordinate values of the x-coordinate values of all feature points in each frame

【0018】[0018]

【数6】 を求める。そして、追跡行列の各要素からxf,yfを差
し引いた行列W*(「計測行列」と呼ぶ)を作る。
(Equation 6) Ask for. Then, a matrix W * (referred to as a “measurement matrix”) is created by subtracting x f and y f from each element of the tracking matrix.

【0019】[0019]

【数7】 この計測行列は、フレーム数Fと特徴点数Pをいくら増
やしても階数が高々3であるので、次のように分解でき
る。
(Equation 7) This measurement matrix can be decomposed as follows since the number of floors is at most 3 even if the number of frames F and the number of feature points P are increased.

【0020】[0020]

【数8】 これを前記(1)式と照らし合わせると、2F×3の行
列Rはカメラの姿勢ベクトル{(mf,nf):f=1,
2,...,F}を、3×Pの行列Sは特徴点の位置ベクトル
{sp:p=1,2,...,P}を、それぞれ並べた行列である
ことがわかる。
(Equation 8) When this is compared with the above equation (1), the matrix R of 2F × 3 is obtained by the camera posture vector {(m f , n f ): f = 1,
, F}, and the 3 × P matrix S is a matrix in which the position vectors {s p : p = 1, 2,.

【0021】一般的には、計測行列にノイズが含まれる
ため、行列の階数が3であるとは限らないが、その場合
でも、特異値分解を用いて大きな3つの特異値だけを保
つように分解すると、二乗誤差の最小化の意味での最適
分解が得られる。擬似中心射影モデルの場合も同様に、
計測行列をカメラ姿勢行列と特徴点形状行列とに分解で
きる。このような計測行列に対する分解法を「因子分解
法」と呼ぶ。
In general, since the measurement matrix contains noise, the rank of the matrix is not always 3; however, even in that case, only three large singular values are maintained by using singular value decomposition. The decomposition yields an optimal decomposition in the sense of minimizing the square error. Similarly, for the pseudo-central projection model,
The measurement matrix can be decomposed into a camera attitude matrix and a feature point shape matrix. The decomposition method for such a measurement matrix is called a “factor decomposition method”.

【0022】計測行列に対する因子分解の基本アルゴリ
ズムについて説明する。計測行列の因子分解には、行列
の特異値分解の手法が用いられる。すなわち、特異値分
解を用いて、計測行列は次のように3つの行列の積に分
解できる。
The basic algorithm for factorization of the measurement matrix will be described. For the factorization of the measurement matrix, a technique of singular value decomposition of the matrix is used. That is, using singular value decomposition, the measurement matrix can be decomposed into the product of three matrices as follows.

【0023】[0023]

【数9】 ただし、Uは2F×Pの直交行列、Σは計測行列の特異
値(σ12,...,σP)からなるP×Pの対角行列、V
はP×Pの直交行列である。もし、計測行列の階数が3
であれば、σ4以降の特異値は0に近い、小さな値にな
る。ここで、σ4以降を0であるとして計測行列を分解
すると、
(Equation 9) Here, U is a 2F × P orthogonal matrix, Σ is a P × P diagonal matrix composed of singular values (σ 1 , σ 2 ,..., Σ P ) of the measurement matrix, and V
Is a P × P orthogonal matrix. If the rank of the measurement matrix is 3
Then, the singular values after σ 4 become small values close to 0. Here, when the measurement matrix is decomposed assuming that σ 4 and subsequent are 0,

【0024】[0024]

【数10】 となる。そこで、(Equation 10) Becomes Therefore,

【0025】[0025]

【数11】 とおけば、一つの分解[Equation 11] So, one decomposition

【0026】[0026]

【数12】 が得られる。しかし、(12)式の分解は一意ではな
い。実際、任意の正則行列Qにより、
(Equation 12) Is obtained. However, the decomposition of equation (12) is not unique. In fact, by any regular matrix Q,

【0027】[0027]

【数13】 のように、無数の解が存在する。そこで、次のような拘
束条件を導入し、この拘束条件を満たすQを求める。
(Equation 13) Like, there are countless solutions. Therefore, the following constraint condition is introduced, and Q satisfying the constraint condition is obtained.

【0028】[0028]

【数14】 [Equation 14]

【0029】[0029]

【数15】 (Equation 15)

【0030】[0030]

【数16】 そして、このQを使って(Equation 16) And using this Q

【0031】[0031]

【数17】 とおけば、[Equation 17] If so,

【0032】[0032]

【数18】 に一意に分解できる。Rは2F×3の行列でカメラの姿
勢を示す。Sは3×Pの行列で各特徴点の3次元座標値
を示す。詳細は前述のPoelmanとKanadeの文献に譲る
が、行列Rすなわち{(mf,nf):f=1,2,...,F}
と、(6)式で計算される(xf,yf)とから、カメラ
方向{(if,jf,kf):f=1,2,...,F}を求めること
ができる。次に、(14)式からzfを、(2)式から
カメラの位置tf を計算できる。
(Equation 18)Can be uniquely decomposed into R is a 2F × 3 matrix and the camera
Show momentum. S is a 3 × P matrix and the three-dimensional coordinates of each feature point
Is shown. Details are given in the above-mentioned Poelman and Kanade reference
Is the matrix R, ie, {(mf, nf): F = 1,2, ..., F}
And (x) calculated by equation (6)f, Yf) And from the camera
Direction {(if, jf, kf): Finding f = 1,2, ..., F}
Can be. Next, from equation (14), zfFrom equation (2)
Camera position tf Can be calculated.

【0033】[0033]

【発明が解決しようとする課題】正射影モデル、擬似中
心射影モデルのいずれを利用するにしても、因子分解法
においては、選ばれたすべての特徴点が、一連の画像フ
レームにわたって追跡できることを前提としている。す
なわち、最初の画像フレームで見えている特徴点が途中
で隠れて見えなくなったり、途中の画像フレームで新し
い特徴点が導入されたりしないことを仮定している。し
かしながら、カメラが物体の周りを一回りするような状
況では、最初の画像フレームで見えている特徴点の一部
は途中で物体に遮蔽されてしまうので、そのような仮定
は、長時間にわたって撮影された動画像などでは当ては
まらない。その結果、追跡行列にかなりの数の欠測値が
できてしまうため、推定によって欠測値を補完する必要
がある。
Regardless of whether an orthographic projection model or a pseudo-central projection model is used, the factorization method assumes that all selected feature points can be tracked over a series of image frames. And That is, it is assumed that the feature points that are visible in the first image frame are hidden in the middle and cannot be seen, or that new feature points are not introduced in the middle image frame. However, in a situation where the camera goes around the object, some of the feature points seen in the first image frame are occluded by the object on the way. This is not the case with such moving images. As a result, a significant number of missing values are created in the tracking matrix, and it is necessary to supplement missing values by estimation.

【0034】また、因子分解は一意でなく、二通りの解
が存在する。すなわち対象物体の表面の凹凸が区別でき
ない。
The factorization is not unique, and there are two solutions. That is, irregularities on the surface of the target object cannot be distinguished.

【0035】よって、本発明の一般的な目的は、動画像
や連続した静止画像系列から作成される追跡行列に欠測
値が生じる場合にも、対象物体の3次元形状の高精度な
抽出を可能にすることである。本発明のより具体的な目
的の一つは、追跡行列中の欠測値の効率的な推定を可能
にすることであり、もう一つの目的は、対象物体の3次
元形状を表面の凹凸も含め正確に抽出可能にすることで
ある。以上の目的、及びその他の目的は、以下の説明か
ら明らかになろう。
Accordingly, a general object of the present invention is to provide a high-precision extraction of a three-dimensional shape of a target object even when a missing value occurs in a tracking matrix created from a moving image or a series of still images. Is to make it possible. One of the more specific objects of the present invention is to enable efficient estimation of missing values in the tracking matrix, and another object is to reduce the three-dimensional shape of the target object to the surface irregularities. It is to be able to extract accurately including it. The above and other objects will be apparent from the following description.

【0036】[0036]

【課題を解決するための手段】請求項1乃至4の各項記
載の発明によれば、改良された3次元形状抽出方法が提
供される。この3次元形状抽出方法は、対象物体を撮影
した画像系列を入力データとして、対象物体の特徴点を
追跡することにより追跡行列を作成するステップ、追跡
行列の欠測値を、追跡行列の部分行列である推定行列を
用いて推定し、欠測値を推定値で置き換えるステップ、
この欠測値推定ステップを終了した追跡行列から計測行
列を作成するステップ、及び、計測行列を対象物体の形
状と運動をそれぞれ表す3次元データに変換するステッ
プからなり、前記欠測値推定ステップにおいて推定行列
のサイズを徐々に増大させながら欠測値の推定を繰り返
すことを特徴とする。請求項2記載の発明の特徴は、前
記欠測値推定ステップにおいて、追跡行列を参照して特
徴点をその追跡状況に応じて複数のグループに分類し、
追跡行列に対し特徴点を所定のグループ順に並べ直す整
形処理を施すことである。請求項3記載の発明の特徴
は、前記欠測値推定ステップにおいて、追跡行列に推定
できない欠測値が残っているが推定行列の構築が不可能
になった場合に、追跡行列の上下を反転してから欠測値
の推定を継続することである。請求項4記載の発明の特
徴は、対象物体を所定方向に回転させつつ撮影し、計測
行列より変換された3次元データにより表される対象物
体の特徴点の運動方向と、前記撮影中の対象物体の回転
方向とを比較し、この比較が不一致となった特徴点につ
いて凹凸を反転させる操作を3次元データに施すステッ
プを追加することである。
According to the first to fourth aspects of the present invention, an improved three-dimensional shape extracting method is provided. This three-dimensional shape extraction method includes a step of creating a tracking matrix by tracking a feature point of a target object using an image sequence obtained by photographing the target object as input data. Estimating using an estimation matrix, and replacing missing values with the estimated values,
Forming a measurement matrix from the tracking matrix that has completed the missing value estimation step, and converting the measurement matrix into three-dimensional data representing the shape and motion of the target object, respectively. It is characterized in that estimation of missing values is repeated while gradually increasing the size of the estimation matrix. The feature of the invention according to claim 2 is that, in the missing value estimation step, the feature points are classified into a plurality of groups according to the tracking situation with reference to a tracking matrix,
This is to perform a shaping process for rearranging the feature points in a predetermined group order on the tracking matrix. A feature of the invention according to claim 3 is that, in the missing value estimating step, when the missing values that cannot be estimated remain in the tracking matrix but the estimation matrix cannot be constructed, the tracking matrix is inverted. Then, the estimation of the missing value is continued. A feature of the invention according to claim 4 is that, while rotating the target object in a predetermined direction, the moving direction of the feature points of the target object represented by the three-dimensional data converted from the measurement matrix, and the object being photographed The object of the present invention is to add a step of comparing the rotation direction of the object with the three-dimensional data and performing an operation of inverting the concavities and convexities of the feature points that are not compared with each other.

【0037】請求項5、6又は7記載の発明によれば、
改良された3次元形状抽出装置が提供される。この3次
元形状抽出方法は、対象物体を撮影した画像系列を入力
する手段、入力された画像系列において対象物体の特徴
点を追跡することにより追跡行列を作成する手段、追跡
行列を参照して特徴点をその追跡状況に応じて複数のグ
ループに分類し、追跡行列の特徴点を所定のグループ順
に並べ換える整形処理と、整形処理後の追跡行列から欠
測値推定のための推定行列を構築する処理と、構築され
た推定行列から欠測値を推定し、欠測値を推定値で置き
換える処理とを、推定行列のサイズを徐々に増大させな
がら繰り返す手段、この欠測値推定手段により処理後の
追跡行列から計測行列を構築する手段、及び、計測行列
を対象物体の形状と運動をそれぞれ表す3次元データに
変換する手段からなることを特徴とする。請求項6記載
の発明の特徴は、前記欠測値推定手段において、追跡行
列に推定できない欠測値が残っているが推定行列の構築
が不可能になった場合に、追跡行列の上下を反転してか
ら、整形処理と、推定行列の構築処理と、欠測値の推定
処理とを、推定行列のサイズを徐々に増大させながら繰
り返すことである。請求項7記載の発明の特徴は、対象
物体を所定方向に回転させつつ撮影し、計測行列より変
換された3次元データにより表される対象物体の特徴点
の運動方向と、前記撮影中の対象物体の回転方向とを比
較し、この比較が不一致となった特徴点について凹凸を
反転させるための操作を3次元データに施す手段を追加
することである。
According to the fifth, sixth or seventh aspect of the present invention,
An improved three-dimensional shape extraction device is provided. This three-dimensional shape extraction method includes means for inputting an image sequence obtained by photographing a target object, means for generating a tracking matrix by tracking feature points of the target object in the input image sequence, and features by referring to the tracking matrix. The points are classified into a plurality of groups according to their tracking status, and a shaping process for rearranging the feature points of the tracking matrix in a predetermined group order, and an estimation matrix for missing value estimation from the tracking matrix after the shaping process are constructed. Means for repeating the process and the process of estimating missing values from the constructed estimation matrix and replacing the missing values with the estimated values while gradually increasing the size of the estimation matrix; And a means for converting the measurement matrix into three-dimensional data representing the shape and the motion of the target object, respectively. A feature of the invention according to claim 6 is that, in the missing value estimating means, when a missing value that cannot be estimated remains in the tracking matrix but the estimation matrix cannot be constructed, the tracking matrix is inverted. After that, the shaping process, the process of constructing the estimation matrix, and the process of estimating the missing value are repeated while gradually increasing the size of the estimation matrix. A feature of the invention according to claim 7 is that a moving direction of a feature point of the target object represented by three-dimensional data converted from a measurement matrix is obtained by rotating the target object in a predetermined direction, This is to add a means for comparing the rotation direction of the object with the three-dimensional data and performing an operation for inverting the concavities and convexities of the feature point in which the comparison is inconsistent.

【0038】[0038]

【発明の実施の形態】以下、本発明の一実施形態とし
て、カメラによって物体を撮影した動画像又は一連の静
止画像から、因子分解法により物体の3次元形状を高精
度に抽出するための3次元形状抽出システムについて説
明する。なお、カメラモデルとして前述の擬似中心射影
モデルを仮定する。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, as one embodiment of the present invention, a method for extracting a three-dimensional shape of an object with high accuracy from a moving image or a series of still images obtained by photographing the object with a camera by a factorization method will be described. A three-dimensional shape extraction system will be described. Note that the above-described pseudo center projection model is assumed as a camera model.

【0039】図2は、この3次元形状抽出システムの一
例の構成図である。図2において、100は回転台であ
り、その上に対象物体102が載置される。回転台10
0の外周部上面に、所定間隔で複数のマークMが設けら
れている。104は回転台100の回転駆動機構であ
り、駆動部106によって駆動される。108はデジタ
ルビデオカメラであり、回転台100を所定方向に所定
速度で回転させた状態で、回転台100上の対象物体1
02を連続的に撮影し、画像ストリームを出力する。な
お、撮影中に回転台100上のマークMがカメラ108
の視野に入るように、回転台100とカメラ108の位
置関係が決められる。
FIG. 2 is a configuration diagram of an example of the three-dimensional shape extraction system. In FIG. 2, reference numeral 100 denotes a turntable on which a target object 102 is placed. Turntable 10
A plurality of marks M are provided at predetermined intervals on the upper surface of the outer peripheral portion of the zero. Reference numeral 104 denotes a rotation drive mechanism of the turntable 100, which is driven by the drive unit 106. Reference numeral 108 denotes a digital video camera, which rotates the turntable 100 in a predetermined direction at a predetermined speed, and outputs an object 1 on the turntable 100.
02 is continuously photographed and an image stream is output. During shooting, the mark M on the turntable 100 is
, The positional relationship between the turntable 100 and the camera 108 is determined.

【0040】デジタルビデオカメラ108から出力され
る画像ストリームを基に対象物体の3次元形状を抽出す
るための処理系は、画像入力部110、2次元演算部1
12、及び3次元演算部114から構成され、パソコン
116と協働して作用する。デジタルビデオカメラ10
8から出力される画像ストリームは画像入力部110に
入力される。画像入力部110は、画像ストリームから
静止画像の集合を作成し、それをパソコン116のメモ
リ上に書き込む。2次元演算部112は、パソコン11
6のメモリ上の静止画像集合を基に、因子分解のための
計測行列を構築し、それをパソコン116のメモリに書
き込む。3次元演算部114は、計測行列から対象物体
の3次元形状を抽出する。抽出された3次元形状のデー
タはパソコン116のメモリに書き込まれる。好ましく
は、パソコン116において、3次元形状データより3
次元形状が復元されてディスプレイ画面に表示され、形
状抽出の結果を確認可能とされる。
The processing system for extracting the three-dimensional shape of the target object based on the image stream output from the digital video camera 108 includes an image input unit 110 and a two-dimensional operation unit 1
12, and a three-dimensional operation unit 114, which operates in cooperation with the personal computer 116. Digital video camera 10
The image stream output from 8 is input to the image input unit 110. The image input unit 110 creates a set of still images from the image stream and writes it into the memory of the personal computer 116. The two-dimensional operation unit 112 includes the personal computer 11
A measurement matrix for factorization is constructed based on the set of still images in the memory of No. 6 and written in the memory of the personal computer 116. The three-dimensional calculation unit 114 extracts a three-dimensional shape of the target object from the measurement matrix. The extracted three-dimensional shape data is written to the memory of the personal computer 116. Preferably, in the personal computer 116, 3
The dimensional shape is restored and displayed on the display screen, and the result of the shape extraction can be confirmed.

【0041】駆動部106から回転台100の回転方向
を示す回転方向データが出される。この回転方向データ
は、3次元演算部114に入力される。また、2次元演
算部112において、回転台100の回転方向を特徴点
追跡に利用する場合には、2次元演算部112にも回転
方向データが入力される。パソコン116は、前述のよ
うに処理の中間データと最終結果データを記憶するため
のメモリを提供するほか、駆動部106や3次元形状抽
出処理系(110,112,114)の動作制御を行
う。画像入力部110、2次元演算部112、3次元演
算部114の全部又は一部を、パソコン116のハード
ウェア上でソフトウェアにより実現してもよい。
The driving unit 106 outputs rotation direction data indicating the rotation direction of the turntable 100. The rotation direction data is input to the three-dimensional operation unit 114. When the rotation direction of the turntable 100 is used for feature point tracking in the two-dimensional calculation unit 112, the rotation direction data is also input to the two-dimensional calculation unit 112. The personal computer 116 provides a memory for storing the intermediate data of the processing and the final result data as described above, and also controls the operation of the driving unit 106 and the three-dimensional shape extraction processing system (110, 112, 114). All or a part of the image input unit 110, the two-dimensional operation unit 112, and the three-dimensional operation unit 114 may be realized by software on hardware of the personal computer 116.

【0042】画像入力部110の処理内容を説明する。
図3はその処理フローを示すフローチャートである。画
像入力部110は、デジタルビデオカメラ108より出
力される画像ストリームを取り込む(ステップ30
0)。取り込んだ画像ストリームの各フレームを、必要
に応じて適当な静止画像のフォーマットに変換し(ステ
ップ302)、得られた静止画像フレームの時系列をパ
ソコン116のメモリに書き込む(ステップ304)。
The processing contents of the image input unit 110 will be described.
FIG. 3 is a flowchart showing the processing flow. The image input unit 110 captures an image stream output from the digital video camera 108 (Step 30).
0). Each frame of the captured image stream is converted into an appropriate still image format as needed (step 302), and the obtained time series of still image frames is written to the memory of the personal computer 116 (step 304).

【0043】2次元演算部112の処理内容を説明す
る。図4は、その処理フローを示すフローチャートであ
る。図示のように、2次元演算部112は、まずパソコ
ン116のメモリより画像フレームを取り込み、濃度変
化の激しい小画像領域を対象物体の特徴点として抽出す
る(ステップ400)。この際、好ましくは、濃度変化
の激しさにより特徴点にランク付けする。すなわち、濃
度変化が激しい特徴点ほど高いランクを付ける。
The processing contents of the two-dimensional operation unit 112 will be described. FIG. 4 is a flowchart showing the processing flow. As shown in the figure, the two-dimensional calculation unit 112 first takes in an image frame from the memory of the personal computer 116 and extracts a small image region where the density changes sharply as a feature point of the target object (step 400). At this time, the feature points are preferably ranked according to the intensity of the density change. In other words, a feature point with a sharp density change is assigned a higher rank.

【0044】次に、2次元演算部112は、相前後する
フレームの特徴点を対応付けることにより、特徴点を追
跡する(ステップ402)。前ステップで特徴点のラン
ク付けが行われた場合には、ランクの高い特徴点から優
先して一定個数の特徴点を選んで追跡を行う。特徴点の
追跡を行う場合、現フレーム上の特徴点と次フレーム上
の特徴点との間でパターン・マッチングを行い、パター
ンが一致すると判断される特徴点を対応付けることにな
るが、類似したパターンが多数存在する場合は、特徴点
の対応付け、すなわち追跡を誤る可能性がある。
Next, the two-dimensional calculation unit 112 tracks the feature points by associating the feature points of the frames immediately before and after (step 402). When the feature points are ranked in the previous step, tracking is performed by selecting a certain number of feature points by priority from feature points having a higher rank. When tracking a feature point, pattern matching is performed between the feature point on the current frame and the feature point on the next frame, and the feature points determined to match the pattern are associated with each other. If there are many, there is a possibility that the association of the feature points, that is, the tracking is erroneous.

【0045】このような追跡誤りを減らすため、好まし
くは、駆動部106から入力された回転方向データによ
って示される回転台100の回転方向を、特徴点追跡の
制限条件として利用し、その回転方向と、対応付けた特
徴点の移動方向とが矛盾する場合には、その追跡結果は
誤っている可能性が高いので、その追跡結果を捨てる。
その特徴点に関して、次フレームで他に対応する適当な
特徴点が見つからなければ、その位置座標は欠測値とな
る。さらに追跡誤りを減らすため、好ましくは、回転台
100の外周部に設けられたマークMのパターンを利用
する。すなわち、特徴点の位置座標を(x,y)とし
(ただし、xは水平方向、yは垂直方向の座標)、現フ
レームと次フレームにおいて、マークMのパターン(マ
ークパターンと呼ぶ)の中で、対応付けた特徴点のy座
標と一番近いy座標を持つマークパターンを対応マーク
パターンとして選ぶ。そして、対応付けた特徴点の運動
ベクトルの方向が対応マークパターンの運動ベクトルの
方向と逆であるか、又は、特徴点の運動ベクトルの大き
さと対応マークパターンの運動ベクトルの大きさとの差
が所定の閾値を越えた場合は、追跡が失敗したと判断
し、その追跡結果を捨てる。
In order to reduce such tracking errors, preferably, the rotation direction of the turntable 100 indicated by the rotation direction data input from the driving unit 106 is used as a limiting condition for feature point tracking. If the moving direction of the associated feature point is inconsistent, the tracking result is likely to be incorrect, and the tracking result is discarded.
If another appropriate feature point corresponding to the feature point is not found in the next frame, the position coordinate becomes a missing value. In order to further reduce tracking errors, it is preferable to use the pattern of the mark M provided on the outer peripheral portion of the turntable 100. That is, the position coordinates of the feature point are set to (x, y) (where x is the horizontal direction and y is the vertical direction), and in the pattern of the mark M (referred to as a mark pattern) in the current frame and the next frame. The mark pattern having the y coordinate closest to the y coordinate of the associated feature point is selected as the corresponding mark pattern. Then, the direction of the motion vector of the associated feature point is opposite to the direction of the motion vector of the corresponding mark pattern, or the difference between the magnitude of the motion vector of the feature point and the magnitude of the motion vector of the corresponding mark pattern is predetermined. If the threshold value is exceeded, it is determined that tracking has failed, and the tracking result is discarded.

【0046】次に、2次元演算部112は、前ステップ
の追跡結果に基づいて、前記(5)式に示した2F×P
の追跡行列を作成する(ステップ404)。この追跡行
列のデータはパソコン116のメモリに書き込まれる。
なお、ステップ400,402で得られたデータもパソ
コン116のメモリに一時的に記憶される。
Next, based on the tracking result of the previous step, the two-dimensional operation unit 112 calculates the 2F × P
(Step 404). The data of this tracking matrix is written into the memory of the personal computer 116.
The data obtained in steps 400 and 402 are also temporarily stored in the memory of the personal computer 116.

【0047】前述のように、対象物体それ自体による特
徴点の隠蔽、あるいは撮影時の照明の変動や追跡の失敗
などによって、追跡行列には特徴点の位置座標が欠落し
た要素(欠測値)が含まれているのが一般的である。2
次元演算部112は、次に、そのような特徴点の欠測値
の推定を行う(ステップ406)。そして、欠測値が補
われた追跡行列に基づいて前記(7)式に示した計測行
列を作成する(ステップ408)。計測行列はパソコン
116のメモリに保存される。
As described above, an element in which the position coordinates of a feature point is missing (missing value) in the tracking matrix due to concealment of the feature point by the target object itself, or fluctuation of illumination at the time of photographing or tracking failure. Is generally included. 2
Next, the dimension calculation unit 112 estimates the missing value of such a feature point (step 406). Then, a measurement matrix shown in the above equation (7) is created based on the tracking matrix supplemented with the missing values (step 408). The measurement matrix is stored in the memory of the personal computer 116.

【0048】次に、ステップ406の欠測値推定処理に
ついて説明する。具体的な処理内容の説明に先立ち、欠
測値推定の基本的な考え方を説明する。
Next, the missing value estimation processing in step 406 will be described. Prior to the description of the specific processing content, the basic concept of missing value estimation will be described.

【0049】図5は、特徴点1〜7をフレーム1〜8に
わたって追跡した結果の例である。図中、「・」印は特
徴点の追跡を成功し、その位置座標が得られていること
を示し、「?」印は特徴点の追跡を失敗しその位置座標
が欠測値となっていることを示す。このような欠測値が
計測行列に残っていると、そのままでは因子分解法に利
用できないため、欠測値を推定して補完する必要があ
る。欠測値の推定には、その欠測値の周りの既知の位置
座標を利用する。まず、推定対象の欠測値を1つ選択す
る。そして、選択した欠測値を含む、追跡行列の部分行
列(推定行列と呼ぶ)を作成する。この推定行列では、
推定対象の要素以外の要素は全て既知である(位置座標
が得られている)ことが必要である。
FIG. 5 is an example of the result of tracking feature points 1 to 7 over frames 1 to 8. In the figure, the mark “•” indicates that the tracking of the feature point was successful and the position coordinates have been obtained, and the mark “?” Indicates that the tracking of the feature point failed and the position coordinates are missing values. To indicate that If such a missing value remains in the measurement matrix, it cannot be used for the factorization method as it is, so it is necessary to estimate the missing value and complement it. Estimation of a missing value uses known position coordinates around the missing value. First, one missing value to be estimated is selected. Then, a sub-matrix (called an estimation matrix) of the tracking matrix including the selected missing values is created. In this estimation matrix,
All elements other than the element to be estimated need to be known (position coordinates have been obtained).

【0050】例えば、図5において、特徴点6のフレー
ム5の欠測値を推定対象として選択したとする。この場
合、例えば図5に示した枠の内部に対応した推定行列を
作成する。この推定行列から欠測値を推定し、その推定
値で追跡行列の該当欠測値を書き換える。次に、例え
ば、図5中の特徴点6のフレーム6の欠測値を推定対象
に選び、その推定のための推定行列を作成する。例え
ば、特徴点1〜6、フレーム1〜6に対応する推定行列
を作成し、その欠測値を推定し、追跡行列の当該欠測値
を推定値で書き換える。次に、例えば図5中の特徴点7
のフレーム2の欠測値を推定対象に選択し、例えば、特
徴点1〜7、フレーム2〜6に対応する推定行列を作成
し、当該欠測値を推定する。このようにして、欠測値を
1つずつ順次推定し、最終的に追跡行列中の全ての欠測
値を補完する。
For example, in FIG. 5, it is assumed that the missing value of the frame 5 of the feature point 6 is selected as an estimation target. In this case, for example, an estimation matrix corresponding to the inside of the frame shown in FIG. 5 is created. Missing values are estimated from the estimation matrix, and the missing values in the tracking matrix are rewritten with the estimated values. Next, for example, a missing value of the frame 6 of the feature point 6 in FIG. 5 is selected as an estimation target, and an estimation matrix for the estimation is created. For example, an estimation matrix corresponding to feature points 1 to 6 and frames 1 to 6 is created, the missing value is estimated, and the missing value in the tracking matrix is rewritten with the estimated value. Next, for example, feature point 7 in FIG.
Is selected as an estimation target, for example, an estimation matrix corresponding to feature points 1 to 7 and frames 2 to 6 is created, and the missing value is estimated. In this way, missing values are sequentially estimated one by one, and finally all missing values in the tracking matrix are complemented.

【0051】ここで、推定行列から欠測値を推定する方
法として、「行拡張」と呼ばれる方法と、「列拡張」と
呼ばれる方法を説明する。次式に示すような推定行列を
考える。ただし、ufp,vfpが推定対象の欠測値であ
る。
Here, a method called “row expansion” and a method called “column expansion” will be described as a method of estimating missing values from the estimation matrix. Consider an estimation matrix as shown in the following equation. Here, u fp and v fp are missing values of the estimation target.

【0052】[0052]

【数19】 まず、行拡張法について説明する。(19)式の推定行
列の欠測値所在の行を抜いた部分行列を作る。そして、
この部分行列を因子分解法で次のように分解する。
[Equation 19] First, the row expansion method will be described. A sub-matrix is created by removing the rows of missing values of the estimation matrix of the equation (19). And
This submatrix is decomposed by the factor decomposition method as follows.

【0053】[0053]

【数20】 2mx3は2m枚のフレームにおけるカメラの姿勢を表す
行列、S3x(n+1)は(n+1)個の特徴点における3次元座
標を表す行列である。第(m+1)フレームにおける第(n+
1)特徴点(ufp,vfp)は、次の方程式組を満たすこと
が分かる。
(Equation 20) M 2mx3 is a matrix representing the attitude of the camera in 2 m frames, and S 3x (n + 1) is a matrix representing the three-dimensional coordinates of (n + 1) feature points. The (n +) th frame in the (m + 1) th frame
1) It can be seen that the feature points (u fp , v fp ) satisfy the following equation set.

【0054】[0054]

【数21】 (21)式と(22)式には、それぞれ4つの未知数
(ufp,mf T)と(vfp,nf T)があるので、これらの
未知数を解くために、既知特徴点の数(=n+1)は最低
4、すなわちnは3以上であることが分かる。しかし、
ノイズなどの影響を考慮し、既知特徴点の数を4以上に
して、言い換えれば、(21)式と(22)式を優決定
系(over constrained)の最小二乗解で解くのが適当で
ある。
(Equation 21) Since equations (21) and (22) have four unknowns (u fp , m f T ) and (v fp , n f T ), respectively, the number of known feature points is determined in order to solve these unknowns. (= N + 1) is at least 4, that is, n is 3 or more. But,
Considering the influence of noise and the like, it is appropriate to set the number of known feature points to 4 or more, in other words, to solve the equations (21) and (22) with an over-constrained least squares solution. .

【0055】まず、(21)式を次のように展開する。First, the equation (21) is expanded as follows.

【0056】[0056]

【数22】 (22.n+1)以外を次のように整理する。(Equation 22) Except for (22.n + 1), arrange as follows.

【0057】[0057]

【数23】 (23)式から、mfが求められる。そして(22.n+1)
式に代入し、
(Equation 23) M f is obtained from equation (23). And (22.n + 1)
Substitute in the expression,

【0058】[0058]

【数24】 のように、座標値ufpを求める。同じように、ufp
求められる。
(Equation 24) The coordinate value u fp is obtained as follows. Similarly , ufp is determined.

【0059】[0059]

【数25】 次に、列拡張法について説明する。行拡張法と逆に、
(19)式の推定行列から欠測値所在の列を抜いた部分
行列を作る。この部分行列を因子分解法で、次のように
分解する。
(Equation 25) Next, the column extension method will be described. Contrary to the line expansion method,
A sub-matrix is created by removing the columns of missing value locations from the estimation matrix of equation (19). This submatrix is decomposed by the factor decomposition method as follows.

【0060】[0060]

【数26】 2(m+1)x3は2(m+1)のフレームにおけるカメラの姿勢
を表す行列、S'3xnはn個の特徴点における3次元座標
を表す行列である。第(m+1)フレームにおける第(n+1)特
徴点(ufp,vfp)は次の2式を満たすことが分かる。
(Equation 26) M2 (m + 1) x3 is a matrix representing the attitude of the camera in 2 (m + 1) frames, and S'3xn is a matrix representing the three-dimensional coordinates of n feature points. It can be seen that the (n + 1) -th feature point (u fp , v fp ) in the (m + 1) -th frame satisfies the following two equations.

【0061】[0061]

【数27】 (26)式はn個までの特徴点に対し成立するが(2
7)式と(28)式は(n+1)個までの特徴点に対し成立
する。すなわち、S1'+S2'+...+Sn'=0に対し、
1+S2+...+Sn+Sn+1=0でなければならない。
ここで、Sn+1=−nCとすると、
[Equation 27] Equation (26) holds for up to n feature points, but (2)
Equations 7) and (28) hold for up to (n + 1) feature points. That is, for S 1 '+ S 2 ' + ... + S n '= 0,
S 1 + S 2 +... + S n + S n + 1 = 0.
Here, if S n + 1 = −nC,

【0062】[0062]

【数28】 である。すなわち、[Equation 28] It is. That is,

【0063】[0063]

【数29】 なお、(27)式と(28)式のxfとyfは次のように
修正しなければならない。
(Equation 29) Note that (27) and (28) are the x f and y f must be modified as follows.

【0064】[0064]

【数30】 (30)式と(31)式を(27)式と(28)式に代
入すると
[Equation 30] Substituting equations (30) and (31) into equations (27) and (28)

【0065】[0065]

【数31】 が得られる。この(32)式から、Sp、そしてufp
fpが求められる。
(Equation 31) Is obtained. From equation (32), S p , and u fp ,
v fp is required.

【0066】さて、推定に用いる推定行列のサイズが大
きいほうが推定精度が上がるが、その反面、1つの欠測
値の推定のための計算コストが高くなってしまう。そこ
で、本発明においては、前述のように、適当なサイズの
推定行列を作り、欠測値の推定を行い、推定を失敗した
場合には、推定行列のサイズをある大きさまで少しずつ
増大させながら、推定を繰り返す。また、推定行列のサ
イズを少しずつ増大させながら推定演算を繰り返す処理
をスムーズに進めることができるようにするため、本発
明においては、推定処理の過程で追跡行列の「整形処
理」を行う。また、欠測値が残っていて、それ以上は推
定行列を構築できなくなった場合に、追跡行列を上下逆
さに反転させる処理を行って、推定処理を続行する。
The larger the size of the estimation matrix used for the estimation is, the higher the estimation accuracy is. However, on the other hand, the calculation cost for estimating one missing value increases. Therefore, in the present invention, as described above, an estimation matrix of an appropriate size is created, a missing value is estimated, and when the estimation fails, the size of the estimation matrix is gradually increased to a certain size. , Repeat the estimation. In order to smoothly proceed with the process of repeating the estimation operation while increasing the size of the estimation matrix little by little, in the present invention, "shaping process" of the tracking matrix is performed in the process of the estimation process. Further, when the missing values remain and the estimation matrix cannot be constructed any more, a process of inverting the tracking matrix upside down is performed, and the estimation process is continued.

【0067】このように、本発明にあっては、推定行列
のサイズを徐々に増大させながら欠測値の推定を行うこ
とにより、欠測値推定の計算コストの増大を抑えること
ができ、また、追跡行列の整形処理さらには追跡行列の
上下反転により、そのような欠測値推定をスムーズに行
い、従来よりも効率よく、より多くの欠測値を的確に推
定することができる。したがって、追跡行列中に多くの
欠測値がある場合にも精度のよい3次元形状抽出が可能
になる。
As described above, according to the present invention, by estimating missing values while gradually increasing the size of the estimation matrix, it is possible to suppress an increase in the calculation cost of missing value estimation. By performing the tracking matrix shaping process and further inverting the tracking matrix, such missing value estimation can be performed smoothly, and more missing values can be accurately and efficiently estimated as compared with the related art. Therefore, even when there are many missing values in the tracking matrix, accurate three-dimensional shape extraction becomes possible.

【0068】ここで、追跡行列の「整形処理」と「上下
反転」について説明する。図6は、ある画像ストリーム
の追跡行列を示す。図中、網掛け部分は特徴点の位置座
標が存在することを示し、空白部分は特徴点の位置座標
が存在しない(欠測値となっている)ことを示す。この
追跡行列を観察すると、特徴点は追跡状況によってグル
ープ分けできることに気付く。
Here, "shaping process" and "vertical inversion" of the tracking matrix will be described. FIG. 6 shows a tracking matrix for an image stream. In the figure, a shaded portion indicates that the position coordinates of the feature point exist, and a blank portion indicates that the position coordinates of the feature point do not exist (becomes a missing value). When observing this tracking matrix, it is noticed that feature points can be grouped according to the tracking situation.

【0069】本発明によれば、例えば、特徴点の連続し
て存在する(追跡できた)時間(フレーム)によって、
特徴点を次の4つのグループに分ける。 Aグループ:最初のフレームから最後のフレームまで連
続して存在する(全レー無にわたって追跡に成功した)
特徴点、 Bグループ:最初のフレームでは存在するが、途中のフ
レームから消えてしまう(途中で追跡に失敗した)特徴
点、 Cグループ:途中のフレームで出現するが、しばらくた
って消える特徴点、 Dグループ:途中のフレームで出現して、最後のフレー
ムまで連続して存在する特徴点。 そして、追跡行列のAグループからDグループの特徴点
に対応した列を図7に示すような順番に並べ直す。これ
が整形処理である。図7において、網掛けした部分は位
置座標(計測値)が存在する要素であり、空白部分は位
置座標が存在しない(欠測値となっている)要素であ
る。
According to the present invention, for example, according to the time (frame) in which feature points are continuously present (tracked),
The feature points are divided into the following four groups. Group A: exists continuously from the first frame to the last frame (successfully tracked without any ray)
Feature points, B group: feature points that exist in the first frame but disappear from the middle frame (tracking failed halfway), C group: feature points that appear in the middle frame but disappear after a while, D Group: A feature point that appears in an intermediate frame and exists continuously up to the last frame. Then, the columns corresponding to the feature points of group A to group D of the tracking matrix are rearranged in the order shown in FIG. This is the shaping process. In FIG. 7, the shaded portion is an element having position coordinates (measured values), and the blank portion is an element having no position coordinates (missing value).

【0070】このように整形した追跡行列を用いて、欠
測値に対する推定を行う。推定は1回で成功するとは限
らないので、推定が成功しない場合には、推定行列のサ
イズを、所定の最大サイズまで、少しずつ大きくしなが
ら推定を繰り返す。欠測値の推定を成功した場合には、
その欠測値を推定値で書き換え、それを初めから存在す
る位置座標として扱い、追跡行列の整形処理をやり直
す。
The missing value is estimated by using the tracking matrix shaped as described above. Since the estimation is not always successful at one time, if the estimation is not successful, the estimation is repeated while gradually increasing the size of the estimation matrix to a predetermined maximum size. If the missing values are successfully estimated,
The missing value is rewritten with the estimated value, treated as the position coordinates existing from the beginning, and the tracking matrix is reshaped.

【0071】要約すると、追跡行列の整形処理、推定行
列の構築、推定演算の手順を停止条件を満たすまで、推
定行列のサイズを少しずつ増加させながら繰り返す。こ
の停止条件とは、具体的には、全ての欠測値を推定でき
たこと、又は、推定できない欠測値が残っているが、そ
れ以上は推定行列を構築できないことである。そして、
このような推定手順が終わっても欠測値が残っている場
合は、追跡行列を上下反転させてから、同様の推定手順
を繰り返す。
In summary, the procedures of the shaping process of the tracking matrix, the construction of the estimation matrix, and the estimation operation are repeated while gradually increasing the size of the estimation matrix until the stop condition is satisfied. The stop condition is, specifically, that all missing values have been estimated, or that missing values that cannot be estimated remain, but no further estimation matrix can be constructed. And
If the missing values remain even after such an estimation procedure, the tracking matrix is inverted upside down, and then the same estimation procedure is repeated.

【0072】以上に説明した2次元演算部112におけ
る欠測値推定処理のフローの一例を図8に示し、説明す
る。まず、パソコン116のメモリから追跡行列を取り
込む(ステップ500)。この追跡行列に対し、前述の
整形処理を行う(ステップ502)。整形後の追跡行列
において、1つ以上の欠測値のための推定行列を構築可
能であるか調べる(ステップ504)。可能ならば、注
目した欠測値に対する推定行列を作成し(ステップ50
6)、推定演算を行い(ステップ508)、推定の成否
を調べる(ステップ510)。成功した場合には、推定
値で欠測値を書き換える。失敗した場合には推定行列の
サイズを増加させ(ステップ512)、増加後の推定行
列のサイズが予め決めた最大サイズ以下であるか調べる
(ステップ514)。最大サイズ以下であるならば、そ
の増加したサイズの推定行列を作成して推定演算を再度
行う(ステップ508)。推定が成功するか、推定行列
のサイズが最大サイズを越えると、全ての欠測値の推定
が完了したか調べる(ステップ516)。欠測値が残っ
ていなければ、処理は終了する。追跡行列はパソコン1
16のメモリに保存される。
FIG. 8 shows an example of the flow of the missing value estimating process in the two-dimensional operation unit 112 described above with reference to FIG. First, a tracking matrix is fetched from the memory of the personal computer 116 (step 500). The above-mentioned shaping process is performed on this tracking matrix (step 502). It is checked whether it is possible to construct an estimation matrix for one or more missing values in the shaped tracking matrix (step 504). If possible, create an estimation matrix for the missing values of interest (step 50).
6), an estimation calculation is performed (step 508), and the success or failure of the estimation is checked (step 510). If successful, replace the missing value with the estimated value. In the case of failure, the size of the estimation matrix is increased (step 512), and it is checked whether the size of the estimation matrix after the increase is equal to or smaller than a predetermined maximum size (step 514). If the size is equal to or smaller than the maximum size, an estimation matrix having the increased size is created and the estimation operation is performed again (step 508). If the estimation is successful or the size of the estimation matrix exceeds the maximum size, it is checked whether the estimation of all missing values has been completed (step 516). If there are no missing values, the process ends. Tracking matrix is PC1
16 memories.

【0073】推定値が残っている場合には、ステップ5
02へ戻り次の欠測値に対する処理を続ける。
If the estimated value remains, step 5
Returning to 02, the processing for the next missing value is continued.

【0074】欠測値が残っているが、推定行列の構築が
不可能になった場合、ステップ504よりステップ51
8へ進み、追跡行列の上下反転を既に行ったか判定す
る。反転前ならば、追跡行列の上下反転を行い(ステッ
プ520)、ステップ502へ戻って処理を続ける。追
跡行列の上下反転後の処理でも欠測値が残っていて、推
定行列の構築が不可能となった場合、ステップ504か
らステップ518へ、さらにステップ522へ進み、追
跡行列を再び上下反転させて元の行順に戻し、処理を終
了する。追跡行列はパソコン116のメモリに保存され
る。
If it is impossible to construct the estimation matrix although the missing values remain, the process proceeds from step 504 to step 51.
Proceeding to step 8, it is determined whether the tracking matrix has been flipped upside down. If not, the tracking matrix is turned upside down (step 520), and the process returns to step 502 to continue. If the missing values remain even after the tracking matrix is turned upside down and the estimation matrix cannot be constructed, the process proceeds from step 504 to step 518, and further to step 522, where the tracking matrix is turned upside down again. Return to the original line order and end the process. The tracking matrix is stored in the memory of the personal computer 116.

【0075】ここで、推定行列の構築に関してさらに説
明する。推定行列は、線形近似射影モデルの仮定条件を
良く満たす特徴点の計測値(位置座標)を集めて構築す
るのが、推定精度を上げるために好ましい。すなわち、
前述のように、擬似中心射影モデルは、中心射影モデル
における、カメラの光学中心から対象物体の重心までの
距離の周りで展開し、一次近似をとったモデルであり、
次の2式の近似条件を仮定している。
Here, the construction of the estimation matrix will be further described. It is preferable that the estimation matrix be constructed by collecting measurement values (position coordinates) of feature points that sufficiently satisfy the assumptions of the linear approximation projection model, in order to increase estimation accuracy. That is,
As described above, the pseudo-central projection model is a model that is developed around the distance from the optical center of the camera to the center of gravity of the target object in the central projection model and takes a first-order approximation,
The following two approximate conditions are assumed.

【0076】[0076]

【数32】 (Equation 32)

【0077】[0077]

【数33】 (34)式は撮影距離zfに比べて対象物体のサイズが
十分に小さいという仮定を、(33)式は各特徴点のカ
メラの光軸への投影量が非常に小さいという仮定をそれ
ぞれ表している。各特徴点がモデルの仮想平面上にあれ
ば、擬似中心射影が中心射影に一致すると言える。した
がって、(33)式は推定行列の構築条件を示唆してい
る。しかし、仮想平面が常にカメラの画像面に平行であ
るため、カメラ運動が平行移動である場合以外は、各フ
レームにおけるカメラの姿勢は異なる。カメラの運動が
激しい場合、(33)式の仮定を満たすことは難しい。
ただし、ビデオカメラで撮った動画像の場合、連続する
フレーム間のカメラの姿勢変換は小さいため、局所的に
集中している特徴点の集合は(33)式の仮定を満たす
と考えてよい。したがつて、追跡行列から推定行列を構
築する際に、まず追跡を失敗し欠測値となっている特徴
点(欠測特徴点)と最も近い特徴点を選択して推定行列
を構築する。ただし、欠測特徴点の位置すなわち推定対
象の欠測値が未知という問題がある。そこで、隣り合う
フレーム間では特徴点の運動が平行運動であると仮定
し、欠測値の代わりに、欠測特徴点の直前のフレームに
ある計測値(「仮定計測値」と呼ぶ)を利用する。すな
わち、仮定計測値と最も距離が小さい計測値を選択して
推定行列を構築する。この方法は、フレーム間の特徴点
の運動が小さい動画像の場合に適する。
[Equation 33] (34) represents the assumption that is sufficiently small size of the object as compared to the shooting distance z f, the assumption that (33) is very small projection of the optical axis of each feature point cameras respectively ing. If each feature point is on the virtual plane of the model, it can be said that the pseudo central projection matches the central projection. Therefore, equation (33) suggests the construction condition of the estimation matrix. However, since the virtual plane is always parallel to the image plane of the camera, the posture of the camera in each frame is different except when the camera movement is a parallel movement. If the camera moves heavily, it is difficult to satisfy the assumption of equation (33).
However, in the case of a moving image captured by a video camera, since the camera pose conversion between consecutive frames is small, it may be considered that a set of locally concentrated feature points satisfies the assumption of Expression (33). Therefore, when constructing an estimation matrix from the tracking matrix, first, a feature point closest to a feature point that has failed in tracking and is a missing value (missing feature point) is selected to construct an estimation matrix. However, there is a problem that the position of the missing feature point, that is, the missing value of the estimation target is unknown. Therefore, it is assumed that the motion of the feature point is a parallel motion between adjacent frames, and the measurement value (called "assumed measurement value") in the frame immediately before the missing feature point is used instead of the missing value. I do. That is, a measurement value having the smallest distance from the assumed measurement value is selected to construct an estimation matrix. This method is suitable for a moving image in which the motion of a feature point between frames is small.

【0078】次に、3次元演算部114における処理内
容を説明する。図9は、その処理フローを示すフローチ
ャートである。
Next, the processing contents of the three-dimensional operation unit 114 will be described. FIG. 9 is a flowchart showing the processing flow.

【0079】まず、3次元演算部114は、パソコン1
16のメモリより、2次元演算部112によって作成さ
れた計測行列を取り込む(ステップ600)。次に、こ
の計測行列に対し前述の因子分解法を適用し(ステップ
602)、対象物体の特徴点の3次元座標(形状デー
タ)611と、特徴点群とカメラとの相対的な3次元運
動(運動データ)610を求める。
First, the three-dimensional operation unit 114
The measurement matrix created by the two-dimensional operation unit 112 is fetched from the 16 memories (step 600). Next, the above-described factorization method is applied to this measurement matrix (step 602), and the three-dimensional coordinates (shape data) 611 of the feature points of the target object and the relative three-dimensional motion of the feature points and the camera are calculated. (Exercise data) 610 is obtained.

【0080】因子分解は一意ではなく、二通りの解があ
り、形状の凹凸の区別がつかないという問題がある。そ
こで本発明では、形状の凹凸判断を行って必要な凹凸の
修正を行い(ステップ604)、凹凸が正確な形状デー
タ606を得る。
The factor decomposition is not unique, and there are two types of solutions, and there is a problem that it is not possible to distinguish between irregularities in the shape. Therefore, in the present invention, the irregularities of the shape are determined and the necessary irregularities are corrected (step 604), and the shape data 606 with accurate irregularities is obtained.

【0081】ステップ604の内容を図10に示す。す
なわち、3次元(運動/形状)データ610,611
と、駆動部106から入力された回転方向データ612
とを比較し、回転台100の回転方向と対象物体上の特
徴点の運動方向との一致を調べる(ステップ702)。
運動方向が一致する特徴点に関する形状データはそのま
ま正確なものとして出力する(ステップ706)。しか
し、運動方向が一致しない特徴点の形状データについて
は、z軸に対して反転し、すなわち凹凸反転操作を行い
(ステップ704)、反転したものを正確な形状データ
として出力する(ステップ706)。
FIG. 10 shows the contents of step 604. That is, three-dimensional (movement / shape) data 610, 611
And the rotation direction data 612 input from the drive unit 106
Are checked to see if the rotation direction of the turntable 100 matches the motion direction of the feature point on the target object (step 702).
The shape data relating to the feature points having the same motion direction is output as it is as it is (step 706). However, the shape data of the feature points whose motion directions do not match is inverted with respect to the z-axis, that is, the unevenness inversion operation is performed
(Step 704), the inverted data is output as accurate shape data (Step 706).

【0082】このように、本発明によれば、撮影中の対
象物体の回転の方向と、計測行列から得られた3次元デ
ータにより表される特徴点の運動方向とが不一致の場合
に凹凸反転操作を行うことにより、対象物体の表面の凹
凸も含めた正確な形状抽出が可能である。
As described above, according to the present invention, when the direction of rotation of the target object being photographed and the direction of motion of the feature point represented by the three-dimensional data obtained from the measurement matrix do not match, the unevenness is reversed. By performing the operation, it is possible to accurately extract the shape including the irregularities on the surface of the target object.

【0083】図2に示した画像入力部110、2次元演
算部112及び3次元演算部114の機能、あるいは図
3、図4、図8、図9及び図10に関連して説明した処
理内容を、パソコン116又は別のパソコンその他のコ
ンピュータを利用し、ソフトウェアにより実現すること
もできる。例えば、図11に略示するようなCPU80
0、メモリ801、ハードディスクなどの補助記憶装置
802、フロッピーディスクなどの記録媒体804の読
み書きのためのドライブ803、外部の入力機器との入
力インターフェイス805及び出力インターフェイス8
06などをシステムバス807によって接続したような
コンピュータを利用できる。そして、図3、図4、図
8、図9及び図10に関連して説明した処理内容を実行
させるためのプログラム810はメモリ801上に置か
れてCPU800によって実行される。このプログラム
810は、例えば、それが記録されたフロッピーディス
クなどの記録媒体804からドライブ803を介してメ
モり801にロードされ、あるいは補助記憶装置802
に一旦格納され処理実行時にメモリ801にロードされ
る。カメラ108から出力される画像ストリームや駆動
部106より出力される回転方向データは、例えば入力
インターフェイス805を介して取り込まれる。最終的
な形状データは、例えば、補助記憶装置802に保存さ
れたり、ドライブ803を介してフロッピーディスクな
どに書き出される。
The functions of the image input unit 110, the two-dimensional operation unit 112 and the three-dimensional operation unit 114 shown in FIG. 2, or the processing contents described in connection with FIGS. 3, 4, 8, 9 and 10 Can be realized by software using the personal computer 116 or another personal computer or another computer. For example, a CPU 80 as schematically shown in FIG.
0, a memory 801, an auxiliary storage device 802 such as a hard disk, a drive 803 for reading and writing a recording medium 804 such as a floppy disk, an input interface 805 and an output interface 8 with an external input device
06, etc., connected by a system bus 807 can be used. A program 810 for executing the processing contents described in relation to FIGS. 3, 4, 8, 9 and 10 is placed on the memory 801 and executed by the CPU 800. The program 810 is loaded into the memory 801 via the drive 803 from a recording medium 804 such as a floppy disk on which the program 810 is recorded, or is stored in the auxiliary storage device 802.
And is loaded into the memory 801 when the process is executed. The image stream output from the camera 108 and the rotation direction data output from the driving unit 106 are captured via the input interface 805, for example. The final shape data is stored in, for example, the auxiliary storage device 802 or written out to a floppy disk or the like via the drive 803.

【0084】[0084]

【発明の効果】以上の説明から明らかなように、本発明
によれば、推定行列のサイズを徐々に増大させながら欠
測値の推定を行うことにより、欠測値推定の計算コスト
の増大を抑えることができ、また、追跡行列の整形処理
さらには追跡行列の上下反転により、そのような欠測値
推定をスムーズに行い、従来よりも効率よく、より多く
の欠測値を的確に推定することができる。したがって、
追跡行列中に多くの欠測値がある場合にも精度のよい3
次元形状抽出が可能になる。また、撮影中の対象物体の
回転の方向と、計測行列から得られた3次元データによ
り表される特徴点の運動方向とが不一致の場合に凹凸反
転を行うことにより、対象物体の表面の凹凸も正確に抽
出可能である。
As is clear from the above description, according to the present invention, the missing value is estimated while the size of the estimation matrix is gradually increased, thereby increasing the calculation cost of missing value estimation. In addition, the tracking matrix shaping process and the tracking matrix are vertically inverted so that such missing value estimation is performed smoothly, and more missing values are accurately estimated more efficiently than before. be able to. Therefore,
Accurate 3 even when there are many missing values in the tracking matrix
A dimensional shape can be extracted. In addition, when the rotation direction of the target object being photographed and the motion direction of the feature point represented by the three-dimensional data obtained from the measurement matrix do not match, the unevenness of the surface of the target object is inverted. Can also be accurately extracted.

【図面の簡単な説明】[Brief description of the drawings]

【図1】擬似中心射影モデルの説明図である。FIG. 1 is an explanatory diagram of a pseudo center projection model.

【図2】本発明による3次元形状抽出システムの構成図
である。
FIG. 2 is a configuration diagram of a three-dimensional shape extraction system according to the present invention.

【図3】画像入力部の処理フローを示すフローチャート
である。
FIG. 3 is a flowchart illustrating a processing flow of an image input unit.

【図4】2次元演算部の処理フローを示すフローチャー
トである。
FIG. 4 is a flowchart illustrating a processing flow of a two-dimensional operation unit.

【図5】追跡行列の欠測値の推定方法の説明図である。FIG. 5 is an explanatory diagram of a method of estimating a missing value of a tracking matrix.

【図6】追跡行列の一例を示す図である。FIG. 6 is a diagram illustrating an example of a tracking matrix.

【図7】追跡行列の整列処理の説明図である。FIG. 7 is an explanatory diagram of a tracking matrix sorting process.

【図8】欠測値推定処理フローの一例を示すフローチャ
ートである。
FIG. 8 is a flowchart illustrating an example of a missing value estimation processing flow.

【図9】3次元演算部の処理フローを示すフローチャー
トである。
FIG. 9 is a flowchart illustrating a processing flow of a three-dimensional operation unit.

【図10】形状凹凸判断/推定処理を示すフローチャー
トである。
FIG. 10 is a flowchart illustrating a shape unevenness determination / estimation process.

【図11】本発明をソフトウェアで実現するために利用
するコンピュータの一例を示すブロック図である。
FIG. 11 is a block diagram illustrating an example of a computer used to implement the present invention with software.

【符号の説明】[Explanation of symbols]

100 回転台 102 対象物体 104 回転駆動機構 106 駆動部 108 デジタルビデオカメラ 110 画像入力部 112 2次元演算部 114 3次元演算部 116 パソコン Reference Signs List 100 turntable 102 target object 104 rotation drive mechanism 106 drive unit 108 digital video camera 110 image input unit 112 two-dimensional operation unit 114 three-dimensional operation unit 116 personal computer

フロントページの続き Fターム(参考) 2F065 AA04 AA53 BB05 FF01 FF04 JJ03 JJ19 JJ26 KK01 MM04 PP13 QQ17 QQ18 QQ23 QQ31 QQ38 QQ45 5B057 CA08 CA13 CA16 CB08 CB13 CB16 CD06 CD14 CH08 DA20 DB02 DB09 DC22 DC36 5L096 AA09 CA04 EA33 FA14 FA76 HA02 JA11 LA04 LA05 MA00Continuation of the front page F term (reference) 2F065 AA04 AA53 BB05 FF01 FF04 JJ03 JJ19 JJ26 KK01 MM04 PP13 QQ17 QQ18 QQ23 QQ31 QQ38 QQ45 5B057 CA08 CA13 CA16 CB08 CB13 CB16 CD06 CD14 CH08 DA20 DB02 FA09 DC22 DC09 LA04 LA05 MA00

Claims (10)

【特許請求の範囲】[Claims] 【請求項1】 対象物体を撮影した画像系列を入力デー
タとして、対象物体の特徴点を追跡することにより追跡
行列を作成するステップ、追跡行列の欠測値を、追跡行
列の部分行列である推定行列を用いて推定し、欠測値を
推定値で置き換えるステップ、この欠測値推定ステップ
を終了した追跡行列から計測行列を作成するステップ、
及び、計測行列を対象物体の形状と運動をそれぞれ表す
3次元データに変換するステップからなり、前記欠測値
推定ステップにおいて推定行列のサイズを徐々に増大さ
せながら欠測値の推定を繰り返すことを特徴とする3次
元形状抽出方法。
1. A step of creating a tracking matrix by tracking a feature point of a target object using an image sequence obtained by photographing the target object as input data, and estimating a missing value of the tracking matrix as a submatrix of the tracking matrix. Estimating using a matrix, replacing missing values with estimated values, creating a measurement matrix from a tracking matrix that has completed the missing value estimation step,
And converting the measurement matrix into three-dimensional data respectively representing the shape and the motion of the target object. In the missing value estimation step, repeating the estimation of the missing value while gradually increasing the size of the estimation matrix is performed. A featured three-dimensional shape extraction method.
【請求項2】 欠測値推定ステップにおいて、追跡行列
を参照して特徴点をその追跡状況に応じて複数のグルー
プに分類し、追跡行列に対し特徴点を所定のグループ順
に並べ直す整形処理を施すことを特徴とする請求項1記
載の3次元形状抽出方法。
2. In the missing value estimation step, a shaping process of classifying feature points into a plurality of groups according to the tracking situation with reference to the tracking matrix and rearranging the feature points in the tracking matrix in a predetermined group order is performed. The method according to claim 1, wherein the method is performed.
【請求項3】 欠測値推定ステップにおいて、追跡行列
に推定できない欠測値が残っているが推定行列の構築が
不可能になった場合に、追跡行列の上下を反転して欠測
値の推定を継続することを特徴とする請求項2記載の3
次元形状抽出方法。
3. In the missing value estimating step, when there is a missing value that cannot be estimated in the tracking matrix but it becomes impossible to construct the estimation matrix, the tracking matrix is inverted upside down to calculate the missing value. 3. The method according to claim 2, wherein the estimation is continued.
Dimensional shape extraction method.
【請求項4】 対象物体は所定方向に回転させつつ撮影
され、計測行列より変換された3次元データにより表さ
れる対象物体の特徴点の運動方向と、前記撮影中の対象
物体の回転方向とを比較し、この比較が不一致となった
特徴点について凹凸を反転させるための操作を3次元デ
ータに施すステップをさらに含むことを特徴とする請求
項1、2又は3記載の3次元形状抽出方法。
4. A target object is photographed while being rotated in a predetermined direction, and a motion direction of a feature point of the target object represented by three-dimensional data converted from a measurement matrix, and a rotation direction of the target object being photographed. 4. The three-dimensional shape extraction method according to claim 1, further comprising the step of comparing the three-dimensional data with each other, and performing an operation for inverting concavities and convexities of the feature points having the mismatch. .
【請求項5】 対象物体を撮影した画像系列を入力する
手段、入力された画像系列において対象物体の特徴点を
追跡することにより追跡行列を作成する手段、追跡行列
を参照して特徴点をその追跡状況に応じて複数のグルー
プに分類し、追跡行列の特徴点を所定のグループ順に並
べ換える整形処理と、整形処理後の追跡行列から欠測値
推定のための推定行列を構築する処理と、構築された推
定行列から欠測値を推定し、欠測値を推定値で置き換え
る処理とを、推定行列のサイズを徐々に増大させながら
繰り返す手段、この欠測値推定手段により処理後の追跡
行列から計測行列を構築する手段、及び、計測行列を対
象物体の形状と運動をそれぞれ表す3次元データに変換
する手段からなることを特徴とする3次元形状抽出装
置。
5. A means for inputting an image sequence obtained by capturing an image of a target object, a means for generating a tracking matrix by tracking feature points of the target object in the input image sequence, and extracting feature points by referring to the tracking matrix. Classifying into a plurality of groups according to the tracking situation, a shaping process of rearranging the feature points of the tracking matrix in a predetermined group order, and a process of constructing an estimation matrix for missing value estimation from the tracking matrix after the shaping process, Means for estimating a missing value from the constructed estimation matrix and replacing the missing value with the estimated value while gradually increasing the size of the estimation matrix, a tracking matrix after processing by the missing value estimating means. 3. A three-dimensional shape extracting apparatus, comprising: a means for constructing a measurement matrix from R and a means for converting the measurement matrix into three-dimensional data representing the shape and motion of the target object, respectively.
【請求項6】 欠測値推定手段において、追跡行列に推
定できない欠測値が残っているが推定行列の構築が不可
能になった場合に、追跡行列の上下を反転してから、整
形処理と、推定行列の構築処理と、欠測値の推定処理と
を、推定行列のサイズを徐々に増大させながら繰り返す
ことを特徴とする請求項5記載の3次元形状抽出装置。
6. The missing value estimating means, when missing values that cannot be estimated remain in the tracking matrix but the estimation matrix cannot be constructed, the tracking matrix is turned upside down, and then the shaping process is performed. 6. The three-dimensional shape extracting apparatus according to claim 5, wherein the process of constructing the estimation matrix and the process of estimating the missing value are repeated while gradually increasing the size of the estimation matrix.
【請求項7】 対象物体は所定方向に回転させつつ撮影
され、計測行列より変換された3次元データにより表さ
れる対象物体の特徴点の運動方向と、前記撮影中の対象
物体の回転方向とを比較し、この比較が不一致となった
特徴点について凹凸を反転させる操作を3次元データに
施す手段をさらに有することを特徴とする請求項5又は
6記載の3次元形状抽出装置。
7. A target object is photographed while being rotated in a predetermined direction, and a moving direction of a feature point of the target object represented by three-dimensional data converted from a measurement matrix, and a rotation direction of the target object being photographed. 7. The three-dimensional shape extracting apparatus according to claim 5, further comprising: means for comparing the three-dimensional data with each other, and performing an operation of inverting the concavities and convexities for the feature points having the mismatch.
【請求項8】 対象物体を撮影した画像系列において対
象物体の特徴点を追跡することにより追跡行列を作成す
るステップ、追跡行列を参照して特徴点をその追跡状況
に応じて複数のグループに分類し、追跡行列の特徴点を
所定のグループ順に並べ換える整形処理と、整形処理後
の追跡行列から欠測値推定のための推定行列を構築する
処理と、構築された推定行列から欠測値を推定し、欠測
値を推定値で置き換える処理とを、推定行列のサイズを
徐々に増大させながら繰り返すステップ、この欠測値推
定ステップを終了した追跡行列から計測行列を構築する
ステップ、及び、計測行列を対象物体の形状と運動をそ
れぞれ表す3次元データに変換するステップをコンピュ
ータに実行させるプログラムが記録されたことを特徴と
するコンピュータ読み取り可能記録媒体。
8. A step of creating a tracking matrix by tracking feature points of a target object in an image sequence obtained by capturing the target object, and classifying the feature points into a plurality of groups according to the tracking status with reference to the tracking matrix. A shaping process of rearranging the feature points of the tracking matrix in a predetermined group order, a process of constructing an estimation matrix for missing value estimation from the tracking matrix after the shaping process, and a process of forming missing values from the constructed estimation matrix. Repeating the process of estimating and replacing missing values with estimated values while gradually increasing the size of the estimation matrix, constructing a measurement matrix from the tracking matrix that has completed the missing value estimation step, and measuring A computer-readable program recorded with a program for causing a computer to execute a step of converting a matrix into three-dimensional data respectively representing a shape and a motion of a target object. Readable recording medium.
【請求項9】 欠測値推定ステップにおいて、追跡行列
に推定できない欠測値が残っているが推定行列の構築が
不可能になった場合に、追跡行列の上下を反転してか
ら、整形処理と、推定行列の構築処理と、欠測値の推定
処理とを、推定行列のサイズを徐々に増大させながら繰
り返すことを特徴とする請求項8記載のコンピュータ読
み取り可能記録媒体。
9. In the missing value estimating step, if there is a missing value that cannot be estimated in the tracking matrix but it becomes impossible to construct the estimation matrix, the tracking matrix is turned upside down, and then the shaping process is performed. 9. The computer-readable recording medium according to claim 8, wherein the processing of constructing an estimation matrix and the processing of estimating missing values are repeated while gradually increasing the size of the estimation matrix.
【請求項10】 対象物体は所定方向に回転させつつ撮
影され、プログラムは、計測行列より変換された3次元
データにより表される対象物体の特徴点の運動方向と、
前記撮影中の対象物体の回転方向とを比較し、この比較
が不一致となった特徴点については凹凸を反転させる操
作を3次元データに施すステップをさらにコンピュータ
に実行させるものであることを特徴とする請求項8又は
9記載のコンピュータ読み取り可能記録媒体。
10. A target object is photographed while being rotated in a predetermined direction. The program includes: a moving direction of a feature point of the target object represented by three-dimensional data converted from a measurement matrix;
Comparing the rotation direction of the target object being photographed with the rotation direction of the target object, and performing an operation of inverting the unevenness on the three-dimensional data for the feature point in which the comparison is inconsistent with the three-dimensional data. The computer-readable recording medium according to claim 8 or 9, wherein:
JP28787698A 1998-10-09 1998-10-09 Three-dimensional shape extraction method and apparatus, and recording medium Expired - Fee Related JP3711203B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP28787698A JP3711203B2 (en) 1998-10-09 1998-10-09 Three-dimensional shape extraction method and apparatus, and recording medium
US09/414,349 US6628819B1 (en) 1998-10-09 1999-10-07 Estimation of 3-dimensional shape from image sequence

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP28787698A JP3711203B2 (en) 1998-10-09 1998-10-09 Three-dimensional shape extraction method and apparatus, and recording medium

Publications (2)

Publication Number Publication Date
JP2000113194A true JP2000113194A (en) 2000-04-21
JP3711203B2 JP3711203B2 (en) 2005-11-02

Family

ID=17722887

Family Applications (1)

Application Number Title Priority Date Filing Date
JP28787698A Expired - Fee Related JP3711203B2 (en) 1998-10-09 1998-10-09 Three-dimensional shape extraction method and apparatus, and recording medium

Country Status (1)

Country Link
JP (1) JP3711203B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007183256A (en) * 2005-12-08 2007-07-19 Topcon Corp Image processing device and method therefor
JP2011013121A (en) * 2009-07-02 2011-01-20 Sobal Kk Three-dimensional shape measuring apparatus and three-dimensional shape measurement method
CN113375568A (en) * 2021-05-12 2021-09-10 苏州阿普奇物联网科技有限公司 Metal wiredrawing polishing defect detection method based on laser scanning

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007183256A (en) * 2005-12-08 2007-07-19 Topcon Corp Image processing device and method therefor
JP2011013121A (en) * 2009-07-02 2011-01-20 Sobal Kk Three-dimensional shape measuring apparatus and three-dimensional shape measurement method
CN113375568A (en) * 2021-05-12 2021-09-10 苏州阿普奇物联网科技有限公司 Metal wiredrawing polishing defect detection method based on laser scanning

Also Published As

Publication number Publication date
JP3711203B2 (en) 2005-11-02

Similar Documents

Publication Publication Date Title
US7352386B1 (en) Method and apparatus for recovering a three-dimensional scene from two-dimensional images
CN108629843B (en) Method and equipment for realizing augmented reality
Azarbayejani et al. Recursive estimation of structure and motion using relative orientation constraints
JP5211069B2 (en) Human posture estimation and tracking using labeling
JP5388932B2 (en) Information processing apparatus and control method thereof
KR101410273B1 (en) Method and apparatus for environment modeling for ar
JP2001521650A (en) Method and apparatus for three-dimensional scene processing using point-pair parallax geometry
JP2002024807A (en) Object movement tracking technique and recording medium
JP2007004578A (en) Method and device for acquiring three-dimensional shape and recording medium for program
JP2006252275A (en) Restoration system of camera motion and object shape
CN112085849A (en) Real-time iterative three-dimensional modeling method and system based on aerial video stream and readable medium
Yu et al. Recursive camera-motion estimation with the trifocal tensor
You et al. MISD-SLAM: multimodal semantic SLAM for dynamic environments
Yu et al. Robust 3-D motion tracking from stereo images: A model-less method
CN113345032A (en) Wide-angle camera large-distortion image based initial image construction method and system
KR100944293B1 (en) Mechanism for reconstructing full 3D model using single-axis turntable images
JP2000003446A (en) Missing value estimating method, three-dimensional data input device and recording medium
JP2002008014A (en) Method and device for extracting three-dimensional shape, and recording medium
JP2000113194A (en) Method and device for extracting three-dimensional shape and recording medium
Ogawara et al. Grasp recognition using a 3D articulated model and infrared images
Adán et al. 3D feature tracking using a dynamic structured light system
JP3548652B2 (en) Apparatus and method for restoring object shape
JP2009048305A (en) Shape analysis program and shape analysis apparatus
JP3512919B2 (en) Apparatus and method for restoring object shape / camera viewpoint movement
Lin et al. 3D Pose estimation using genetic-based iterative closest point algorithm

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20050412

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20050419

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20050616

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20050809

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20050812

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080819

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090819

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090819

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100819

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100819

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110819

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110819

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120819

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120819

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130819

Year of fee payment: 8

LAPS Cancellation because of no payment of annual fees