JP2006106930A - Parameter estimation device, parameter estimation method and parameter estimation program - Google Patents

Parameter estimation device, parameter estimation method and parameter estimation program Download PDF

Info

Publication number
JP2006106930A
JP2006106930A JP2004289880A JP2004289880A JP2006106930A JP 2006106930 A JP2006106930 A JP 2006106930A JP 2004289880 A JP2004289880 A JP 2004289880A JP 2004289880 A JP2004289880 A JP 2004289880A JP 2006106930 A JP2006106930 A JP 2006106930A
Authority
JP
Japan
Prior art keywords
camera
matrix
motion
coordinate value
matrix data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2004289880A
Other languages
Japanese (ja)
Inventor
Isao Miyagawa
勲 宮川
Yoshiori Wakabayashi
佳織 若林
Kenichi Arakawa
賢一 荒川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2004289880A priority Critical patent/JP2006106930A/en
Publication of JP2006106930A publication Critical patent/JP2006106930A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To solve a problem that since the restoration of the space information of the object of an external world from an image photographed by a manual operation by using a video camera results in the change of each focal distance, it is impossible to use a conventional factorization method, and it is necessary to simultaneously restore the changing focal distances for focusing. <P>SOLUTION: A factorization processing part 43 prepares matrix data from image coordinate values showing the temporal changing quantity of the featured point of each image, applies singular valve decomposition and noise removal to the matrix data thereby obtaining the matrix data showing motion information and the matrix data showing three-dimensional information, calculates a transformation matrix satisfying conditions set for stipulating motion in the component of the motion information, makes the transformation matrix act on the matrix data being the motion information thereby restoring camera viewpoint motions, and makes the inverse matrix of the transformation matrix act on the matrix data expressing the three-dimensional information thereby restoring three-dimensional information configuring an object shape, and an optical axial translational motion restoration/focal distance estimating part 44 performs the reproduction of the translational motion and the estimation of the focal distances in the optical axial direction of the camera viewpoint. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は、画像入力装置(例えば、カメラ等)を使って取得した車載画像、室内画像、歩行撮影画像、船上からの海上画像、空撮画像などの時系列画像全般に利用可能で、カメラで取得した時系列画像から、カメラ視点の並進運動と光軸周りの回転(ヨー回転)、及び、時系列画像に映っている外界の3次元形状、すなわち、被写体(物体)の外観形状を構成する3次元情報を復元し、同時に、カメラ内部パラメータを推定することに関する。   INDUSTRIAL APPLICABILITY The present invention can be used for all time-series images such as in-vehicle images, indoor images, walking images, sea images from the ship, aerial images, etc. acquired using an image input device (for example, a camera). From the acquired time-series image, the translation movement of the camera viewpoint and the rotation around the optical axis (yaw rotation), and the three-dimensional shape of the outside world reflected in the time-series image, that is, the external shape of the subject (object) are configured. It relates to restoring 3D information and simultaneously estimating camera internal parameters.

コンピュータビジョン分野では、時系列画像データから、対象物の形状を計測または獲得する手法には、ステレオ計測やエピポーラ面解析を用いた3次元解析手法がある。この手法によれば、物体が撮影されている複数の時系列画像から、空間形状または空間構造に関する3次元位置情報、及び、カメラ視点に関する運動を復元することができる。しかし、カメラを動かしながら撮影した時系列画像にはランダム性の雑音が混入するため、カメラ運動と物体形状を同時に、かつ、高精度に復元することが困難である。   In the computer vision field, methods for measuring or acquiring the shape of an object from time-series image data include three-dimensional analysis methods using stereo measurement and epipolar plane analysis. According to this method, it is possible to restore the three-dimensional position information related to the spatial shape or the spatial structure and the motion related to the camera viewpoint from a plurality of time-series images in which the object is captured. However, since random noise is mixed in a time-series image taken while moving the camera, it is difficult to restore the camera motion and the object shape at the same time with high accuracy.

これに対して、従来の因子分解法はランダム性の雑音が混入するようなビデオ画像などの時系列画像において、カメラ運動と物体形状をロバスト、かつ、高精度に復元することができる(例えば、特許文献1参照。)。   On the other hand, the conventional factorization method can restore the camera motion and the object shape robustly and with high accuracy in a time-series image such as a video image in which random noise is mixed (for example, (See Patent Document 1).

しかし、この手法では、カメラの内部パラメータ(焦点距離など)を既知としており、事前にカメラキャリブレーションによりカメラ内部パラメータを校正しておく必要がある。   However, in this method, the internal parameters of the camera (focal length, etc.) are known, and it is necessary to calibrate the camera internal parameters by camera calibration in advance.

一方、ディジタル・スチルカメラやハンディカメラなどにはオートフォーカス機能が搭載されており、被写体との距離に合わせてピント調節を行い、ピントの合った画像の取得が可能である。これにより、オートフォーカスで撮影された画像は各画像において焦点距離が微妙に調整される。従来法の因子分解法ではカメラの内部パラメータが固定(画像において焦点距離が変わらず一定)であることを前提としてカメラ運動と3次元形状を復元するため、オートフォーカスで撮影された画像には応用することができなかった。   On the other hand, digital still cameras, handy cameras, and the like are equipped with an autofocus function, and it is possible to obtain a focused image by adjusting the focus according to the distance from the subject. As a result, the focal length of each image captured with autofocus is finely adjusted. In the conventional factorization method, the camera motion and 3D shape are restored on the assumption that the internal parameters of the camera are fixed (the focal length does not change in the image is constant). I couldn't.

これに対して、簡易な撮影ターゲット(紙に印刷した白黒の市松模様パターン)をハンドフリーで撮影した画像から、カメラの内部パラメータを推定する技術も開示されている(例えば、非特許文献1参照。)。しかし、時間的に変化する内部パラメータに対しては、この技術は適用できなかった。
特開2003−271925号公報 Z.Zhang,「A Flexible New Technique for Camera Calibration」,IEEE Trans.Pattern Anal.& Mach.Intell,Vol.22,No.11,pp.1330−1334,2000.
On the other hand, a technique for estimating internal parameters of a camera from an image obtained by shooting a simple shooting target (a black and white checkerboard pattern printed on paper) in a hands-free manner is also disclosed (for example, see Non-Patent Document 1). .). However, this technique cannot be applied to internal parameters that change over time.
JP 2003-271925 A Z. Zhang, “A Flexible New Technology for Camera Calibration”, IEEE Trans. Pattern Anal. & Mach. Intel, Vol. 22, no. 11, pp. 1330-1334, 2000.

Shape From Motionの原理(カメラが運動することで3次元形状を復元する考え方)を応用した計測方法により、ディジタル・スチルカメラやハンディタイプのビデオカメラを使って撮影した時系列画像から外界の物体の空間情報を獲得、復元するとき、各画像でのピント合わせは必要であり、市販のカメラには被写体との距離に応じてフォーカスを調整するというオートフォーカス機能が装備されており、この機能により画像ごとにピントが調整された画像が得られる。しかし、オートフォーカス機能により各画像を取得した際の焦点距離が変化するため、従来の因子分解法を利用することができず、ピント調整のために変化する焦点距離を同時に復元しなければならないという問題がある。   Using a measurement method that applies the principle of Shape From Motion (the idea of restoring a three-dimensional shape by the movement of the camera), it is possible to capture objects from the outside world from time-series images taken using a digital still camera or a handheld video camera. When acquiring and restoring spatial information, it is necessary to focus on each image, and commercially available cameras are equipped with an autofocus function that adjusts the focus according to the distance to the subject. An image with the focus adjusted for each time is obtained. However, since the focal length when each image is acquired by the autofocus function changes, the conventional factorization method cannot be used, and the changing focal length for focus adjustment must be restored at the same time. There's a problem.

本発明は、かかる事情に鑑みてなされたもので、その目的は上記課題を解決したカメラパラメータ推定技術を提供することにある。   The present invention has been made in view of such circumstances, and an object thereof is to provide a camera parameter estimation technique that solves the above-described problems.

本発明では、焦点距離を推定するための投影モデルを   In the present invention, a projection model for estimating the focal length is used.

Figure 2006106930
Figure 2006106930

と仮定し、この投影モデルに基づいてカメラ運動、3次元形状、焦点距離を復元する。式1では、第iフレームの画像において観測される第j番目の特徴点の画像座標値を(xij,yij)、そのときの焦点距離をfi、XY並進運動を(Txi,Tyi,Tzi)、光軸周りの回転をθiとする。また、画像座標値(xij,yij)は主点(principle point)を原点としており、主点は既知とし、画像の横縦のスケールファクタ比は1:1とする。 It is assumed that the camera motion, the three-dimensional shape, and the focal length are restored based on this projection model. In Equation 1, the image coordinate value of the j-th feature point observed in the image of the i-th frame is (xij, yij), the focal length at that time is fi, and the XY translational motion is (Tx i , Ty i , Tz). i ), the rotation around the optical axis is θ i . The image coordinate values (x ij , y ij ) have a principal point as an origin, the principal point is known, and the horizontal and vertical scale factor ratio of the image is 1: 1.

上記を全フレーム(i=1,2,・・・,F)、全特徴点(j=1,2,・・・,P)に対して行列表記すると、   When the above is expressed in matrix for all frames (i = 1, 2,..., F) and all feature points (j = 1, 2,..., P),

Figure 2006106930
Figure 2006106930

となる。ここで、fi=1(i=1,2,・・・,F)とした場合は、(式2)右辺はカメラ運動を平面運動と仮定し、因子分解法を利用してカメラ運動と3次元形状を復元することができる。ところが、カメラ運動により光軸(Z軸)方向の並進運動が変化し、これに伴い、オートフォーカス機能により焦点距離fiが変化してフレームごとに異なるため、式2左辺のTzi(光軸方向の並進運動)と焦点距離fiを同時に推定しなければならない。そこで、式2左辺に示す係数(1−Tzi/Zj)/fiを掛けた画像座標値((1−Tzi/Zj)xij/fi,(1−Tzi/Zj)yji/fi)から平面運動と3次元形状を復元する。 It becomes. Here, when f i = 1 (i = 1, 2,..., F), the right side of (Equation 2) assumes that the camera motion is a plane motion and uses the factorization method to calculate the camera motion. A three-dimensional shape can be restored. However, since the translational motion in the optical axis (Z-axis) direction is changed by the camera motion, and the focal length fi is changed by the autofocus function and is different for each frame, Tz i (optical axis direction) on the left side of Equation 2 is changed. Translational motion) and focal length f i must be estimated simultaneously. Therefore, the image coordinate values ((1-Tz i / Zj) x ij / f i , (1-Tz i / Zj) y ji multiplied by the coefficient (1-Tz i / Zj) / f i shown on the left side of Expression 2. / F i ) restores planar motion and 3D shape.

因子分解法により復元した平面運動と3次元形状から再投影座標値(Δuij,Δvij)は、 The reprojected coordinate values (Δu ij , Δv ij ) from the plane motion and the three-dimensional shape restored by the factorization method are

Figure 2006106930
Figure 2006106930

と表される。式3全特徴点、全フレームに展開すると、 It is expressed. Equation 3 All feature points, when expanded to all frames,

Figure 2006106930
Figure 2006106930

となり、光軸並進運動Tziと焦点距離fiは、 The optical axis translation Tz i and the focal length f i are

Figure 2006106930
Figure 2006106930

Figure 2006106930
Figure 2006106930

で得られる。 It is obtained by.

さらに、画素の横縦のスケールファクタ比が1:βの場合は、   Furthermore, when the horizontal and vertical scale factor ratio of the pixel is 1: β,

Figure 2006106930
Figure 2006106930

が投影モデルであり、各フレームでの焦点距離fiとして、αi=fi,βi=βfiとする。ここで、カメラ運動と3次元形状を復元されると、再投影座標値(Δuij,Δvij)を算出し、式7から、 Is a projection model, and α i = f i and β i = βf i are set as the focal length f i in each frame. Here, when the camera motion and the three-dimensional shape are restored, reprojection coordinate values (Δu ij , Δv ij ) are calculated, and from Equation 7,

Figure 2006106930
Figure 2006106930

Figure 2006106930
Figure 2006106930

Figure 2006106930
Figure 2006106930

となる。上式を全特徴点について連立して、 It becomes. Combine the above equation for all feature points,

Figure 2006106930
Figure 2006106930

となるため、 So that

Figure 2006106930
Figure 2006106930

の計算により、第iフレームでの光軸並進運動Tzi,αi,βiを同時に求めることができる。 Thus, the optical axis translational movements Tz i , α i , and β i in the i-th frame can be simultaneously obtained.

本発明では、平面運動に光軸並進を加えた運動で撮像した時系列画像からカメラ運動と3次元形状を復元し、カメラ内部パラメータを推定するため、カメラを図1、図2に示すように平面板上に支柱で固定されたカメラを半径Rの円周上で移動させることにより、平面運動に光軸並進運動を加えた運動での時系列画像を取得でき、その時系列画像中の特徴点の画像座標値(xij,yij)を観測することで、式2、式7の投影モデルに基づき、オートフォーカスによる焦点距離の変化を考慮した式5、式6、式12の計算によりカメラ内部パラメータを推定することができる。 In the present invention, the camera motion and the three-dimensional shape are restored from the time-series image captured by the motion obtained by adding the optical axis translation to the planar motion, and the camera internal parameters are estimated as shown in FIGS. By moving the camera fixed on the flat plate with a support on the circumference of radius R, it is possible to acquire a time series image with a motion obtained by adding an optical axis translational motion to the plane motion, and feature points in the time series image By observing the image coordinate values (x ij , y ij ), the camera is calculated based on the projection models of Equations 2 and 7, and the calculations of Equations 5, 6, and 12 are performed in consideration of the change in focal length due to autofocus. Internal parameters can be estimated.

本発明により、カメラ等を使って取得した時系列画像全般(移動手段を利用して撮影した車載画像、海上画像、空撮画像、屋内画像など)から、オートフォーカス機能が作用した状況でも、カメラ運動と3次元形状を同時に復元し、オートフォーカス機能により変化したカメラ内部パラメータを推定することができる。   According to the present invention, the camera can be used even in a situation where the autofocus function is activated from all the time-series images acquired using a camera or the like (vehicle-mounted images, sea images, aerial images, indoor images, etc. taken using a moving means). Motion and 3D shape can be restored at the same time, and camera internal parameters changed by the autofocus function can be estimated.

本発明ではカメラが図1、図2の撮像手段により時系列画像を取得することで、特徴点観測手段での特徴点の画像座標値を高精度に観測することに効果がある。これにより、カメラ運動と3次元形状、カメラ内部パラメータをより高精度に復元、推定することができる。なお、本発明で使用する計算は、大半が線形演算で構成されるため、コンピュータ言語での実装が容易である。   In the present invention, the camera acquires time-series images by the imaging means shown in FIGS. 1 and 2, which is effective in observing the image coordinate values of the feature points with the feature point observation means with high accuracy. Thereby, the camera motion, the three-dimensional shape, and the camera internal parameters can be restored and estimated with higher accuracy. Since most of the calculations used in the present invention are composed of linear operations, implementation in a computer language is easy.

以下、図面を用いて本発明の実施形態を説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

(実施形態1)
図1では水平面板11に回転中心から半径Rの距離を隔て、垂直に立てた支柱12にカメラ13を固定し、カメラ13を半径Rの円周上を回転させながら、被写体を撮像する。
(Embodiment 1)
In FIG. 1, a camera 13 is fixed to a vertical column 12 at a distance of a radius R from the center of rotation on a horizontal plane plate 11, and a subject is imaged while the camera 13 is rotated on the circumference of the radius R.

また、図2では垂直に立てた回転平面板21に回転中心から半径Rの距離を隔て、水平に立てた支柱22にカメラ23を固定し、カメラ23を半径Rの円周上を回転させながら、被写体を撮像する。   In FIG. 2, a camera 23 is fixed to a vertically-arranged support column 22 at a distance of a radius R from a rotation center plate 21 standing vertically, and the camera 23 is rotated on the circumference of radius R. Shoot the subject.

これらの撮像手段では、カメラを全周回転させる必要はなく、被写体がフレームアウトしない程度で撮影を行い、時系列画像を得る。これにより、平面運動に光軸並進運動のある自由度4のカメラ運動で撮像することができる。一方、カメラを手動で動かしながら被写体を撮影した時系列画像にも本発明を適用することができるが、図1、図2の撮影手段で得ることで、より高精度にカメラ内部パラメータを推定することができる。   With these imaging means, it is not necessary to rotate the camera all around, and shooting is performed to the extent that the subject is not out of frame, and time-series images are obtained. Thereby, it is possible to pick up an image with a camera motion with a degree of freedom of 4 which has an optical axis translational motion in a plane motion. On the other hand, the present invention can also be applied to a time-series image obtained by photographing a subject while manually moving the camera. However, the camera internal parameters can be estimated with higher accuracy by obtaining the photographing means shown in FIGS. be able to.

図3は図1、図2の平面運動に光軸方向の並進運動があるカメラ運動での撮影手段により、時系列画像を取得する状況のカメラと対象物の位置関係を表している。運動の中心は視点としており、視点を原点としたカメラ座標系XYZ,原点Oとした世界座標系XwYwZwを設定する。この座標系において、カメラ運動として、Ti(Txi,Tyi,Tzi)の並進運動と光軸(Z軸)周りのヨー回転θiとする。対象物の点Pj(Xj,Yj,Zj)はカメラにより画像面において投影中心(主点)を原点とした画像座標値(xij,yij)へ投影されるとする。なお、説明の都合上、初期フレームでの視点とOは一致しているとし、光軸はZw軸と平行関係にあり、θiはXとXw軸との成す角とするが、一般性を損うものではない。 FIG. 3 shows the positional relationship between the camera and the object in a situation where a time-series image is acquired by the photographing means with the camera motion having the translational motion in the optical axis direction in the planar motion of FIGS. The center of motion is the viewpoint, and a camera coordinate system XYZ with the viewpoint as the origin and a world coordinate system XwYwZw with the origin O are set. In this coordinate system, the camera motion is a translational motion of T i (Tx i , Ty i , Tz i ) and a yaw rotation θi around the optical axis (Z axis). It is assumed that the point P j (X j , Y j , Z j ) of the object is projected onto the image coordinate value (x ij , y ij ) with the projection center (principal point) as the origin on the image plane by the camera. For the sake of explanation, it is assumed that the viewpoint in the initial frame and O coincide with each other, the optical axis is parallel to the Zw axis, and θ i is the angle formed by the X and Xw axes. There is no loss.

図4は本発明のパラメータ推定装置の基本構成図であり、本実施形態を図4にそって説明する。本発明は、時系列画像を蓄積した時系列画像データベース41、各画像における特徴点の座標値を観測する特徴点観測部42、画像座標値からなる行列データからカメラ運動と3次元形状を復元する因子分解処理部43、光軸方向の並進運動を復元し、かつ、カメラ内部パラメータの焦点距離を推定する光軸並進運動復元・焦点距離推定部44、カメラ運動と3次元形状、焦点距離が得られるまで処理を繰り返すための反復処理部45から構成される。   FIG. 4 is a basic configuration diagram of the parameter estimation apparatus of the present invention, and this embodiment will be described with reference to FIG. The present invention restores camera motion and three-dimensional shape from a time-series image database 41 in which time-series images are accumulated, a feature point observation unit 42 that observes coordinate values of feature points in each image, and matrix data composed of image coordinate values. A factorization processing unit 43, an optical axis translational motion reconstruction / focal length estimation unit 44 that restores translational motion in the optical axis direction and estimates the focal length of camera internal parameters, and obtains the camera motion and three-dimensional shape and focal length. It consists of an iterative processing unit 45 for repeating the processing until it is received.

この構成において、時系列画像データベース41には、ハードディスク、RAID装置、CD−ROMなどの記録媒体を利用する形態、または、ネットワークを介したリモートなデータ資源を利用する形態でもどちらでも構わない。   In this configuration, the time series image database 41 may be in a form using a recording medium such as a hard disk, a RAID device, a CD-ROM, or a form using remote data resources via a network.

さらに、図5はリアルタイムで処理する場合の処理構成図であり、本発明は必ずしも時系列画像データベース部41などの記憶装置を必要としない。   Furthermore, FIG. 5 is a processing configuration diagram in the case of processing in real time, and the present invention does not necessarily require a storage device such as the time-series image database unit 41.

まず、図4の特徴点観測部42において、対象物を撮影した時系列画像として時系列画像データベース41からフレームF分の画像系列を取り出す。この取り出した画像系列において特徴点追跡を行う。特徴点は従来から用いられているような以下の手順により抽出する。   First, in the feature point observation unit 42 in FIG. 4, an image sequence for the frame F is extracted from the time-series image database 41 as a time-series image obtained by capturing an object. Feature point tracking is performed on the extracted image series. The feature points are extracted by the following procedure as used conventionally.

図6に示すように画像1の領域1において、
(1)各画素に対する2×2のヘッセ行列を求める。次に、
(2)各点の3×3近傍領域において極大点かどうか判定し、極大点以外の点を削除する(non−maxima suppression)。さらに、
(3)得られた各点のヘッセ行列の固定値σl,σs(σs≦σl)を求め、σsがσp以上となる点を抽出する。最後に、
(4)抽出した点のσsの大きさの順にソートし、上位の点から順番にその点(pl)より上位の点(ph)がσd画素以内の距離に存在するかどうかを判定し、もし、存在する場合は下位の点plを削除する。さらに、抽出した特徴点(j=1,2,・・・,P)をKLT法(Kanade−Lucas−Tomasi)により画像i(i=2,・・・,F)にわたって追跡し、画像座標値(xij,Yij)を観測する。このようにして得られた特徴の画像座標値を
In region 1 of image 1 as shown in FIG.
(1) A 2 × 2 Hessian matrix for each pixel is obtained. next,
(2) It is determined whether or not the point is a local maximum in the 3 × 3 neighborhood of each point, and points other than the local maximum are deleted (non-maxima suppression). further,
(3) The fixed values σ l and σ ss ≦ σ l ) of the obtained Hessian matrix are obtained, and points where σ s is equal to or greater than σ p are extracted. Finally,
(4) Sort the extracted points in the order of the size of σ s , and check whether or not a point (p h ) higher than the point (p l ) exists at a distance within σ d pixels in order from the upper point. If there is, the lower point p 1 is deleted. Further, the extracted feature points (j = 1, 2,..., P) are tracked over the image i (i = 2,..., F) by the KLT method (Kanade-Lucas-Tomasi), and image coordinate values are obtained. Observe (x ij , Y ij ). The image coordinate values of the features thus obtained are

Figure 2006106930
Figure 2006106930

に示す配列に並べた2F×Pの行列データ(行列データ[A])を用意する。 2F × P matrix data (matrix data [A]) arranged in the array shown in FIG.

次に、因子分解処理部43、光軸並進運動復元・焦点距離推定部44、及び、反復処理部45の処理内容について、図7の処理フロー図にそって説明する。   Next, processing contents of the factorization processing unit 43, the optical axis translational motion restoration / focal length estimation unit 44, and the iterative processing unit 45 will be described with reference to the processing flowchart of FIG.

まず、因子分解処理部43が行列データの入力を行う(S1)。   First, the factorization processing unit 43 inputs matrix data (S1).

次に、因子分解処理部43が行列分解データの生成を行う(S2)。すなわち、係数δijNext, the factorization processing unit 43 generates matrix decomposition data (S2). That is, the coefficient δ ij is

Figure 2006106930
Figure 2006106930

のように初期化し、保持しておいた式13の2F×Pの行列データ[A]から From the 2F × P matrix data [A] of Equation 13 that was initialized and held as follows:

Figure 2006106930
Figure 2006106930

に示すデータを求めておき、これを行列分解データ[B]として保持しておく。 Is stored as matrix decomposition data [B].

次に、因子分解処理部43が、特異値分解を行う(S3)。すなわち、行列分解データ[B]を入力データとして特異値分解により   Next, the factorization processing unit 43 performs singular value decomposition (S3). That is, the matrix decomposition data [B] is used as input data by singular value decomposition.

Figure 2006106930
Figure 2006106930

に示す3つの行列[U],[W],[V]に行列分解する。ここで、[U]は2F×Pサイズの行列、[W]はP×Pサイズの対角行列、[V]はP×Pサイズの行列である。 Matrix decomposition into three matrices [U], [W], and [V] shown in FIG. Here, [U] is a 2F × P size matrix, [W] is a P × P size diagonal matrix, and [V] is a P × P size matrix.

次に、因子分解処理部43が雑音除去を行う(S4)。すなわち、   Next, the factorization processing unit 43 performs noise removal (S4). That is,

Figure 2006106930
Figure 2006106930

の第二項に示すように、ランク4以降の各行列の成分を削除する。この削除のときは、行列[U]を取り出し、この行列の要素において第4から第P列目までを削除し、残りの成分からなる行列を保持する。次に、行列[W]を取り出し、この行列の要素において第4から第P行目並びに第4から第P列目までを削除し、残りの成分からなる行列を保持する。さらに、行列[V]を取り出し、この行列の要素において第4から第P行目までを削除し、残りの成分からなる行列を保持する。 As shown in the second term, the components of each matrix after rank 4 are deleted. At the time of this deletion, the matrix [U] is taken out, the fourth to Pth columns are deleted from the matrix elements, and the matrix composed of the remaining components is held. Next, the matrix [W] is extracted, and the fourth to Pth rows and the fourth to Pth columns are deleted from the matrix elements, and the matrix composed of the remaining components is held. Further, the matrix [V] is taken out, the fourth to Pth rows are deleted from the matrix elements, and the matrix composed of the remaining components is held.

Figure 2006106930
Figure 2006106930

雑音除去に続き、第4から第P行目並びに第4から第P列目までを削除した行列[W]の対角要素の平方をとった行列から、   Following denoising, from the matrix taking the square of the diagonal elements of the matrix [W] with the 4th to Pth rows and the 4th to Pth columns deleted,

Figure 2006106930
Figure 2006106930

Figure 2006106930
Figure 2006106930

に示す行列[U’]と行列[V’]を得る。 The matrix [U ′] and the matrix [V ′] shown in FIG.

次に、因子分解処理部43が変換行列算出を行う(S5)。すなわち、保持してある行列[U’]を取り出し、   Next, the factorization processing unit 43 calculates a transformation matrix (S5). That is, the held matrix [U ′] is extracted,

Figure 2006106930
Figure 2006106930

Figure 2006106930
Figure 2006106930

Figure 2006106930
Figure 2006106930

に示す連立する条件式における対称行列[C]の各要素にかかる係数を計算する。なお、対称行列[C]は The coefficient concerning each element of the symmetric matrix [C] in the simultaneous conditional expressions shown in FIG. Note that the symmetric matrix [C] is

Figure 2006106930
Figure 2006106930

で表されている。 It is represented by

これらの係数計算は、行列演算により容易に得られるものであり、この条件式を全フレームに対して計算する。次に、全フレームの式21〜23に示す連立する条件式に対して、最小二乗法などの数値計算を利用して3×3サイズの行列[C]の各要素を決定する。求めた行列[C]を   These coefficient calculations are easily obtained by matrix operation, and this conditional expression is calculated for all frames. Next, each element of the 3 × 3 size matrix [C] is determined using numerical calculation such as the least square method for the simultaneous conditional expressions shown in Expressions 21 to 23 for all frames. Calculated matrix [C]

Figure 2006106930
Figure 2006106930

に示すように固有値分解する。ここで、固有値行列の平方と固有値行列から、 The eigenvalue decomposition is performed as shown in FIG. Here, from the square of the eigenvalue matrix and the eigenvalue matrix,

Figure 2006106930
Figure 2006106930

の行列[C’]を生成し、この行列要素を成分にもつ行列[Q]を Matrix [C '] and matrix [Q] having the matrix elements as components

Figure 2006106930
Figure 2006106930

に従って算出する。 Calculate according to

次に、因子分解処理部43が平面運動復元を行う(S6)。すなわち、求めた行列[Q]と、保持しておいた行列[U’]から、   Next, the factorization processing unit 43 performs planar motion restoration (S6). That is, from the obtained matrix [Q] and the stored matrix [U ′],

Figure 2006106930
Figure 2006106930

の行列演算により行列[M’]を計算する。行列[M’]から各フレーム(第iフレーム)の行列要素(mix,nix)または(miy,niy)を取り出し、 The matrix [M ′] is calculated by the matrix operation. The matrix element (m ix , n ix ) or (m iy , n iy ) of each frame (i-th frame) is extracted from the matrix [M ′],

Figure 2006106930
Figure 2006106930

を使って、ヨー回転θiを復元する。次に、行列[M’]から各フレーム(第iフレーム)の行列要素(Tiu,Tiv)を取り出す。この(Tiu,Tiv)から、 Is used to restore the yaw rotation θi. Next, matrix elements (T iu , T iv ) of each frame (i-th frame) are extracted from the matrix [M ′]. From this (T iu , T iv )

Figure 2006106930
Figure 2006106930

を使って第iフレームにおけるユークリッド空間でのXY並進運動(Txi,Tyi)を計算する。 XY translation in Euclidean space in the i-th frame using the (Tx i, Ty i) is calculated.

次に、因子分解処理部43が3次元情報復元を行う(S7)。すなわち、先に保持しておいた行列[V’]と、変換行列算出で得られた行列[Q]から、   Next, the factorization processing unit 43 performs three-dimensional information restoration (S7). That is, from the previously held matrix [V ′] and the matrix [Q] obtained by the transformation matrix calculation,

Figure 2006106930
Figure 2006106930

に示す行列演算を行い、行列[S’]を求める。次に、行列[S’]の要素に対して、 The matrix [S ′] is obtained by performing the matrix operation shown in FIG. Next, for the elements of the matrix [S ′],

Figure 2006106930
Figure 2006106930

に示す変換を行い行列[P]を得る。行列[P]の列ベクトルは、それぞれ第j番目の特徴点のユークリッド空間での3次元座標値(Xj,Yj,Zj)になっている。 To obtain a matrix [P]. Each column vector of the matrix [P] is a three-dimensional coordinate value (X j , Y j , Z j ) in the Euclidean space of the j-th feature point.

次に、光軸並進運動復元・焦点距離推定部44が光軸並進運動復元・焦点距離推定を行う(S8)。すなわち、平面運動復元と3次元情報復元で復元したカメラ運動と3次元形状から   Next, the optical axis translational motion recovery / focal length estimation unit 44 performs optical axis translational motion recovery / focal length estimation (S8). That is, from the camera motion and 3D shape restored by plane motion restoration and 3D information restoration

Figure 2006106930
Figure 2006106930

に示す(Δuij,Δvij)を得て、各フレームでの画像座標値(xij,yij)から、式3に示すΔwijを全フレーム、全特徴点について求め、 (Δu ij , Δv ij ) shown in FIG. 5 is obtained, and Δw ij shown in Expression 3 is obtained for all frames and all feature points from the image coordinate values (x ij , y ij ) in each frame.

Figure 2006106930
Figure 2006106930

のF×Pの行列[D1]を準備する。次に、3次元情報復元で得たZj(j=1,2,・・・,P)からなる F × P matrix [D1] is prepared. Next, it consists of Z j (j = 1, 2,..., P) obtained by three-dimensional information restoration.

Figure 2006106930
Figure 2006106930

の行列[D2]を準備する。 Matrix [D2] is prepared.

Figure 2006106930
Figure 2006106930

の行列演算を行い、 The matrix operation of

Figure 2006106930
Figure 2006106930

のF×2の行列[D]を得る。さらに、行列[D]の第i行第1列のdi1,第i行第2列のdi2と取り出し、 To obtain an F × 2 matrix [D]. Further, d i1 in the i-th row and first column and d i2 in the i-th row and second column of the matrix [D] are extracted,

Figure 2006106930
Figure 2006106930

の計算を全フレームにわたり計算して、焦点距離fi、光軸並進運動Tziを得る。この計算は、式5、式6に基づいて行列計算を行っている。 Is calculated over the entire frame to obtain the focal length f i and the optical axis translation Tz i . In this calculation, matrix calculation is performed based on Equations 5 and 6.

次に、反復処理部45が、   Next, the iterative processing unit 45

Figure 2006106930
Figure 2006106930

Figure 2006106930
Figure 2006106930

の計算で得られる誤差△Eを算出する(S9)。この誤差が、ある一定値以下に収束しているかを判断し(S10)、ある一定値以下に収束している場合は処理を終了する。もし、そうでない場合は、 An error ΔE obtained by the above calculation is calculated (S9). It is determined whether this error has converged below a certain value (S10). If the error has converged below a certain value, the process is terminated. If not,

Figure 2006106930
Figure 2006106930

に従って係数δijを更新する(S11)。さらに、この係数更新に伴い式15により行列分解データ[B]を更新する。これを誤差△Eが一定値以下に収束するまで反復を繰り返す。 Accordingly, the coefficient δ ij is updated (S11). Further, the matrix decomposition data [B] is updated by Expression 15 in accordance with the coefficient update. This is repeated until the error ΔE converges below a certain value.

以上、本発明の実施例により、時系列画像中の特徴点の画像座標値から、カメラ視点の運動:光軸周りの回転とXYZ軸方向の並進運動、及び、物体形状を構成する3次元情報を復元し、同時に、カメラ内部パラメータの焦点距離を推定することができる。   As described above, according to the embodiment of the present invention, from the image coordinate value of the feature point in the time-series image, the motion of the camera viewpoint: the rotation around the optical axis, the translational motion in the XYZ directions, and the three-dimensional information constituting the object shape At the same time, the focal length of the camera internal parameters can be estimated.

(実施形態2)
図8は本発明のパラメータ推定装置の基本構成図であり、本実施形態を図8にそって説明する。本実施形態は、時系列画像を蓄積した時系列画像データベース81、各画像における特徴点の座標値を観測する特徴点観測部82、画像座標値からなる行列データからカメラ運動と3次元形状を復元する因子分解処理部83、光軸方向の並進運動を復元し、カメラ内部パラメータの焦点距離を推定する光軸並進運動復元・焦点距離推定部84、カメラ運動と3次元形状、焦点距離が得られるまで処理を繰り返すための反復処理部85、カメラ内部パラメータの画素の横縦のスケールファクタ比を求めるスケールファクタ比算出部86から構成される。
(Embodiment 2)
FIG. 8 is a basic configuration diagram of the parameter estimation apparatus of the present invention, and this embodiment will be described with reference to FIG. In this embodiment, a time-series image database 81 in which time-series images are accumulated, a feature point observation unit 82 that observes coordinate values of feature points in each image, and camera motion and three-dimensional shape are restored from matrix data composed of image coordinate values. A factorization processing unit 83 that restores the translational motion in the optical axis direction and estimates the focal length of the camera internal parameters, and obtains the camera motion and the three-dimensional shape and focal length. And an iterative processing unit 85 for repeating the process up to and a scale factor ratio calculating unit 86 for obtaining horizontal and vertical scale factor ratios of pixels of camera internal parameters.

この構成において、時系列画像データベース81には、ハードディスク、RAID装置、CD−ROMなどの記録媒体を利用する形態、または、ネットワークを介したリモートなデータ資源を利用する形態でもどちらでも構わない。   In this configuration, the time series image database 81 may be in a form using a recording medium such as a hard disk, a RAID device, a CD-ROM, or a form using remote data resources via a network.

さらに、図9はリアルタイムで処理する場合の処理構成図であり、本実施形態は必ずしも時系列画像データベース部81などの記憶装置を必要としない。   Furthermore, FIG. 9 is a processing configuration diagram in the case of processing in real time, and this embodiment does not necessarily require a storage device such as the time-series image database unit 81.

本実施形態は、実施形態1に対して光軸並進運動復元・焦点距離推定部84、スケールファクタ比算出部86の処理が異なっているため、以下の説明では、この部分についてだけ記載する。   In the present embodiment, the processing of the optical axis translational motion restoration / focal length estimation unit 84 and the scale factor ratio calculation unit 86 is different from that of the first embodiment. Therefore, only this portion will be described in the following description.

図10は図8に示すパラメータ推定装置における因子分解処理部83、光軸並進運動復元・焦点距離推定部84、スケールファクタ比算出部86の処理フローである。   FIG. 10 is a processing flow of the factorization processing unit 83, the optical axis translational motion restoration / focal length estimation unit 84, and the scale factor ratio calculation unit 86 in the parameter estimation apparatus shown in FIG.

最初の反復では、   In the first iteration,

Figure 2006106930
Figure 2006106930

のように係数δij,γijを初期化し、 The coefficients δ ij and γ ij are initialized as follows ,

Figure 2006106930
Figure 2006106930

の行列[B]を得る。光軸並進運動復元・焦点距離推定部84での処理は、式33に示す(Δuij,Δvij)を得て、各フレームでの画像座標値(xij,yij)から、全特徴点について式8、式9、式10のAj,Bjを得て、 The matrix [B] is obtained. The processing in the optical axis translational motion restoration / focal length estimation unit 84 obtains (Δu ij , Δv ij ) shown in Expression 33 and calculates all feature points from the image coordinate values (x ij , y ij ) in each frame. Obtaining A j and B j of Equation 8, Equation 9, and Equation 10 for

Figure 2006106930
Figure 2006106930

の2×Pの行列[D1]を準備する。式36の行列演算で 2 × P matrix [D1] is prepared. In the matrix operation of Equation 36

Figure 2006106930
Figure 2006106930

の各フレームでの2×2の行列[D]を得る。行列[D]から第1行第1列のdi1、第2行第1列のd’i1を取り出し A 2 × 2 matrix [D] in each frame is obtained. Extract d i1 in the first row and first column and d ′ i1 in the second row and first column from the matrix [D].

Figure 2006106930
Figure 2006106930

によりαi,βiを求める。また、光軸並進運動Tziは行列[D]の各要素から To obtain α i and β i . Also, the optical axis translational motion Tz i is derived from each element of the matrix [D]

Figure 2006106930
Figure 2006106930

により計算する。これらの計算は式12に基づいて計算を行っている。 Calculate according to These calculations are performed based on Equation 12.

反復処理部85では、式39、式40の計算で得られる△Eを算出する。この誤差が、ある一定値以下に収束している場合は処理を終了する。もし、そうでない場合は、係数δij,γijThe iterative processing unit 85 calculates ΔE obtained by the calculations of Expressions 39 and 40. If this error has converged below a certain value, the process is terminated. If not, set the coefficients δ ij and γ ij

Figure 2006106930
Figure 2006106930

に従って更新し、この更新に伴い式43により行列分解データ[B]を更新する。これを誤差△Eが一定値以下に収束するまで反復を繰り返す。 In accordance with this update, the matrix decomposition data [B] is updated by Expression 43. This is repeated until the error ΔE converges below a certain value.

反復処理が終了したとき、スケールファクタ比算出部86ではβi/αiの平均値を求めて画素の横縦のスケールファクタ比1:βを得る。 When the iterative processing is completed, the scale factor ratio calculation unit 86 obtains an average value of β i / α i to obtain a horizontal / vertical scale factor ratio 1: β of the pixel.

以上、実施形態2により、時系列画像中の特徴点の画像座標値から、カメラ視点の運動:光軸周りの回転とXYZ軸方向の並進運動、並びに、物体形状を構成する3次元情報を復元し、同時に、カメラ内部パラメータの焦点距離、画素の横縦の量子化比(スケールファクタ比)を推定することができる。   As described above, according to the second embodiment, from the image coordinate values of the feature points in the time-series image, the motion of the camera viewpoint: the rotation around the optical axis, the translational motion in the XYZ directions, and the three-dimensional information constituting the object shape are restored. At the same time, the focal length of the camera internal parameters and the horizontal / vertical quantization ratio (scale factor ratio) of the pixels can be estimated.

なお、実施形態1及び2に記載のパラメータ推定装置は、例えば、パラメータ推定装置を構成するコンピュータ装置が有するCPUによって実現され、必要とする特徴点観測、因子分解処理、光軸並進運動復元・焦点距離推定、反復処理、スケールファクタ比算出などをアプリケーションプログラムとして搭載することができる。   Note that the parameter estimation device described in the first and second embodiments is realized by, for example, a CPU included in a computer device that configures the parameter estimation device, and requires necessary feature point observation, factorization processing, optical axis translational motion restoration / focusing, and the like. Distance estimation, iterative processing, scale factor ratio calculation, etc. can be installed as application programs.

また、コンピュータ装置には上記説明した特徴点観測、因子分解処理、光軸並進運動復元・焦点距離推定、反復処理、スケールファクタ比算出など行った処理結果や計算結果等のデータを内部メモリや外部記憶装置等に書き込み・読み出しができるようにしてもよい。   In addition, the computer device stores data such as the above-described feature point observation, factorization processing, optical axis translational motion recovery / focal length estimation, iterative processing, scale factor ratio calculation, and other processing results and calculation results. You may enable it to write and read to a memory | storage device etc.

また、本発明は、前述した実施形態の機能を実現するソフトウェアのプログラムコードを記録した記録媒体を、システムあるいは装置に供給し、そのシステムあるいは装置のCPU(MPU)が記録媒体に格納されたプログラムコードを読み出し実行することによっても実現できる。その場合、記憶媒体から読み出されたプログラムコード自体が上述した実施形態の機能を実現することになり、そのプログラムコードを記憶した記憶媒体、例えば、CD−ROM、DVD−ROM、CD−R、CD−RW、MO、HDD、等は本発明を構成する。   The present invention also provides a recording medium in which a program code of software for realizing the functions of the above-described embodiments is recorded to a system or apparatus, and a program in which the CPU (MPU) of the system or apparatus is stored in the recording medium. This can also be realized by reading and executing the code. In that case, the program code itself read from the storage medium realizes the functions of the above-described embodiment, and a storage medium storing the program code, for example, a CD-ROM, a DVD-ROM, a CD-R, CD-RW, MO, HDD, etc. constitute the present invention.

カメラが水平面板上で半径Rの回転運動で撮像する場合の図。The figure in case a camera images with the rotational motion of the radius R on a horizontal surface board. カメラが垂直面板上で半径Rの回転運動で撮像する場合の図。The figure in case a camera images with the rotation motion of radius R on a vertical plane board. カメラ視点と3次元位置、並びに、本発明の説明で使用する座標系を示す図。The figure which shows a camera viewpoint, a three-dimensional position, and the coordinate system used by description of this invention. パラメータ推定装置の基本構成図。The basic block diagram of a parameter estimation apparatus. パラメータ推定装置の基本構成図。The basic block diagram of a parameter estimation apparatus. 時系列画像での特徴点の観測を示す図。The figure which shows the observation of the feature point in a time series image. 因子分解処理部、光軸並進運動復元・焦点距離推定部、及び、反復処理部に関する処理フロー図。The processing flow figure regarding a factorization process part, an optical-axis translational movement decompression | restoration / focal distance estimation part, and an iterative process part. パラメータ推定装置の基本構成図。The basic block diagram of a parameter estimation apparatus. パラメータ推定装置の基本構成図。The basic block diagram of a parameter estimation apparatus. 因子分解処理部、光軸並進運動復元・焦点距離推定部、反復処理部、及び、スケールファクタ比算出部に関する処理フロー図。The processing flow figure regarding a factorization processing part, an optical axis translational movement restoration / focal distance estimation part, an iterative processing part, and a scale factor ratio calculation part.

符号の説明Explanation of symbols

11…平面版
12…支柱
13…カメラ
21…回転平面版
22…支柱
23…カメラ
41…時系列画像データベース
42…特徴点観測部
43…因子分解処理部
44…光軸並進運動復元・焦点距離推定部
45…反復処理部
51…画像入力部
52…特徴点観測部
53…因子分解処理部
54…光軸並進運動復元・焦点距離推定部
55…反復処理部
81…時系列画像データベース
82…特徴点観測部
83…因子分解処理部
84…光軸並進運動復元・焦点距離推定部
85…反復処理部
86…スケールファクタ比算出部
91…画像入力部
92…特徴点観測部
93…因子分解処理部
94…光軸並進運動復元・焦点距離推定部
95…反復処理部
96…スケールファクタ比算出部
DESCRIPTION OF SYMBOLS 11 ... Plane version 12 ... Support | pillar 13 ... Camera 21 ... Rotation plane version 22 ... Support | pillar 23 ... Camera 41 ... Time series image database 42 ... Feature point observation part 43 ... Factorization process part 44 ... Optical axis translational movement restoration and focal length estimation 45: Iterative processing unit 51 ... Image input unit 52 ... Feature point observation unit 53 ... Factorization processing unit 54 ... Optical axis translational motion restoration / focal length estimation unit 55 ... Repetition processing unit 81 ... Time series image database 82 ... Feature point Observation unit 83 ... Factor decomposition processing unit 84 ... Optical axis translational motion restoration / focal length estimation unit 85 ... Repetition processing unit 86 ... Scale factor ratio calculation unit 91 ... Image input unit 92 ... Feature point observation unit 93 ... Factor decomposition processing unit 94 ... Optical axis translational motion recovery / focal length estimation unit 95 ... Repetition processing unit 96 ... Scale factor ratio calculation unit

Claims (7)

カメラ手段によって取得した対象物の時系列画像に設定した画像座標系において、各画像の特徴点の時間的変化量を示す画像座標値を観測する特徴点観測手段と、
前記画像座標値から行列データを作成し、当該行列データから前記カメラ手段のカメラ視点運動と前記対象物の外観形状を構成する3次元形状とを復元する因子分解処理手段と、
前記復元したカメラ視点運動と3次元形状とから各特徴点に関する画像座標系でのカメラ視点運動の再投影誤差である再投影座標値を求め、当該再投影座標値と前記観測した画像座標値とから、前記カメラ視点の光軸方向の並進運動を再現し、かつ、前記カメラ手段の焦点距離を推定する光軸並進運動復元・焦点距離推定手段と、
前記再投影誤差と、前記観測した画像座標値に前記カメラ視点運動および前記3次元形状から構成される係数並びにカメラ内部パラメータから構成される係数を掛けた座標値との間の誤差が規定値以下に収束しているかを判断し、収束していない場合には、前記カメラ視点運動および前記3次元形状から構成される係数並びにカメラ内部パラメータから構成される係数を掛けた画像座標値を新たな行列要素として行列データを作成して前記因子分解処理手段からの処理を反復させる反復処理手段と、を備えることを特徴とするパラメータ推定装置。
In the image coordinate system set in the time-series image of the object acquired by the camera means, the feature point observation means for observing the image coordinate value indicating the temporal change amount of the feature point of each image;
Factorization processing means for creating matrix data from the image coordinate values and restoring the camera viewpoint movement of the camera means and the three-dimensional shape constituting the appearance shape of the object from the matrix data;
A reprojection coordinate value that is a reprojection error of the camera viewpoint motion in the image coordinate system for each feature point is obtained from the restored camera viewpoint motion and the three-dimensional shape, and the reprojected coordinate value and the observed image coordinate value From the above, the optical axis translational motion reconstruction / focal length estimation means for reproducing the translational motion of the camera viewpoint in the optical axis direction and estimating the focal length of the camera means,
An error between the reprojection error and the coordinate value obtained by multiplying the observed image coordinate value by the coefficient composed of the camera viewpoint movement and the three-dimensional shape and the coefficient composed of the camera internal parameter is equal to or less than a predetermined value. If not, the image coordinate value multiplied by the coefficient composed of the camera viewpoint motion and the three-dimensional shape and the coefficient composed of the camera internal parameters is used as a new matrix. A parameter estimation apparatus comprising: an iterative processing unit that creates matrix data as elements and repeats the processing from the factorization processing unit.
前記光軸並進運動復元・焦点距離推定手段では、前記復元したカメラ視点運動と3次元形状とから各特徴点に関する画像座標系でのカメラ視点運動の再投影誤差である再投影座標値を求め、当該再投影座標値と観測した画像座標値とから、前記カメラ視点の光軸方向の並進運動を再現し、かつ、スケールファクタ比と焦点距離とを推定し、
前記反復処理手段では、前記再投影誤差と前記観測した画像座標値に前記カメラ視点運動および前記3次元形状から構成される係数並びにカメラ内部パラメータから構成される係数を掛けた座標値との間の誤差が規定値以下に収束しているかを判断し、収束していない場合には、前記カメラ視点運動および前記3次元形状から構成される係数並びにカメラ内部パラメータから構成される係数を掛けた画像座標値を新たな行列要素として行列データを作成して前記因子分解処理手段からの処理を反復させ、誤差が前記規定値以下に収束するまで当該反復処理を行い、
前記反復処理が終了した時に、前記推定した焦点距離およびスケールファクタ比を用いてスケールファクタ比を算出するスケールファクタ比算出手段を備える、ことを特徴とする請求項1に記載のパラメータ推定装置。
In the optical axis translational movement restoration / focal length estimation means, a reprojection coordinate value that is a reprojection error of the camera viewpoint movement in the image coordinate system for each feature point is obtained from the restored camera viewpoint movement and the three-dimensional shape, From the reprojected coordinate value and the observed image coordinate value, reproduce the translational motion in the optical axis direction of the camera viewpoint, and estimate the scale factor ratio and the focal length,
In the iterative processing means, between the reprojection error and the coordinate value obtained by multiplying the observed image coordinate value by a coefficient constituted by the camera viewpoint movement and the three-dimensional shape and a coefficient constituted by a camera internal parameter. It is determined whether the error has converged to a specified value or less, and if not converged, the image coordinates multiplied by the coefficient composed of the camera viewpoint motion and the three-dimensional shape and the coefficient composed of the camera internal parameters Create matrix data with values as new matrix elements, repeat the process from the factorization processing means, perform the iterative process until the error converges below the specified value,
The parameter estimation apparatus according to claim 1, further comprising a scale factor ratio calculating unit that calculates a scale factor ratio using the estimated focal length and the scale factor ratio when the iterative process is completed.
前記因子分解処理手段では、
前記作成した行列データを特異値分解し雑音除去を行って運動情報を表す行列データと3次元情報を表す行列データとを得て、
前記運動情報の成分において、運動を規定するために設定した条件を満足する変換行列を求め、運動情報となる行列データにこの変換行列を作用させてカメラ視点運動を復元し、
前記3次元情報を表す行列データにこの変換行列の逆行列を作用させて物体形状を構成する3次元情報を復元することを特徴とする請求項1または2に記載のパラメータ推定装置。
In the factorization processing means,
Obtaining matrix data representing motion information and matrix data representing three-dimensional information by performing singular value decomposition and noise removal on the created matrix data,
In the component of the motion information, a transformation matrix that satisfies the conditions set for defining the motion is obtained, and the camera viewpoint motion is restored by applying this transformation matrix to the matrix data serving as the motion information,
The parameter estimation apparatus according to claim 1 or 2, wherein an inverse matrix of the transformation matrix is applied to matrix data representing the three-dimensional information to restore the three-dimensional information constituting the object shape.
特徴点観測手段がカメラ手段によって取得した対象物の時系列画像に設定した画像座標系において、各画像の特徴点の時間的変化量を示す画像座標値を観測する特徴点観測ステップと、
因子分解処理手段が前記画像座標値から行列データを作成し、当該行列データから前記カメラ手段のカメラ視点運動と前記対象物の外観形状を構成する3次元形状とを復元する因子分解処理ステップと、
光軸並進運動復元・焦点距離推定手段が前記復元したカメラ視点運動と3次元形状とから各特徴点に関する画像座標系でのカメラ視点運動の再投影誤差である再投影座標値を求め、当該再投影座標値と前記観測した画像座標値とから、前記カメラ視点の光軸方向の並進運動を再現し、かつ、前記カメラ手段の焦点距離を推定する光軸並進運動復元・焦点距離推定ステップと、
反復処理手段が前記再投影誤差と、前記観測した画像座標値に前記カメラ視点運動および前記3次元形状から構成される係数並びにカメラ内部パラメータから構成される係数を掛けた座標値との間の誤差が規定値以下に収束しているかを判断し、収束していない場合には、前記カメラ視点運動および前記3次元形状から構成される係数並びにカメラ内部パラメータから構成される係数を掛けた画像座標値を新たな行列要素として行列データを作成して前記因子分解処理手段からの処理を反復させる反復処理ステップと、を備えることを特徴とするパラメータ推定方法。
A feature point observation step of observing an image coordinate value indicating a temporal change amount of a feature point of each image in an image coordinate system set in a time-series image of the object acquired by the camera means by the feature point observation unit;
Factorization processing means creates matrix data from the image coordinate value, factorization processing step to restore the camera viewpoint movement of the camera means and the three-dimensional shape constituting the appearance shape of the object from the matrix data,
The optical axis translational movement restoration / focal length estimation means obtains a reprojection coordinate value that is a reprojection error of the camera viewpoint movement in the image coordinate system for each feature point from the restored camera viewpoint movement and the three-dimensional shape. From the projected coordinate value and the observed image coordinate value, the optical axis translational motion reconstruction / focal length estimation step for reproducing the translational motion of the camera viewpoint in the optical axis direction and estimating the focal length of the camera means;
The error between the re-projection error and the coordinate value obtained by multiplying the observed image coordinate value by the coefficient composed of the camera viewpoint movement and the three-dimensional shape, and the coefficient composed of the camera internal parameter. Is not converged to a specified value, and if not converged, the image coordinate value multiplied by the coefficient composed of the camera viewpoint motion and the three-dimensional shape and the coefficient composed of the camera internal parameters A parameter estimation method comprising: an iterative processing step of creating matrix data using as a new matrix element and repeating the processing from the factorization processing means.
前記光軸並進運動復元・焦点距離推定ステップでは、前記復元したカメラ視点運動と3次元形状とから各特徴点に関する画像座標系でのカメラ視点運動の再投影誤差である再投影座標値を求め、当該再投影座標値と観測した画像座標値とから、前記カメラ視点の光軸方向の並進運動を再現し、かつ、スケールファクタ比と焦点距離とを推定し、
前記反復処理ステップでは、前記再投影誤差と前記観測した画像座標値に前記カメラ視点運動および前記3次元形状から構成される係数並びにカメラ内部パラメータから構成される係数を掛けた座標値との間の誤差が規定値以下に収束しているかを判断し、収束していない場合には、前記カメラ視点運動および前記3次元形状から構成される係数並びにカメラ内部パラメータから構成される係数を掛けた画像座標値を新たな行列要素として行列データを作成して前記因子分解処理手段からの処理を反復させ、誤差が前記規定値以下に収束するまで当該反復処理を行い、
前記反復処理が終了した時に、スケールファクタ比算出手段が前記推定した焦点距離およびスケールファクタ比を用いてスケールファクタ比を算出するスケールファクタ比算出ステップを備える、ことを特徴とする請求項4に記載のパラメータ推定方法。
In the optical axis translational movement restoration / focal length estimation step, a reprojection coordinate value that is a reprojection error of the camera viewpoint movement in the image coordinate system regarding each feature point is obtained from the restored camera viewpoint movement and the three-dimensional shape, From the reprojected coordinate value and the observed image coordinate value, reproduce the translational motion in the optical axis direction of the camera viewpoint, and estimate the scale factor ratio and the focal length,
In the iterative processing step, between the reprojection error and the observed image coordinate value multiplied by a coefficient composed of the camera viewpoint movement and the three-dimensional shape and a coefficient composed of a camera internal parameter. It is determined whether the error has converged to a specified value or less, and if not converged, the image coordinates multiplied by the coefficient composed of the camera viewpoint motion and the three-dimensional shape and the coefficient composed of the camera internal parameters Create matrix data with values as new matrix elements, repeat the process from the factorization processing means, perform the iterative process until the error converges below the specified value,
The scale factor ratio calculating unit includes a scale factor ratio calculating step of calculating a scale factor ratio using the estimated focal length and scale factor ratio when the iterative process is completed. Parameter estimation method.
前記因子分解処理ステップでは、
前記作成した行列データを特異値分解し雑音除去を行って運動情報を表す行列データと3次元情報を表す行列データとを得て、
前記運動情報の成分において、運動を規定するために設定した条件を満足する変換行列を求め、運動情報となる行列データにこの変換行列を作用させてカメラ視点運動を復元し、
前記3次元情報を表す行列データにこの変換行列の逆行列を作用させて物体形状を構成する3次元情報を復元することを特徴とする請求項4または5に記載のパラメータ推定装置。
In the factorization processing step,
Obtaining matrix data representing motion information and matrix data representing three-dimensional information by performing singular value decomposition and noise removal on the created matrix data,
In the component of the motion information, a transformation matrix that satisfies the conditions set for defining the motion is obtained, and the camera viewpoint motion is restored by applying this transformation matrix to the matrix data serving as the motion information,
The parameter estimation apparatus according to claim 4 or 5, wherein an inverse matrix of the transformation matrix is applied to matrix data representing the three-dimensional information to restore the three-dimensional information constituting the object shape.
上記の請求項1〜6のいずれか1項に記載のパラメータ推定装置またはパラメータ推定方法を、コンピュータプログラムで記載してそれを実行可能にしたことを特徴とするパラメータ推定プログラム。
A parameter estimation program characterized in that the parameter estimation apparatus or the parameter estimation method according to any one of claims 1 to 6 is described in a computer program so as to be executable.
JP2004289880A 2004-10-01 2004-10-01 Parameter estimation device, parameter estimation method and parameter estimation program Pending JP2006106930A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004289880A JP2006106930A (en) 2004-10-01 2004-10-01 Parameter estimation device, parameter estimation method and parameter estimation program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004289880A JP2006106930A (en) 2004-10-01 2004-10-01 Parameter estimation device, parameter estimation method and parameter estimation program

Publications (1)

Publication Number Publication Date
JP2006106930A true JP2006106930A (en) 2006-04-20

Family

ID=36376628

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004289880A Pending JP2006106930A (en) 2004-10-01 2004-10-01 Parameter estimation device, parameter estimation method and parameter estimation program

Country Status (1)

Country Link
JP (1) JP2006106930A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010038791A (en) * 2008-08-06 2010-02-18 Osaka Univ Super-precision shape measurement method of normal vector tracking type using autonomous calibration of optical path length
WO2021187887A1 (en) * 2020-03-19 2021-09-23 한양대학교 산학협력단 Camera synchronization device and synchronization method for same

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010038791A (en) * 2008-08-06 2010-02-18 Osaka Univ Super-precision shape measurement method of normal vector tracking type using autonomous calibration of optical path length
WO2021187887A1 (en) * 2020-03-19 2021-09-23 한양대학교 산학협력단 Camera synchronization device and synchronization method for same

Similar Documents

Publication Publication Date Title
CN108335353B (en) Three-dimensional reconstruction method, device and system of dynamic scene, server and medium
KR102227583B1 (en) Method and apparatus for camera calibration based on deep learning
RU2713611C2 (en) Three-dimensional space simulation method
US8754963B2 (en) Processing images having different focus
JP6798183B2 (en) Image analyzer, image analysis method and program
US8077906B2 (en) Apparatus for extracting camera motion, system and method for supporting augmented reality in ocean scene using the same
US20170278302A1 (en) Method and device for registering an image to a model
WO2019164498A1 (en) Methods, devices and computer program products for global bundle adjustment of 3d images
CN113686314B (en) Monocular water surface target segmentation and monocular distance measurement method for shipborne camera
JP4283816B2 (en) Three-dimensional environment information acquisition apparatus, three-dimensional environment information acquisition method, and recording medium storing a program realizing the method
CN115345942A (en) Space calibration method and device, computer equipment and storage medium
JP2006195790A (en) Lens distortion estimation apparatus, lens distortion estimation method, and lens distortion estimation program
KR101673144B1 (en) Stereoscopic image registration method based on a partial linear method
JP2007034964A (en) Method and device for restoring movement of camera viewpoint and three-dimensional information and estimating lens distortion parameter, and program for restoring movement of camera viewpoint and three-dimensional information and estimating lens distortion parameter
JP2005063012A (en) Full azimuth camera motion and method and device for restoring three-dimensional information and program and recording medium with the same recorded
JP4675368B2 (en) Object position estimation apparatus, object position estimation method, object position estimation program, and recording medium recording the program
JP2006106930A (en) Parameter estimation device, parameter estimation method and parameter estimation program
CN114187344A (en) Map construction method, device and equipment
CN109377525B (en) Three-dimensional coordinate estimation method of shooting target and shooting equipment
JP2006106929A (en) Parameter estimation device, parameter estimation method and parameter estimation program
JP2006172026A (en) Camera motion, and device and method for restoring three-dimensional information, and program
JP2006195789A (en) Lens distortion estimation apparatus, lens distortion estimation method, and lens distortion estimation program
CN112956182A (en) Camera control method, apparatus, and computer-readable storage medium
JP2005063013A (en) Method and device for restoring view point motions of full azimuth camera and three-dimensional information, and program and recording medium with the same recorded
JP2004252714A (en) Method, device and program for obtaining space information, and recording medium for recording the program