JP2006106930A - Parameter estimation device, parameter estimation method and parameter estimation program - Google Patents
Parameter estimation device, parameter estimation method and parameter estimation program Download PDFInfo
- Publication number
- JP2006106930A JP2006106930A JP2004289880A JP2004289880A JP2006106930A JP 2006106930 A JP2006106930 A JP 2006106930A JP 2004289880 A JP2004289880 A JP 2004289880A JP 2004289880 A JP2004289880 A JP 2004289880A JP 2006106930 A JP2006106930 A JP 2006106930A
- Authority
- JP
- Japan
- Prior art keywords
- camera
- matrix
- motion
- coordinate value
- matrix data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
Description
本発明は、画像入力装置(例えば、カメラ等)を使って取得した車載画像、室内画像、歩行撮影画像、船上からの海上画像、空撮画像などの時系列画像全般に利用可能で、カメラで取得した時系列画像から、カメラ視点の並進運動と光軸周りの回転(ヨー回転)、及び、時系列画像に映っている外界の3次元形状、すなわち、被写体(物体)の外観形状を構成する3次元情報を復元し、同時に、カメラ内部パラメータを推定することに関する。 INDUSTRIAL APPLICABILITY The present invention can be used for all time-series images such as in-vehicle images, indoor images, walking images, sea images from the ship, aerial images, etc. acquired using an image input device (for example, a camera). From the acquired time-series image, the translation movement of the camera viewpoint and the rotation around the optical axis (yaw rotation), and the three-dimensional shape of the outside world reflected in the time-series image, that is, the external shape of the subject (object) are configured. It relates to restoring 3D information and simultaneously estimating camera internal parameters.
コンピュータビジョン分野では、時系列画像データから、対象物の形状を計測または獲得する手法には、ステレオ計測やエピポーラ面解析を用いた3次元解析手法がある。この手法によれば、物体が撮影されている複数の時系列画像から、空間形状または空間構造に関する3次元位置情報、及び、カメラ視点に関する運動を復元することができる。しかし、カメラを動かしながら撮影した時系列画像にはランダム性の雑音が混入するため、カメラ運動と物体形状を同時に、かつ、高精度に復元することが困難である。 In the computer vision field, methods for measuring or acquiring the shape of an object from time-series image data include three-dimensional analysis methods using stereo measurement and epipolar plane analysis. According to this method, it is possible to restore the three-dimensional position information related to the spatial shape or the spatial structure and the motion related to the camera viewpoint from a plurality of time-series images in which the object is captured. However, since random noise is mixed in a time-series image taken while moving the camera, it is difficult to restore the camera motion and the object shape at the same time with high accuracy.
これに対して、従来の因子分解法はランダム性の雑音が混入するようなビデオ画像などの時系列画像において、カメラ運動と物体形状をロバスト、かつ、高精度に復元することができる(例えば、特許文献1参照。)。 On the other hand, the conventional factorization method can restore the camera motion and the object shape robustly and with high accuracy in a time-series image such as a video image in which random noise is mixed (for example, (See Patent Document 1).
しかし、この手法では、カメラの内部パラメータ(焦点距離など)を既知としており、事前にカメラキャリブレーションによりカメラ内部パラメータを校正しておく必要がある。 However, in this method, the internal parameters of the camera (focal length, etc.) are known, and it is necessary to calibrate the camera internal parameters by camera calibration in advance.
一方、ディジタル・スチルカメラやハンディカメラなどにはオートフォーカス機能が搭載されており、被写体との距離に合わせてピント調節を行い、ピントの合った画像の取得が可能である。これにより、オートフォーカスで撮影された画像は各画像において焦点距離が微妙に調整される。従来法の因子分解法ではカメラの内部パラメータが固定(画像において焦点距離が変わらず一定)であることを前提としてカメラ運動と3次元形状を復元するため、オートフォーカスで撮影された画像には応用することができなかった。 On the other hand, digital still cameras, handy cameras, and the like are equipped with an autofocus function, and it is possible to obtain a focused image by adjusting the focus according to the distance from the subject. As a result, the focal length of each image captured with autofocus is finely adjusted. In the conventional factorization method, the camera motion and 3D shape are restored on the assumption that the internal parameters of the camera are fixed (the focal length does not change in the image is constant). I couldn't.
これに対して、簡易な撮影ターゲット(紙に印刷した白黒の市松模様パターン)をハンドフリーで撮影した画像から、カメラの内部パラメータを推定する技術も開示されている(例えば、非特許文献1参照。)。しかし、時間的に変化する内部パラメータに対しては、この技術は適用できなかった。
Shape From Motionの原理(カメラが運動することで3次元形状を復元する考え方)を応用した計測方法により、ディジタル・スチルカメラやハンディタイプのビデオカメラを使って撮影した時系列画像から外界の物体の空間情報を獲得、復元するとき、各画像でのピント合わせは必要であり、市販のカメラには被写体との距離に応じてフォーカスを調整するというオートフォーカス機能が装備されており、この機能により画像ごとにピントが調整された画像が得られる。しかし、オートフォーカス機能により各画像を取得した際の焦点距離が変化するため、従来の因子分解法を利用することができず、ピント調整のために変化する焦点距離を同時に復元しなければならないという問題がある。 Using a measurement method that applies the principle of Shape From Motion (the idea of restoring a three-dimensional shape by the movement of the camera), it is possible to capture objects from the outside world from time-series images taken using a digital still camera or a handheld video camera. When acquiring and restoring spatial information, it is necessary to focus on each image, and commercially available cameras are equipped with an autofocus function that adjusts the focus according to the distance to the subject. An image with the focus adjusted for each time is obtained. However, since the focal length when each image is acquired by the autofocus function changes, the conventional factorization method cannot be used, and the changing focal length for focus adjustment must be restored at the same time. There's a problem.
本発明は、かかる事情に鑑みてなされたもので、その目的は上記課題を解決したカメラパラメータ推定技術を提供することにある。 The present invention has been made in view of such circumstances, and an object thereof is to provide a camera parameter estimation technique that solves the above-described problems.
本発明では、焦点距離を推定するための投影モデルを In the present invention, a projection model for estimating the focal length is used.
と仮定し、この投影モデルに基づいてカメラ運動、3次元形状、焦点距離を復元する。式1では、第iフレームの画像において観測される第j番目の特徴点の画像座標値を(xij,yij)、そのときの焦点距離をfi、XY並進運動を(Txi,Tyi,Tzi)、光軸周りの回転をθiとする。また、画像座標値(xij,yij)は主点(principle point)を原点としており、主点は既知とし、画像の横縦のスケールファクタ比は1:1とする。
It is assumed that the camera motion, the three-dimensional shape, and the focal length are restored based on this projection model. In
上記を全フレーム(i=1,2,・・・,F)、全特徴点(j=1,2,・・・,P)に対して行列表記すると、 When the above is expressed in matrix for all frames (i = 1, 2,..., F) and all feature points (j = 1, 2,..., P),
となる。ここで、fi=1(i=1,2,・・・,F)とした場合は、(式2)右辺はカメラ運動を平面運動と仮定し、因子分解法を利用してカメラ運動と3次元形状を復元することができる。ところが、カメラ運動により光軸(Z軸)方向の並進運動が変化し、これに伴い、オートフォーカス機能により焦点距離fiが変化してフレームごとに異なるため、式2左辺のTzi(光軸方向の並進運動)と焦点距離fiを同時に推定しなければならない。そこで、式2左辺に示す係数(1−Tzi/Zj)/fiを掛けた画像座標値((1−Tzi/Zj)xij/fi,(1−Tzi/Zj)yji/fi)から平面運動と3次元形状を復元する。 It becomes. Here, when f i = 1 (i = 1, 2,..., F), the right side of (Equation 2) assumes that the camera motion is a plane motion and uses the factorization method to calculate the camera motion. A three-dimensional shape can be restored. However, since the translational motion in the optical axis (Z-axis) direction is changed by the camera motion, and the focal length fi is changed by the autofocus function and is different for each frame, Tz i (optical axis direction) on the left side of Equation 2 is changed. Translational motion) and focal length f i must be estimated simultaneously. Therefore, the image coordinate values ((1-Tz i / Zj) x ij / f i , (1-Tz i / Zj) y ji multiplied by the coefficient (1-Tz i / Zj) / f i shown on the left side of Expression 2. / F i ) restores planar motion and 3D shape.
因子分解法により復元した平面運動と3次元形状から再投影座標値(Δuij,Δvij)は、 The reprojected coordinate values (Δu ij , Δv ij ) from the plane motion and the three-dimensional shape restored by the factorization method are
と表される。式3全特徴点、全フレームに展開すると、 It is expressed. Equation 3 All feature points, when expanded to all frames,
となり、光軸並進運動Tziと焦点距離fiは、 The optical axis translation Tz i and the focal length f i are
で得られる。 It is obtained by.
さらに、画素の横縦のスケールファクタ比が1:βの場合は、 Furthermore, when the horizontal and vertical scale factor ratio of the pixel is 1: β,
が投影モデルであり、各フレームでの焦点距離fiとして、αi=fi,βi=βfiとする。ここで、カメラ運動と3次元形状を復元されると、再投影座標値(Δuij,Δvij)を算出し、式7から、
Is a projection model, and α i = f i and β i = βf i are set as the focal length f i in each frame. Here, when the camera motion and the three-dimensional shape are restored, reprojection coordinate values (Δu ij , Δv ij ) are calculated, and from
となる。上式を全特徴点について連立して、 It becomes. Combine the above equation for all feature points,
となるため、 So that
の計算により、第iフレームでの光軸並進運動Tzi,αi,βiを同時に求めることができる。 Thus, the optical axis translational movements Tz i , α i , and β i in the i-th frame can be simultaneously obtained.
本発明では、平面運動に光軸並進を加えた運動で撮像した時系列画像からカメラ運動と3次元形状を復元し、カメラ内部パラメータを推定するため、カメラを図1、図2に示すように平面板上に支柱で固定されたカメラを半径Rの円周上で移動させることにより、平面運動に光軸並進運動を加えた運動での時系列画像を取得でき、その時系列画像中の特徴点の画像座標値(xij,yij)を観測することで、式2、式7の投影モデルに基づき、オートフォーカスによる焦点距離の変化を考慮した式5、式6、式12の計算によりカメラ内部パラメータを推定することができる。
In the present invention, the camera motion and the three-dimensional shape are restored from the time-series image captured by the motion obtained by adding the optical axis translation to the planar motion, and the camera internal parameters are estimated as shown in FIGS. By moving the camera fixed on the flat plate with a support on the circumference of radius R, it is possible to acquire a time series image with a motion obtained by adding an optical axis translational motion to the plane motion, and feature points in the time series image By observing the image coordinate values (x ij , y ij ), the camera is calculated based on the projection models of
本発明により、カメラ等を使って取得した時系列画像全般(移動手段を利用して撮影した車載画像、海上画像、空撮画像、屋内画像など)から、オートフォーカス機能が作用した状況でも、カメラ運動と3次元形状を同時に復元し、オートフォーカス機能により変化したカメラ内部パラメータを推定することができる。 According to the present invention, the camera can be used even in a situation where the autofocus function is activated from all the time-series images acquired using a camera or the like (vehicle-mounted images, sea images, aerial images, indoor images, etc. taken using a moving means). Motion and 3D shape can be restored at the same time, and camera internal parameters changed by the autofocus function can be estimated.
本発明ではカメラが図1、図2の撮像手段により時系列画像を取得することで、特徴点観測手段での特徴点の画像座標値を高精度に観測することに効果がある。これにより、カメラ運動と3次元形状、カメラ内部パラメータをより高精度に復元、推定することができる。なお、本発明で使用する計算は、大半が線形演算で構成されるため、コンピュータ言語での実装が容易である。 In the present invention, the camera acquires time-series images by the imaging means shown in FIGS. 1 and 2, which is effective in observing the image coordinate values of the feature points with the feature point observation means with high accuracy. Thereby, the camera motion, the three-dimensional shape, and the camera internal parameters can be restored and estimated with higher accuracy. Since most of the calculations used in the present invention are composed of linear operations, implementation in a computer language is easy.
以下、図面を用いて本発明の実施形態を説明する。 Hereinafter, embodiments of the present invention will be described with reference to the drawings.
(実施形態1)
図1では水平面板11に回転中心から半径Rの距離を隔て、垂直に立てた支柱12にカメラ13を固定し、カメラ13を半径Rの円周上を回転させながら、被写体を撮像する。
(Embodiment 1)
In FIG. 1, a
また、図2では垂直に立てた回転平面板21に回転中心から半径Rの距離を隔て、水平に立てた支柱22にカメラ23を固定し、カメラ23を半径Rの円周上を回転させながら、被写体を撮像する。
In FIG. 2, a
これらの撮像手段では、カメラを全周回転させる必要はなく、被写体がフレームアウトしない程度で撮影を行い、時系列画像を得る。これにより、平面運動に光軸並進運動のある自由度4のカメラ運動で撮像することができる。一方、カメラを手動で動かしながら被写体を撮影した時系列画像にも本発明を適用することができるが、図1、図2の撮影手段で得ることで、より高精度にカメラ内部パラメータを推定することができる。 With these imaging means, it is not necessary to rotate the camera all around, and shooting is performed to the extent that the subject is not out of frame, and time-series images are obtained. Thereby, it is possible to pick up an image with a camera motion with a degree of freedom of 4 which has an optical axis translational motion in a plane motion. On the other hand, the present invention can also be applied to a time-series image obtained by photographing a subject while manually moving the camera. However, the camera internal parameters can be estimated with higher accuracy by obtaining the photographing means shown in FIGS. be able to.
図3は図1、図2の平面運動に光軸方向の並進運動があるカメラ運動での撮影手段により、時系列画像を取得する状況のカメラと対象物の位置関係を表している。運動の中心は視点としており、視点を原点としたカメラ座標系XYZ,原点Oとした世界座標系XwYwZwを設定する。この座標系において、カメラ運動として、Ti(Txi,Tyi,Tzi)の並進運動と光軸(Z軸)周りのヨー回転θiとする。対象物の点Pj(Xj,Yj,Zj)はカメラにより画像面において投影中心(主点)を原点とした画像座標値(xij,yij)へ投影されるとする。なお、説明の都合上、初期フレームでの視点とOは一致しているとし、光軸はZw軸と平行関係にあり、θiはXとXw軸との成す角とするが、一般性を損うものではない。 FIG. 3 shows the positional relationship between the camera and the object in a situation where a time-series image is acquired by the photographing means with the camera motion having the translational motion in the optical axis direction in the planar motion of FIGS. The center of motion is the viewpoint, and a camera coordinate system XYZ with the viewpoint as the origin and a world coordinate system XwYwZw with the origin O are set. In this coordinate system, the camera motion is a translational motion of T i (Tx i , Ty i , Tz i ) and a yaw rotation θi around the optical axis (Z axis). It is assumed that the point P j (X j , Y j , Z j ) of the object is projected onto the image coordinate value (x ij , y ij ) with the projection center (principal point) as the origin on the image plane by the camera. For the sake of explanation, it is assumed that the viewpoint in the initial frame and O coincide with each other, the optical axis is parallel to the Zw axis, and θ i is the angle formed by the X and Xw axes. There is no loss.
図4は本発明のパラメータ推定装置の基本構成図であり、本実施形態を図4にそって説明する。本発明は、時系列画像を蓄積した時系列画像データベース41、各画像における特徴点の座標値を観測する特徴点観測部42、画像座標値からなる行列データからカメラ運動と3次元形状を復元する因子分解処理部43、光軸方向の並進運動を復元し、かつ、カメラ内部パラメータの焦点距離を推定する光軸並進運動復元・焦点距離推定部44、カメラ運動と3次元形状、焦点距離が得られるまで処理を繰り返すための反復処理部45から構成される。
FIG. 4 is a basic configuration diagram of the parameter estimation apparatus of the present invention, and this embodiment will be described with reference to FIG. The present invention restores camera motion and three-dimensional shape from a time-
この構成において、時系列画像データベース41には、ハードディスク、RAID装置、CD−ROMなどの記録媒体を利用する形態、または、ネットワークを介したリモートなデータ資源を利用する形態でもどちらでも構わない。
In this configuration, the time
さらに、図5はリアルタイムで処理する場合の処理構成図であり、本発明は必ずしも時系列画像データベース部41などの記憶装置を必要としない。
Furthermore, FIG. 5 is a processing configuration diagram in the case of processing in real time, and the present invention does not necessarily require a storage device such as the time-series
まず、図4の特徴点観測部42において、対象物を撮影した時系列画像として時系列画像データベース41からフレームF分の画像系列を取り出す。この取り出した画像系列において特徴点追跡を行う。特徴点は従来から用いられているような以下の手順により抽出する。
First, in the feature
図6に示すように画像1の領域1において、
(1)各画素に対する2×2のヘッセ行列を求める。次に、
(2)各点の3×3近傍領域において極大点かどうか判定し、極大点以外の点を削除する(non−maxima suppression)。さらに、
(3)得られた各点のヘッセ行列の固定値σl,σs(σs≦σl)を求め、σsがσp以上となる点を抽出する。最後に、
(4)抽出した点のσsの大きさの順にソートし、上位の点から順番にその点(pl)より上位の点(ph)がσd画素以内の距離に存在するかどうかを判定し、もし、存在する場合は下位の点plを削除する。さらに、抽出した特徴点(j=1,2,・・・,P)をKLT法(Kanade−Lucas−Tomasi)により画像i(i=2,・・・,F)にわたって追跡し、画像座標値(xij,Yij)を観測する。このようにして得られた特徴の画像座標値を
In
(1) A 2 × 2 Hessian matrix for each pixel is obtained. next,
(2) It is determined whether or not the point is a local maximum in the 3 × 3 neighborhood of each point, and points other than the local maximum are deleted (non-maxima suppression). further,
(3) The fixed values σ l and σ s (σ s ≦ σ l ) of the obtained Hessian matrix are obtained, and points where σ s is equal to or greater than σ p are extracted. Finally,
(4) Sort the extracted points in the order of the size of σ s , and check whether or not a point (p h ) higher than the point (p l ) exists at a distance within σ d pixels in order from the upper point. If there is, the lower point p 1 is deleted. Further, the extracted feature points (j = 1, 2,..., P) are tracked over the image i (i = 2,..., F) by the KLT method (Kanade-Lucas-Tomasi), and image coordinate values are obtained. Observe (x ij , Y ij ). The image coordinate values of the features thus obtained are
に示す配列に並べた2F×Pの行列データ(行列データ[A])を用意する。 2F × P matrix data (matrix data [A]) arranged in the array shown in FIG.
次に、因子分解処理部43、光軸並進運動復元・焦点距離推定部44、及び、反復処理部45の処理内容について、図7の処理フロー図にそって説明する。
Next, processing contents of the
まず、因子分解処理部43が行列データの入力を行う(S1)。
First, the
次に、因子分解処理部43が行列分解データの生成を行う(S2)。すなわち、係数δijを
Next, the
のように初期化し、保持しておいた式13の2F×Pの行列データ[A]から
From the 2F × P matrix data [A] of
に示すデータを求めておき、これを行列分解データ[B]として保持しておく。 Is stored as matrix decomposition data [B].
次に、因子分解処理部43が、特異値分解を行う(S3)。すなわち、行列分解データ[B]を入力データとして特異値分解により
Next, the
に示す3つの行列[U],[W],[V]に行列分解する。ここで、[U]は2F×Pサイズの行列、[W]はP×Pサイズの対角行列、[V]はP×Pサイズの行列である。 Matrix decomposition into three matrices [U], [W], and [V] shown in FIG. Here, [U] is a 2F × P size matrix, [W] is a P × P size diagonal matrix, and [V] is a P × P size matrix.
次に、因子分解処理部43が雑音除去を行う(S4)。すなわち、
Next, the
の第二項に示すように、ランク4以降の各行列の成分を削除する。この削除のときは、行列[U]を取り出し、この行列の要素において第4から第P列目までを削除し、残りの成分からなる行列を保持する。次に、行列[W]を取り出し、この行列の要素において第4から第P行目並びに第4から第P列目までを削除し、残りの成分からなる行列を保持する。さらに、行列[V]を取り出し、この行列の要素において第4から第P行目までを削除し、残りの成分からなる行列を保持する。 As shown in the second term, the components of each matrix after rank 4 are deleted. At the time of this deletion, the matrix [U] is taken out, the fourth to Pth columns are deleted from the matrix elements, and the matrix composed of the remaining components is held. Next, the matrix [W] is extracted, and the fourth to Pth rows and the fourth to Pth columns are deleted from the matrix elements, and the matrix composed of the remaining components is held. Further, the matrix [V] is taken out, the fourth to Pth rows are deleted from the matrix elements, and the matrix composed of the remaining components is held.
雑音除去に続き、第4から第P行目並びに第4から第P列目までを削除した行列[W]の対角要素の平方をとった行列から、 Following denoising, from the matrix taking the square of the diagonal elements of the matrix [W] with the 4th to Pth rows and the 4th to Pth columns deleted,
に示す行列[U’]と行列[V’]を得る。 The matrix [U ′] and the matrix [V ′] shown in FIG.
次に、因子分解処理部43が変換行列算出を行う(S5)。すなわち、保持してある行列[U’]を取り出し、
Next, the
に示す連立する条件式における対称行列[C]の各要素にかかる係数を計算する。なお、対称行列[C]は The coefficient concerning each element of the symmetric matrix [C] in the simultaneous conditional expressions shown in FIG. Note that the symmetric matrix [C] is
で表されている。 It is represented by
これらの係数計算は、行列演算により容易に得られるものであり、この条件式を全フレームに対して計算する。次に、全フレームの式21〜23に示す連立する条件式に対して、最小二乗法などの数値計算を利用して3×3サイズの行列[C]の各要素を決定する。求めた行列[C]を
These coefficient calculations are easily obtained by matrix operation, and this conditional expression is calculated for all frames. Next, each element of the 3 × 3 size matrix [C] is determined using numerical calculation such as the least square method for the simultaneous conditional expressions shown in
に示すように固有値分解する。ここで、固有値行列の平方と固有値行列から、 The eigenvalue decomposition is performed as shown in FIG. Here, from the square of the eigenvalue matrix and the eigenvalue matrix,
の行列[C’]を生成し、この行列要素を成分にもつ行列[Q]を Matrix [C '] and matrix [Q] having the matrix elements as components
に従って算出する。 Calculate according to
次に、因子分解処理部43が平面運動復元を行う(S6)。すなわち、求めた行列[Q]と、保持しておいた行列[U’]から、
Next, the
の行列演算により行列[M’]を計算する。行列[M’]から各フレーム(第iフレーム)の行列要素(mix,nix)または(miy,niy)を取り出し、 The matrix [M ′] is calculated by the matrix operation. The matrix element (m ix , n ix ) or (m iy , n iy ) of each frame (i-th frame) is extracted from the matrix [M ′],
を使って、ヨー回転θiを復元する。次に、行列[M’]から各フレーム(第iフレーム)の行列要素(Tiu,Tiv)を取り出す。この(Tiu,Tiv)から、 Is used to restore the yaw rotation θi. Next, matrix elements (T iu , T iv ) of each frame (i-th frame) are extracted from the matrix [M ′]. From this (T iu , T iv )
を使って第iフレームにおけるユークリッド空間でのXY並進運動(Txi,Tyi)を計算する。 XY translation in Euclidean space in the i-th frame using the (Tx i, Ty i) is calculated.
次に、因子分解処理部43が3次元情報復元を行う(S7)。すなわち、先に保持しておいた行列[V’]と、変換行列算出で得られた行列[Q]から、
Next, the
に示す行列演算を行い、行列[S’]を求める。次に、行列[S’]の要素に対して、 The matrix [S ′] is obtained by performing the matrix operation shown in FIG. Next, for the elements of the matrix [S ′],
に示す変換を行い行列[P]を得る。行列[P]の列ベクトルは、それぞれ第j番目の特徴点のユークリッド空間での3次元座標値(Xj,Yj,Zj)になっている。 To obtain a matrix [P]. Each column vector of the matrix [P] is a three-dimensional coordinate value (X j , Y j , Z j ) in the Euclidean space of the j-th feature point.
次に、光軸並進運動復元・焦点距離推定部44が光軸並進運動復元・焦点距離推定を行う(S8)。すなわち、平面運動復元と3次元情報復元で復元したカメラ運動と3次元形状から
Next, the optical axis translational motion recovery / focal
に示す(Δuij,Δvij)を得て、各フレームでの画像座標値(xij,yij)から、式3に示すΔwijを全フレーム、全特徴点について求め、 (Δu ij , Δv ij ) shown in FIG. 5 is obtained, and Δw ij shown in Expression 3 is obtained for all frames and all feature points from the image coordinate values (x ij , y ij ) in each frame.
のF×Pの行列[D1]を準備する。次に、3次元情報復元で得たZj(j=1,2,・・・,P)からなる F × P matrix [D1] is prepared. Next, it consists of Z j (j = 1, 2,..., P) obtained by three-dimensional information restoration.
の行列[D2]を準備する。 Matrix [D2] is prepared.
の行列演算を行い、 The matrix operation of
のF×2の行列[D]を得る。さらに、行列[D]の第i行第1列のdi1,第i行第2列のdi2と取り出し、 To obtain an F × 2 matrix [D]. Further, d i1 in the i-th row and first column and d i2 in the i-th row and second column of the matrix [D] are extracted,
の計算を全フレームにわたり計算して、焦点距離fi、光軸並進運動Tziを得る。この計算は、式5、式6に基づいて行列計算を行っている。
Is calculated over the entire frame to obtain the focal length f i and the optical axis translation Tz i . In this calculation, matrix calculation is performed based on
次に、反復処理部45が、
Next, the
の計算で得られる誤差△Eを算出する(S9)。この誤差が、ある一定値以下に収束しているかを判断し(S10)、ある一定値以下に収束している場合は処理を終了する。もし、そうでない場合は、 An error ΔE obtained by the above calculation is calculated (S9). It is determined whether this error has converged below a certain value (S10). If the error has converged below a certain value, the process is terminated. If not,
に従って係数δijを更新する(S11)。さらに、この係数更新に伴い式15により行列分解データ[B]を更新する。これを誤差△Eが一定値以下に収束するまで反復を繰り返す。 Accordingly, the coefficient δ ij is updated (S11). Further, the matrix decomposition data [B] is updated by Expression 15 in accordance with the coefficient update. This is repeated until the error ΔE converges below a certain value.
以上、本発明の実施例により、時系列画像中の特徴点の画像座標値から、カメラ視点の運動:光軸周りの回転とXYZ軸方向の並進運動、及び、物体形状を構成する3次元情報を復元し、同時に、カメラ内部パラメータの焦点距離を推定することができる。 As described above, according to the embodiment of the present invention, from the image coordinate value of the feature point in the time-series image, the motion of the camera viewpoint: the rotation around the optical axis, the translational motion in the XYZ directions, and the three-dimensional information constituting the object shape At the same time, the focal length of the camera internal parameters can be estimated.
(実施形態2)
図8は本発明のパラメータ推定装置の基本構成図であり、本実施形態を図8にそって説明する。本実施形態は、時系列画像を蓄積した時系列画像データベース81、各画像における特徴点の座標値を観測する特徴点観測部82、画像座標値からなる行列データからカメラ運動と3次元形状を復元する因子分解処理部83、光軸方向の並進運動を復元し、カメラ内部パラメータの焦点距離を推定する光軸並進運動復元・焦点距離推定部84、カメラ運動と3次元形状、焦点距離が得られるまで処理を繰り返すための反復処理部85、カメラ内部パラメータの画素の横縦のスケールファクタ比を求めるスケールファクタ比算出部86から構成される。
(Embodiment 2)
FIG. 8 is a basic configuration diagram of the parameter estimation apparatus of the present invention, and this embodiment will be described with reference to FIG. In this embodiment, a time-
この構成において、時系列画像データベース81には、ハードディスク、RAID装置、CD−ROMなどの記録媒体を利用する形態、または、ネットワークを介したリモートなデータ資源を利用する形態でもどちらでも構わない。
In this configuration, the time
さらに、図9はリアルタイムで処理する場合の処理構成図であり、本実施形態は必ずしも時系列画像データベース部81などの記憶装置を必要としない。
Furthermore, FIG. 9 is a processing configuration diagram in the case of processing in real time, and this embodiment does not necessarily require a storage device such as the time-series
本実施形態は、実施形態1に対して光軸並進運動復元・焦点距離推定部84、スケールファクタ比算出部86の処理が異なっているため、以下の説明では、この部分についてだけ記載する。
In the present embodiment, the processing of the optical axis translational motion restoration / focal
図10は図8に示すパラメータ推定装置における因子分解処理部83、光軸並進運動復元・焦点距離推定部84、スケールファクタ比算出部86の処理フローである。
FIG. 10 is a processing flow of the
最初の反復では、 In the first iteration,
のように係数δij,γijを初期化し、 The coefficients δ ij and γ ij are initialized as follows ,
の行列[B]を得る。光軸並進運動復元・焦点距離推定部84での処理は、式33に示す(Δuij,Δvij)を得て、各フレームでの画像座標値(xij,yij)から、全特徴点について式8、式9、式10のAj,Bjを得て、
The matrix [B] is obtained. The processing in the optical axis translational motion restoration / focal
の2×Pの行列[D1]を準備する。式36の行列演算で 2 × P matrix [D1] is prepared. In the matrix operation of Equation 36
の各フレームでの2×2の行列[D]を得る。行列[D]から第1行第1列のdi1、第2行第1列のd’i1を取り出し A 2 × 2 matrix [D] in each frame is obtained. Extract d i1 in the first row and first column and d ′ i1 in the second row and first column from the matrix [D].
によりαi,βiを求める。また、光軸並進運動Tziは行列[D]の各要素から To obtain α i and β i . Also, the optical axis translational motion Tz i is derived from each element of the matrix [D]
により計算する。これらの計算は式12に基づいて計算を行っている。
Calculate according to These calculations are performed based on
反復処理部85では、式39、式40の計算で得られる△Eを算出する。この誤差が、ある一定値以下に収束している場合は処理を終了する。もし、そうでない場合は、係数δij,γijを
The
に従って更新し、この更新に伴い式43により行列分解データ[B]を更新する。これを誤差△Eが一定値以下に収束するまで反復を繰り返す。
In accordance with this update, the matrix decomposition data [B] is updated by
反復処理が終了したとき、スケールファクタ比算出部86ではβi/αiの平均値を求めて画素の横縦のスケールファクタ比1:βを得る。
When the iterative processing is completed, the scale factor
以上、実施形態2により、時系列画像中の特徴点の画像座標値から、カメラ視点の運動:光軸周りの回転とXYZ軸方向の並進運動、並びに、物体形状を構成する3次元情報を復元し、同時に、カメラ内部パラメータの焦点距離、画素の横縦の量子化比(スケールファクタ比)を推定することができる。 As described above, according to the second embodiment, from the image coordinate values of the feature points in the time-series image, the motion of the camera viewpoint: the rotation around the optical axis, the translational motion in the XYZ directions, and the three-dimensional information constituting the object shape are restored. At the same time, the focal length of the camera internal parameters and the horizontal / vertical quantization ratio (scale factor ratio) of the pixels can be estimated.
なお、実施形態1及び2に記載のパラメータ推定装置は、例えば、パラメータ推定装置を構成するコンピュータ装置が有するCPUによって実現され、必要とする特徴点観測、因子分解処理、光軸並進運動復元・焦点距離推定、反復処理、スケールファクタ比算出などをアプリケーションプログラムとして搭載することができる。 Note that the parameter estimation device described in the first and second embodiments is realized by, for example, a CPU included in a computer device that configures the parameter estimation device, and requires necessary feature point observation, factorization processing, optical axis translational motion restoration / focusing, and the like. Distance estimation, iterative processing, scale factor ratio calculation, etc. can be installed as application programs.
また、コンピュータ装置には上記説明した特徴点観測、因子分解処理、光軸並進運動復元・焦点距離推定、反復処理、スケールファクタ比算出など行った処理結果や計算結果等のデータを内部メモリや外部記憶装置等に書き込み・読み出しができるようにしてもよい。 In addition, the computer device stores data such as the above-described feature point observation, factorization processing, optical axis translational motion recovery / focal length estimation, iterative processing, scale factor ratio calculation, and other processing results and calculation results. You may enable it to write and read to a memory | storage device etc.
また、本発明は、前述した実施形態の機能を実現するソフトウェアのプログラムコードを記録した記録媒体を、システムあるいは装置に供給し、そのシステムあるいは装置のCPU(MPU)が記録媒体に格納されたプログラムコードを読み出し実行することによっても実現できる。その場合、記憶媒体から読み出されたプログラムコード自体が上述した実施形態の機能を実現することになり、そのプログラムコードを記憶した記憶媒体、例えば、CD−ROM、DVD−ROM、CD−R、CD−RW、MO、HDD、等は本発明を構成する。 The present invention also provides a recording medium in which a program code of software for realizing the functions of the above-described embodiments is recorded to a system or apparatus, and a program in which the CPU (MPU) of the system or apparatus is stored in the recording medium. This can also be realized by reading and executing the code. In that case, the program code itself read from the storage medium realizes the functions of the above-described embodiment, and a storage medium storing the program code, for example, a CD-ROM, a DVD-ROM, a CD-R, CD-RW, MO, HDD, etc. constitute the present invention.
11…平面版
12…支柱
13…カメラ
21…回転平面版
22…支柱
23…カメラ
41…時系列画像データベース
42…特徴点観測部
43…因子分解処理部
44…光軸並進運動復元・焦点距離推定部
45…反復処理部
51…画像入力部
52…特徴点観測部
53…因子分解処理部
54…光軸並進運動復元・焦点距離推定部
55…反復処理部
81…時系列画像データベース
82…特徴点観測部
83…因子分解処理部
84…光軸並進運動復元・焦点距離推定部
85…反復処理部
86…スケールファクタ比算出部
91…画像入力部
92…特徴点観測部
93…因子分解処理部
94…光軸並進運動復元・焦点距離推定部
95…反復処理部
96…スケールファクタ比算出部
DESCRIPTION OF
Claims (7)
前記画像座標値から行列データを作成し、当該行列データから前記カメラ手段のカメラ視点運動と前記対象物の外観形状を構成する3次元形状とを復元する因子分解処理手段と、
前記復元したカメラ視点運動と3次元形状とから各特徴点に関する画像座標系でのカメラ視点運動の再投影誤差である再投影座標値を求め、当該再投影座標値と前記観測した画像座標値とから、前記カメラ視点の光軸方向の並進運動を再現し、かつ、前記カメラ手段の焦点距離を推定する光軸並進運動復元・焦点距離推定手段と、
前記再投影誤差と、前記観測した画像座標値に前記カメラ視点運動および前記3次元形状から構成される係数並びにカメラ内部パラメータから構成される係数を掛けた座標値との間の誤差が規定値以下に収束しているかを判断し、収束していない場合には、前記カメラ視点運動および前記3次元形状から構成される係数並びにカメラ内部パラメータから構成される係数を掛けた画像座標値を新たな行列要素として行列データを作成して前記因子分解処理手段からの処理を反復させる反復処理手段と、を備えることを特徴とするパラメータ推定装置。 In the image coordinate system set in the time-series image of the object acquired by the camera means, the feature point observation means for observing the image coordinate value indicating the temporal change amount of the feature point of each image;
Factorization processing means for creating matrix data from the image coordinate values and restoring the camera viewpoint movement of the camera means and the three-dimensional shape constituting the appearance shape of the object from the matrix data;
A reprojection coordinate value that is a reprojection error of the camera viewpoint motion in the image coordinate system for each feature point is obtained from the restored camera viewpoint motion and the three-dimensional shape, and the reprojected coordinate value and the observed image coordinate value From the above, the optical axis translational motion reconstruction / focal length estimation means for reproducing the translational motion of the camera viewpoint in the optical axis direction and estimating the focal length of the camera means,
An error between the reprojection error and the coordinate value obtained by multiplying the observed image coordinate value by the coefficient composed of the camera viewpoint movement and the three-dimensional shape and the coefficient composed of the camera internal parameter is equal to or less than a predetermined value. If not, the image coordinate value multiplied by the coefficient composed of the camera viewpoint motion and the three-dimensional shape and the coefficient composed of the camera internal parameters is used as a new matrix. A parameter estimation apparatus comprising: an iterative processing unit that creates matrix data as elements and repeats the processing from the factorization processing unit.
前記反復処理手段では、前記再投影誤差と前記観測した画像座標値に前記カメラ視点運動および前記3次元形状から構成される係数並びにカメラ内部パラメータから構成される係数を掛けた座標値との間の誤差が規定値以下に収束しているかを判断し、収束していない場合には、前記カメラ視点運動および前記3次元形状から構成される係数並びにカメラ内部パラメータから構成される係数を掛けた画像座標値を新たな行列要素として行列データを作成して前記因子分解処理手段からの処理を反復させ、誤差が前記規定値以下に収束するまで当該反復処理を行い、
前記反復処理が終了した時に、前記推定した焦点距離およびスケールファクタ比を用いてスケールファクタ比を算出するスケールファクタ比算出手段を備える、ことを特徴とする請求項1に記載のパラメータ推定装置。 In the optical axis translational movement restoration / focal length estimation means, a reprojection coordinate value that is a reprojection error of the camera viewpoint movement in the image coordinate system for each feature point is obtained from the restored camera viewpoint movement and the three-dimensional shape, From the reprojected coordinate value and the observed image coordinate value, reproduce the translational motion in the optical axis direction of the camera viewpoint, and estimate the scale factor ratio and the focal length,
In the iterative processing means, between the reprojection error and the coordinate value obtained by multiplying the observed image coordinate value by a coefficient constituted by the camera viewpoint movement and the three-dimensional shape and a coefficient constituted by a camera internal parameter. It is determined whether the error has converged to a specified value or less, and if not converged, the image coordinates multiplied by the coefficient composed of the camera viewpoint motion and the three-dimensional shape and the coefficient composed of the camera internal parameters Create matrix data with values as new matrix elements, repeat the process from the factorization processing means, perform the iterative process until the error converges below the specified value,
The parameter estimation apparatus according to claim 1, further comprising a scale factor ratio calculating unit that calculates a scale factor ratio using the estimated focal length and the scale factor ratio when the iterative process is completed.
前記作成した行列データを特異値分解し雑音除去を行って運動情報を表す行列データと3次元情報を表す行列データとを得て、
前記運動情報の成分において、運動を規定するために設定した条件を満足する変換行列を求め、運動情報となる行列データにこの変換行列を作用させてカメラ視点運動を復元し、
前記3次元情報を表す行列データにこの変換行列の逆行列を作用させて物体形状を構成する3次元情報を復元することを特徴とする請求項1または2に記載のパラメータ推定装置。 In the factorization processing means,
Obtaining matrix data representing motion information and matrix data representing three-dimensional information by performing singular value decomposition and noise removal on the created matrix data,
In the component of the motion information, a transformation matrix that satisfies the conditions set for defining the motion is obtained, and the camera viewpoint motion is restored by applying this transformation matrix to the matrix data serving as the motion information,
The parameter estimation apparatus according to claim 1 or 2, wherein an inverse matrix of the transformation matrix is applied to matrix data representing the three-dimensional information to restore the three-dimensional information constituting the object shape.
因子分解処理手段が前記画像座標値から行列データを作成し、当該行列データから前記カメラ手段のカメラ視点運動と前記対象物の外観形状を構成する3次元形状とを復元する因子分解処理ステップと、
光軸並進運動復元・焦点距離推定手段が前記復元したカメラ視点運動と3次元形状とから各特徴点に関する画像座標系でのカメラ視点運動の再投影誤差である再投影座標値を求め、当該再投影座標値と前記観測した画像座標値とから、前記カメラ視点の光軸方向の並進運動を再現し、かつ、前記カメラ手段の焦点距離を推定する光軸並進運動復元・焦点距離推定ステップと、
反復処理手段が前記再投影誤差と、前記観測した画像座標値に前記カメラ視点運動および前記3次元形状から構成される係数並びにカメラ内部パラメータから構成される係数を掛けた座標値との間の誤差が規定値以下に収束しているかを判断し、収束していない場合には、前記カメラ視点運動および前記3次元形状から構成される係数並びにカメラ内部パラメータから構成される係数を掛けた画像座標値を新たな行列要素として行列データを作成して前記因子分解処理手段からの処理を反復させる反復処理ステップと、を備えることを特徴とするパラメータ推定方法。 A feature point observation step of observing an image coordinate value indicating a temporal change amount of a feature point of each image in an image coordinate system set in a time-series image of the object acquired by the camera means by the feature point observation unit;
Factorization processing means creates matrix data from the image coordinate value, factorization processing step to restore the camera viewpoint movement of the camera means and the three-dimensional shape constituting the appearance shape of the object from the matrix data,
The optical axis translational movement restoration / focal length estimation means obtains a reprojection coordinate value that is a reprojection error of the camera viewpoint movement in the image coordinate system for each feature point from the restored camera viewpoint movement and the three-dimensional shape. From the projected coordinate value and the observed image coordinate value, the optical axis translational motion reconstruction / focal length estimation step for reproducing the translational motion of the camera viewpoint in the optical axis direction and estimating the focal length of the camera means;
The error between the re-projection error and the coordinate value obtained by multiplying the observed image coordinate value by the coefficient composed of the camera viewpoint movement and the three-dimensional shape, and the coefficient composed of the camera internal parameter. Is not converged to a specified value, and if not converged, the image coordinate value multiplied by the coefficient composed of the camera viewpoint motion and the three-dimensional shape and the coefficient composed of the camera internal parameters A parameter estimation method comprising: an iterative processing step of creating matrix data using as a new matrix element and repeating the processing from the factorization processing means.
前記反復処理ステップでは、前記再投影誤差と前記観測した画像座標値に前記カメラ視点運動および前記3次元形状から構成される係数並びにカメラ内部パラメータから構成される係数を掛けた座標値との間の誤差が規定値以下に収束しているかを判断し、収束していない場合には、前記カメラ視点運動および前記3次元形状から構成される係数並びにカメラ内部パラメータから構成される係数を掛けた画像座標値を新たな行列要素として行列データを作成して前記因子分解処理手段からの処理を反復させ、誤差が前記規定値以下に収束するまで当該反復処理を行い、
前記反復処理が終了した時に、スケールファクタ比算出手段が前記推定した焦点距離およびスケールファクタ比を用いてスケールファクタ比を算出するスケールファクタ比算出ステップを備える、ことを特徴とする請求項4に記載のパラメータ推定方法。 In the optical axis translational movement restoration / focal length estimation step, a reprojection coordinate value that is a reprojection error of the camera viewpoint movement in the image coordinate system regarding each feature point is obtained from the restored camera viewpoint movement and the three-dimensional shape, From the reprojected coordinate value and the observed image coordinate value, reproduce the translational motion in the optical axis direction of the camera viewpoint, and estimate the scale factor ratio and the focal length,
In the iterative processing step, between the reprojection error and the observed image coordinate value multiplied by a coefficient composed of the camera viewpoint movement and the three-dimensional shape and a coefficient composed of a camera internal parameter. It is determined whether the error has converged to a specified value or less, and if not converged, the image coordinates multiplied by the coefficient composed of the camera viewpoint motion and the three-dimensional shape and the coefficient composed of the camera internal parameters Create matrix data with values as new matrix elements, repeat the process from the factorization processing means, perform the iterative process until the error converges below the specified value,
The scale factor ratio calculating unit includes a scale factor ratio calculating step of calculating a scale factor ratio using the estimated focal length and scale factor ratio when the iterative process is completed. Parameter estimation method.
前記作成した行列データを特異値分解し雑音除去を行って運動情報を表す行列データと3次元情報を表す行列データとを得て、
前記運動情報の成分において、運動を規定するために設定した条件を満足する変換行列を求め、運動情報となる行列データにこの変換行列を作用させてカメラ視点運動を復元し、
前記3次元情報を表す行列データにこの変換行列の逆行列を作用させて物体形状を構成する3次元情報を復元することを特徴とする請求項4または5に記載のパラメータ推定装置。 In the factorization processing step,
Obtaining matrix data representing motion information and matrix data representing three-dimensional information by performing singular value decomposition and noise removal on the created matrix data,
In the component of the motion information, a transformation matrix that satisfies the conditions set for defining the motion is obtained, and the camera viewpoint motion is restored by applying this transformation matrix to the matrix data serving as the motion information,
The parameter estimation apparatus according to claim 4 or 5, wherein an inverse matrix of the transformation matrix is applied to matrix data representing the three-dimensional information to restore the three-dimensional information constituting the object shape.
A parameter estimation program characterized in that the parameter estimation apparatus or the parameter estimation method according to any one of claims 1 to 6 is described in a computer program so as to be executable.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004289880A JP2006106930A (en) | 2004-10-01 | 2004-10-01 | Parameter estimation device, parameter estimation method and parameter estimation program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004289880A JP2006106930A (en) | 2004-10-01 | 2004-10-01 | Parameter estimation device, parameter estimation method and parameter estimation program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2006106930A true JP2006106930A (en) | 2006-04-20 |
Family
ID=36376628
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2004289880A Pending JP2006106930A (en) | 2004-10-01 | 2004-10-01 | Parameter estimation device, parameter estimation method and parameter estimation program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2006106930A (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010038791A (en) * | 2008-08-06 | 2010-02-18 | Osaka Univ | Super-precision shape measurement method of normal vector tracking type using autonomous calibration of optical path length |
WO2021187887A1 (en) * | 2020-03-19 | 2021-09-23 | 한양대학교 산학협력단 | Camera synchronization device and synchronization method for same |
-
2004
- 2004-10-01 JP JP2004289880A patent/JP2006106930A/en active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010038791A (en) * | 2008-08-06 | 2010-02-18 | Osaka Univ | Super-precision shape measurement method of normal vector tracking type using autonomous calibration of optical path length |
WO2021187887A1 (en) * | 2020-03-19 | 2021-09-23 | 한양대학교 산학협력단 | Camera synchronization device and synchronization method for same |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108335353B (en) | Three-dimensional reconstruction method, device and system of dynamic scene, server and medium | |
KR102227583B1 (en) | Method and apparatus for camera calibration based on deep learning | |
RU2713611C2 (en) | Three-dimensional space simulation method | |
US8754963B2 (en) | Processing images having different focus | |
JP6798183B2 (en) | Image analyzer, image analysis method and program | |
US8077906B2 (en) | Apparatus for extracting camera motion, system and method for supporting augmented reality in ocean scene using the same | |
US20170278302A1 (en) | Method and device for registering an image to a model | |
WO2019164498A1 (en) | Methods, devices and computer program products for global bundle adjustment of 3d images | |
CN113686314B (en) | Monocular water surface target segmentation and monocular distance measurement method for shipborne camera | |
JP4283816B2 (en) | Three-dimensional environment information acquisition apparatus, three-dimensional environment information acquisition method, and recording medium storing a program realizing the method | |
CN115345942A (en) | Space calibration method and device, computer equipment and storage medium | |
JP2006195790A (en) | Lens distortion estimation apparatus, lens distortion estimation method, and lens distortion estimation program | |
KR101673144B1 (en) | Stereoscopic image registration method based on a partial linear method | |
JP2007034964A (en) | Method and device for restoring movement of camera viewpoint and three-dimensional information and estimating lens distortion parameter, and program for restoring movement of camera viewpoint and three-dimensional information and estimating lens distortion parameter | |
JP2005063012A (en) | Full azimuth camera motion and method and device for restoring three-dimensional information and program and recording medium with the same recorded | |
JP4675368B2 (en) | Object position estimation apparatus, object position estimation method, object position estimation program, and recording medium recording the program | |
JP2006106930A (en) | Parameter estimation device, parameter estimation method and parameter estimation program | |
CN114187344A (en) | Map construction method, device and equipment | |
CN109377525B (en) | Three-dimensional coordinate estimation method of shooting target and shooting equipment | |
JP2006106929A (en) | Parameter estimation device, parameter estimation method and parameter estimation program | |
JP2006172026A (en) | Camera motion, and device and method for restoring three-dimensional information, and program | |
JP2006195789A (en) | Lens distortion estimation apparatus, lens distortion estimation method, and lens distortion estimation program | |
CN112956182A (en) | Camera control method, apparatus, and computer-readable storage medium | |
JP2005063013A (en) | Method and device for restoring view point motions of full azimuth camera and three-dimensional information, and program and recording medium with the same recorded | |
JP2004252714A (en) | Method, device and program for obtaining space information, and recording medium for recording the program |