JP2005078554A - Restoration method and device for fish-eye camera motion and three-dimensional information, and recording medium with program for implementing it recorded - Google Patents

Restoration method and device for fish-eye camera motion and three-dimensional information, and recording medium with program for implementing it recorded Download PDF

Info

Publication number
JP2005078554A
JP2005078554A JP2003311013A JP2003311013A JP2005078554A JP 2005078554 A JP2005078554 A JP 2005078554A JP 2003311013 A JP2003311013 A JP 2003311013A JP 2003311013 A JP2003311013 A JP 2003311013A JP 2005078554 A JP2005078554 A JP 2005078554A
Authority
JP
Japan
Prior art keywords
motion
matrix
dimensional information
value
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2003311013A
Other languages
Japanese (ja)
Inventor
Isao Miyagawa
勲 宮川
Yuji Ishikawa
裕治 石川
Yoshiori Wakabayashi
佳織 若林
Kenichi Arakawa
賢一 荒川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2003311013A priority Critical patent/JP2005078554A/en
Publication of JP2005078554A publication Critical patent/JP2005078554A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To simultaneously restore motion related to a camera view point and three-dimensional information of the outside world in a manner robust against noise; and to reduce a calculation cost. <P>SOLUTION: This restoration device comprises: a time-series database 1 with omnidirectional images stored; a characteristic point measurement part 2 for measuring a coordinate value of a characteristic point in each image; a measurement matrix conversion part 3 for converting the image coordinate value obtained by the measurement part to a uv image; a measurement matrix input part 4 for providing, as an initial value, a matrix including a uv coordinate value as a matrix element; and a factorization method processing part 5 for restoring motion of a camera and three-dimensional information of the outside world by a factorization method from the input data. The processing part 5 comprises: a three-dimensional information restoration part 5A by means of planar motion; a Z-axis motion restoration part 5B; and a rotary motion restoration part 5C. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

本発明は、魚眼レンズを装着したカメラ(魚眼カメラ)を使って取得した車載画像または室内画像、船上からの海上画像、空撮などの時系列画像全般、さらに、魚眼カメラまたは魚眼レンズを装着したカメラを用いて手動撮影して取得した時系列画像から、魚眼カメラの視点に関するロール、ピッチ、ヨー回転から構成される三軸(XYZ)周りの回転運動、三軸(XYZ)方向の並進運動、並びに、時系列画像に写っている外界の3次元形状、すなわち、被写体(物体)の外観形状を構成する3次元情報を復元する方法および装置に関する。   The present invention is a vehicle-mounted image or indoor image acquired using a camera equipped with a fisheye lens (fisheye camera), a marine image from a ship, general time-series images such as aerial photography, and a fisheye camera or a fisheye lens. From the time-series images acquired by manual shooting with the camera, the rotational movement around the three axes (XYZ) composed of the roll, pitch, and yaw rotation related to the viewpoint of the fisheye camera, the translational movement in the three axes (XYZ) direction In addition, the present invention relates to a method and apparatus for restoring the three-dimensional shape of the external world reflected in a time-series image, that is, the three-dimensional information constituting the appearance shape of a subject (object).

コンピュータビジョン分野では、時系列画像データから、対象物の形状を計測または獲得する手法には、ステレオ計測やエピポーラ面解析を用いた3次元解析手法がある。この手法によれば、物体が撮影されている複数の時系列画像から、空間形状または空間構造に関する3次元位置情報、並びに、カメラ視点に関する運動を復元することができる。しかし、移動手段などを利用して撮影カメラを動かしながら撮影した時系列映像においては、撮影時の環境、撮影カメラの微小な動きによりシームレスに映像取得が困難であり、時系列映像中にランダム性の雑音が混入し、カメラ運動や物体形状を正確に復元することが困難な場合がある。   In the computer vision field, methods for measuring or acquiring the shape of an object from time-series image data include three-dimensional analysis methods using stereo measurement and epipolar plane analysis. According to this method, it is possible to restore the three-dimensional position information related to the spatial shape or the spatial structure and the motion related to the camera viewpoint from a plurality of time-series images in which the object is photographed. However, it is difficult to seamlessly acquire images in time-series images taken while moving the camera using moving means, etc., due to the shooting environment and the minute movement of the camera. In some cases, it is difficult to accurately restore camera motion and object shape.

このような問題に対して、画像面を平面とした直交座標系で表現できる画像座標値から、ユークリッド空間でのカメラ運動と物体形状を同時に、かつ、ロバストに復元する手法がある。例えば、取得する画像において特徴点をつけ、この特徴点を時系列に追跡して得た画像座標値から、カメラ運動と3次元情報を復元する手法がある(例えば、非特許文献1、2参照)。   In order to solve such a problem, there is a method of simultaneously and robustly restoring the camera motion and the object shape in the Euclidean space from image coordinate values that can be expressed by an orthogonal coordinate system with the image plane as a plane. For example, there is a method of restoring camera motion and three-dimensional information from image coordinate values obtained by attaching feature points to an acquired image and tracking the feature points in time series (for example, see Non-Patent Documents 1 and 2). ).

これら文献(以下、文献[1]、[2]と呼ぶ)の方法では、式(A1)に示すように、画像上において取得した時系列のxy画像座標値(式(A1)左辺)から、カメラ運動に関する行列(右辺の左側の行列、時系列に変換する行列要素)と3次元情報(X,Y,Z)に関する行列(右辺の右側の行列、時系列に不変的な行列要素)に分解する手法であり、この分解には特異値分解なる数学的手法が使われている。式(A1)左辺は、文献[1]、[2]では、計測行列と呼ばれており、行方向は特徴点の数を、列方向にフレーム数を表す。(xij,yij)は第iフレームの第j番目の特徴点の画像座標値となっている。 In the methods of these documents (hereinafter referred to as documents [1] and [2]), as shown in equation (A1), from time-series xy image coordinate values (left side of equation (A1)) acquired on the image, Decomposed into a matrix related to camera motion (matrix on the left side of the right side, matrix element to be converted to time series) and a matrix related to three-dimensional information (X, Y, Z) (right side matrix on the right side, matrix element invariant to time series) A mathematical method called singular value decomposition is used for this decomposition. The left side of the formula (A1) is called a measurement matrix in documents [1] and [2], the row direction represents the number of feature points, and the column direction represents the number of frames. (X ij , y ij ) is the image coordinate value of the j-th feature point in the i-th frame.

Figure 2005078554
Figure 2005078554

上記の文献[1]、[2]による方法では、式(A1)左辺は画像から得られる2次元情報(あらかじめ各フレームの重心座標値を引いた2次元座標値としている)だけになっており、式(A1)右辺の行列により行列演算する(線形演算する)ことで左辺の画像座標値が得られるという投影モデルに基づいている。   In the method according to the above documents [1] and [2], the left side of the formula (A1) is only two-dimensional information obtained from the image (a two-dimensional coordinate value obtained by subtracting the barycentric coordinate value of each frame in advance). Formula (A1) is based on a projection model in which a matrix calculation (linear calculation) is performed using a matrix on the right side to obtain an image coordinate value on the left side.

上記の方法には欠点もある。つまり、式(A1)のように左辺で得られる画像座標値が右辺で表されるという形式、すなわち、投影モデルとはならない場合は、文献[1]、[2]を応用してカメラ運動と3次元情報を同時に復元することは難しい。さらに、有限画角のカメラを使用する場合、カメラの微小な回転運動を復元することが困難であり、文献[1]、[2]を応用しても並進と回転運動の判別が暖味となり、魚眼カメラの正確なカメラ運動と正確な3次元情報の復元ができない場合もある。   The above method also has drawbacks. In other words, when the image coordinate value obtained on the left side is represented by the right side as in the formula (A1), that is, if it is not a projection model, the camera motion can be applied by applying the literatures [1] and [2]. It is difficult to restore 3D information at the same time. Furthermore, when a camera with a finite field angle is used, it is difficult to restore the minute rotational motion of the camera, and the translation and rotational motion discrimination becomes warm even when the literatures [1] and [2] are applied. In some cases, accurate camera movement of the fisheye camera and accurate three-dimensional information cannot be restored.

一方、有限画角の問題を回避するため、一度に360度の景観を取得する手段として、全方位カメラによる撮像が考えられる。全方位カメラは、そのカメラ光軸を鉛直上向きに設置して利用することが多く、全方位カメラ視点の姿勢推定や外界に関する空間計測には適する。また、全方位カメラの利用により、その微小な回転運動の復元も可能であり、並進運動と回転運動を双方とも正確に復元する点で優れている(例えば、非特許文献3、特許文献4を参照)。   On the other hand, in order to avoid the problem of a finite field angle, imaging with an omnidirectional camera is conceivable as a means for acquiring a landscape of 360 degrees at a time. An omnidirectional camera is often used with its camera optical axis set vertically upward, and is suitable for posture estimation of an omnidirectional camera viewpoint and spatial measurement related to the outside world. Further, by using an omnidirectional camera, it is possible to restore the minute rotational motion, which is excellent in that both the translational motion and the rotational motion are accurately restored (for example, Non-Patent Document 3 and Patent Document 4). reference).

全方位カメラにはミラーを双曲面に変形した反射光学系、または、錘体状に設計した反射光学系を利用したカメラが多い。これに対して、魚眼カメラは魚眼レンズ単体で全方位の画像を取得することができ、光学投影の関係も線形的であるという特長がある。このため、上記の非特許文献3、特許文献4(以下、文献[3]、[4]と呼ぶ)による復元方法ではカメラ運動と3次元情報の復元において、魚眼カメラの利用は計算コストを低減させる点で優れている。
C.Tomasi&T.Kanade;“Shapeand Motion from Image Streams Under Orthography:A Factorization Method"、International Journal of Computer Vision,Vol.9,No.2.1992 C.J.Poelman & T.Kanade;“A Paraperspective Factorization Method for Shape and Motion Recovery"、IEEE Trans.Pattern Anal.& Mach.Intell,Vol.19,No.3,pp.206-218.1997 宮川、若林、有川;“全方位投影型因子分解法による全方位画像からの運動と形状復元”、パターン認識・メディア理解(PRMU)研究会、June,2002 宮川、小澤、若林、有川:“全方位カメラ視点運動並びに物体形状復元方法、装置、全方位カメラ視点運動並びに物体形状復元方法プログラム、及び、該プログラムを記録した記録媒体”、特願2002-71623
Many omnidirectional cameras use a reflection optical system in which a mirror is deformed into a hyperboloid, or a reflection optical system designed in the shape of a spindle. On the other hand, the fish-eye camera has a feature that the fish-eye lens can acquire an omnidirectional image and the optical projection relationship is linear. For this reason, in the restoration method according to Non-Patent Document 3 and Patent Document 4 (hereinafter referred to as documents [3] and [4]), the use of a fisheye camera reduces the computational cost in restoring the camera motion and three-dimensional information. Excellent in terms of reduction.
C. Tomasi & T. Kanade; “Shapeand Motion from Image Streams Under Orthography: A Factorization Method”, International Journal of Computer Vision, Vol. 9, No. 2.1992 CJPoelman & T. Kanade; “A Paraperspective Factorization Method for Shape and Motion Recovery”, IEEE Trans.Pattern Anal. & Mach.Intell, Vol.19, No.3, pp.206-218.1997 Miyakawa, Wakabayashi, Arikawa; “Motion and shape restoration from omnidirectional images by omnidirectional projection factorization”, Pattern Recognition and Media Understanding (PRMU) Study Group, June, 2002 Miyagawa, Ozawa, Wakabayashi, Arikawa: “Omnidirectional camera viewpoint movement and object shape restoration method and apparatus, omnidirectional camera viewpoint movement and object shape restoration method program, and recording medium on which the program is recorded”, Japanese Patent Application 2002-71623

移動手段を使って、全方位カメラのような一度に360度の景観を映像化する撮影環境で取得した時系列画像において、ステレオ視の原理を応用した計測方法により、外界の物体の空間情報を獲得、復元できる。しかし、様々な撮影環境の中での移動撮影においては、カメラが微小に動くため、容易にシームレスな時系列画像を取得できず、ランダム性雑音の影響も大きく、常に、安定的に、カメラの動きと物体の形状を、同時に、かつ、高精度に復元することは困難である。   In a time-series image acquired in a shooting environment that visualizes a 360-degree landscape at a time, such as an omnidirectional camera, using moving means, the spatial information of objects in the outside world can be obtained by a measurement method that applies the principle of stereo vision. Can be acquired and restored. However, in moving shooting in various shooting environments, the camera moves minutely, so seamless time-series images cannot be acquired easily, and the influence of random noise is large. It is difficult to restore the movement and the shape of the object at the same time and with high accuracy.

例えば、全方位カメラ(魚眼カメラ)で取得した時系列画像において、文献[3][4]の手法を適用した場合、図10に示すように、カメラの光軸回転(ヨー回転)以外にロール回転、ピッチ回転、さらには、Z軸方向の並進運動が加わることで、正確な運動と3次元形状の復元は困難となる。   For example, in the case of applying the technique of [3] and [4] to a time-series image acquired by an omnidirectional camera (fisheye camera), as shown in FIG. 10, other than the optical axis rotation (yaw rotation) of the camera. By adding roll rotation, pitch rotation, and translational motion in the Z-axis direction, accurate motion and three-dimensional shape recovery become difficult.

つまり、図10に示すように、カメラは光軸を鉛直上向きに設置した姿勢で用いることが多く、このため、ヨー回転とXY並進運動からなる自由度3の平面運動を復元することに主眼が置かれていた。   In other words, as shown in FIG. 10, the camera is often used in a posture in which the optical axis is set vertically upward. Therefore, the main purpose is to restore the planar motion with 3 degrees of freedom composed of yaw rotation and XY translational motion. It was placed.

しかし、実環境においては、このような平面運動以外に、ロール回転、ピッチ回転、Z軸並進運動を含む場合、カメラによる簡便な計算が使えず、カメラ運動と3次元形状を復元するための計算が複雑になり、上記のような全方位カメラに関する微小なカメラ姿勢変化を雑音と混在してしまい、正確に、かつ、ロバストに復元できない。これを魚眼カメラの投影モデルを例にして説明する。   However, in a real environment, when roll rotation, pitch rotation, and Z-axis translational motion are included in addition to such planar motion, simple calculation by the camera cannot be used, and calculation for restoring the camera motion and the three-dimensional shape. Becomes complicated, and minute camera posture changes related to the omnidirectional camera as described above are mixed with noise, and cannot be accurately and robustly restored. This will be described using a projection model of a fisheye camera as an example.

魚眼レンズを装着したカメラを使って外界を撮像し、その得られた画像系列からカメラ視点の運動と3次元情報を復元しようとするとき、魚眼カメラの視点に関する運動と対象物の3次元座標値は、図10の状況において、式(A2)で関係付けられる。   When taking a picture of the outside world using a camera equipped with a fisheye lens and trying to restore the camera viewpoint movement and 3D information from the obtained image sequence, the fisheye camera movement and 3D coordinate values of the object Are related by equation (A2) in the situation of FIG.

Figure 2005078554
Figure 2005078554

式(A2)の(x'ij,y'ij,z'ij)は視点を原点とした単位球面座標値である。魚眼カメラの画像上へ投影されて得られる対象物(特徴点)の画像座標値として、式(B1)に示す(xij,yij)が観測できる。fは魚眼レンズの焦点距離であり、DはD=πf/2Rで決まる定数(Rはイメージサークルの半径)、(Cx,Cy)は投影中心Cの画像座標値である。 (X ′ ij , y ′ ij , z ′ ij ) in Expression (A2) is a unit spherical coordinate value with the viewpoint as the origin. (X ij , y ij ) shown in Expression (B1) can be observed as the image coordinate values of the object (feature point) obtained by being projected onto the image of the fisheye camera. f is the focal length of the fisheye lens, D is a constant determined by D = πf / 2R (R is the radius of the image circle), and (Cx, Cy) is the image coordinate value of the projection center C.

式(A2)の左辺には、画像座標値から直接得られないλijがあるが、時系列に依存する成分(サフィックスがiのもの)と時系列に依存しない成分(サフィックスがjのもの)に分離できないため、左辺においてある。右辺は4つの行列からなっているが、3つの回転行列を展開して1つの行列にして、式(A1)右辺のカメラ運動に対応する行列とすることもできるが、式(A2)そのものから分かるように、式(A1)のように左辺だけに画像座標値から得た情報、右辺にはカメラ運動に対応する情報(サフィックスがiのもの)と3次元情報に対応する情報(サフィックスがjのもの)から、式(A1)に示すような線形行列計算を行い、左辺の画像座標値を構成することは、投影モデルが複雑すぎて容易ではない。言い換えれば、式(A2)に前記の文献[1]、[2]、[3]、[4]を応用してカメラ運動と3次元情報を復元することはできない。 On the left side of the formula (A2), there is λ ij that cannot be obtained directly from the image coordinate values, but a component that depends on the time series (suffix is i) and a component that does not depend on the time series (suffix is j) Since it cannot be separated, it is on the left side. Although the right side is composed of four matrices, the three rotation matrices can be expanded into one matrix, which can be a matrix corresponding to the camera movement on the right side of Equation (A1), but from Equation (A2) itself As can be seen, the information obtained from the image coordinate values only on the left side as in equation (A1), the information on the right side corresponding to camera motion (suffix i), and the information corresponding to three-dimensional information (suffix j It is not easy to perform the linear matrix calculation as shown in the equation (A1) to construct the image coordinate value on the left side because the projection model is too complex. In other words, it is impossible to restore the camera motion and the three-dimensional information by applying the above-mentioned documents [1], [2], [3], and [4] to the formula (A2).

さらに、これまでの監視カメラや画像計測などのアプリケーションでは、全方位カメラの利用形態が限られていた。通常、全方位カメラ(魚眼カメラ)は、図10のように光軸を鉛直上向きの姿勢で使われることが多い。この図では、光軸とほぼ平行となる線分として、屋外では建物の高さ方向の垂直線分(室内では床から天井までの垂直線分)を画像中から抽出する(図11参照)。この線分は、ロール回転、ピッチ回転がある程度の角度範囲の限定の下で、ある1点(交点A)で交わるという性質を利用して、ロール回転・ピッチ回転に比例した座標値(Dx,Dy)を得ることができる。   Furthermore, the application form of an omnidirectional camera has been limited in conventional applications such as monitoring cameras and image measurement. In general, an omnidirectional camera (fisheye camera) is often used in a posture in which the optical axis is vertically upward as shown in FIG. In this figure, as a line segment that is substantially parallel to the optical axis, a vertical line segment in the height direction of the building outdoors (a vertical line segment from the floor to the ceiling in the room) is extracted from the image (see FIG. 11). This line segment has a coordinate value (Dx, Rx) proportional to roll rotation / pitch rotation by utilizing the property that roll rotation and pitch rotation intersect at a certain point (intersection point A) with a certain degree of angular range limitation. Dy) can be obtained.

しかし、屋外において魚眼カメラを使う場合、図12に示すように、街路樹などの遮蔽物が映り込む場合がある。この図では、交点を求めるための線分を全画像において検出することは難しく、また、線分抽出において雑音が付加されると、交点の検出にも影響する。例えば、屋外では街路樹や信号機などがカメラの視点を遮るため、求める交点に寄与する直線だけを自動的に抽出することは難しい。特に市街地での撮影では、このような遮蔽物を無視することはできない。   However, when a fish-eye camera is used outdoors, as shown in FIG. In this figure, it is difficult to detect the line segment for obtaining the intersection point in the entire image, and if noise is added in the line segment extraction, the detection of the intersection point is also affected. For example, since roadside trees, traffic lights, etc. block the camera's viewpoint outdoors, it is difficult to automatically extract only the straight line that contributes to the desired intersection. In particular, when shooting in urban areas, such a shield cannot be ignored.

このように、本発明が解決しようとする課題は、式(A2)に示す投影モデルにおいて文献[3]、[4]を利用して、カメラ運動と3次元情報を同時に、かつ、ロバストに復元することと、図11のようにロール回転とピッチ回転を反映した交点Aを直線検出などの画像処理手法で求めず、画像中に設定した特徴点(遮蔽物についた特徴点も含む)の時間的動きだけから、ロール回転、ピッチ回転を求めるとともに、カメラ視点に関する運動と外界の3次元情報を同時に、かつ、雑音にロバストに復元することである。   As described above, the problem to be solved by the present invention is to restore the camera motion and the three-dimensional information at the same time and robustly using the documents [3] and [4] in the projection model shown in the formula (A2). 11 and the intersection point A reflecting the roll rotation and the pitch rotation as shown in FIG. 11 is not obtained by an image processing method such as straight line detection, and the time of the feature points set in the image (including the feature points on the shield) It is to obtain a roll rotation and a pitch rotation from only the target movement, and to simultaneously restore the motion related to the camera viewpoint and the three-dimensional information of the outside world and robust to noise.

また、計算アルゴリズムの点からも、時系列画像から運動と3次元情報を復元するには計算コストが高いという問題を本発明は解決することにある。   Also, from the viewpoint of calculation algorithm, the present invention is to solve the problem of high calculation cost for restoring motion and three-dimensional information from a time-series image.

本発明は、文献[1]、[2]、[3]、[4]を応用することを前提に、式(A2)においてカメラ運動に対して制限をつけ、その条件付きのカメラ運動で撮像した投影モデルを前提とする。すなわち、魚眼レンズを装着したカメラにおいて、式(A2)においてi=1,2,…,F;j=1,2,…,Pに行列展開した投影モデルにおいて、ロール回転、ピッチ回転が微小なとき、すなわち、cosψ≒1、sinψ≒ψ、cosω≒1、sinω≒ωとして、式(A3)に変形すると、   In the present invention, on the premise that the documents [1], [2], [3], and [4] are applied, the camera motion is limited in the equation (A2), and imaging is performed with the conditional camera motion. The projected model is assumed. That is, in a camera equipped with a fisheye lens, when roll rotation and pitch rotation are very small in a projection model in which matrix expansion is performed in formula (A2) with i = 1, 2,... That is, when cos ψ≈1, sin ψ≈ψ, cos ω≈1, sin ω≈ω,

Figure 2005078554
Figure 2005078554

となる。式(A3)での(uij,vij)は本発明で定義しているuv座標値であり、uij=xij/zij、vij=yij/zijである。この投影モデルでは、式(A3)右辺を見るとわかるように、右辺左側の行列は時系列に依存する情報(カメラの運動に関する情報)であり、右辺右側の行列は時系列に依存しない不変な情報(外界の3次元情報)となっている。つまり、式(A3)左辺は画像から得られる情報以外に、カメラ運動と3次元情報に関する情報がかかわっており、上記のカメラ運動を制限した場合においても、投影モデルは煩雑すぎて文献[1]、[2]、[3]、[4]を安易に応用し、カメラ運動と3次元情報を同時に復元することはできない。 It becomes. (U ij , v ij ) in the equation (A3) are uv coordinate values defined in the present invention, and u ij = x ij / z ij and v ij = y ij / z ij . In this projection model, as can be seen from the right side of Expression (A3), the matrix on the left side of the right side is information that depends on the time series (information on camera motion), and the matrix on the right side of the right side is invariant that does not depend on the time series. It is information (three-dimensional information of the outside world). That is, the left side of equation (A3) is related to information about camera motion and three-dimensional information in addition to the information obtained from the image. Even when the above camera motion is limited, the projection model is too complicated and the document [1]. , [2], [3], [4] cannot be easily applied to restore camera motion and three-dimensional information at the same time.

本発明では、式(A3)の投影モデルに基づき、ロール回転ωi、ピッチ回転ψi、ヨー回転θi、XYZ並進運動(Txi,Tyi,Tzi);i=1,2,…,F(本発明が復元するカメラパラメータであり、単にカメラ運動と称する場合もある)、並びに外界の3次元情報(Xj,Yj,Zj);j=1,2,…,P(以下、3次元情報とは、P個の特徴点に関する3次元座標値を指す)を復元するための復元処理方式とするものである。ただし、文献[1]、[2]、[3]、[4]を強制的に、式(A3)の投影モデルに応用しない。 In the present invention, roll rotation ω i , pitch rotation ψ i , yaw rotation θ i , XYZ translational motion (Tx i , Ty i , Tz i ); i = 1, 2,. , F (camera parameters restored by the present invention, which may be simply referred to as camera motion), and external three-dimensional information (X j , Y j , Z j ); j = 1, 2,. Hereinafter, the three-dimensional information is a restoration processing method for restoring (three-dimensional coordinate values related to P feature points). However, the documents [1], [2], [3], and [4] are not forcibly applied to the projection model of Expression (A3).

本発明では、式(A3)を解くために、段階的な復元を繰り返し行うことで、近似的に、式(A3)の投影モデルに基づいたカメラ運動と3次元情報を復元する。ここで、式(A3)の投影モデルでは簡単にカメラ運動と3次元情報を復元することは困難なので、式(A3)において初期化を行い、簡略化したモデルを使ってカメラ運動と3次元情報を復元する。まず、ロール回転、ピッチ回転を無視して、εij=0,i=1,2,…,F、j=1,2,…,P、並びに(ζii)=(0,0),i=1,2,…,Fとする。すると、 In the present invention, in order to solve the equation (A3), the stepwise restoration is repeatedly performed to approximately restore the camera motion and the three-dimensional information based on the projection model of the equation (A3). Here, since it is difficult to easily restore camera motion and three-dimensional information with the projection model of equation (A3), initialization is performed in equation (A3), and camera motion and three-dimensional information are used using the simplified model. To restore. First, ignoring roll rotation and pitch rotation, ε ij = 0, i = 1, 2,..., F, j = 1, 2,..., P, and (ζ i , η i ) = (0, 0 ), I = 1, 2,... Then

Figure 2005078554
Figure 2005078554

と簡略化できる。ところが、式(A4)左辺にはTzi;i=1,2,…,FというZ軸並進運動の成分とZj;j=1,2,…,Pという3次元情報の高さ情報が含まれている。したがって、uv座標値からなる計測行列だけから式(A4)右辺のようにカメラ運動と3次元情報に相当する情報を得ることができない。 And can be simplified. However, in the left side of the formula (A4), there are Z-axis translational components Tz i ; i = 1, 2,..., F and three-dimensional information height information Z j ; include. Accordingly, information corresponding to camera motion and three-dimensional information cannot be obtained from only the measurement matrix composed of the uv coordinate values as in the right side of Expression (A4).

本発明の平面運動・3次元情報復元手法では、式(A4)において、まず、Z軸並進運動が無いと見なした投影モデルを使って運動と3次元情報を復元する処理をする。つまり、文献[3]、[4]を応用するため、投影モデルを、   In the planar motion / three-dimensional information restoration method of the present invention, in Expression (A4), first, a process of restoring motion and three-dimensional information is performed using a projection model that is regarded as having no Z-axis translational motion. In other words, in order to apply documents [3] and [4], the projection model is

Figure 2005078554
Figure 2005078554

とする。式(A5)は後に示す式(5b)において後に示す式(6)の初期化を行うと、平面運動と3次元情報を復元するために処理する行列分解データとなる。この行列データ(計測行列)は計測行列測定ステップにて得られるものである。式(A5)の左辺のuv座標値(画像から求められる情報)からなる計測行列から、式(A5)の投影モデルに基づき、式(A5)右辺を文献[3]、[4]を応用して、カメラ運動(式(A5)右辺の左側の行列は各フレームにおけるヨー回転、すなわち,図10のZ軸(光軸)周りの回転θと,図10でのXY並進運動(Tx,Ty)の成分を含んでおり、この自由度3の運動を平面運動と称する)と3次元情報を復元することができる。 And Expression (A5) becomes matrix decomposition data to be processed to restore plane motion and three-dimensional information when initialization of Expression (6) described later is performed in Expression (5b) described later. This matrix data (measurement matrix) is obtained in the measurement matrix measurement step. From the measurement matrix consisting of the uv coordinate value (information obtained from the image) on the left side of equation (A5), based on the projection model of equation (A5), the right side of equation (A5) is applied to documents [3] and [4]. The matrix on the left side of the camera motion (formula (A5)) is the yaw rotation in each frame, that is, the rotation θ around the Z axis (optical axis) in FIG. 10, and the XY translational motion (Tx, Ty) in FIG. This motion with 3 degrees of freedom is referred to as plane motion), and three-dimensional information can be restored.

式(A5)は、文献[3]、[4]が利用している投影モデルであり、この場合、カメラは平面運動をすることを前提としている。つまり、ある面に対してカメラがロール回転、ピッチ回転、Z軸並進の運動をしないことを前提とした投影モデルである。   Expression (A5) is a projection model used in documents [3] and [4]. In this case, it is assumed that the camera performs a planar motion. That is, the projection model is based on the assumption that the camera does not perform roll rotation, pitch rotation, or Z-axis translation with respect to a certain surface.

本発明は、文献[3]、[4]を利用して、平面運動と3次元情報を復元し、式(A5)と式(A4)の間の誤差からZ軸並進運動を復元し、さらに、これまでに復元したカメラ運動、3次元情報と、式(A3)の投影モデルとの誤差からロール回転、ピッチ回転を復元する。このような処理を繰り返す中で,線形演算主体の文献[3]、[4]を利用して、式(A3)の投影モデルに従って魚眼カメラのカメラ運動(図10のロール回転、ピッチ回転、ヨー回転,XYZ並進運動)と外界の3次元情報(XYZ)を同時に、かつ、ロバストに復元する。   The present invention uses the documents [3] and [4] to restore the plane motion and the three-dimensional information, restore the Z-axis translational motion from the error between the equations (A5) and (A4), The roll rotation and the pitch rotation are restored from the error between the camera motion and the three-dimensional information restored so far and the projection model of the formula (A3). In repeating such processing, the camera motion of the fisheye camera (roll rotation, pitch rotation, FIG. 10) according to the projection model of the formula (A3) using the documents [3] and [4] mainly based on linear operations. Yaw rotation, XYZ translation) and the external three-dimensional information (XYZ) are restored simultaneously and robustly.

以上のことから、本発明は以下の方法、装置、および記録媒体を特徴とする。   As described above, the present invention is characterized by the following method, apparatus, and recording medium.

(方法の発明)
(1)魚眼カメラなどの画像入力装置で取得した時系列の全方位画像または広視野画像中において、対象とする画像に配置した特徴点に関する画像座標値の時間的変化量から、時系列におけるカメラ視点の運動、並びに、外界の物体形状を構成する3次元情報を復元する方法であって、
外界の3次元座標値を、視点を中心とした球面に投影した座標値において、カメラの進行方向の直交方向成分を高さ方向成分で割った値、及びカメラの進行方向成分を高さ方向成分で割った値を、それぞれをu座標及びv座標とし、時系列の全方位画像または広視野画像に設定した特徴点座標系において、各画像における特徴点の画像座標値を得て、各画像座標値から算出される位相角と仰角により、その特徴点のuv座標値を求める計測行列測定ステップと、
前記計測行列測定ステップで得た全uv座標値を用いて、復元処理するための行列分解データを生成し、この行列分解データを特異値分解し、雑音除去を行って運動情報を表す行列データと3次元情報を表す行列データを得て、その運動情報において、運動を規定するために設定した条件を満足する変換行列を求め、運動情報を表す行列データにこの変換行列を作用させてカメラ視点に関する光軸になるZ軸周りの回転運動と二軸のXY軸方向の並進運動を復元し、並びに、3次元情報を表す行列データにこの変換行列の逆行列を作用させて物体形状を構成する3次元情報を復元する平面運動・3次元情報復元ステップと、
前記平面運動・3次元情報復元ステップで得た平面運動と3次元情報から各特徴点に関するuv座標系での再投影座標値を求め、この再投影座標値と前記計測行列測定ステップで得た各特徴点のuv座標値との間の誤差と、前記平面運動・3次元情報復元ステップで得た各特徴点のZ座標値を使って、カメラ視点のZ軸方向の並進運動を復元するZ軸運動復元ステップと、
前記行列分解データの中から、光軸以外の他の軸周りの回転運動に寄与する成分を取り出し、それらの成分と前記平面運動・3次元情報復元ステップとZ軸運動復元ステップで復元した運動、並びに3次元情報を使って、光軸以外の他軸周りの回転運動を復元する回転運動復元ステップと、
前記Z軸運動復元ステップで求めた誤差がある一定値以下に収束しているかどうかを判断し、もし、収束していないならば、平面運動と3次元情報の復元ステップで得たカメラ視点のXY並進成分と3次元情報、並びに、光軸以外のXY軸周りの回転角を使って、uv座標値を変形させる係数εを求め、前記平面運動と3次元情報の復元ステップで得た各特徴点の高さ情報と前記Z軸並進運動復元ステップで得た各視点のZ軸上の位置を使って、uv座標値をスケール変換する係数δを求め、係数εを前記計測行列測定ステップで得た計測行列の各行列要素にそれぞれ掛け合わせて得た値と、前記計測行列測定ステップで得た計測行列の各行列要素から交点座標値を差し引いた各座標値に係数δをそれぞれ掛け合わせて得た値を合わせた新たな行列要素とする行列分解データを生成し、前記情報復元ステップに戻り、誤差が一定値以下に収束するまで反復して、カメラ運動と3次元情報を復元することを特徴とする。
(Invention of method)
(1) In a time-series omnidirectional image or a wide-field image acquired by an image input device such as a fish-eye camera, a temporal change amount of an image coordinate value related to a feature point arranged in a target image. A method for restoring the three-dimensional information constituting the movement of the camera viewpoint and the object shape of the outside world,
The value obtained by dividing the orthogonal direction component of the moving direction of the camera by the height direction component in the coordinate value obtained by projecting the three-dimensional coordinate value of the outside world onto the spherical surface with the viewpoint as the center, and the moving direction component of the camera as the height direction component In the feature point coordinate system set as a time-series omnidirectional image or wide-field image, with the values divided by u as the u coordinate and v coordinate, the image coordinate values of the feature points in each image are obtained, and the image coordinates A measurement matrix measurement step for obtaining a uv coordinate value of the feature point from the phase angle and the elevation angle calculated from the values;
Using all the uv coordinate values obtained in the measurement matrix measurement step, matrix decomposition data for restoration processing is generated, the matrix decomposition data is subjected to singular value decomposition, noise is removed, and matrix data representing motion information is obtained. Matrix data representing three-dimensional information is obtained, and in the motion information, a transformation matrix that satisfies the conditions set for defining the motion is obtained, and this transformation matrix is applied to the matrix data representing the motion information to relate to the camera viewpoint. The rotational motion around the Z-axis that becomes the optical axis and the translational motion in the XY-axis directions of the two axes are restored, and the inverse matrix of this transformation matrix is applied to matrix data representing three-dimensional information to form the object shape 3 Planar motion / three-dimensional information restoration step for restoring dimensional information;
The reprojection coordinate value in the uv coordinate system for each feature point is obtained from the plane motion and the three-dimensional information obtained in the plane motion / three-dimensional information restoration step, and each reprojection coordinate value and each of the measurement matrix measurement steps obtained in the measurement matrix measurement step are obtained. The Z axis that restores the translational motion of the camera viewpoint in the Z axis direction using the error between the uv coordinate value of the feature point and the Z coordinate value of each feature point obtained in the plane motion / three-dimensional information restoration step A motion recovery step;
From the matrix decomposition data, components that contribute to rotational motion around axes other than the optical axis are extracted, and those components and motion restored in the plane motion / three-dimensional information restoration step and Z-axis motion restoration step, In addition, using the three-dimensional information, a rotational motion restoring step for restoring rotational motion around another axis other than the optical axis;
It is determined whether or not the error obtained in the Z-axis motion restoration step has converged to a certain value or less. If not, the camera viewpoint XY obtained in the planar motion and three-dimensional information restoration step is determined. Using the translation component, the three-dimensional information, and the rotation angle around the XY axis other than the optical axis, a coefficient ε for deforming the uv coordinate value is obtained, and each feature point obtained in the plane motion and the three-dimensional information restoration step The coefficient δ for scaling the uv coordinate value is obtained using the height information of the image and the position on the Z axis of each viewpoint obtained in the Z axis translational motion restoration step, and the coefficient ε is obtained in the measurement matrix measurement step. Obtained by multiplying the coefficient δ by the value obtained by multiplying each matrix element of the measurement matrix and each coordinate value obtained by subtracting the intersection coordinate value from each matrix element of the measurement matrix obtained in the measurement matrix measurement step. New value combined Generates matrix decomposition data to column element, returns to the information restoration step, iteratively until the error converges below a predetermined value, characterized in that to restore the camera motion and three-dimensional information.

(2)魚眼カメラなどの画像入力装置で取得した時系列の全方位画像または広視野画像中において、対象とする画像に配置した特徴点に関する画像座標値の時間的変化量から、時系列におけるカメラ視点の運動、並びに、外界の物体形状を構成する3次元情報を復元する方法であって、
画像入力装置が取得した全方位画像または広視野画像に対して、各画像座標値から得られる位相角と仰角により、各画像座標値をuv座標値に変換して各画素値をそのuv座標値に対応付けるように時系列uv画像を生成し、このuv画像に設定した特徴点座標系において各画像における特徴点のuv座標値を測定するuv計測行列測定ステップと、
前記uv計測行列測定ステップで得た各uv座標値に対して、復元処理するための行列分解データを生成し、この行列分解データを特異値分解し、雑音除去を行って運動情報を表す行列データと3次元情報を表す行列データを得て、その運動情報において、運動を規定するために設定した条件を満足する変換行列を求め、運動情報を表す行列データにこの変換行列を作用させてカメラ視点に関する光軸となるZ軸周りの回転運動と二軸のXY軸方向の並進運動、並びに、3次元情報を表す行列データにこの変換行列の逆行列を作用させて物体形状を構成する3次元情報を復元する平面運動・3次元情報復元ステップと、
前記平面運動・3次元情報復元ステップで得た平面運動と3次元情報から各特徴点に関するuv座標系での再投影値を求め、この再投影値と前記uv計測行列測定ステップで得た各特徴点のuv座標値との間の誤差と、前記平面運動・3次元情報復元ステップで得た各特徴点のZ座標値を使って、カメラ視点のZ軸方向の並進運動を復元するZ軸運動復元ステップと、
前記行列分解データの中から、光軸以外の他の軸周りの回転運動に寄与する成分を取り出し、それらの成分と、前記平面運動・3次元情報復元ステップとZ軸運動復元ステップで復元した運動、並びに3次元情報を使って、光軸以外の他軸周りの回転運動を復元する回転運動復元ステップと、
前記Z軸運動復元ステップで求めた誤差がある一定値以下に収束しているかどうかを判断し、もし、収束していないならば、平面運動と前記3次元情報の復元ステップで得たカメラ視点のXY並進成分と3次元情報、並びに、光軸以外のXY軸周りの回転角を使って、uv座標値を変形させる係数εを求め、前記平面運動と3次元情報の復元ステップで得た各特徴点の高さ情報と前記Z軸並進運動復元ステップで得た各視点のZ軸上の位置を使って、uv座標値をスケール変換する係数δを求め、前記係数εを計測行列測定ステップで得た計測行列の各行列要素にそれぞれ掛け合わせて得た値と、前記計測行列測定ステップで得た計測行列の各行列要素から交点座標値を差し引いた各座標値に前記係数δをそれぞれ掛け合わせて得た値を合わせた新たな行列要素とする行列分解データを生成し、前記情報復元ステップに戻り、誤差が一定値以下に収束するまで反復して、カメラ運動と3次元情報を復元することを特徴とする。
(2) From a temporal change amount of image coordinate values regarding feature points arranged in a target image in a time-series omnidirectional image or a wide-field image acquired by an image input device such as a fisheye camera, A method for restoring the three-dimensional information constituting the movement of the camera viewpoint and the object shape of the outside world,
With respect to the omnidirectional image or wide-field image acquired by the image input device, each image coordinate value is converted into a uv coordinate value by using a phase angle and an elevation angle obtained from each image coordinate value, and each pixel value is converted into its uv coordinate value. A uv measurement matrix measurement step of generating a time series uv image so as to be associated with each other, and measuring a uv coordinate value of a feature point in each image in a feature point coordinate system set in the uv image;
Matrix decomposition data for restoration processing is generated for each uv coordinate value obtained in the uv measurement matrix measurement step, the matrix decomposition data is subjected to singular value decomposition, noise is removed, and matrix data representing motion information is generated. And obtaining matrix data representing 3D information, obtaining a transformation matrix satisfying the conditions set for defining the motion in the motion information, and applying this transformation matrix to the matrix data representing the motion information, 3D information that constitutes the object shape by applying the inverse matrix of this transformation matrix to the matrix data representing the 3D information and the rotational motion around the Z axis that is the optical axis and the translational motion in the X and Y directions of the 2 axes Plane motion and 3D information restoration step to restore
A reprojection value in the uv coordinate system for each feature point is obtained from the plane motion and the three-dimensional information obtained in the plane motion / three-dimensional information restoration step, and each feature obtained in the reprojection value and the uv measurement matrix measurement step is obtained. A Z-axis motion that restores the translational motion of the camera viewpoint in the Z-axis direction using the error between the uv coordinate value of the point and the Z-coordinate value of each feature point obtained in the plane motion / three-dimensional information restoration step. A restore step,
From the matrix decomposition data, components that contribute to rotational motion around other axes other than the optical axis are extracted, and those components and motion restored in the plane motion / three-dimensional information restoration step and Z-axis motion restoration step. And a rotational motion restoring step for restoring rotational motion around another axis other than the optical axis using the three-dimensional information,
It is determined whether or not the error obtained in the Z-axis motion restoration step has converged to a certain value or less. If not, the camera viewpoint obtained in the planar motion and the three-dimensional information restoration step is determined. Using the XY translation component, the three-dimensional information, and the rotation angle around the XY axis other than the optical axis, a coefficient ε for deforming the uv coordinate value is obtained, and each feature obtained in the plane motion and the three-dimensional information restoration step Using the point height information and the position of each viewpoint on the Z-axis obtained in the Z-axis translational motion restoration step, a coefficient δ for scaling the uv coordinate value is obtained, and the coefficient ε is obtained in the measurement matrix measurement step. The value obtained by multiplying each matrix element of the measured matrix and the coordinate value obtained by subtracting the intersection coordinate value from each matrix element of the measurement matrix obtained in the measurement matrix measurement step are multiplied by the coefficient δ, respectively. Combine the obtained values Generates matrix decomposition data as a new matrix elements back to the information restoration step, iteratively until the error converges below a predetermined value, characterized in that to restore the camera motion and three-dimensional information.

(3)前記計測行列測定ステップにおいて、計測行列を特異値分解して得る特異値成分において、その成分から運動を表す判定値を算出し、その判定値がある一定値未満の場合は、平面運動と見なして光軸周りの回転とその光軸に垂直な平面上の運動からなる自由度3の平面運動と3次元情報を復元する処理を行い、判定値がある一定値以上の場合は、カメラに関する回転と並進運動からなる自由度6の運動と外界の3次元情報を復元することを特徴とする。   (3) In the measurement matrix measurement step, in a singular value component obtained by singular value decomposition of the measurement matrix, a determination value representing motion is calculated from the component, and if the determination value is less than a certain value, planar motion If the judgment value is greater than a certain value, a process of restoring the three-dimensional information with three degrees of freedom consisting of rotation around the optical axis and movement on a plane perpendicular to the optical axis is performed. It is characterized by restoring the motion of the degree of freedom 6 consisting of rotation and translational motion and the three-dimensional information of the outside world.

(4)前記uv計測行列測定ステップにおいて、計測行列を特異値分解して得る特異値成分において、その成分から運動を表す判定値を算出し、その判定値がある一定値未満の場合は、平面運動と見なして光軸周りの回転とその光軸に垂直な平面上の運動からなる自由度3の平面運動と3次元情報を復元する処理を行い、判定値がある一定値以上の場合は、カメラに関する回転と並進運動からなる自由度6の運動と外界の3次元情報を復元することを特徴とする。   (4) In the uv measurement matrix measurement step, in a singular value component obtained by singular value decomposition of the measurement matrix, a determination value representing motion is calculated from the component, and if the determination value is less than a certain value, a plane If the judgment value is more than a certain value, the processing is to restore the 3D freedom of motion and 3D freedom, consisting of rotation around the optical axis and motion on a plane perpendicular to the optical axis. It is characterized by restoring motion with a degree of freedom of 6 consisting of rotation and translational motion and three-dimensional information of the outside world.

(装置の発明)
(5)魚眼カメラなどの画像入力装置で取得した時系列の全方位画像または広視野画像中において、対象とする画像に配置した特徴点に関する画像座標値の時間的変化量から、時系列におけるカメラ視点の運動、並びに、外界の物体形状を構成する3次元情報を復元する装置であって、
外界の3次元座標値を、視点を中心とした球面に投影した座標値において、カメラの進行方向の直交方向成分を高さ方向成分で割った値、及びカメラの進行方向成分を高さ方向成分で割った値を、それぞれをu座標及びv座標とし、時系列の全方位画像または広視野画像に設定した特徴点座標系において、各画像における特徴点の画像座標値を得て、各画像座標値から算出される位相角と仰角により、その特徴点のuv座標値を求める計測行列測定手段と、
前記計測行列測定手段で得た全uv座標値を用いて、復元処理するための行列分解データを生成し、この行列分解データを特異値分解し、雑音除去を行って運動情報を表す行列データと3次元情報を表す行列データを得て、その運動情報において、運動を規定するために設定した条件を満足する変換行列を求め、運動情報を表す行列データにこの変換行列を作用させてカメラ視点に関する光軸になるZ軸周りの回転運動と二軸のXY軸方向の並進運動を復元し、並びに、3次元情報を表す行列データにこの変換行列の逆行列を作用させて物体形状を構成する3次元情報を復元する平面運動・3次元情報復元手段と、
前記平面運動・3次元情報復元手段で得た平面運動と3次元情報から各特徴点に関するuv座標系での再投影座標値を求め、この再投影座標値と前記計測行列測定手段で得た各特徴点のuv座標値との間の誤差と、前記平面運動・3次元情報復元手段で得た各特徴点のZ座標値を使って、カメラ視点のZ軸方向の並進運動を復元するZ軸運動復元手段と、
前記行列分解データの中から、光軸以外の他の軸周りの回転運動に寄与する成分を取り出し、それらの成分と前記平面運動・3次元情報復元手段とZ軸運動復元手段で復元した運動、並びに3次元情報を使って、光軸以外の他軸周りの回転運動を復元する回転運動復元手段と、
前記Z軸運動復元手段で求めた誤差がある一定値以下に収束しているかどうかを判断し、もし、収束していないならば、平面運動と3次元情報の復元手段で得たカメラ視点のXY並進成分と3次元情報、並びに、光軸以外のXY軸周りの回転角を使って、uv座標値を変形させる係数εを求め、前記平面運動と3次元情報の復元手段で得た各特徴点の高さ情報と前記Z軸並進運動復元手段で得た各視点のZ軸上の位置を使って、uv座標値をスケール変換する係数δを求め、係数εを前記計測行列測定手段で得た計測行列の各行列要素にそれぞれ掛け合わせて得た値と、前記計測行列測定手段で得た計測行列の各行列要素から交点座標値を差し引いた各座標値に係数δをそれぞれ掛け合わせて得た値を合わせた新たな行列要素とする行列分解データを生成し、前記情報復元手段に戻り、誤差が一定値以下に収束するまで反復して、カメラ運動と3次元情報を復元することを特徴とする。
(Invention of the device)
(5) From a temporal change amount of image coordinate values regarding feature points arranged in a target image in a time-series omnidirectional image or a wide-field image acquired by an image input device such as a fisheye camera, A device that restores the movement of the camera viewpoint and the three-dimensional information constituting the object shape of the outside world,
The value obtained by dividing the orthogonal direction component of the moving direction of the camera by the height direction component in the coordinate value obtained by projecting the three-dimensional coordinate value of the outside world onto the spherical surface with the viewpoint as the center, and the moving direction component of the camera as the height direction component In the feature point coordinate system set as a time-series omnidirectional image or wide-field image, with the values divided by u as the u coordinate and v coordinate, the image coordinate values of the feature points in each image are obtained, and the image coordinates A measurement matrix measuring means for obtaining a uv coordinate value of the feature point from a phase angle and an elevation angle calculated from the values;
Using all uv coordinate values obtained by the measurement matrix measurement means, matrix decomposition data for restoration processing is generated, and this matrix decomposition data is subjected to singular value decomposition, noise is removed, and matrix data representing motion information is obtained. Matrix data representing three-dimensional information is obtained, and in the motion information, a transformation matrix that satisfies the conditions set for defining the motion is obtained, and this transformation matrix is applied to the matrix data representing the motion information to relate to the camera viewpoint. The rotational motion around the Z-axis that becomes the optical axis and the translational motion in the XY-axis directions of the two axes are restored, and the inverse matrix of this transformation matrix is applied to matrix data representing three-dimensional information to form the object shape 3 Plane motion / three-dimensional information restoring means for restoring dimensional information;
The reprojection coordinate value in the uv coordinate system for each feature point is obtained from the plane motion obtained by the plane motion / three-dimensional information restoration means and the three-dimensional information, and the reprojection coordinate value and each measurement matrix measurement means obtained by the measurement matrix measurement means are obtained. The Z axis that restores the translational motion of the camera viewpoint in the Z axis direction using the error between the uv coordinate value of the feature point and the Z coordinate value of each feature point obtained by the plane motion / three-dimensional information restoration means Movement recovery means,
From the matrix decomposition data, components that contribute to rotational motion around axes other than the optical axis are extracted, and those components and motion restored by the planar motion / three-dimensional information restoring means and Z-axis motion restoring means, And rotational motion restoring means for restoring rotational motion around another axis other than the optical axis using three-dimensional information,
It is determined whether or not the error obtained by the Z-axis motion restoring means has converged to a certain value or less. If not converged, XY of the camera viewpoint obtained by the planar motion and three-dimensional information restoring means is determined. Using the translation component, the three-dimensional information, and the rotation angle around the XY axis other than the optical axis, a coefficient ε for deforming the uv coordinate value is obtained, and each feature point obtained by the plane motion and the three-dimensional information restoration means The coefficient δ for scaling the uv coordinate value is obtained using the height information of the image and the position on the Z-axis of each viewpoint obtained by the Z-axis translational movement restoring means, and the coefficient ε is obtained by the measurement matrix measuring means. Obtained by multiplying the value obtained by multiplying each matrix element of the measurement matrix by the coefficient δ by each coordinate value obtained by subtracting the intersection coordinate value from each matrix element of the measurement matrix obtained by the measurement matrix measurement means Matrix decomposition data with new matrix elements combined with values It generates data, return to the information restoring means, iteratively until the error converges below a predetermined value, characterized in that to restore the camera motion and three-dimensional information.

(6)魚眼カメラなどの画像入力装置で取得した時系列の全方位画像または広視野画像中において、対象とする画像に配置した特徴点に関する画像座標値の時間的変化量から、時系列におけるカメラ視点の運動、並びに、外界の物体形状を構成する3次元情報を復元する装置であって、
画像入力装置が取得した全方位画像または広視野画像に対して、各画像座標値から得られる位相角と仰角により、各画像座標値をuv座標値に変換して各画素値をそのuv座標値に対応付けるように時系列uv画像を生成し、このuv画像に設定した特徴点座標系において各画像における特徴点のuv座標値を測定するuv計測行列測定手段と、
前記uv計測行列測定手段で得た各uv座標値に対して、復元処理するための行列分解データを生成し、この行列分解データを特異値分解し、雑音除去を行って運動情報を表す行列データと3次元情報を表す行列データを得て、その運動情報において、運動を規定するために設定した条件を満足する変換行列を求め、運動情報を表す行列データにこの変換行列を作用させてカメラ視点に関する光軸となるZ軸周りの回転運動と二軸のXY軸方向の並進運動、並びに、3次元情報を表す行列データにこの変換行列の逆行列を作用させて物体形状を構成する3次元情報を復元する平面運動・3次元情報復元手段と、
前記平面運動・3次元情報復元手段で得た平面運動と3次元情報から各特徴点に関するuv座標系での再投影値を求め、この再投影値と前記uv計測行列測定手段で得た各特徴点のuv座標値との間の誤差と、前記平面運動・3次元情報復元手段で得た各特徴点のZ座標値を使って、カメラ視点のZ軸方向の並進運動を復元するZ軸運動復元手段と、
前記行列分解データの中から、光軸以外の他の軸周りの回転運動に寄与する成分を取り出し、それらの成分と、前記平面運動・3次元情報復元手段とZ軸運動復元手段で復元した運動、並びに3次元情報を使って、光軸以外の他軸周りの回転運動を復元する回転運動復元手段と、
前記Z軸運動復元手段で求めた誤差がある一定値以下に収束しているかどうかを判断し、もし、収束していないならば、平面運動と前記3次元情報の復元手段で得たカメラ視点のXY並進成分と3次元情報、並びに、光軸以外のXY軸周りの回転角を使って、uv座標値を変形させる係数εを求め、前記平面運動と3次元情報の復元手段で得た各特徴点の高さ情報と前記Z軸並進運動復元手段で得た各視点のZ軸上の位置を使って、uv座標値をスケール変換する係数δを求め、前記係数εを計測行列測定手段で得た計測行列の各行列要素にそれぞれ掛け合わせて得た値と、前記計測行列測定手段で得た計測行列の各行列要素から交点座標値を差し引いた各座標値に前記係数δをそれぞれ掛け合わせて得た値を合わせた新たな行列要素とする行列分解データを生成し、前記情報復元手段に戻り、誤差が一定値以下に収束するまで反復して、カメラ運動と3次元情報を復元することを特徴とする。
(6) From a temporal change amount of image coordinate values regarding feature points arranged in a target image in a time-series omnidirectional image or a wide-field image acquired by an image input device such as a fish-eye camera, A device that restores the movement of the camera viewpoint and the three-dimensional information constituting the object shape of the outside world,
With respect to the omnidirectional image or wide-field image acquired by the image input device, each image coordinate value is converted into a uv coordinate value by using a phase angle and an elevation angle obtained from each image coordinate value, and each pixel value is converted into its uv coordinate value. A uv measurement matrix measuring means for generating a time series uv image so as to be associated with each other and measuring the uv coordinate value of the feature point in each image in the feature point coordinate system set in the uv image;
For each uv coordinate value obtained by the uv measurement matrix measurement means, matrix decomposition data for restoration processing is generated, the matrix decomposition data is subjected to singular value decomposition, noise is removed, and matrix data representing motion information is generated. And obtaining matrix data representing 3D information, obtaining a transformation matrix satisfying the conditions set for defining the motion in the motion information, and applying this transformation matrix to the matrix data representing the motion information, 3D information that constitutes the object shape by applying the inverse matrix of this transformation matrix to the matrix data representing the 3D information and the rotational motion around the Z axis that is the optical axis and the translational motion in the X and Y directions of the 2 axes Plane motion / three-dimensional information restoration means for restoring
A reprojection value in the uv coordinate system for each feature point is obtained from the plane motion obtained by the plane motion / three-dimensional information restoration means and the three-dimensional information, and the reprojection value and each feature obtained by the uv measurement matrix measurement means. Z-axis motion that restores the translational motion of the camera viewpoint in the Z-axis direction using the error between the uv coordinate value of the point and the Z-coordinate value of each feature point obtained by the plane motion / three-dimensional information restoration means Recovery means,
From the matrix decomposition data, components that contribute to rotational motion around axes other than the optical axis are extracted, and those components and motion restored by the planar motion / three-dimensional information restoring means and the Z-axis motion restoring means. , As well as rotational motion restoring means for restoring rotational motion around another axis other than the optical axis using three-dimensional information;
It is determined whether or not the error obtained by the Z-axis motion restoration means has converged to a certain value or less. If not, the camera viewpoint obtained by the planar motion and the three-dimensional information restoration means is determined. Using the XY translation component, the three-dimensional information, and the rotation angle around the XY axis other than the optical axis, a coefficient ε for deforming the uv coordinate value is obtained, and each feature obtained by the plane motion and the three-dimensional information restoration means Using the point height information and the position of each viewpoint on the Z-axis obtained by the Z-axis translational motion restoration means, a coefficient δ for scaling the uv coordinate value is obtained, and the coefficient ε is obtained by the measurement matrix measurement means. The value obtained by multiplying each matrix element of the measured matrix and the coordinate value obtained by subtracting the intersection coordinate value from each matrix element of the measurement matrix obtained by the measurement matrix measuring means are multiplied by the coefficient δ, respectively. A new matrix element combining the obtained values Generate separation data, return to the information restoring means, iteratively until the error converges below a predetermined value, characterized in that to restore the camera motion and three-dimensional information.

(7)前記計測行列測定手段において、計測行列を特異値分解して得る特異値成分において、その成分から運動を表す判定値を算出し、その判定値がある一定値未満の場合は、平面運動と見なして光軸周りの回転とその光軸に垂直な平面上の運動からなる自由度3の平面運動と3次元情報を復元する処理を行い、判定値がある一定値以上の場合は、カメラに関する回転と並進運動からなる自由度6の運動と外界の3次元情報を復元することを特徴とする。   (7) In the measurement matrix measurement means, in a singular value component obtained by singular value decomposition of the measurement matrix, a determination value representing motion is calculated from the component, and if the determination value is less than a certain value, plane motion If the judgment value is greater than a certain value, a process of restoring the three-dimensional information with three degrees of freedom consisting of rotation around the optical axis and movement on a plane perpendicular to the optical axis is performed. It is characterized by restoring the motion of the degree of freedom 6 consisting of rotation and translational motion and the three-dimensional information of the outside world.

(8)前記uv計測行列測定手段において、計測行列を特異値分解して得る特異値成分において、その成分から運動を表す判定値を算出し、その判定値がある一定値未満の場合は、平面運動と見なして光軸周りの回転とその光軸に垂直な平面上の運動からなる自由度3の平面運動と3次元情報を復元する処理を行い、判定値がある一定値以上の場合は、カメラに関する回転と並進運動からなる自由度6の運動と外界の3次元情報を復元することを特徴とする。   (8) In the uv measurement matrix measurement means, in a singular value component obtained by singular value decomposition of the measurement matrix, a determination value representing motion is calculated from the component, and if the determination value is less than a certain value, a plane If the judgment value is more than a certain value, the processing is to restore the 3D freedom of motion and 3D freedom, consisting of rotation around the optical axis and motion on a plane perpendicular to the optical axis. It is characterized by restoring motion with a degree of freedom of 6 consisting of rotation and translational motion and three-dimensional information of the outside world.

(記録媒体の発明)
(9)上記の(1)〜(4)のいずれか1項に記載の魚眼カメラ運動と3次元情報の復元方法を、コンピュータで実行可能に記載したプログラムを記録したことを特徴とする。
(Invention of recording medium)
(9) A program in which the fisheye camera motion and the three-dimensional information restoration method according to any one of (1) to (4) above are recorded so as to be executable by a computer is recorded.

本発明によれば、魚眼カメラを使って取得した時系列画像全般(移動手段を利用して撮影した車載画像、海上画像、空撮画像、屋内画像、さらには、魚眼カメラや魚眼レンズを装着したカメラを手動撮影により取得した時系列画像)から、対象物に関する物体形状を高精度に獲得、復元することが可能となる。また、これまでの測量技術並の高精度な3次元計測が可能である。   According to the present invention, all time-series images acquired using a fish-eye camera (vehicle-mounted images, marine images, aerial images, indoor images taken using moving means, and further equipped with a fish-eye camera or fish-eye lens) It is possible to acquire and restore the object shape related to the object with high accuracy from the time-series images acquired by manual shooting of the camera. In addition, high-accuracy three-dimensional measurement equivalent to conventional surveying techniques is possible.

また、本発明は、車載カメラなどは走行中の振動がある状態においても雑音にロバストに、カメラ姿勢の微小な変動(三軸周り回転運動)、並びに、GPSなどのリモートセンサを補間する精度の三軸方向の並進運動を正確に計測することが可能となる。   In addition, the present invention is such that in-vehicle cameras and the like are robust to noise even in the presence of vibration while traveling, with minute fluctuations in camera posture (rotation around three axes), and accuracy of interpolation of remote sensors such as GPS. It becomes possible to accurately measure the translational motion in three axes.

また、本発明では、利用する計算処理が大半が線形演算で構成されるため、コンピュータ言語での実装が容易である。   Further, in the present invention, most of the calculation processing to be used is composed of linear operations, so that implementation in a computer language is easy.

また、本発明では、全方位カメラを使った画像計測などのアプリケーションにおいて、魚眼カメラの光軸を鉛直上向きにした姿勢を前提としてない。つまり、魚眼カメラを鉛直上向きの姿勢に向けずに用いる場合(図13)で取得した時系列画像にも適用でき、カメラの運動(三軸周りの回転と三軸方向の並進運動)と3次元情報を同時に、かつ、ロバストに復元することができる。   In the present invention, in an application such as image measurement using an omnidirectional camera, the posture with the optical axis of the fisheye camera vertically upward is not assumed. That is, it can also be applied to a time-series image acquired when the fisheye camera is used without being directed vertically upward (FIG. 13). The camera motion (rotation around three axes and translational motion in three axes) and 3 Dimensional information can be restored simultaneously and robustly.

(実施形態1)
図1は請求項1等の発明に関する基本構成図である。本実施形態では、等距離投影(光軸からの入射角に比例した投影)で光学的に設計された魚眼レンズを使用した魚眼カメラ(以降、カメラ)の場合で説明するが、他の投影(立体角投影、等立体角投影)で設計された魚眼レンズを使用した魚眼カメラ撮像装置で取得した時系列画像に対しても適用可能である。
(Embodiment 1)
FIG. 1 is a basic configuration diagram relating to the first aspect of the invention. In the present embodiment, a fisheye camera (hereinafter referred to as a camera) using a fisheye lens optically designed by equidistant projection (projection proportional to the incident angle from the optical axis) will be described. The present invention can also be applied to a time-series image acquired by a fish-eye camera imaging device using a fish-eye lens designed with a three-dimensional angle projection or an equal solid angle projection.

図10において、本発明で復元する対象の空間中の点P(Xj,Yj,Zj)と、カメラの運動、すなわち、ロール回転(ωi)、ピッチ回転(ψi)、ヨー回転(θi)、並びに、並進運動Ti(Txi,Tyi,Tzi)を説明する。図10は、カメラと対象物(被写体)との位置関係を表しており、説明の都合上、カメラが進行する軸をY軸とする。カメラは、並進運動(Txi,Tyi,Tzi)で移動しながら、ロール回転(ωi)、ピッチ回転(ψi)、ヨー回転(θi)の回転をする。このとき、カメラ光軸をZ軸方向とする。 In FIG. 10, the point P (X j , Y j , Z j ) in the space to be restored in the present invention and the movement of the camera, that is, roll rotation (ω i ), pitch rotation (ψ i ), yaw rotation (Θ i ) and translational movement T i (Tx i , Ty i , Tz i ) will be described. FIG. 10 shows the positional relationship between the camera and the object (subject). For convenience of explanation, the axis on which the camera travels is the Y axis. The camera rotates in roll rotation (ω i ), pitch rotation (ψ i ), and yaw rotation (θ i ) while moving in translational motion (Tx i , Ty i , Tz i ). At this time, the camera optical axis is the Z-axis direction.

また、投影中心Cの位置(視点位置Ti)は運動の中心であり、第iフレームでの並進運動をTi(Txi,Tyi,Tzi)の位置とする。さらに、進行軸周りの回転をロール回転(Y軸周りの回転)、カメラ光軸周りの回転をヨー回転(Z軸周りの回転)、カメラ光軸と進行軸で張られる面の法線周りの回転をピッチ回転(X軸周りの回転)とする。 The position of the projection center C (viewpoint position T i ) is the center of motion, and the translational motion in the i-th frame is the position of T i (Tx i , Ty i , Tz i ). Furthermore, the rotation around the traveling axis is roll rotation (rotating around the Y axis), the rotation around the camera optical axis is the yaw rotation (rotating around the Z axis), and around the normal of the surface stretched between the camera optical axis and the traveling axis. The rotation is referred to as pitch rotation (rotation around the X axis).

一方、空間中の点P(Xj,Yj,Zj)は、イメージサークル内の画像面において画像座標値(xij,yij)へ投影されるとする。式(1)は等距離投影と呼ばれる光学的投影であり、図10の位相角ρijは、画像座標値(xij,yij)から、式(2)を使って得ることができる。式(1)において、fは魚眼レンズの焦点距離であり、Dは、D=πf/(2R)で決まる定数である。ただし、Rは図10に示すイメージサークルの半径である。また、図10では画像面での投影中心Cの画像座標値を(Cx、Cy)としている。 On the other hand, a point P (X j , Y j , Z j ) in space is projected onto an image coordinate value (x ij , y ij ) on the image plane in the image circle. Equation (1) is an optical projection called equidistant projection, and the phase angle ρ ij in FIG. 10 can be obtained from the image coordinate values (x ij , y ij ) using Equation (2). In Equation (1), f is the focal length of the fisheye lens, and D is a constant determined by D = πf / (2R). Here, R is the radius of the image circle shown in FIG. In FIG. 10, the image coordinate value of the projection center C on the image plane is (Cx, Cy).

Figure 2005078554
Figure 2005078554

次に、図1の基本構成について説明する。本発明は、全方位画像を蓄積した時系列データベース1、各画像における特徴点の座標値を測定する特徴点計測部2、この計測部で得た画像座標値をuv画像に変換する計測行列変換部3、uv座標値を行列要素とする行列を初期値として与える計測行列入力部4、これらの入力データから因子分解法によりカメラの運動と外界の3次元情報を復元する因子分解法処理部5から構成される。因子分解法処理部5は、平面運動・3次元情報復元部5A、Z軸運動復元部5B、回転運動復元部5Cから構成される。   Next, the basic configuration of FIG. 1 will be described. The present invention includes a time-series database 1 that stores omnidirectional images, a feature point measurement unit 2 that measures the coordinate values of feature points in each image, and a measurement matrix conversion that converts image coordinate values obtained by the measurement unit into uv images. Unit 3, a measurement matrix input unit 4 that gives a matrix having uv coordinate values as matrix elements as initial values, and a factorization method processing unit 5 that restores camera motion and three-dimensional information of the external world from these input data by a factorization method Consists of The factorization processing unit 5 includes a plane motion / three-dimensional information restoration unit 5A, a Z-axis motion restoration unit 5B, and a rotational motion restoration unit 5C.

この構成において、時系列画像データベース1には、ハードディスク、RAID装置、CD−ROMなどの記録媒体を利用する、または、ネットワークを介したリモートなデータ資源を利用する形態でもどちらでも構わない。さらに、また、図1aは画像入力部1Aを有してリアルタイムで処理する場合の処理構成図であり、本発明は必ずしも各データベース部などの記憶装置を必要としない。   In this configuration, the time-series image database 1 may be in the form of using a recording medium such as a hard disk, a RAID device, a CD-ROM, or a remote data resource via a network. Furthermore, FIG. 1a is a processing block diagram in the case where the image input unit 1A is provided for processing in real time, and the present invention does not necessarily require a storage device such as each database unit.

まず、特徴点計測部2において、景観を撮影した全方位画像を時系列画像データベース1から取り出し、全方位画像上に特徴点を設定する。この特徴点設定には、濃淡の1次元的、または、2次元的変化による勾配値が大きくなる画素の検出(エッジ検出など)、Cannyオペレータ、ハフ変換などの画像処理手法により特徴点を自動的に発生させる。または、作業者が介在して適当に特徴点をマークするなどして初期画像上に特徴点を配置しても構わない。   First, the feature point measurement unit 2 takes out an omnidirectional image obtained by photographing a landscape from the time-series image database 1 and sets a feature point on the omnidirectional image. For this feature point setting, feature points are automatically detected by image processing techniques such as pixel detection (edge detection, etc.), Canny operator, Hough transform, etc., where the gradient value increases due to one-dimensional or two-dimensional changes in shading. To generate. Alternatively, the feature points may be arranged on the initial image by appropriately marking the feature points with an operator intervening.

このとき配置する特徴点の数をP個(j=1,2,…,P)とし、配置したときの特徴点の2次元座標値として、図10での画像座標系での原点からの座標値(x1j,y1j);j=1,2,…,Pを記録しておく。次に、初期画像に続く時系列画像をデータベースから1枚ずつ読み込み、初期画像に配置した特徴点を、時系列画像間の濃淡の変化に着目した手法、特徴点を中心とした画素パターンを各フレーム間で追跡する方法(例えば、KLT法:Kanade−Lucas−Tomasi法)、または、全方位画像特有の投影歪みを考慮した手法を駆使して追跡し、各時系列画像(初期画像から第i番目の画像)の特徴点の画像座標値として、図10での画像座標系での原点からの2次元座標値(x1j,y1j)を記録する。時系列画像を読み出し続けた場合、特徴点が画像間で消失やオクルージョンにより消失してしまったときは追跡を停止し、特徴点追跡を終了する。特徴点追跡が終了した時点で、読み出した時系列画像の数は、初期画像を含めてF枚とする(i=1,2,…,F)。特徴点計測部2では、各時系列画像における特徴点の時間的な画像座標的配置の変化量は式(3)のデータ形式に配列して、計測行列[A]を保持しておく。 At this time, the number of feature points to be arranged is P (j = 1, 2,..., P), and the coordinates from the origin in the image coordinate system in FIG. The values (x 1j , y 1j ); j = 1, 2,..., P are recorded. Next, the time-series images following the initial image are read from the database one by one, the feature points arranged in the initial image are changed to a method that focuses on the change in shading between the time-series images, and the pixel patterns centered on the feature points are Tracking between frames (for example, KLT method: Kanade-Lucas-Tomasi method) or a method that takes into account projection distortion peculiar to omnidirectional images, and tracking each time-series image (i. The two-dimensional coordinate values (x 1j , y 1j ) from the origin in the image coordinate system in FIG. 10 are recorded as the image coordinate values of the feature points of the (th image). When the time-series image is continuously read out, when the feature point disappears between images due to disappearance or occlusion, the tracking is stopped and the feature point tracking is ended. When the feature point tracking is completed, the number of time-series images read out is F including the initial image (i = 1, 2,..., F). The feature point measuring unit 2 arranges the amount of change in temporal image coordinate arrangement of feature points in each time-series image in the data format of Expression (3), and holds the measurement matrix [A].

Figure 2005078554
Figure 2005078554

次に、計測行列変換部3では、特徴点計測部2で取得した画像座標値を要素とする計測行列[A]から、第iフレームでの第j番目の特徴点の画像座標値(xij,yij)を取り出する。さらに、投影中心(Cx,Cy)を原点とした相対的な画像座標値に一時変換し、式(1)(2)を使って位相角ρijと仰角φijを求める。この位相角と仰角から式(4)の変換により座標変換し、uv座標値(uij,vij)を得る。 Next, in the measurement matrix conversion unit 3, the image coordinate value (x ij) of the j-th feature point in the i-th frame is obtained from the measurement matrix [A] having the image coordinate value acquired by the feature point measurement unit 2 as an element. , Y ij ). Further, the image is temporarily converted into relative image coordinate values with the projection center (Cx, Cy) as the origin, and the phase angle ρ ij and the elevation angle φ ij are obtained using equations (1) and (2). From this phase angle and elevation angle, coordinate transformation is performed by transformation of equation (4) to obtain uv coordinate values (u ij , v ij ).

Figure 2005078554
Figure 2005078554

ここで、本発明におけるuv変換とuv座標値の物理的意味を説明しておく。外界の3次元座標値(X,Y,Z)を視点Tiを中心とした半径1の半球面に投影すると(X',Y',Z')=(cos(Φ)cos(ρ)、cos(Φ)sin(ρ),sin(Φ))と表される。ただし、球面座標系では図10においてZ軸からの角をΦとして(sin(Φ)cos(ρ)、sin(Φ)sin(ρ),cos(Φ))と表すが、本実施形態では、図10での視点から3次元座標値(X,Y,Z)を見上げたときの仰角をΦとして、(sin(π/2−Φ)cos(ρ),sin(π/2−Φ)sin(ρ),cos(π/2−Φ))=(cos(Φ)cos(ρ),cos(Φ)sin(ρ),sin(Φ))と表している。   Here, the physical meaning of the uv transformation and the uv coordinate value in the present invention will be described. When the three-dimensional coordinate values (X, Y, Z) of the outside world are projected onto a hemisphere having a radius 1 centered on the viewpoint Ti, (X ′, Y ′, Z ′) = (cos (Φ) cos (ρ), cos (Φ) sin (ρ), sin (Φ)). However, in the spherical coordinate system, the angle from the Z-axis in FIG. 10 is expressed as (sin (Φ) cos (ρ), sin (Φ) sin (ρ), cos (Φ)) with Φ, but in this embodiment, Assuming that the elevation angle when looking up the three-dimensional coordinate value (X, Y, Z) from the viewpoint in FIG. 10 is Φ, (sin (π / 2−Φ) cos (ρ), sin (π / 2−Φ) sin (Ρ), cos (π / 2−Φ)) = (cos (Φ) cos (ρ), cos (Φ) sin (ρ), sin (Φ)).

uv座標値はこの単位球面座標値(X',Y',Z')から、(u,v)=(X’/Z’,Y’/Z’)で得られる。また、図14に、魚眼カメラが撮像した画像の例を挙げる。これを図4に従ってuv座標値に変換して、図5に示したuv画像を生成した例を図15に示す。図15に示すように、本座標変換では、仰角Φが小さい特徴点(建物の底辺に近い点)ほどv軸から遠ざかる点に、測定誤差が強調されて変換される。すなわち、同じ操作により特徴点を測定した場合、xy画像平面上では分かりづらい誤差などがuv平面ではより正確に把握できるようになる。したがって、この強調された誤差が最小となるようにカメラ視点の運動および3次元座標値を求めれば、やはり高精度に計測ができる。さらに、uv平面において、ロール回転運動はu方向の座標移動、ピッチ回転運動はv方向の座標移動、Z軸並進運動はuv座標系におけるスケール変換に簡略的に換算できるため、xy平面よりもロール回転、ピッチ回転、Z軸並進運動の判別が比較的容易となる。この判別の容易性を利用して、本発明では反復的に変形係数を使ってuv座標値を変形させて、繰り返しカメラ運動と3次元座標値の復元を続けることで、より高精度なカメラ運動と3次元座標値を復元することが可能となっている。   The uv coordinate value is obtained from this unit spherical coordinate value (X ′, Y ′, Z ′) by (u, v) = (X ′ / Z ′, Y ′ / Z ′). FIG. 14 shows an example of an image captured by a fisheye camera. FIG. 15 shows an example in which this is converted into uv coordinate values according to FIG. 4 and the uv image shown in FIG. 5 is generated. As shown in FIG. 15, in this coordinate conversion, the measurement error is emphasized and converted to a point that moves away from the v-axis as the feature point (point closer to the bottom of the building) with a smaller elevation angle Φ. That is, when feature points are measured by the same operation, errors that are difficult to understand on the xy image plane can be grasped more accurately on the uv plane. Therefore, if the motion of the camera viewpoint and the three-dimensional coordinate value are obtained so that the emphasized error is minimized, the measurement can be performed with high accuracy. Further, in the uv plane, the roll rotation movement can be converted into the u-direction coordinate movement, the pitch rotation movement can be converted into the v-direction coordinate movement, and the Z-axis translation movement can be simply converted into the scale conversion in the uv coordinate system. Determination of rotation, pitch rotation, and Z-axis translational movement is relatively easy. By utilizing this ease of discrimination, the present invention repeatedly deforms the uv coordinate value using the deformation coefficient, and continues to reconstruct the camera motion and the three-dimensional coordinate value repeatedly, so that the camera motion with higher accuracy can be obtained. It is possible to restore the three-dimensional coordinate values.

このように、全方位画像において雑音の影響などにより正確に運動と3次元形状を復元できなかったという問題に対して、全方位画像をuv座標値で表される画像に変換することで、画像雑音の影響をより鮮明に浮き立たせる効果があり、雑音に埋もれることなく、この変換を行うことで、微小なカメラの回転運動を含むカメラ運動、並びに、3次元情報の復元がし易くなるように好適に作用する。   As described above, the omnidirectional image is converted into an image represented by the uv coordinate value in response to the problem that the motion and the three-dimensional shape cannot be accurately restored due to the influence of noise in the omnidirectional image. It has the effect of raising the effect of noise more clearly, and by performing this conversion without being buried in the noise, it is easy to restore the camera movement including the rotational movement of the minute camera and the three-dimensional information. It works suitably.

上記のuv変換を全フレーム、全特徴点に対して行う。変換後のデータ形式として、式(5a)に示す要素形式の行列[B]を、計測行列入力部において行列[B]の初期値として保持しておく。行列[B]の行列形式(行列要素の配置)は、文献[3]、[4]に用いられる計測行列と呼ばれる行列である。   The above uv conversion is performed on all frames and all feature points. As a data format after conversion, a matrix [B] in an element format shown in Expression (5a) is held as an initial value of the matrix [B] in the measurement matrix input unit. The matrix format (arrangement of matrix elements) of the matrix [B] is a matrix called a measurement matrix used in documents [3] and [4].

Figure 2005078554
Figure 2005078554

次に、因子分解法処理部5における処理概要を説明する。この処理部は3つの処理部から構成(平面運動・3次元情報復元部5A、Z軸運動復元部5B、回転運動復元部5C)されている。図2はこの処理部における処理フローとなっている。まず、係数εij、δijを式(6)に従って初期化し、並びに、(ζi,ηi)=(0,0),i=1,2,…,Fと初期化する。次に、初期値の行列[B]から、式(5b)に示す行列分解データを生成しておき、これを改めて行列[B]として保持しておく(計測行列入力部4に保持してある初期値の行列[B]は上書きせず、図2の処理が終了するまで保持しておく)。これが図2での行列分解データである。 Next, an outline of processing in the factorization method processing unit 5 will be described. This processing unit includes three processing units (planar motion / three-dimensional information restoring unit 5A, Z-axis motion restoring unit 5B, and rotational motion restoring unit 5C). FIG. 2 shows a processing flow in this processing unit. First, the coefficients ε ij and δ ij are initialized according to the equation (6), and are initialized as (ζ i , η i ) = (0, 0), i = 1, 2,. Next, matrix decomposition data shown in Expression (5b) is generated from the matrix [B] of the initial value, and this is again held as the matrix [B] (held in the measurement matrix input unit 4). The initial value matrix [B] is not overwritten and held until the processing in FIG. 2 is completed). This is the matrix decomposition data in FIG.

Figure 2005078554
Figure 2005078554

Figure 2005078554
Figure 2005078554

平面運動・3次元情報復元ステップでは、特異値分解では式(7)に示す3つの行列[U]、[W]、[V]に行列分解する。ここで、[U]は2F×Pサイズの行列、[W]はP×Pサイズの対角行列、[V]はP×Pサイズの行列である。   In the plane motion / three-dimensional information restoration step, singular value decomposition performs matrix decomposition into three matrices [U], [W], and [V] shown in Expression (7). Here, [U] is a 2F × P size matrix, [W] is a P × P size diagonal matrix, and [V] is a P × P size matrix.

Figure 2005078554
Figure 2005078554

さらに、図2の雑音除去において、式(8)の第二項に示すように、ランク4以上の各行列の成分を削除する。   Further, in the noise removal of FIG. 2, as shown in the second term of Expression (8), the components of each matrix of rank 4 or higher are deleted.

Figure 2005078554
Figure 2005078554

この削除のときは、行列[U]を取り出し、この行列の要素において第4から第P列目までを削除し、残りの成分からなる行列を保持し、行列[W]を取り出し、この行列の要素において第4から第P行目並びに第4から第P列目までを削除し、残りの成分からなる行列を保持し、行列[V]を取り出し、この行列の要素において第4から第P行目までを削除し、残りの成分からなる行列をそれぞれ保持する(式(9))。   At the time of this deletion, the matrix [U] is taken out, the fourth to Pth columns are deleted from the elements of this matrix, the matrix consisting of the remaining components is held, the matrix [W] is taken out, The fourth to Pth rows and the fourth to Pth columns are deleted in the element, the matrix composed of the remaining components is retained, the matrix [V] is extracted, and the fourth to Pth rows are extracted from the elements of this matrix. Delete up to the eye and hold the matrix composed of the remaining components (Equation (9)).

Figure 2005078554
Figure 2005078554

次に、第4から第P行目並びに第4から第P列目までを削除した行列[W]の対角要素の平方をとった行列から、式(10)(11)に示す行列[U']と行列[V']を得る。   Next, from the matrix obtained by taking the square of the diagonal elements of the matrix [W] from which the 4th to Pth rows and the 4th to Pth columns are deleted, the matrix [U shown in Equations (10) and (11) is used. '] And matrix [V'] are obtained.

Figure 2005078554
Figure 2005078554

Figure 2005078554
Figure 2005078554

図2の次処理の変換行列算出では、保持してある行列[U']を取り出し、式(12a)〜(12c)で得られる値を行列要素にもつ式(13)で示す行列[D]を準備し、この行列[D]と式(14)に示す計算を行い値a,b,c,d,e,fを求める。なお、式(14)の右辺の最後の行列は1の値を上から2F個、続けて0の値をF個並べた3F×1の列ベクトルである。   In calculation of the transformation matrix in the next process of FIG. 2, the held matrix [U ′] is taken out, and the matrix [D] represented by the equation (13) having values obtained by the equations (12a) to (12c) as matrix elements. And the calculation shown in the matrix [D] and the equation (14) is performed to obtain the values a, b, c, d, e, and f. Note that the last matrix on the right side of Expression (14) is a 3F × 1 column vector in which 2 values from the top are 1F, and F values from 0 are subsequently arranged.

Figure 2005078554
Figure 2005078554

Figure 2005078554
Figure 2005078554

Figure 2005078554
Figure 2005078554

上記の値a,b,c,d,e,fを式(15)に示す要素に入れた行列[C]を用意し、この行列[C]を式(16)に示すように固有値分解する。ここで、固有値行列の平方と固有値行列から、式(17)の行列[C']を生成し、この行列要素を成分にもつ行列[Q]を式(18)に従って算出する。   A matrix [C] in which the above values a, b, c, d, e, and f are put in the elements shown in Expression (15) is prepared, and this matrix [C] is subjected to eigenvalue decomposition as shown in Expression (16). . Here, a matrix [C ′] of Expression (17) is generated from the square of the eigenvalue matrix and the eigenvalue matrix, and a matrix [Q] having this matrix element as a component is calculated according to Expression (18).

Figure 2005078554
Figure 2005078554

Figure 2005078554
Figure 2005078554

Figure 2005078554
Figure 2005078554

Figure 2005078554
Figure 2005078554

次に、式(A5)の投影モデル式に基づいて、式(A5)右辺左側の行列を式(19)で得られる行列[M']に,式(A5)右辺右側の行列を式(22)で得られる行列[S']とする。この対応付けにより、式(19)の行列成分から,式(20)の計算によりヨー回転角θを、式(21)からXY並進運動を復元することができる。   Next, based on the projection model formula of Formula (A5), the matrix on the right side of Formula (A5) is changed to the matrix [M ′] obtained by Formula (19), and the matrix on the right side of Formula (A5) is Formula (22) ) To obtain the matrix [S ′] obtained. By this association, the yaw rotation angle θ can be restored from the matrix component of Equation (19) by the calculation of Equation (20), and the XY translational motion can be restored from Equation (21).

Figure 2005078554
Figure 2005078554

Figure 2005078554
Figure 2005078554

一方,式(A5)右辺右側の行列と行列[S']の対応付けにより、式(22)にしたがってユークリッド空間での3次元情報(X,Y,Z)を復元することができる。すなわち、求めた行列[Q]と保持しておいた行列[U']から、式(19)の行列演算により行列[M']を計算する.行列[M']から各フレーム(第iフレーム)の行列要素(mix,nix)または(miy,niy)を取り出し,式(20)を使って、ヨー回転θi,i=1,2,…,Fを復元する。また、行列[M']から各フレーム(第iフレーム)の行列要素(Tiu,Tiv)を取り出す。この(Tiu,Tiv)から、式(21)を使って第iフレームにおけるユークリッド空間でのXY並進運動(Txi,Tyi),i=1,2,…,Fを計算する。 On the other hand, the three-dimensional information (X, Y, Z) in the Euclidean space can be restored according to the equation (22) by associating the matrix on the right side of the equation (A5) with the matrix [S ′]. That is, the matrix [M ′] is calculated from the obtained matrix [Q] and the stored matrix [U ′] by the matrix operation of Expression (19). The matrix element (m ix , n ix ) or (m iy , n iy ) of each frame (i-th frame) is extracted from the matrix [M ′], and the yaw rotation θ i , i = 1 is obtained using equation (20). , 2, ..., F are restored. Further, the matrix element (T iu , T iv ) of each frame (i-th frame) is extracted from the matrix [M ′]. From this (T iu , T iv ), XY translational motion (Tx i , Ty i ), i = 1, 2,..., F in the Euclidean space in the i-th frame is calculated using equation (21).

一方、3次元情報復元では,先に保持しておいた行列[V']と、変換行列算出で得られた行列[Q]から、式(22)に示す行列演算を行い,行列[S']を求める。次に、行列[S']の要素に対して、式(23)に示す計算を行い,これを要素とする行列を[P]とする。行列を[P]の列ベクトルは、それぞれ第j番目の特徴点のユークリッド空間での3次元座標直(Xj,Yj,Zj)になっている。 On the other hand, in the three-dimensional information restoration, the matrix operation shown in Expression (22) is performed from the matrix [V ′] held in advance and the matrix [Q] obtained by the transformation matrix calculation, and the matrix [S ′ ]. Next, the calculation shown in Expression (23) is performed on the elements of the matrix [S ′], and a matrix having these elements as [P]. The column vector of the matrix [P] is a three-dimensional coordinate straight (X j , Y j , Z j ) in the Euclidean space of the jth feature point.

Figure 2005078554
Figure 2005078554

ここまでの処理では、式(A5)の投影モデルを使って平面運動と3次元情報を復元しているため、式(A4)の投影モデルで処理する場合と比べて、Z軸並進運動成分(Tzi)が式(9)の処理の段階で雑音成分と見なされ削除されている、つまり、ロール回転、ピッチ回転、Z軸並進運動は“無いと見なして”、平面運動と3次元情報だけを復元している。 In the processing so far, since the plane motion and the three-dimensional information are restored using the projection model of the formula (A5), compared with the case of processing with the projection model of the formula (A4), the Z-axis translational motion component ( Tz i ) is regarded as a noise component at the stage of the processing of equation (9) and deleted, that is, roll rotation, pitch rotation, and Z-axis translation are “not considered to exist”, only plane motion and three-dimensional information. Is restoring.

次のZ軸運動復元ステップでは、εij,i=1,2,…,F;j=1,2,…,P並びに、(ζi,ηi)=(0,0),i=1,2,…,Fとして、ロール回転とピッチ回転を無視して、式(A4)の投影モデルを使って、まだ復元しないZ軸並進運動(Tzi)を復元する。そこで、式(9)で削除したランク4以降の成分、すなわち、 In the next Z-axis motion restoration step, ε ij , i = 1, 2,..., F; j = 1, 2,..., P and (ζ i , η i ) = (0, 0), i = 1 , 2,..., F, ignoring roll rotation and pitch rotation, and using the projection model of equation (A4), restore the Z-axis translation (Tz i ) that has not yet been restored. Therefore, the components after rank 4 deleted in equation (9), that is,

Figure 2005078554
Figure 2005078554

を含めて,このステップでは、式(A4)の投影モデルに戻ってZ軸並進運動を復元する。これが実現できる原理について,以下に数式を交えて説明する。 In this step, the Z axis translational motion is restored by returning to the projection model of the formula (A4). The principle that this can be achieved will be described below with mathematical formulas.

式(A5)だけを使って(Z軸並進運動を無視して)平面運動と3次元情報を復元すると、式(24)、(25)に示す成分の誤差が発生する。この誤差の中から式(A4)でのZ軸の並進成分を抽出する。   If the plane motion and the three-dimensional information are restored using only the equation (A5) (ignoring the Z-axis translational motion), errors of the components shown in the equations (24) and (25) occur. From this error, the translation component of the Z axis in the formula (A4) is extracted.

Figure 2005078554
Figure 2005078554

式(A4)において、iフレームのj番目の特徴点に関する投影モデルだけを抜き出すと、   In formula (A4), if only the projection model related to the jth feature point of the i frame is extracted,

Figure 2005078554
Figure 2005078554

と表される。つまり、Z軸並進運動Tzi,i=1,2,…,Fに関する成分は式(A7)の右辺の誤差として現れる。これを、さらに以下の式に変形することができる。 It is expressed. That is, the component relating to the Z-axis translational motion Tz i , i = 1, 2,..., F appears as an error on the right side of the equation (A7). This can be further transformed into the following equation.

Figure 2005078554
Figure 2005078554

式(A8)をi=1,2,…,F;j=1,2,…,Pに対して行列展開すると,   When formula (A8) is expanded into a matrix for i = 1, 2,..., F;

Figure 2005078554
Figure 2005078554

となる。したがって、式(A5)だけを使って平面運動と3次元情報を復元したとき、式(24)に示す誤差を使って、式(A9)に示す連立方程式を、式(26)により計算し、Z軸並進運動を復元することができる。 It becomes. Therefore, when the plane motion and the three-dimensional information are restored using only the formula (A5), the simultaneous equation shown in the formula (A9) is calculated by the formula (26) using the error shown in the formula (24). Z-axis translational motion can be restored.

Figure 2005078554
Figure 2005078554

したがって、Z軸運動復元ステップの処理フローでは、式(24)(25)に示す誤差を、全フレーム、並びに、全特徴点について計算する(uv座標系での再投影誤差)。これらの再投影誤差と先に求めた各特徴点のZ座標値(Zj,j=1,2,…,P)を使って、式(26)の計算を行い,各フレーム(第iフレーム)でのZ軸の並進運動Tzi,i=1,2,…,Fを復元することができる。 Therefore, in the processing flow of the Z-axis motion restoration step, the errors shown in equations (24) and (25) are calculated for all frames and all feature points (reprojection error in the uv coordinate system). Using these reprojection errors and the previously obtained Z coordinate values (Z j , j = 1, 2,..., P) of each feature point, the calculation of Expression (26) is performed, and each frame (i-th frame) is calculated. ), The Z axis translational motion Tz i , i = 1, 2,..., F can be restored.

Z軸運動復元ステップの段階で、まだロール回転とピッチ回転を復元していない。つまり、式(A3)の投影モデルに基づいて運動と3次元情報を復元しておらず、式(A4)の投影モデルに従って運動と3次元情報を復元した。   At the stage of the Z-axis motion restoration step, roll rotation and pitch rotation have not yet been restored. That is, the motion and the three-dimensional information are not restored based on the projection model of the formula (A3), and the motion and the three-dimensional information are restored according to the projection model of the formula (A4).

次の回転運動復元ステップでは、式(A3)において、これまでに復元したカメラ運動、3次元情報からなる行列成分と、まだ復元していないロール回転とピッチ回転に付随する行列成分に分離し、ロール回転とピッチ回転に関連する成分だけを抽出し、この成分からロール回転とピッチ回転を復元する。これを実現する原理を数式を交えて以下に説明する。   In the next rotational motion restoration step, in the formula (A3), the camera motion restored so far, the matrix component consisting of three-dimensional information, and the matrix component associated with the roll rotation and pitch rotation that have not been restored yet are separated. Only components related to roll rotation and pitch rotation are extracted, and roll rotation and pitch rotation are restored from these components. The principle for realizing this will be described below with mathematical expressions.

説明の簡単のために、式(A3)からiフレームのj番目の特徴点に関する投影モデルだけを取り出すと、   For simplicity of explanation, if only the projection model related to the jth feature point of the i frame is extracted from the equation (A3),

Figure 2005078554
Figure 2005078554

となる。ここで、未だ復元していないロール回転,ピッチ回転を未知数とする方程式に変形すると、 It becomes. Here, when transforming into an equation with unknown roll rotation and pitch rotation that have not yet been restored,

Figure 2005078554
Figure 2005078554

が得られる。ここで、 Is obtained. here,

Figure 2005078554
Figure 2005078554

と置き、全特徴点(j=1,2,…,P)に展開すると、 And expand to all feature points (j = 1, 2,..., P),

Figure 2005078554
Figure 2005078554

となる。式(A13)に示す誤差ΔUij、ΔVijは式(A4)の投影モデルで復元したときに発生する誤差であり、この誤差を式(A13)の計算で抽出し全特徴点に対して連立した方程式(式(A14))を式(27)〜(32)に従って解くことで、ロール回転角、ピッチ回転を得ることができる。式(32)の処理は各フレームに対して行い、全時系列のロール回転角ωi(i=1,2,…,F)、ピッチ回転ψi(i=1,2,…,F)を復元するできる。 It becomes. The errors ΔU ij and ΔV ij shown in the equation (A13) are errors generated when the projection model of the equation (A4) is restored, and these errors are extracted by the calculation of the equation (A13) and are simultaneous for all feature points. The roll rotation angle and the pitch rotation can be obtained by solving the equation (formula (A14)) according to formulas (27) to (32). The processing of Expression (32) is performed for each frame, and the roll rotation angles ω i (i = 1, 2,..., F) and pitch rotations ψ i (i = 1, 2,..., F) in all time series. Can be restored.

Figure 2005078554
Figure 2005078554

Figure 2005078554
Figure 2005078554

Figure 2005078554
Figure 2005078554

したがって、回転運動復元ステップでは、式(5a)に示すデータ形式の行列分解データと、係数δij、並びに、上記で復元した平面運動と3次元情報から、式(27)に示す誤差を計算する。さらに、式(28)〜(31)の値を計算し、これらの各値と式(27)に示す誤差から、式(32)に示す計算式によりロール回転(ωi)、ピッチ回転(ψi)を復元する。これを全フレーム(j=1,2,…,F)にわたり求める。このとき、同時に、式(33)の計算により各フレームでの(ζi、ηi)、i=1,2,…,Fを求め、以前の(ζi、ηi)、i=1,2,…,Fを更新する。 Therefore, in the rotational motion restoration step, the error shown in Equation (27) is calculated from the matrix decomposition data in the data format shown in Equation (5a), the coefficient δ ij , the planar motion restored as described above, and the three-dimensional information. . Further, the values of the equations (28) to (31) are calculated, and from these values and the error shown in the equation (27), the roll rotation (ω i ) and pitch rotation (ψ i ) restore. This is obtained over all frames (j = 1, 2,..., F). At this time, at the same time, (ζ i , η i ), i = 1, 2,..., F are obtained for each frame by the calculation of equation (33), and the previous (ζ i , η i ), i = 1, 2, ..., F are updated.

Figure 2005078554
Figure 2005078554

以上の処理フローにしたがって、ロール回転、ピッチ回転、ヨー回転、XYZ並進、並びに、3次元情報を復元できるが、式(A3)の投影モデルに対して段階的な処理(平面運動・3次元情報復元ステップ、Z軸運動復元ステップ、回転運動復元ステップ)を行ってこれらの情報を復元することができる。すなわち、式(A5)に基づく平面運動と3次元情報の復元、式(A4)に基づいたZ軸並進の復元、式(A3)に基づくロール回転、ピッチ回転の復元を順番に実行している。   According to the above processing flow, roll rotation, pitch rotation, yaw rotation, XYZ translation, and 3D information can be restored. However, stepwise processing (planar motion / 3D information) is performed on the projection model of equation (A3). These information can be restored by performing a restoration step, a Z-axis motion restoration step, and a rotational motion restoration step. That is, plane motion and three-dimensional information restoration based on equation (A5), Z-axis translation restoration based on equation (A4), roll rotation based on equation (A3), and pitch rotation restoration are sequentially performed. .

ここで、画像から観測したuv座標値、これまでの処理で復元したカメラ運動と3次元情報、並びに、この段階での変形係数(εij,δij)を用いて、モデルの適合度を表す式(34)を計算して式(35)に示す誤差を求めると誤差は大きい。なぜなら、初期段階(これまでの段階)では、式(A3)において、εij=0、並びに、(ζi,ηi)=(0,0);i=1,2,…,Fとして、これまでの処理が実行されてきたからである。つまり、平面運動・3次元情報復元部では、ロール回転、ピッチ回転、ヨー回転、XYZ並進運動からなるカメラ運動により投影された(実際の全方位画像における)uv座標値に対して、近似的に平面運動のカメラ運動により投影されたuv座標値と見なして、平面運動と3次元情報を復元している。 Here, the uv coordinate value observed from the image, the camera motion and the three-dimensional information restored by the processing so far, and the deformation coefficients (ε ij , δ ij ) at this stage are used to express the model adaptability. When the equation (34) is calculated to obtain the error shown in the equation (35), the error is large. Because, in the initial stage (the previous stage), in equation (A3), ε ij = 0 and (ζ i , η i ) = (0, 0); i = 1, 2,. This is because the processing so far has been executed. That is, the plane motion / three-dimensional information restoration unit approximately approximates the uv coordinate value (in the actual omnidirectional image) projected by the camera motion including roll rotation, pitch rotation, yaw rotation, and XYZ translational motion. The plane motion and the three-dimensional information are restored by regarding the uv coordinate value projected by the camera motion of the plane motion.

Figure 2005078554
Figure 2005078554

Figure 2005078554
Figure 2005078554

そこで,回転運動復元ステップに続く処理フローでは、これまでの処理において、εij=0、並びに、(ζi,ηi)=(0,0);i=1,2,…,Fと置いた値を、これまでの処理で得た情報を使って更新して,これまでの同様の処理を繰り返す。つまり、εijを、これまでに復元したロール回転角ωi、ピッチ回転ψi,3次元情報(Xj,Yj,Zj)、並びにXY並進運動(Txi,Tyi)を式(36)の最初の式に代入して更新する。同様に、Z軸並進運動Tziと3次元情報の高さZjを式(36)の二番目の式に代入してδijを更新する。さらに、更新した変形係数(εij,δij)を使って、式(5b)に従って、行列分解データとなる新たな行列[B]を準備する。これ以降は、これまでと同様に、新たに得た計測行列[B]から、平面運動・3次元情報復元ステップにおいてヨー回転、XY並進、並びに、3次元情報を復元し、次に、Z軸運動復元ステップにおいてZ軸並進運動を復元し、さらに、回転運動復元ステップにおいて、ロール回転、ピッチ回転を復元する。 Therefore, in the processing flow following the rotational motion restoration step, ε ij = 0 and (ζ i , η i ) = (0, 0); i = 1, 2,. The same value is updated using the information obtained in the previous processing, and the same processing is repeated. That is, ε ij is expressed by the roll rotation angle ω i , pitch rotation ψ i , three-dimensional information (X j , Y j , Z j ), and XY translational motion (Tx i , Ty i ) restored so far. Substitute and update in the first expression of 36). Similarly, δ ij is updated by substituting the Z-axis translational movement Tz i and the height Z j of the three-dimensional information into the second expression of Expression (36). Further, a new matrix [B] to be matrix decomposition data is prepared according to the equation (5b) using the updated deformation coefficient (ε ij , δ ij ). Thereafter, as in the past, from the newly obtained measurement matrix [B], yaw rotation, XY translation, and 3D information are restored in the plane motion / 3D information restoration step, and then the Z axis In the motion restoring step, the Z-axis translational motion is restored, and in the rotational motion restoring step, roll rotation and pitch rotation are restored.

Figure 2005078554
Figure 2005078554

すべてのカメラ運動と3次元情報が復元できると、この段階での式(34)、式(35)で得られる誤差を求めて、この誤差が1つ前の段階での誤差と比較して変化がない(誤差が一定)、または、許容値以下と判定したとき、処理を停止し、この段階でのカメラ運動と3次元情報を出力する。そうでないときいは、これまでの処理で得たカメラ運動と3次元情報から変形係数(εij,δij)を更新し、平面運動・3次元情報復元ステップ、Z軸運動復元ステップ、回転運動復元ステップでの処理を繰り返す。このような反復処理を行うことで、式(A3)に示す投影モデルを平面運動・3次元情報復元ステップ、Z軸運動復元ステップ、回転運動復元ステップと段階的に処理を行っても、誤差が均等に配分されて、カメラ運動と3次元情報の精度に偏りがなく、雑音にロバストに復元することができる。言い換えれば、魚眼カメラの投影モデル式(A3)に対して本発明は、雑音にロバストに、かつ、高精度にカメラ運動と3次元情報を同時に復元することができる。 When all camera movements and 3D information can be restored, the error obtained in Equation (34) and Equation (35) at this stage is obtained, and this error changes compared to the error in the previous stage. When it is determined that there is no error (the error is constant) or less than the allowable value, the processing is stopped, and the camera motion and three-dimensional information at this stage are output. Otherwise, the deformation coefficient (ε ij , δ ij ) is updated from the camera motion and 3D information obtained in the previous processing, and the plane motion / 3D information restoration step, Z-axis motion restoration step, rotational motion Repeat the process in the restore step. By performing such an iterative process, even if the projection model shown in the formula (A3) is processed stepwise in the plane motion / three-dimensional information restoration step, the Z-axis motion restoration step, and the rotational motion restoration step, an error is generated. Evenly distributed, there is no bias in the accuracy of camera motion and 3D information, and noise can be restored robustly. In other words, with respect to the projection model formula (A3) of the fisheye camera, the present invention can simultaneously restore camera motion and three-dimensional information with high accuracy and robustness against noise.

以上、本発明の実施形態により、画像系列における特徴点の時間的動きから、カメラ視点の運動、すなわち、三軸周りの回転運動と三軸方向の並進運動、並びに、物体形状を構成する3次元情報を復元することができる。   As described above, according to the embodiment of the present invention, from the temporal movement of the feature points in the image series, the movement of the camera viewpoint, that is, the rotational movement around the three axes and the translational movement in the three axial directions, and the three-dimensional that constitutes the object shape Information can be restored.

(実施形態2)
図3は請求項2等に関する基本構成図である。本実施形態では、実施形態1に対して、時系列画像データベースから取り出した画像に対して、画像変換処理部6で変形画像(uv画像)を生成する点が異なり、この処理部について説明する。
(Embodiment 2)
FIG. 3 is a basic configuration diagram relating to claim 2 and the like. This embodiment is different from the first embodiment in that a deformed image (uv image) is generated by the image conversion processing unit 6 with respect to an image extracted from the time-series image database, and this processing unit will be described.

本実施形態は、全方位画像を蓄積した時系列データベース1、各画像をuv画像に変換する画像変換処理部6、各画像における特徴点の座標値を測定する特徴点計測部2、uv座標値を行列要素とする行列を初期値として与える計測行列入力部4、これらの入力データから因子分解法によりカメラの運動と外界の3次元情報を復元する因子分解法処理部5から構成される。   The present embodiment includes a time-series database 1 in which omnidirectional images are stored, an image conversion processing unit 6 that converts each image into a uv image, a feature point measurement unit 2 that measures coordinate values of feature points in each image, and uv coordinate values. A measurement matrix input unit 4 that gives a matrix having a matrix element as an initial value, and a factorization processing unit 5 that restores the three-dimensional information of the camera motion and the external world from these input data by a factorization method.

この構成において、時系列画像データベース1には、ハードディスク、RAID装置、CD−ROMなどの記録媒体を利用する、または、ネットワークを介したリモートなデータ資源を利用する形態でもどちらでも構わない。さらに、また、図3aはリアルタイムで処理する場合の処理構成図であり、本発明は必ずしも各データベース部などの記憶装置を必要としない。   In this configuration, the time-series image database 1 may be in the form of using a recording medium such as a hard disk, a RAID device, a CD-ROM, or a remote data resource via a network. Furthermore, FIG. 3A is a processing configuration diagram in the case of processing in real time, and the present invention does not necessarily require a storage device such as each database unit.

本実施形態では、時系列画像データベースから取り出した画像に対して、図3の画像変換処理部においてuv画像を生成する。uv画像を生成するのに、uv座標値を指定して、これに該当するxy座標値を算出し、その座標値の画素値を抽出してuv画素とする(図5参照)。   In the present embodiment, an uv image is generated in the image conversion processing unit in FIG. 3 for an image extracted from the time-series image database. In order to generate a uv image, an uv coordinate value is designated, an xy coordinate value corresponding to this is calculated, and a pixel value of the coordinate value is extracted to be a uv pixel (see FIG. 5).

この処理フローを図4に示す。まず、uv画像におけるu方向、v方向の単位画素あたりの重み付けを行う。uv画像の画像サイズをU×V画素とし、並びに、仰角φについてφmin≦φ≦90度の範囲と決めたとする。これにより、u方向、v方向の単位画素あたりの重み付けを式(37)に従い決定する。また、uv画像のuv座標値範囲は画像の中心を原点(0,0)として、u方向に−U/2から+U/2,v方向に−V/2から+V/2とする。u方向、v方向の各座標値を表す整数m,n(−M≦m≦M、−N≦n≦N,M:整数、N:整数、MとNは同じ、すなわちuv画像が正方形でもよい)を使って、uv座標値を式(37)に従って求める。整数m,nを−M≦m≦M、−N≦n≦Nの範囲で変化させながら、式(38)に従ってその(u,v)座標値に対応する位相角ρと仰角φを求める。次に、式(39)により画像座標値を算出する。この画像座標値を四捨五入で整数化したものを(x,y)とする(式40)。 This processing flow is shown in FIG. First, weighting per unit pixel in the u direction and the v direction in the uv image is performed. Assume that the image size of the uv image is U × V pixels, and the elevation angle φ is determined to be in a range of φ min ≦ φ ≦ 90 degrees. Thereby, the weighting per unit pixel in the u direction and the v direction is determined according to the equation (37). Further, the uv coordinate value range of the uv image is set from the center of the image to the origin (0, 0), from −U / 2 to + U / 2 in the u direction, and from −V / 2 to + V / 2 in the v direction. Integer m, n representing each coordinate value in u direction and v direction (-M ≦ m ≦ M, −N ≦ n ≦ N, M: integer, N: integer, M and N are the same, that is, even if the uv image is square. The uv coordinate value is obtained according to the equation (37). While changing the integers m and n in the range of −M ≦ m ≦ M and −N ≦ n ≦ N, the phase angle ρ and the elevation angle φ corresponding to the (u, v) coordinate value are obtained according to the equation (38). Next, an image coordinate value is calculated by Expression (39). A value obtained by rounding the image coordinate value to an integer is (x, y) (Formula 40).

Figure 2005078554
Figure 2005078554

次に、画像座標値(x,y)に対応する画素値を取り出し、uv画像上でのuv座標値に該当する座標値にその画素値を埋め込む。これを全uv座標値に対して行うことで、uv画像を生成する。さらに、対象とする全時系列画像を逐次、この変換を行って時系列のuv画像を生成する。これ以降は実施形態1と同様の処理手順により、画像系列における特徴点の時間的動きから、カメラ視点の運動、すなわち、三軸周りの回転運動と三軸方向の並進運動、並びに、物体形状を構成する3次元情報を復元することができる。   Next, a pixel value corresponding to the image coordinate value (x, y) is extracted, and the pixel value is embedded in a coordinate value corresponding to the uv coordinate value on the uv image. By performing this operation for all uv coordinate values, a uv image is generated. Further, all the time series images to be processed are sequentially converted to generate a time series uv image. From this point onward, according to the same processing procedure as in the first embodiment, from the temporal movement of the feature points in the image sequence, the movement of the camera viewpoint, that is, the rotational movement around the three axes and the translational movement in the three axial directions, and the object shape are obtained. The three-dimensional information to be configured can be restored.

(実施形態3)
図6は請求項3の発明に関する基本構成図である。本実施形態では、実施形態1に対して、時系列画像データベースから取り出した画像に対して、特徴点計測部2により得た特徴点の画像座標値を計測行列変換部3においてuv座標値に変換したとき、復元処理判定部7でカメラ運動と3次元情報を復元するための処理を判定する点が異なるため、この点だけについて説明する。
(Embodiment 3)
FIG. 6 is a basic configuration diagram relating to the third aspect of the present invention. In the present embodiment, in contrast to the first embodiment, the image coordinate value of the feature point obtained by the feature point measurement unit 2 is converted into the uv coordinate value in the measurement matrix conversion unit 3 with respect to the image extracted from the time series image database. In this case, since the restoration process determination unit 7 determines the process for restoring the camera motion and the three-dimensional information, only this point will be described.

本実施形態は、時系列画像データベース1には、ハードディスク、RAID装置、CD−ROMなどの記録媒体を利用する、または、ネットワークを介したリモートなデータ資源を利用する形態でもどちらでも構わない。さらに、また、図6aはリアルタイムで処理する場合の処理構成図であり、本発明は必ずしも各データベース部などの記憶装置を必要としない。   In this embodiment, the time-series image database 1 may use either a hard disk, a RAID device, a CD-ROM or other recording medium, or a remote data resource via a network. Furthermore, FIG. 6A is a processing configuration diagram in the case of processing in real time, and the present invention does not necessarily require a storage device such as each database unit.

図6の特徴点計測部2により得た特徴点の画像座標値から、図6の計測行列変換部3においてuv座標値に変換して計測行列[B]を保持する。この計測行列[B]は式(5a)の形式となっている。   The image coordinate value of the feature point obtained by the feature point measurement unit 2 in FIG. 6 is converted into the uv coordinate value in the measurement matrix conversion unit 3 in FIG. 6 to hold the measurement matrix [B]. This measurement matrix [B] is in the form of equation (5a).

次に、図6の復元処理判定部7での処理を行う。この処理部での処理フローは図7である。この行列[B]に対して、式(8)に示すように特異値分解を行い、特異値行列[W]を得る。特異値行列[W]は対角要素であり、その各要素である特異値は昇降順の並びで、かつ、全て正の実数となっている。この特異値の中からの行列要素W33と行列要素W44の特異値を取り出す。ランク検出では、式(41a)または式(41b)に示す計算を行い判定量Ewを得る。 Next, processing in the restoration processing determination unit 7 in FIG. 6 is performed. The processing flow in this processing unit is shown in FIG. Singular value decomposition is performed on this matrix [B] as shown in Equation (8) to obtain a singular value matrix [W]. The singular value matrix [W] is a diagonal element, and the singular values that are the respective elements are arranged in ascending / descending order and are all positive real numbers. The singular values of the matrix element W 33 and the matrix element W 44 are extracted from the singular values. In rank detection, the calculation shown in Formula (41a) or Formula (41b) is performed to obtain the determination amount Ew.

Figure 2005078554
Figure 2005078554

判定量Ewがある許容値δW未満であるか、または、判定量Ewが許容値δW以上かを判定する。この許容値δWは特定の一定値であり、作業者が逐次、値を設定することもできる。もし、判定量Ewがある許容値δW未満の場合は、カメラ運動が平面運動をしたと判断して処理Aに進み、判定量Ewがある許容値δW以上の場合は、カメラ運動が一般運動(平面運動以外)をしたと判断して処理Bに進む。処理Bとは実施形態1の処理を行って、画像系列における特徴点の時間的動きから、カメラ視点の運動、すなわち、三軸周りの回転運動と三軸方向の並進運動、並びに、物体形状を構成する3次元情報を復元する処理である。そのため、以降では、処理Aについて説明する。 Determining the amount or Ew is less than a certain tolerance value [delta] W is or determines whether determination amount Ew allowable value [delta] W or more. This allowable value δ W is a specific constant value, and the operator can also set the value sequentially. If less than the allowable value [delta] W there is determination amount Ew is camera motion is determined to have a planar motion proceeds to the process A, the case of more than the allowable value [delta] W there is determination amount Ew, the camera motion is generally It is determined that the movement (other than the planar movement) has been performed, and the process proceeds to process B. The process B performs the process of the first embodiment, and from the temporal movement of the feature points in the image sequence, the motion of the camera viewpoint, that is, the rotational motion around the three axes, the translational motion in the three axial directions, and the object shape. This is a process for restoring the three-dimensional information to be configured. Therefore, hereinafter, the process A will be described.

図6における因子分解法処理部(実質、実施形態1の平面運動・3次元情報復元部の処理内容と同じ)での処理を処理Aとし、この処理フローを図8に示す。図6の復元処理判定部において行った特異値分解により式(7)の3つの行列[U]、[W]、[V]に行列分解した各行列データを入力する。ここで、[U]は2F×Pサイズの行列、[W]はP×Pサイズの対角行列、[V]はP×Pサイズの行列である。   The process in the factorization method processing unit in FIG. 6 (substantially the same as the processing content of the plane motion / three-dimensional information restoration unit in the first embodiment) is referred to as processing A, and this processing flow is shown in FIG. Each matrix data obtained by matrix decomposition into the three matrices [U], [W], and [V] of Expression (7) by singular value decomposition performed in the restoration processing determination unit in FIG. 6 is input. Here, [U] is a 2F × P size matrix, [W] is a P × P size diagonal matrix, and [V] is a P × P size matrix.

まず、図8の雑音除去において、式(8)の第二項に示すように、ランク4以上の各行列の成分を削除する。この削除のときは、行列[U]を取り出し、この行列の要素において第4から第P列目までを削除し、残りの成分からなる行列を保持し、行列[W]を取り出し、この行列の要素において第4から第P行目並びに第4から第P列目までを削除し、残りの成分からなる行列を保持し、行列[V]を取り出し、この行列の要素において第4から第P行目までを削除し、残りの成分からなる行列をそれぞれ保持する(式(9))。   First, in the noise removal of FIG. 8, the components of each matrix of rank 4 or higher are deleted as shown in the second term of equation (8). At the time of this deletion, the matrix [U] is taken out, the fourth to Pth columns are deleted from the elements of this matrix, the matrix consisting of the remaining components is held, the matrix [W] is taken out, The fourth to Pth rows and the fourth to Pth columns are deleted in the element, the matrix composed of the remaining components is retained, the matrix [V] is extracted, and the fourth to Pth rows are extracted from the elements of this matrix. Delete up to the eye and hold the matrix composed of the remaining components (Equation (9)).

次に、第4から第P行目並びに第4から第P列目までを削除した行列[W]の対角要素の平方をとった行列から、式(10)(11)に示す行列[U']と行列[V']を得る。   Next, from the matrix obtained by taking the square of the diagonal elements of the matrix [W] from which the 4th to Pth rows and the 4th to Pth columns are deleted, the matrix [U shown in Equations (10) and (11) is used. '] And matrix [V'] are obtained.

図2の次処理の変換行列算出では、保持してある行列[U']を取り出し、式(12a)〜(12c)で得られる値を行列要素にもつ式(13)で示す行列[D]を準備し、この行列[D]と式(14)に示す計算を行い、値a,b,c,d,e,fを求める。なお、式(14)の右辺の最後の行列は1の値を上から2F個、続けて0の値をF個並べた3F×1の列ベクトルである。値a,b,c,d,e,fを式(15)に示す要素に入れた行列[C]を用意し、この行列[C]を式(16)に示すように固有値分解する。ここで、固有値行列の平方と固有値行列から、式(17)の行列[C']を生成し、この行列要素を成分にもつ行列[Q]を式(18)に従って算出する。   In calculation of the transformation matrix in the next process of FIG. 2, the held matrix [U ′] is taken out, and the matrix [D] represented by the equation (13) having values obtained by the equations (12a) to (12c) as matrix elements. And the calculation shown in the matrix [D] and the equation (14) is performed to obtain the values a, b, c, d, e, and f. Note that the last matrix on the right side of Expression (14) is a 3F × 1 column vector in which 2 values from the top are 1F, and F values from 0 are subsequently arranged. A matrix [C] in which the values a, b, c, d, e, and f are put in the elements shown in Expression (15) is prepared, and this matrix [C] is subjected to eigenvalue decomposition as shown in Expression (16). Here, a matrix [C ′] of Expression (17) is generated from the square of the eigenvalue matrix and the eigenvalue matrix, and a matrix [Q] having this matrix element as a component is calculated according to Expression (18).

さらに、式(A5)右辺左側の行列を式(19)で得られる行列[M]に、式(A5)右辺右側の行列を式(22)で得られる行列[S']とする。この対応付けにより、式(19)の行列成分から、式(20)の計算によりヨー回転角θを、式(21)からXY並進運動を復元することができる。   Furthermore, let the matrix on the left side of the right side of Expression (A5) be the matrix [M] obtained by Expression (19), and the matrix on the right side of Expression (A5) be the matrix [S ′] obtained by Expression (22). By this association, the yaw rotation angle θ can be restored from the matrix component of Equation (19) by the calculation of Equation (20), and the XY translational motion can be restored from Equation (21).

一方、式(A5)右辺右側の行列と行列[S']の対応付けにより、式(22)にしたがってユークリッド空間での3次元情報(x,y,z)を復元することができる。すなわち、求めた行列[Q]と、保持しておいた行列[U']から、式(19)の行列演算により行列[M']を計算する。行列[M']から各フレーム(第iフレーム)の行列要素(mix,nix)または(miy,niy)を取り出し、式(20)を使って、ヨー回転θi,i=1,2,…,Fを復元する。また、行列[M']から各フレーム(第iフレーム)の行列要素(Tiu,Tiv)を取り出す。この(Tiu,Tiv)から、式(21)を使って第iフレームにおけるユークリッド空間での、XY並進運動(Txi,Tyi),i=1,2,…,Fを計算する。 On the other hand, the three-dimensional information (x, y, z) in the Euclidean space can be restored according to the equation (22) by associating the matrix on the right side of the equation (A5) with the matrix [S ′]. That is, the matrix [M ′] is calculated from the obtained matrix [Q] and the stored matrix [U ′] by the matrix operation of Expression (19). The matrix element (m ix , n ix ) or (m iy , n iy ) of each frame (i-th frame) is extracted from the matrix [M ′], and the yaw rotation θ i , i = 1 is obtained using equation (20). , 2, ..., F are restored. Further, the matrix element (T iu , T iv ) of each frame (i-th frame) is extracted from the matrix [M ′]. From this (T iu , T iv ), XY translational motion (Tx i , Ty i ), i = 1, 2,..., F in the Euclidean space in the i-th frame is calculated using equation (21).

一方、3次元情報復元では、先に保持しておいた行列[V']と、変換行列算出で得られた行列[Q]から、式(22)に示す行列演算を行い、行列[S']を求める。次に、行列[S']の要素に対して、式(23)に示す計算を行い、これを要素とする行列を[P]とする。行列を[P]の列ベクトルは、それぞれ第j番目の特徴点のユークリッド空間での3次元座標値(Xj,Yj,Zj)になっている。 On the other hand, in the three-dimensional information restoration, the matrix operation shown in Expression (22) is performed from the previously held matrix [V ′] and the matrix [Q] obtained by the transformation matrix calculation, and the matrix [S ′ ]. Next, the calculation shown in Expression (23) is performed on the elements of the matrix [S ′], and the matrix having these elements as [P]. The column vector of the matrix [P] is a three-dimensional coordinate value (X j , Y j , Z j ) in the Euclidean space of the jth feature point.

処理Aは図6の復元処理制定部において平面運動と判定して処理が行われるため、画像系列における特徴点の時間的動きから、カメラ視点の運動、すなわち、光軸周りの回転と二軸方向(XY)の並進運動、並びに、物体形状を構成する3次元情報を復元する。   Since the process A is performed by determining the planar motion in the restoration processing establishment unit in FIG. 6, from the temporal movement of the feature points in the image sequence, the camera viewpoint motion, that is, rotation around the optical axis and biaxial direction The translational motion of (XY) and the three-dimensional information constituting the object shape are restored.

なお、図6の復元処理判定部において一般運動と判定した場合は、実施形態1と同様に、画像系列における特徴点の時間的動きから、カメラ視点の運動、すなわち、三軸周りの回転運動と三軸方向の並進運動、並びに、物体形状を構成する3次元情報を復元することができる。   When the restoration processing determination unit in FIG. 6 determines that the motion is a general motion, the camera viewpoint motion, that is, the rotational motion around the three axes, from the temporal motion of the feature points in the image series, as in the first embodiment. It is possible to restore three-dimensional translational motion and three-dimensional information constituting the object shape.

(実施形態4)
図9は請求項4の発明に関する基本構成図である。本実施形態では、実施形態2に対して、画像変換処理部6から入力されるuv画像において、特徴点計測部2により得た特徴点のuv座標値からなる行列分解データを用いて、復元処理判定部7でカメラ運動と3次元情報を復元する処理を判定する点が異なるため、この点だけについて説明する。
(Embodiment 4)
FIG. 9 is a basic structural view relating to the invention of claim 4. In the present embodiment, a restoration process is performed on the uv image input from the image conversion processing unit 6 by using matrix decomposition data composed of uv coordinate values of the feature points obtained by the feature point measurement unit 2 in the uv image input from the image conversion processing unit 6. Since the determination unit 7 differs in the point of determining the camera motion and the process of restoring the three-dimensional information, only this point will be described.

本実施形態は、時系列画像データベース1には、ハードディスク、RAID装置、CD−ROMなどの記録媒体を利用する、または、ネットワークを介したリモートなデータ資源を利用する形態でもどちらでも構わない。さらに、また、図9aはリアルタイムで処理する場合の処理構成図であり、本発明は必ずしも各データベース部などの記憶装置を必要としない。   In this embodiment, the time-series image database 1 may use either a hard disk, a RAID device, a CD-ROM or other recording medium, or a remote data resource via a network. Further, FIG. 9A is a processing configuration diagram in the case of processing in real time, and the present invention does not necessarily require a storage device such as each database unit.

図9の特徴点計測部により得た特徴点のuv座標値を行列要素とする計測行列[B]を保持する。この計測行列[B]は式(5a)の形式となっている。次に、図6の復元処理判定部での処理を行う。この処理部での処理フローは図7である。この行列[B]に対して、式(8)に示すように特異値分解を行い、特異値行列[W]を得る。特異値行列[W]は対角行列であり、その各要素である特異値は昇降順の並びで、かつ、全て正の実数となっている。この特異値の中から行列要素W33と行列要素W44の特異値を取り出す。ランク検出では、式(41a)または式(41b)に示す計算を行い判定量EWを得る。判定量EWがある許容値δW未満であるか、または、判定量EWが許容値δW以上かを判定する。この許容値δWは特定の一定値であり、作業者が逐次、値を設定することもできる。もし、判定量EWがある許容値δW未満の場合は、カメラ運動が平面運動をしたと判断して処理Aに進み、判定量EWがある許容値δW以上の場合は、カメラ運動が一般運動(平面運動以外)をしたと判断して処理Bに進む。 A measurement matrix [B] having the uv coordinate values of the feature points obtained by the feature point measurement unit in FIG. 9 as matrix elements is held. This measurement matrix [B] is in the form of equation (5a). Next, processing in the restoration processing determination unit in FIG. 6 is performed. The processing flow in this processing unit is shown in FIG. Singular value decomposition is performed on this matrix [B] as shown in Equation (8) to obtain a singular value matrix [W]. The singular value matrix [W] is a diagonal matrix, and the singular values that are each element thereof are arranged in ascending / descending order and are all positive real numbers. Singular values of the matrix element W 33 and the matrix element W 44 are extracted from the singular values. In rank detection, the calculation shown in Formula (41a) or Formula (41b) is performed to obtain the determination amount E W. Determining the amount of E or W is less than a certain tolerance value [delta] W is or determines whether determination amount E W allowable value [delta] W or more. This allowable value δ W is a specific constant value, and the operator can also set the value sequentially. If the determination amount E W is less than a certain allowable value δ W , it is determined that the camera motion has moved in a plane, and the process proceeds to processing A. If the determination amount E W is greater than the certain allowable value δ W , the camera motion Is determined to have performed general motion (other than planar motion), and the process proceeds to process B.

処理Bとは実施形態1の処理を行って、画像系列における特徴点の時間的動きから、カメラ視、点の運動、すなわち、三軸周りの回転と三軸方向の並進運動、並びに、物体形状を構成する3次元情報を復元する処理である。なお、処理Aについては実施形態3の処理Aと同じであるため説明を省く。   The process B is the process of the first embodiment. From the temporal movement of the feature points in the image series, the camera view, the movement of the points, that is, the rotation around the three axes and the translational movement in the three axes, and the object shape Is a process for restoring the three-dimensional information constituting the. Note that the processing A is the same as the processing A of the third embodiment, and thus description thereof is omitted.

請求項1等の画像蓄積型の基本構成図。A basic configuration diagram of an image storage type according to claim 1 or the like. 請求項1等のリアルタイム処理型の基本構成図。A basic configuration diagram of a real-time processing type according to claim 1 or the like. 請求項1等の処理フロー図。The processing flowchart of Claim 1 grade | etc.,. 請求項2等の画像蓄積型の某本構成図。The image storage type copy block diagram of Claim 2 grade | etc.,. 請求項2等のリアルタイム処理型の基本構成図。A basic configuration diagram of a real-time processing type according to claim 2 or the like. uv画像変換の処理フロー。The process flow of uv image conversion. uv画像生成を説明する図。The figure explaining uv image generation. 請求項3等の画像蓄積型の基本構成図。4. A basic configuration diagram of an image storage type according to claim 3. 請求項3等のリアルタイム処理型の基本構成図。A basic configuration diagram of a real-time processing type according to claim 3 or the like. 復元処理判定部での処理フロー。The processing flow in a restoration process determination part. 処理Aの処理フロー。Process flow of process A. 請求項4等の画像蓄積型の基本構成図。5. A basic configuration diagram of an image storage type according to claim 4. 請求項4等のリアルタイム処理型の基本構成図。A basic configuration diagram of a real-time processing type according to claim 4 or the like. 全方位カメラと復元する空間情報とカメラ座標系を示す図。The figure which shows the omnidirectional camera, the spatial information to restore | restore, and a camera coordinate system. 画像から垂直線分を検出し、交点Aを求めることを説明する図。The figure explaining detecting a perpendicular line segment from an image and calculating intersection A. 街路樹などの遮蔽物により、画像から検出した垂直線分で交点Aが求められないことを示す図。The figure which shows that the intersection A is not calculated | required by the vertical line segment detected from the image by obstructions, such as a roadside tree. カメラ運動と3次元情報を復元するとき、カメラ光軸を鉛直向きに向けない利用形態。Usage mode in which the camera optical axis is not oriented vertically when restoring camera motion and 3D information. 魚眼カメラが撮像した屋外映像における建物に付随するエッジラインを示す図。The figure which shows the edge line accompanying the building in the outdoor image | video which the fisheye camera imaged. 図14のエッジをuv画像として変換した結果を示す図。The figure which shows the result of having converted the edge of FIG. 14 as a uv image.

符号の説明Explanation of symbols

1 時系列画像データベース
1A 画像入力部
2 特徴点計測部
3 計測行列変換部
4 計測行列入力部
5 因子分解法処理部
5A 平面運動・3次元情報復元部
5B Z軸運動復元部
5C 回転運動復元部
6 画像変換処理部
7 復元処理判定部
DESCRIPTION OF SYMBOLS 1 Time-sequential image database 1A Image input part 2 Feature point measurement part 3 Measurement matrix conversion part 4 Measurement matrix input part 5 Factor decomposition method processing part 5A Plane motion / three-dimensional information restoration part 5B Z-axis movement restoration part 5C Rotation movement restoration part 6 Image conversion processing unit 7 Restoration processing determination unit

Claims (9)

魚眼カメラなどの画像入力装置で取得した時系列の全方位画像または広視野画像中において、対象とする画像に配置した特徴点に関する画像座標値の時間的変化量から、時系列におけるカメラ視点の運動、並びに、外界の物体形状を構成する3次元情報を復元する方法であって、
外界の3次元座標値を、視点を中心とした球面に投影した座標値において、カメラの進行方向の直交方向成分を高さ方向成分で割った値、及びカメラの進行方向成分を高さ方向成分で割った値を、それぞれをu座標及びv座標とし、時系列の全方位画像または広視野画像に設定した特徴点座標系において、各画像における特徴点の画像座標値を得て、各画像座標値から算出される位相角と仰角により、その特徴点のuv座標値を求める計測行列測定ステップと、
前記計測行列測定ステップで得た全uv座標値を用いて、復元処理するための行列分解データを生成し、この行列分解データを特異値分解し、雑音除去を行って運動情報を表す行列データと3次元情報を表す行列データを得て、その運動情報において、運動を規定するために設定した条件を満足する変換行列を求め、運動情報を表す行列データにこの変換行列を作用させてカメラ視点に関する光軸になるZ軸周りの回転運動と二軸のXY軸方向の並進運動を復元し、並びに、3次元情報を表す行列データにこの変換行列の逆行列を作用させて物体形状を構成する3次元情報を復元する平面運動・3次元情報復元ステップと、
前記平面運動・3次元情報復元ステップで得た平面運動と3次元情報から各特徴点に関するuv座標系での再投影座標値を求め、この再投影座標値と前記計測行列測定ステップで得た各特徴点のuv座標値との間の誤差と、前記平面運動・3次元情報復元ステップで得た各特徴点のZ座標値を使って、カメラ視点のZ軸方向の並進運動を復元するZ軸運動復元ステップと、
前記行列分解データの中から、光軸以外の他の軸周りの回転運動に寄与する成分を取り出し、それらの成分と前記平面運動・3次元情報復元ステップとZ軸運動復元ステップで復元した運動、並びに3次元情報を使って、光軸以外の他軸周りの回転運動を復元する回転運動復元ステップと、
前記Z軸運動復元ステップで求めた誤差がある一定値以下に収束しているかどうかを判断し、もし、収束していないならば、平面運動と3次元情報の復元ステップで得たカメラ視点のXY並進成分と3次元情報、並びに、光軸以外のXY軸周りの回転角を使って、uv座標値を変形させる係数εを求め、前記平面運動と3次元情報の復元ステップで得た各特徴点の高さ情報と前記Z軸並進運動復元ステップで得た各視点のZ軸上の位置を使って、uv座標値をスケール変換する係数δを求め、係数εを前記計測行列測定ステップで得た計測行列の各行列要素にそれぞれ掛け合わせて得た値と、前記計測行列測定ステップで得た計測行列の各行列要素から交点座標値を差し引いた各座標値に係数δをそれぞれ掛け合わせて得た値を合わせた新たな行列要素とする行列分解データを生成し、前記情報復元ステップに戻り、誤差が一定値以下に収束するまで反復して、カメラ運動と3次元情報を復元することを特徴とする魚眼カメラ運動と3次元情報の復元方法。
From the temporal change in image coordinate values for feature points placed in the target image in a time-series omnidirectional image or wide-field image acquired by an image input device such as a fisheye camera, the time-series camera viewpoint A method for restoring motion and 3D information constituting the object shape of the outside world,
The value obtained by dividing the orthogonal direction component of the moving direction of the camera by the height direction component in the coordinate value obtained by projecting the three-dimensional coordinate value of the outside world onto the spherical surface with the viewpoint as the center, and the moving direction component of the camera as the height direction component In the feature point coordinate system set as a time-series omnidirectional image or wide-field image, with the values divided by u as the u coordinate and v coordinate, the image coordinate values of the feature points in each image are obtained, and the image coordinates A measurement matrix measurement step for obtaining a uv coordinate value of the feature point from the phase angle and the elevation angle calculated from the values;
Using all the uv coordinate values obtained in the measurement matrix measurement step, matrix decomposition data for restoration processing is generated, the matrix decomposition data is subjected to singular value decomposition, noise is removed, and matrix data representing motion information is obtained. Matrix data representing three-dimensional information is obtained, and in the motion information, a transformation matrix that satisfies the conditions set for defining the motion is obtained, and this transformation matrix is applied to the matrix data representing the motion information to relate to the camera viewpoint. The rotational motion around the Z-axis that becomes the optical axis and the translational motion in the XY-axis directions of the two axes are restored, and the inverse matrix of this transformation matrix is applied to matrix data representing three-dimensional information to form the object shape 3 Planar motion / three-dimensional information restoration step for restoring dimensional information;
The reprojection coordinate value in the uv coordinate system for each feature point is obtained from the plane motion and the three-dimensional information obtained in the plane motion / three-dimensional information restoration step, and each reprojection coordinate value and each of the measurement matrix measurement steps obtained in the measurement matrix measurement step are obtained. The Z axis that restores the translational motion of the camera viewpoint in the Z axis direction using the error between the uv coordinate value of the feature point and the Z coordinate value of each feature point obtained in the plane motion / three-dimensional information restoration step A motion recovery step;
From the matrix decomposition data, components that contribute to rotational motion around axes other than the optical axis are extracted, and those components and motion restored in the plane motion / three-dimensional information restoration step and Z-axis motion restoration step, In addition, using the three-dimensional information, a rotational motion restoring step for restoring rotational motion around another axis other than the optical axis;
It is determined whether or not the error obtained in the Z-axis motion restoration step has converged to a certain value or less. If not, the camera viewpoint XY obtained in the planar motion and three-dimensional information restoration step is determined. Using the translation component, the three-dimensional information, and the rotation angle around the XY axis other than the optical axis, a coefficient ε for deforming the uv coordinate value is obtained, and each feature point obtained in the plane motion and the three-dimensional information restoration step The coefficient δ for scaling the uv coordinate value is obtained using the height information of the image and the position on the Z axis of each viewpoint obtained in the Z axis translational motion restoration step, and the coefficient ε is obtained in the measurement matrix measurement step. Obtained by multiplying the coefficient δ by the value obtained by multiplying each matrix element of the measurement matrix and each coordinate value obtained by subtracting the intersection coordinate value from each matrix element of the measurement matrix obtained in the measurement matrix measurement step. New value combined Generating a matrix decomposition data as column elements, returning to the information restoration step, and repeating until the error converges to a certain value or less to restore the camera movement and the three-dimensional information; A method for restoring three-dimensional information.
魚眼カメラなどの画像入力装置で取得した時系列の全方位画像または広視野画像中において、対象とする画像に配置した特徴点に関する画像座標値の時間的変化量から、時系列におけるカメラ視点の運動、並びに、外界の物体形状を構成する3次元情報を復元する方法であって、
画像入力装置が取得した全方位画像または広視野画像に対して、各画像座標値から得られる位相角と仰角により、各画像座標値をuv座標値に変換して各画素値をそのuv座標値に対応付けるように時系列uv画像を生成し、このuv画像に設定した特徴点座標系において各画像における特徴点のuv座標値を測定するuv計測行列測定ステップと、
前記uv計測行列測定ステップで得た各uv座標値に対して、復元処理するための行列分解データを生成し、この行列分解データを特異値分解し、雑音除去を行って運動情報を表す行列データと3次元情報を表す行列データを得て、その運動情報において、運動を規定するために設定した条件を満足する変換行列を求め、運動情報を表す行列データにこの変換行列を作用させてカメラ視点に関する光軸となるZ軸周りの回転運動と二軸のXY軸方向の並進運動、並びに、3次元情報を表す行列データにこの変換行列の逆行列を作用させて物体形状を構成する3次元情報を復元する平面運動・3次元情報復元ステップと、
前記平面運動・3次元情報復元ステップで得た平面運動と3次元情報から各特徴点に関するuv座標系での再投影値を求め、この再投影値と前記uv計測行列測定ステップで得た各特徴点のuv座標値との間の誤差と、前記平面運動・3次元情報復元ステップで得た各特徴点のZ座標値を使って、カメラ視点のZ軸方向の並進運動を復元するZ軸運動復元ステップと、
前記行列分解データの中から、光軸以外の他の軸周りの回転運動に寄与する成分を取り出し、それらの成分と、前記平面運動・3次元情報復元ステップとZ軸運動復元ステップで復元した運動、並びに3次元情報を使って、光軸以外の他軸周りの回転運動を復元する回転運動復元ステップと、
前記Z軸運動復元ステップで求めた誤差がある一定値以下に収束しているかどうかを判断し、もし、収束していないならば、平面運動と前記3次元情報の復元ステップで得たカメラ視点のXY並進成分と3次元情報、並びに、光軸以外のXY軸周りの回転角を使って、uv座標値を変形させる係数εを求め、前記平面運動と3次元情報の復元ステップで得た各特徴点の高さ情報と前記Z軸並進運動復元ステップで得た各視点のZ軸上の位置を使って、uv座標値をスケール変換する係数δを求め、前記係数εを計測行列測定ステップで得た計測行列の各行列要素にそれぞれ掛け合わせて得た値と、前記計測行列測定ステップで得た計測行列の各行列要素から交点座標値を差し引いた各座標値に前記係数δをそれぞれ掛け合わせて得た値を合わせた新たな行列要素とする行列分解データを生成し、前記情報復元ステップに戻り、誤差が一定値以下に収束するまで反復して、カメラ運動と3次元情報を復元することを特徴とする魚眼カメラ運動と3次元情報の復元方法。
From the temporal change in image coordinate values for feature points placed in the target image in a time-series omnidirectional image or wide-field image acquired by an image input device such as a fisheye camera, the time-series camera viewpoint A method for restoring motion and 3D information constituting the object shape of the outside world,
With respect to the omnidirectional image or wide-field image acquired by the image input device, each image coordinate value is converted into a uv coordinate value by using a phase angle and an elevation angle obtained from each image coordinate value, and each pixel value is converted into its uv coordinate value. A uv measurement matrix measurement step of generating a time series uv image so as to be associated with each other, and measuring a uv coordinate value of a feature point in each image in a feature point coordinate system set in the uv image;
Matrix decomposition data for restoration processing is generated for each uv coordinate value obtained in the uv measurement matrix measurement step, the matrix decomposition data is subjected to singular value decomposition, noise is removed, and matrix data representing motion information is generated. And obtaining matrix data representing 3D information, obtaining a transformation matrix satisfying the conditions set for defining the motion in the motion information, and applying this transformation matrix to the matrix data representing the motion information, 3D information that constitutes the object shape by applying the inverse matrix of this transformation matrix to the matrix data representing the 3D information and the rotational motion around the Z axis that is the optical axis and the translational motion in the X and Y directions of the 2 axes Plane motion and 3D information restoration step to restore
A reprojection value in the uv coordinate system for each feature point is obtained from the plane motion and the three-dimensional information obtained in the plane motion / three-dimensional information restoration step, and each feature obtained in the reprojection value and the uv measurement matrix measurement step is obtained. A Z-axis motion that restores the translational motion of the camera viewpoint in the Z-axis direction using the error between the uv coordinate value of the point and the Z-coordinate value of each feature point obtained in the plane motion / three-dimensional information restoration step. A restore step,
From the matrix decomposition data, components that contribute to rotational motion around other axes other than the optical axis are extracted, and those components and motion restored in the plane motion / three-dimensional information restoration step and Z-axis motion restoration step. And a rotational motion restoring step for restoring rotational motion around another axis other than the optical axis using the three-dimensional information,
It is determined whether or not the error obtained in the Z-axis motion restoration step has converged to a certain value or less. If not, the camera viewpoint obtained in the planar motion and the three-dimensional information restoration step is determined. Using the XY translation component, the three-dimensional information, and the rotation angle around the XY axis other than the optical axis, a coefficient ε for deforming the uv coordinate value is obtained, and each feature obtained in the plane motion and the three-dimensional information restoration step Using the point height information and the position of each viewpoint on the Z-axis obtained in the Z-axis translational motion restoration step, a coefficient δ for scaling the uv coordinate value is obtained, and the coefficient ε is obtained in the measurement matrix measurement step. The value obtained by multiplying each matrix element of the measured matrix and the coordinate value obtained by subtracting the intersection coordinate value from each matrix element of the measurement matrix obtained in the measurement matrix measurement step are multiplied by the coefficient δ, respectively. Combine the obtained values A fish-eye camera which generates matrix decomposition data as new matrix elements, returns to the information restoration step, and repeats until the error converges to a certain value or less to restore camera motion and three-dimensional information How to restore motion and 3D information.
前記計測行列測定ステップにおいて、計測行列を特異値分解して得る特異値成分において、その成分から運動を表す判定値を算出し、その判定値がある一定値未満の場合は、平面運動と見なして光軸周りの回転とその光軸に垂直な平面上の運動からなる自由度3の平面運動と3次元情報を復元する処理を行い、判定値がある一定値以上の場合は、カメラに関する回転と並進運動からなる自由度6の運動と外界の3次元情報を復元することを特徴とする請求項1または2に記載の魚眼カメラ運動と3次元情報の復元方法。   In the measurement matrix measurement step, in the singular value component obtained by singular value decomposition of the measurement matrix, a determination value representing motion is calculated from the component, and if the determination value is less than a certain value, it is regarded as planar motion. Perform 3 degrees of freedom of plane motion consisting of rotation around the optical axis and motion on a plane perpendicular to the optical axis, and processing to restore 3D information. If the judgment value is above a certain value, 3. The method of restoring fisheye camera motion and 3D information according to claim 1 or 2, wherein the motion of 6 degrees of freedom consisting of translational motion and the external 3D information are restored. 前記uv計測行列測定ステップにおいて、計測行列を特異値分解して得る特異値成分において、その成分から運動を表す判定値を算出し、その判定値がある一定値未満の場合は、平面運動と見なして光軸周りの回転とその光軸に垂直な平面上の運動からなる自由度3の平面運動と3次元情報を復元する処理を行い、判定値がある一定値以上の場合は、カメラに関する回転と並進運動からなる自由度6の運動と外界の3次元情報を復元することを特徴とする請求項1または2に記載の魚眼カメラ運動と3次元情報の復元方法。   In the uv measurement matrix measurement step, in a singular value component obtained by singular value decomposition of the measurement matrix, a determination value representing motion is calculated from the component, and if the determination value is less than a certain value, it is regarded as plane motion. If the judgment value is greater than a certain value, it performs a rotation about the optical axis and a plane motion with 3 degrees of freedom consisting of a rotation around the optical axis and a motion on a plane perpendicular to the optical axis. 3. The method of restoring fisheye camera motion and three-dimensional information according to claim 1 or 2, wherein the motion with a degree of freedom of 6 comprising translational motion and the three-dimensional information of the outside world are restored. 魚眼カメラなどの画像入力装置で取得した時系列の全方位画像または広視野画像中において、対象とする画像に配置した特徴点に関する画像座標値の時間的変化量から、時系列におけるカメラ視点の運動、並びに、外界の物体形状を構成する3次元情報を復元する装置であって、
外界の3次元座標値を、視点を中心とした球面に投影した座標値において、カメラの進行方向の直交方向成分を高さ方向成分で割った値、及びカメラの進行方向成分を高さ方向成分で割った値を、それぞれをu座標及びv座標とし、時系列の全方位画像または広視野画像に設定した特徴点座標系において、各画像における特徴点の画像座標値を得て、各画像座標値から算出される位相角と仰角により、その特徴点のuv座標値を求める計測行列測定手段と、
前記計測行列測定手段で得た全uv座標値を用いて、復元処理するための行列分解データを生成し、この行列分解データを特異値分解し、雑音除去を行って運動情報を表す行列データと3次元情報を表す行列データを得て、その運動情報において、運動を規定するために設定した条件を満足する変換行列を求め、運動情報を表す行列データにこの変換行列を作用させてカメラ視点に関する光軸になるZ軸周りの回転運動と二軸のXY軸方向の並進運動を復元し、並びに、3次元情報を表す行列データにこの変換行列の逆行列を作用させて物体形状を構成する3次元情報を復元する平面運動・3次元情報復元手段と、
前記平面運動・3次元情報復元手段で得た平面運動と3次元情報から各特徴点に関するuv座標系での再投影座標値を求め、この再投影座標値と前記計測行列測定手段で得た各特徴点のuv座標値との間の誤差と、前記平面運動・3次元情報復元手段で得た各特徴点のZ座標値を使って、カメラ視点のZ軸方向の並進運動を復元するZ軸運動復元手段と、
前記行列分解データの中から、光軸以外の他の軸周りの回転運動に寄与する成分を取り出し、それらの成分と前記平面運動・3次元情報復元手段とZ軸運動復元手段で復元した運動、並びに3次元情報を使って、光軸以外の他軸周りの回転運動を復元する回転運動復元手段と、
前記Z軸運動復元手段で求めた誤差がある一定値以下に収束しているかどうかを判断し、もし、収束していないならば、平面運動と3次元情報の復元手段で得たカメラ視点のXY並進成分と3次元情報、並びに、光軸以外のXY軸周りの回転角を使って、uv座標値を変形させる係数εを求め、前記平面運動と3次元情報の復元手段で得た各特徴点の高さ情報と前記Z軸並進運動復元手段で得た各視点のZ軸上の位置を使って、uv座標値をスケール変換する係数δを求め、係数εを前記計測行列測定手段で得た計測行列の各行列要素にそれぞれ掛け合わせて得た値と、前記計測行列測定手段で得た計測行列の各行列要素から交点座標値を差し引いた各座標値に係数δをそれぞれ掛け合わせて得た値を合わせた新たな行列要素とする行列分解データを生成し、前記情報復元手段に戻り、誤差が一定値以下に収束するまで反復して、カメラ運動と3次元情報を復元することを特徴とする魚眼カメラ運動と3次元情報の復元装置。
From the temporal change in image coordinate values for feature points placed in the target image in a time-series omnidirectional image or wide-field image acquired by an image input device such as a fisheye camera, the time-series camera viewpoint A device for restoring motion and three-dimensional information constituting the object shape of the outside world,
The value obtained by dividing the orthogonal direction component of the moving direction of the camera by the height direction component in the coordinate value obtained by projecting the three-dimensional coordinate value of the outside world onto the spherical surface with the viewpoint as the center, and the moving direction component of the camera as the height direction component In the feature point coordinate system set as a time-series omnidirectional image or wide-field image, with the values divided by u as the u coordinate and v coordinate, the image coordinate values of the feature points in each image are obtained, and the image coordinates A measurement matrix measuring means for obtaining a uv coordinate value of the feature point from a phase angle and an elevation angle calculated from the values;
Using all uv coordinate values obtained by the measurement matrix measurement means, matrix decomposition data for restoration processing is generated, and this matrix decomposition data is subjected to singular value decomposition, noise is removed, and matrix data representing motion information is obtained. Matrix data representing three-dimensional information is obtained, and in the motion information, a transformation matrix that satisfies the conditions set for defining the motion is obtained, and this transformation matrix is applied to the matrix data representing the motion information to relate to the camera viewpoint. The rotational motion around the Z-axis that becomes the optical axis and the translational motion in the XY-axis directions of the two axes are restored, and the inverse matrix of this transformation matrix is applied to matrix data representing three-dimensional information to form the object shape 3 Plane motion / three-dimensional information restoring means for restoring dimensional information;
The reprojection coordinate value in the uv coordinate system for each feature point is obtained from the plane motion obtained by the plane motion / three-dimensional information restoration means and the three-dimensional information, and the reprojection coordinate value and each measurement matrix measurement means obtained by the measurement matrix measurement means are obtained. The Z axis that restores the translational motion of the camera viewpoint in the Z axis direction using the error between the uv coordinate value of the feature point and the Z coordinate value of each feature point obtained by the plane motion / three-dimensional information restoration means Motion recovery means,
From the matrix decomposition data, components that contribute to rotational motion around axes other than the optical axis are extracted, and those components and motion restored by the planar motion / three-dimensional information restoring means and Z-axis motion restoring means, And rotational motion restoring means for restoring rotational motion around another axis other than the optical axis using three-dimensional information,
It is determined whether or not the error obtained by the Z-axis motion restoration means has converged to a certain value or less. If not, the camera viewpoint XY obtained by the planar motion and the three-dimensional information restoration means is determined. Using the translation component, the three-dimensional information, and the rotation angle around the XY axis other than the optical axis, a coefficient ε for deforming the uv coordinate value is obtained, and each feature point obtained by the plane motion and the three-dimensional information restoration means The coefficient δ for scaling the uv coordinate value is obtained using the height information of the image and the position on the Z-axis of each viewpoint obtained by the Z-axis translational movement restoring means, and the coefficient ε is obtained by the measurement matrix measuring means. Obtained by multiplying the value obtained by multiplying each matrix element of the measurement matrix by the coefficient δ by each coordinate value obtained by subtracting the intersection coordinate value from each matrix element of the measurement matrix obtained by the measurement matrix measurement means Matrix decomposition data with new matrix elements combined with values A reconstructing device for fisheye camera motion and three-dimensional information, wherein the camera motion and three-dimensional information are reconstructed by returning to the information restoring means and repeating until the error converges to a certain value or less. .
魚眼カメラなどの画像入力装置で取得した時系列の全方位画像または広視野画像中において、対象とする画像に配置した特徴点に関する画像座標値の時間的変化量から、時系列におけるカメラ視点の運動、並びに、外界の物体形状を構成する3次元情報を復元する装置であって、
画像入力装置が取得した全方位画像または広視野画像に対して、各画像座標値から得られる位相角と仰角により、各画像座標値をuv座標値に変換して各画素値をそのuv座標値に対応付けるように時系列uv画像を生成し、このuv画像に設定した特徴点座標系において各画像における特徴点のuv座標値を測定するuv計測行列測定手段と、
前記uv計測行列測定手段で得た各uv座標値に対して、復元処理するための行列分解データを生成し、この行列分解データを特異値分解し、雑音除去を行って運動情報を表す行列データと3次元情報を表す行列データを得て、その運動情報において、運動を規定するために設定した条件を満足する変換行列を求め、運動情報を表す行列データにこの変換行列を作用させてカメラ視点に関する光軸となるZ軸周りの回転運動と二軸のXY軸方向の並進運動、並びに、3次元情報を表す行列データにこの変換行列の逆行列を作用させて物体形状を構成する3次元情報を復元する平面運動・3次元情報復元手段と、
前記平面運動・3次元情報復元手段で得た平面運動と3次元情報から各特徴点に関するuv座標系での再投影値を求め、この再投影値と前記uv計測行列測定手段で得た各特徴点のuv座標値との間の誤差と、前記平面運動・3次元情報復元手段で得た各特徴点のZ座標値を使って、カメラ視点のZ軸方向の並進運動を復元するZ軸運動復元手段と、
前記行列分解データの中から、光軸以外の他の軸周りの回転運動に寄与する成分を取り出し、それらの成分と、前記平面運動・3次元情報復元手段とZ軸運動復元手段で復元した運動、並びに3次元情報を使って、光軸以外の他軸周りの回転運動を復元する回転運動復元手段と、
前記Z軸運動復元手段で求めた誤差がある一定値以下に収束しているかどうかを判断し、もし、収束していないならば、平面運動と前記3次元情報の復元手段で得たカメラ視点のXY並進成分と3次元情報、並びに、光軸以外のXY軸周りの回転角を使って、uv座標値を変形させる係数εを求め、前記平面運動と3次元情報の復元手段で得た各特徴点の高さ情報と前記Z軸並進運動復元手段で得た各視点のZ軸上の位置を使って、uv座標値をスケール変換する係数δを求め、前記係数εを計測行列測定手段で得た計測行列の各行列要素にそれぞれ掛け合わせて得た値と、前記計測行列測定手段で得た計測行列の各行列要素から交点座標値を差し引いた各座標値に前記係数δをそれぞれ掛け合わせて得た値を合わせた新たな行列要素とする行列分解データを生成し、前記情報復元手段に戻り、誤差が一定値以下に収束するまで反復して、カメラ運動と3次元情報を復元することを特徴とする魚眼カメラ運動と3次元情報の復元装置。
From the temporal change in image coordinate values for feature points placed in the target image in a time-series omnidirectional image or wide-field image acquired by an image input device such as a fisheye camera, the time-series camera viewpoint A device for restoring motion and three-dimensional information constituting the object shape of the outside world,
With respect to the omnidirectional image or wide-field image acquired by the image input device, each image coordinate value is converted into a uv coordinate value by using a phase angle and an elevation angle obtained from each image coordinate value, and each pixel value is converted into its uv coordinate value. A uv measurement matrix measuring means for generating a time series uv image so as to be associated with each other and measuring the uv coordinate value of the feature point in each image in the feature point coordinate system set in the uv image;
For each uv coordinate value obtained by the uv measurement matrix measurement means, matrix decomposition data for restoration processing is generated, the matrix decomposition data is subjected to singular value decomposition, noise is removed, and matrix data representing motion information is generated. And obtaining matrix data representing 3D information, obtaining a transformation matrix satisfying the conditions set for defining the motion in the motion information, and applying this transformation matrix to the matrix data representing the motion information, 3D information that constitutes the object shape by applying the inverse matrix of this transformation matrix to the matrix data representing the 3D information and the rotational motion around the Z axis that is the optical axis and the translational motion in the X and Y directions of the 2 axes Plane motion / three-dimensional information restoration means for restoring
A reprojection value in the uv coordinate system for each feature point is obtained from the plane motion obtained by the plane motion / three-dimensional information restoration means and the three-dimensional information, and the reprojection value and each feature obtained by the uv measurement matrix measurement means. Z-axis motion that restores the translational motion of the camera viewpoint in the Z-axis direction using the error between the uv coordinate value of the point and the Z-coordinate value of each feature point obtained by the plane motion / three-dimensional information restoration means Recovery means,
From the matrix decomposition data, components that contribute to rotational motion around axes other than the optical axis are extracted, and those components and motion restored by the planar motion / three-dimensional information restoring means and the Z-axis motion restoring means. , As well as rotational motion restoring means for restoring rotational motion around another axis other than the optical axis using three-dimensional information;
It is determined whether or not the error obtained by the Z-axis motion restoration means has converged to a certain value or less. If not, the camera viewpoint obtained by the planar motion and the three-dimensional information restoration means is determined. Using the XY translation component, the three-dimensional information, and the rotation angle around the XY axis other than the optical axis, a coefficient ε for deforming the uv coordinate value is obtained, and each feature obtained by the plane motion and the three-dimensional information restoration means Using the point height information and the position of each viewpoint on the Z-axis obtained by the Z-axis translational motion restoration means, a coefficient δ for scaling the uv coordinate value is obtained, and the coefficient ε is obtained by the measurement matrix measurement means. The value obtained by multiplying each matrix element of the measured matrix and the coordinate value obtained by subtracting the intersection coordinate value from each matrix element of the measurement matrix obtained by the measurement matrix measuring means are multiplied by the coefficient δ, respectively. A new matrix element combining the obtained values Reconstructing the fisheye camera motion and 3D information, generating decomposed data, returning to the information restoring means, and repeating until the error converges below a certain value to restore the camera motion and 3D information apparatus.
前記計測行列測定手段において、計測行列を特異値分解して得る特異値成分において、その成分から運動を表す判定値を算出し、その判定値がある一定値未満の場合は、平面運動と見なして光軸周りの回転とその光軸に垂直な平面上の運動からなる自由度3の平面運動と3次元情報を復元する処理を行い、判定値がある一定値以上の場合は、カメラに関する回転と並進運動からなる自由度6の運動と外界の3次元情報を復元することを特徴とする請求項5または6に記載の魚眼カメラ運動と3次元情報の復元装置。   In the measurement matrix measurement means, in the singular value component obtained by singular value decomposition of the measurement matrix, a determination value representing motion is calculated from the component, and if the determination value is less than a certain value, it is regarded as planar motion. Perform 3 degrees of freedom of plane motion consisting of rotation around the optical axis and motion on a plane perpendicular to the optical axis, and processing to restore 3D information. If the judgment value is above a certain value, The apparatus for restoring fisheye camera motion and three-dimensional information according to claim 5 or 6, wherein the motion with six degrees of freedom consisting of translational motion and the three-dimensional information of the outside world are restored. 前記uv計測行列測定手段において、計測行列を特異値分解して得る特異値成分において、その成分から運動を表す判定値を算出し、その判定値がある一定値未満の場合は、平面運動と見なして光軸周りの回転とその光軸に垂直な平面上の運動からなる自由度3の平面運動と3次元情報を復元する処理を行い、判定値がある一定値以上の場合は、カメラに関する回転と並進運動からなる自由度6の運動と外界の3次元情報を復元することを特徴とする請求項5または6に記載の魚眼カメラ運動と3次元情報の復元装置。   In the uv measurement matrix measurement means, in a singular value component obtained by singular value decomposition of the measurement matrix, a determination value representing motion is calculated from the component, and if the determination value is less than a certain value, it is regarded as plane motion. If the judgment value is greater than a certain value, it performs a rotation about the optical axis and a plane motion with 3 degrees of freedom consisting of a rotation around the optical axis and a motion on a plane perpendicular to the optical axis. 7. The apparatus for restoring fisheye camera motion and three-dimensional information according to claim 5 or 6, wherein the motion with a degree of freedom of 6 consisting of translational motion and the three-dimensional information of the outside world are restored. 上記の請求項1〜4のいずれか1項に記載の魚眼カメラ運動と3次元情報の復元方法を、コンピュータで実行可能に記載したプログラムを記録したことを特徴とする記録媒体。   5. A recording medium having recorded thereon a program that can execute the fisheye camera motion and the three-dimensional information restoration method according to any one of claims 1 to 4 by a computer.
JP2003311013A 2003-09-03 2003-09-03 Restoration method and device for fish-eye camera motion and three-dimensional information, and recording medium with program for implementing it recorded Pending JP2005078554A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003311013A JP2005078554A (en) 2003-09-03 2003-09-03 Restoration method and device for fish-eye camera motion and three-dimensional information, and recording medium with program for implementing it recorded

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003311013A JP2005078554A (en) 2003-09-03 2003-09-03 Restoration method and device for fish-eye camera motion and three-dimensional information, and recording medium with program for implementing it recorded

Publications (1)

Publication Number Publication Date
JP2005078554A true JP2005078554A (en) 2005-03-24

Family

ID=34412687

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003311013A Pending JP2005078554A (en) 2003-09-03 2003-09-03 Restoration method and device for fish-eye camera motion and three-dimensional information, and recording medium with program for implementing it recorded

Country Status (1)

Country Link
JP (1) JP2005078554A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100897834B1 (en) 2007-08-28 2009-05-15 중앙대학교 산학협력단 Calibration method for omnidirectional camera

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100897834B1 (en) 2007-08-28 2009-05-15 중앙대학교 산학협력단 Calibration method for omnidirectional camera

Similar Documents

Publication Publication Date Title
RU2713611C2 (en) Three-dimensional space simulation method
US10225473B2 (en) Threshold determination in a RANSAC algorithm
JP3347508B2 (en) Captured image processing device and captured image processing method
US8208029B2 (en) Method and system for calibrating camera with rectification homography of imaged parallelogram
US20190012804A1 (en) Methods and apparatuses for panoramic image processing
KR20130138247A (en) Rapid 3d modeling
EP2656309A1 (en) Method for determining a parameter set designed for determining the pose of a camera and/or for determining a three-dimensional structure of the at least one real object
CN111079565B (en) Construction method and identification method of view two-dimensional attitude template and positioning grabbing system
Pagani et al. Dense 3D Point Cloud Generation from Multiple High-resolution Spherical Images.
JP2007004578A (en) Method and device for acquiring three-dimensional shape and recording medium for program
GB2567245A (en) Methods and apparatuses for depth rectification processing
JP2007025863A (en) Photographing system, photographing method, and image processing program
JP2006195790A (en) Lens distortion estimation apparatus, lens distortion estimation method, and lens distortion estimation program
KR101673144B1 (en) Stereoscopic image registration method based on a partial linear method
JP2005063012A (en) Full azimuth camera motion and method and device for restoring three-dimensional information and program and recording medium with the same recorded
US11922576B2 (en) System and method for mapping the skin
Castanheiro et al. Modeling Hyperhemispherical Points and Calibrating a Dual-Fish-Eye System for Close-Range Applications
JP2005275789A (en) Three-dimensional structure extraction method
WO2018150086A2 (en) Methods and apparatuses for determining positions of multi-directional image capture apparatuses
WO2018100230A1 (en) Method and apparatuses for determining positions of multi-directional image capture apparatuses
CN114187344A (en) Map construction method, device and equipment
JP2002094849A (en) Wide view image pickup device
JP2005078554A (en) Restoration method and device for fish-eye camera motion and three-dimensional information, and recording medium with program for implementing it recorded
Kim et al. Environment modelling using spherical stereo imaging
JP3452188B2 (en) Tracking method of feature points in 2D video