JP2006172026A - Camera motion, and device and method for restoring three-dimensional information, and program - Google Patents

Camera motion, and device and method for restoring three-dimensional information, and program Download PDF

Info

Publication number
JP2006172026A
JP2006172026A JP2004362152A JP2004362152A JP2006172026A JP 2006172026 A JP2006172026 A JP 2006172026A JP 2004362152 A JP2004362152 A JP 2004362152A JP 2004362152 A JP2004362152 A JP 2004362152A JP 2006172026 A JP2006172026 A JP 2006172026A
Authority
JP
Japan
Prior art keywords
motion
dimensional information
matrix
optical axis
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2004362152A
Other languages
Japanese (ja)
Inventor
Isao Miyagawa
勲 宮川
Yoshiori Wakabayashi
佳織 若林
Kenichi Arakawa
賢一 荒川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2004362152A priority Critical patent/JP2006172026A/en
Publication of JP2006172026A publication Critical patent/JP2006172026A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To stably and robustly restor camera motion and three-dimensional information at the same time. <P>SOLUTION: This restoring device is composed of a time-series image database 1 for storing time-series images, an asymptotic matrix generating part 2 for extracting an image series from the database 1, observing image coordinate values of a characteristic point between full frames and generating asymptotic matrix data to be a source for restoring camera motion and three-dimensional information, a plane motion/three-dimensional information restoring part 3 for restoring the plane motion and the three-dimensional information from the asymptotic matrix data, and a stabilization processing part 4 for restoring rotational motion other than optical axial rotation and optical axial translational motion, determining whether to require the next iteration to asymptotically make (stabilize) camera motion to plane motion and transferring information required to generate asymptotic matrix data to the asymptotic matrix generating part 2 when the iteration is necessary. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は、カメラを使って取得した車載画像または室内画像、船上からの海上画像、空撮画像、全方位カメラで撮影した全方位画像、歩行しながら撮影した歩行撮影画像などの時系列画像全般に対してカメラ運動と3次元情報を復元する装置、方法に係り、時系列画像から、カメラの視点を原点として設定したカメラ座標系におけるロール、ピッチ、ヨー回転から構成される三軸(XYZ)周りの回転運動、三軸(XYZ)方向の並進運動、並びに、時系列映像に写っている外界の3次元形状、すなわち、被写体(物体)の外観形状を構成する3次元情報を復元する装置、方法に関する。   The present invention generally relates to time-series images such as an in-vehicle image or indoor image acquired using a camera, a marine image from a ship, an aerial image, an omnidirectional image captured by an omnidirectional camera, and a walking image captured while walking. Three-dimensional (XYZ) composed of roll, pitch, and yaw rotation in a camera coordinate system set with the camera viewpoint as the origin from a time-series image A device that restores the three-dimensional information that constitutes the rotational shape of the surroundings, the translational motion in the three-axis (XYZ) direction, and the three-dimensional shape of the external environment reflected in the time-series image, that is, the appearance shape of the subject (object), Regarding the method.

コンピュータビジョン分野では、時系列画像から、対象物の形状を計測または獲得する手法には、ステレオ計測やエピポーラ面解析を用いた3次元解析手法がある。この手法によれば、物体が撮影されている複数の時系列画像から、空間形状または空間構造に関する3次元位置情報、並びに、カメラ視点に関する運動を復元することができる。しかし、移動手段などを利用して撮影カメラを動かしながら撮影した時系列映像においては、撮影時の環境、撮影カメラの微小な動きによりシームレスに映像取得が困難であり、時系列映像中にランダム性の雑音が混入し、カメラ運動や物体形状を正確に復元することが困難な場合がある。   In the computer vision field, methods for measuring or acquiring the shape of an object from time-series images include a three-dimensional analysis method using stereo measurement and epipolar surface analysis. According to this method, it is possible to restore the three-dimensional position information related to the spatial shape or the spatial structure and the motion related to the camera viewpoint from a plurality of time-series images in which the object is photographed. However, it is difficult to seamlessly acquire images in time-series images taken while moving the camera using moving means, etc., due to the shooting environment and the minute movement of the camera. In some cases, it is difficult to accurately restore camera motion and object shape.

このような問題に対して、カメラで撮影した映像シーンから、ユークリッド空間でのカメラ運動と物体形状を同時に、かつ、ロバストに復元する手法が存在する。例えば、取得する画像において特徴点をつけ、この特徴点を時系列に追跡して得た画像座標値から、カメラ運動と3次元情報を復元する代表的な手法として因子分解法がある(例えば、被特許文献1参照)。   In order to solve such a problem, there is a technique for simultaneously and robustly restoring the camera motion and the object shape in the Euclidean space from the video scene photographed by the camera. For example, there is a factorization method as a typical method for restoring camera motion and three-dimensional information from image coordinate values obtained by attaching feature points to an acquired image and tracking the feature points in time series (for example, (See Patent Document 1).

この因子分解法では、式(A1)に示すように、画像上において取得した時系列のxy画像座標値(式(A1)左辺)から、カメラ運動に関する行列(右辺の左側の行列((mix,miy,miz)と(nix,niy,niz)は第iフレームでの投影モデルに従ったカメラ運動の成分を表す)と3次元情報(X,Y,Z)に関する行列(右辺の右側の行列、(Xj,Yj,Zj)は第j番目の3次元座標値)に分解する手法である。この行列分解には特異値分解なる数学的手法が使われている。式(A1)左辺は計測行列と呼ばれており、行方向は特徴点の数を、列方向はフレーム順を表す。(xij,yij)は第iフレームの第j番目の特徴点の画像座標値となっている。 In this factorization method, as shown in equation (A1), a camera motion matrix (matrix on the left side of the right side ((m ix )) is obtained from time-series xy image coordinate values (left side of equation (A1)) acquired on the image. , M iy , m iz ) and (n ix , n iy , n iz ) represent the components of the camera motion according to the projection model in the i-th frame) and a matrix (X, Y, Z) relating to the three-dimensional information (X, Y, Z) This is a method of decomposing the matrix on the right side of the right side, (X j , Y j , Z j ) is the j-th three-dimensional coordinate value. The left side of equation (A1) is called a measurement matrix, the row direction represents the number of feature points, the column direction represents the frame order, and (x ij , y ij ) represents the jth feature point of the i-th frame. Image coordinate values.

Figure 2006172026
Figure 2006172026

因子分解法では、式(A1)左辺は画像から得られる2次元情報(あらかじめ各フレームの重心座標値を引いた2次元座標値としている)だけになっており、式(A1)右辺の行列により行列演算する(線形演算する)ことで左辺の画像座標値が得られるという投影モデルに基づいている。しかし、式(A1)に分解できる投影モデルは正射影、弱透視投影、平行透視投影モデルに限る。これらの投影モデルは現実の透視投影モデルの近似形式であり、被写体とカメラの関係によってはそれぞれの条件が近似的に成り立つ場合もあるが、一般的には透視投影モデルとのギャップのために式(A1)のように因子分解した場合はカメラ運動、3次元形状の精度は悪い。   In the factorization method, the left side of the equation (A1) is only two-dimensional information obtained from the image (a two-dimensional coordinate value obtained by subtracting the barycentric coordinate value of each frame in advance). This is based on a projection model in which an image coordinate value on the left side is obtained by performing a matrix operation (linear operation). However, the projection models that can be decomposed into the formula (A1) are limited to orthographic projection, weak perspective projection, and parallel perspective projection models. These projection models are approximate forms of actual perspective projection models, and depending on the relationship between the subject and the camera, the respective conditions may approximately hold. When factorization is performed as in (A1), the accuracy of camera motion and three-dimensional shape is poor.

これに対して、透視投影型因子分解法を使うと、式(A1)の因子分解法を反復的に利用して透視投影モデルに漸近させて、透視投影像の条件でカメラ運動と3次元形状を同時に復元することができる。この方法により正射影、弱透視、平行透視投影モデルより高精度にカメラ運動と3次元形状が得られるが、各反復において分解した際の符号を考慮する必要があり、場合によっては透視投影を満たす正確なカメラ運動と3次元形状を求めることが困難であった。
C.Tomasi and T.Kanade;"Shape and Motion from Image Streams UnderOrthography:A Factorization Method",International Journal of Computer Vision,Vol.9,No.2,1992。
On the other hand, when the perspective projection type factorization method is used, the factorization method of the formula (A1) is repeatedly used to asymptotically approach the perspective projection model, and the camera motion and the three-dimensional shape are obtained under the conditions of the perspective projection image. Can be restored at the same time. This method can obtain camera motion and three-dimensional shape with higher accuracy than orthographic, weak perspective, and parallel perspective projection models. However, it is necessary to consider the sign at the time of decomposition in each iteration. It was difficult to obtain accurate camera motion and 3D shape.
C. Tomasi and T. Kanade; "Shape and Motion from Image Streams UnderOrthography: A Factorization Method", International Journal of Computer Vision, Vol. 9, No. 2,1992.

カメラを車両などの移動手段に搭載し、市街地を移動観測する場合、路面と車両の関係でカメラ振動(カメラの揺れ)が発生する。また、カメラ付き携帯電話、ディジタルカメラなどの市販カメラで被写体を撮影したとき、手振れが発生し、撮影中に微小に振動することで映像シーンが揺れるという問題がある。   When a camera is mounted on a moving means such as a vehicle and moving and observed in an urban area, camera vibration (camera shake) occurs due to the relationship between the road surface and the vehicle. In addition, when a subject is photographed with a commercially available camera such as a mobile phone with a camera or a digital camera, there is a problem that a camera shake occurs and the video scene is shaken by a slight vibration during the photographing.

このようなカメラ振動や手振れのある映像シーンにおいてカメラ運動と3次元形状を復元しようとするとき、因子分解法が有効な手法であるが、透視投影型因子分解法を使う場合、カメラ振動や手振れによるカメラ振動を正確に求めることができず、そのため3次元形状が歪んでしまうという問題があった。この問題は並進運動として復元されなければならないカメラ運動が回転運動に転換されてしまうことが原因の一つとなっている。   The factorization method is effective when trying to restore the camera motion and 3D shape in a video scene with camera vibration and camera shake. However, when using the perspective projection type factorization method, the camera vibration and camera shake are effective. Therefore, there is a problem in that the camera vibration cannot be accurately obtained, and the three-dimensional shape is distorted. This problem is caused by the fact that the camera motion that must be restored as translational motion is converted into rotational motion.

一方、市販カメラにはカメラ振動や手振れ補正機能を有するカメラもあり、撮影中のカメラ振動や手振れを低減したシームレスな映像シーンを撮影することができる。一般的に、手振れ補正は角度センサやジャイロセンサによりカメラ振動や手振れの振動を検出し、それに合わせて集光レンズを移動させるという光学式手振れ補正タイプと、画面中のオプティカルフローを検出してCCD面において画素をシフトして揺れを低減させる電子式手振れ補正タイプに大別できる。しかし、どちらの補正方式においてもカメラ運動と3次元形状を復元するための投影モデルを定式化することが困難であり、正確な投影モデルを得るには多くのパラメータが介在するため、因子分解法の適用が困難である。   On the other hand, some commercially available cameras have camera vibration and camera shake correction functions, and can shoot seamless video scenes with reduced camera vibration and camera shake during shooting. In general, camera shake correction is an optical camera shake correction type that detects camera vibration or camera shake vibration using an angle sensor or gyro sensor, and moves the condensing lens accordingly, and CCD that detects optical flow in the screen. It can be roughly classified into an electronic image stabilization type that shifts pixels on the surface to reduce shaking. However, in both correction methods, it is difficult to formulate a projection model for restoring the camera motion and the three-dimensional shape, and many parameters are involved in obtaining an accurate projection model. Is difficult to apply.

そこで、移動観測でのカメラ振動や手振れがある映像シーンにおいてもロバスト、かつ、高精度にカメラ運動と3次元形状を同時に復元することが重要であるが、透視投影型因子分解法のように解を得るために符号を考慮せず、かつ、安定してカメラ運動と3次元形状を求める必要がある。   Therefore, it is important to restore the camera motion and 3D shape at the same time with high accuracy and robustness even in video scenes with camera vibrations and camera shakes during movement observation. Therefore, it is necessary to obtain the camera motion and the three-dimensional shape stably without considering the sign.

カメラを使って外界を撮像し、その得られた画像系列からカメラ視点の運動と3次元情報を復元しようとするとき、カメラ視点に関する運動と対象物の3次元座標値は、図14の状況において、式(A2)の式で関係付けられる。   When the camera is used to image the outside world and the motion of the camera viewpoint and the three-dimensional information are to be restored from the obtained image sequence, the motion related to the camera viewpoint and the three-dimensional coordinate value of the object are as shown in FIG. , (A2).

Figure 2006172026
Figure 2006172026

式(A2)の(x'ij,y'ij,z'ij)は視点を原点とした単位半球面座標値であり、画像上へ投影されて得られる対象物(特徴点)の画像座標値は(xij,yij)=(x'ij/z’ij,y'ij/z'ij)として観測できる。ただし、λijは画像座標値から直接得られず、しかも、時系列に依存する成分(サフィックスがiのもの)と時系列に依存しない成分(サフィックスがjのもの)に分離できないため、式(A2)左辺においてある。式(A2)右辺は4つの行列からなっているが、3つの回転行列を展開して1つの行列にして、式(A1)右辺のカメラ運動に対応する行列とすることもできるが、式(A2)そのものから分かるように、式(A1)のように左辺には画像座標値から得た情報、右辺にはカメラ運動に対応する情報(サフィックスがiのもの)と3次元情報に対応する情報(サフィックスがjのもの)に変形することは困難である。言い換えれば、式(A2)に基づいて因子分解法を応用してカメラ運動と3次元情報を復元することはできない。 (X ′ ij , y ′ ij , z ′ ij ) in Expression (A2) is a unit hemispherical coordinate value with the viewpoint as the origin, and the image coordinate value of the object (feature point) obtained by being projected onto the image. Can be observed as (x ij , y ij ) = (x ′ ij / z ′ ij , y ′ ij / z ′ ij ). However, since λ ij cannot be obtained directly from the image coordinate values and cannot be separated into a component that depends on time series (suffix i) and a component that does not depend on time series (suffix j), A2) On the left side. Although the right side of Expression (A2) is composed of four matrices, the three rotation matrices can be expanded into one matrix, which can be a matrix corresponding to the camera movement on the right side of Expression (A1). As can be seen from A2) itself, information obtained from image coordinate values on the left side, information corresponding to camera motion (suffix i) and information corresponding to three-dimensional information are shown on the right side as in equation (A1). It is difficult to transform into (suffix j). In other words, the camera motion and the three-dimensional information cannot be restored by applying the factorization method based on the formula (A2).

本発明が解決しようとする課題は、式(A2)に示す投影モデルにおいて、下記の特許文献の方法を利用して、解の符号などのあいまいさを考慮せず、安定してカメラ運動と3次元情報を同時に、かつ、ロバストに復元することを課題とする。   The problem to be solved by the present invention is that the projection model shown in the formula (A2) uses the method of the following patent document, and does not take into account the ambiguity such as the sign of the solution and stably The problem is to restore the dimension information simultaneously and robustly.

特許文献「特開2003−271925、宮川,小澤,若林,有川:“全方位カメラ視点運動並びに物体形状復元方法、装置、全方位カメラ視点運動並びに物体形状復元方法プログラム、及び、該プログラムを記録した記録媒体”」   Patent document “Japanese Patent Laid-Open No. 2003-271925, Miyagawa, Ozawa, Wakabayashi, Arikawa:“ Omnidirectional camera viewpoint movement and object shape restoration method and apparatus, omnidirectional camera viewpoint movement and object shape restoration method program, and recording the program recoding media""

(原理的な説明)
本発明は、カメラ振動を回転運動の小さな変化であるとして、式(A2)においてカメラ運動に対して制限をつけ、その制限された回転運動のカメラ運動で撮像した投影モデルを前提とする。すなわち、式(A2)においてi=1,2,…,F;j=1,2,…,Pに行列展開した投影モデルにおいて、ロール回転、ピッチ回転が微小なとき、すなわち、cosψ≒1,sinψ≒ψ,cosω≒1,sinω≒ωとして、変形し整理すると、
(Principle explanation)
The present invention presupposes a projection model in which camera vibration is a small change in rotational motion, the camera motion is limited in equation (A2), and an image is captured with the camera motion of the limited rotational motion. That is, in the projection model in which the matrix expansion is performed with i = 1, 2,..., F; j = 1, 2,..., P in equation (A2), when the roll rotation and pitch rotation are very small, that is, cos ψ≈1, When sin ψ≈ψ, cos ω≈1, sin ω≈ω,

Figure 2006172026
Figure 2006172026

Figure 2006172026
Figure 2006172026

Figure 2006172026
Figure 2006172026

Figure 2006172026
Figure 2006172026

となる。この投影モデルでは、式(A3)右辺を見るとわかるように、右辺左側の行列は時系列に依存する情報(カメラの運動に関する情報)であり、右辺右側の行列は時系列に依存しない不変な情報(外界の3次元情報)となっている。これは前記の特許文献で因子分解される平面運動と3次元情報の形態となっている。一方、式(A3)左辺は画像から得られる情報以外に、カメラ運動と3次元情報に関する情報がかかわっており、上記のカメラ運動を制限した場合においても、投影モデルは煩雑すぎて前記の特許文献を安易に応用して、カメラ運動と3次元情報を同時に復元することはできない。しかし、画像で観測した画像座標値(xij,yij)から式(A3)左辺のように変換ができれば、前記の特許文献の手法によりカメラ運動と3次元形状を復元することができる。 It becomes. In this projection model, as can be seen from the right side of Expression (A3), the matrix on the left side of the right side is information that depends on the time series (information on camera motion), and the matrix on the right side of the right side is invariant that does not depend on the time series. It is information (three-dimensional information of the outside world). This is in the form of plane motion and three-dimensional information factorized in the above-mentioned patent document. On the other hand, the left side of equation (A3) is related to information about camera motion and three-dimensional information in addition to the information obtained from the image. Even when the above-mentioned camera motion is limited, the projection model is too complicated and the above-mentioned patent document. Cannot be restored easily to restore camera motion and 3D information at the same time. However, if the image coordinate values (x ij , y ij ) observed in the image can be converted as in the left side of equation (A3), the camera motion and the three-dimensional shape can be restored by the method of the above-mentioned patent document.

本発明では、式(A3)の投影モデルに基づき、ロール回転ωi、ピッチ回転ψi、ヨー回転θi、XYZ並進運動(Txi,Tyi,Tzi);i=1,2,…,F、並びに、外界の3次元情報(Xj,Yj,Zj);j=1,2,…,P(以降、3次元情報とは、P個の特徴点に関する3次元座標値を指す)を復元する。式(A3)を解くために、本発明における漸近行列入力ステップにおいて式(A3)左辺の行列要素を反復的に生成し、本発明における平面運動・3次元情報復元ステップにおいて前記の特許文献の手法を利用して平面運動と3次元情報を復元する。 In the present invention, roll rotation ω i , pitch rotation ψ i , yaw rotation θ i , XYZ translational motion (Tx i , Ty i , Tz i ); i = 1, 2,. , F, and the external three-dimensional information (X j , Y j , Z j ); j = 1, 2,..., P (hereinafter, the three-dimensional information is a three-dimensional coordinate value for P feature points. Restore). In order to solve the equation (A3), the matrix element on the left side of the equation (A3) is repeatedly generated in the asymptotic matrix input step in the present invention, and the method of the above-mentioned patent document is performed in the plane motion / three-dimensional information restoration step in the present invention. To restore plane motion and 3D information.

本発明はカメラ運動を平面運動へ漸近させることで、カメラ振動により揺れるカメラ運動を平面運動へ安定化させる。つまり、次の反復での式(A3)左辺の行列要素を本発明における漸近行列入力ステップにおいて、平面運動以外のピッチ、ロール回転(光軸回転以外の回転)と光軸並進運動を使って、観測した画像座標値から平面運動で投影した画像座標値へ変換する。この変換はカメラ運動を平面運動に安定化させることと等価である。本発明における安定化処理ステップでは安定化のための必要な変換係数、並びに、平面運動以外のピッチ、ロール回転(光軸回転以外の回転)と光軸並進運動を求めており、安定化が進むことで、本発明の平面運動・3次元情報復元ステップにおいて平面運動と3次元情報を高精度に求められる。   The present invention stabilizes the camera motion that is shaken by the camera vibration to the planar motion by making the camera motion asymptotic to the planar motion. That is, in the asymptotic matrix input step in the present invention, the matrix element on the left side of the formula (A3) in the next iteration uses a pitch other than plane motion, roll rotation (rotation other than optical axis rotation) and optical axis translational motion, The observed image coordinate values are converted into image coordinate values projected by plane motion. This transformation is equivalent to stabilizing the camera motion to a planar motion. In the stabilization processing step according to the present invention, necessary conversion coefficients for stabilization, pitch other than plane motion, roll rotation (rotation other than optical axis rotation) and optical axis translational motion are obtained, and stabilization proceeds. Thus, the plane motion and the three-dimensional information can be obtained with high accuracy in the plane motion / three-dimensional information restoration step of the present invention.

このように、本発明では、前記の特許文献の手法を反復的に利用して段階的に復元処理を繰り返し行うことで、近似的に、式(A3)の投影モデルに基づいたカメラ運動と3次元情報を復元することを可能としている。   As described above, according to the present invention, the reconstruction process is repeatedly performed stepwise using the method of the above-described patent document, so that the camera motion based on the projection model of Expression (A3) is approximately 3 It is possible to restore the dimension information.

以上のことから、本発明は、以下の装置、方法およびプログラムを特徴とする。   As described above, the present invention is characterized by the following apparatuses, methods, and programs.

(装置の発明)
(1)時系列画像中において、対象とする画像に配置した特徴点に関する画像座標値の時間的変化量から、時系列におけるカメラ視点の運動、並びに、外界の物体形状を構成する3次元情報を復元する装置であって、
時系列画像に設定した特徴点座標系において、各フレーム画像における特徴点の画像座標値(観測座標値)を入力し、その観測座標値にカメラの回転運動、光軸座標値、並進運動、並びに、3次元情報からなる係数をかけた座標値を要素とする漸近行列データを生成する漸近行列生成手段と、
前記漸近行列データを特異値分解し、雑音除去を行って運動情報を表す行列データと3次元情報を表す行列データを得て、その運動情報において、運動を規定するために設定した条件を満足する変換行列を求め、運動情報を表す行列データに前記変換行列を作用させてカメラ視点に関する光軸周りの回転運動と光軸と垂直な平面上の並進運動(これらの成分からなる自由度3の平面運動)を復元し、並びに、3次元情報を表す行列データに前記変換行列の逆行列を作用させて物体形状を構成する3次元情報を復元する平面運動・3次元情報復元手段と、
前記平面運動・3次元情報復元手段で得た平面運動と3次元情報から算出する再投影誤差と、前記漸近行列生成手段で得た観測座標値に、係数εと光軸座標値で変換した座標値を行列要素とする行列データを求め、その行列データを特異値分解して雑音を除去した行列データと、前記平面運動・3次元情報復元手段で得た各特徴点のZ座標値(Z方向を鉛直方向にしたときの特徴点位置の高さ)を要素とする行列から、カメラ視点の光軸方向の並進運動を復元し、その復元した光軸並進運動により係数δを更新する光軸運動復元手段と、
前記漸近行列生成手段で得た観測座標値と、前記平面運動・3次元情報復元手段で得た平面運動と3次元情報から得る再投影誤差に係数δで変換した座標値の間の誤差を求め、その誤差を行列要素とする行列データと、前記平面運動・3次元情報復元手段で得た平面運動、3次元情報、並びに、前記光軸運動復元手段で得た光軸並進運動から、光軸以外の互いに直交する軸周りの回転運動を求め、その復元した回転運動により係数εと光軸座標値を更新する回転運動復元手段と、
前記漸近行列生成手段で得た観測座標値を前記回転運動復元手段で更新された変換係数(係数ε)と光軸座標値、並びに、前記光軸運動復元手段で更新された変換係数(係数δ)を使って変換した座標値と、前記平面運動・3次元情報復元手段で得た平面運動と3次元情報から各フレーム画像に対する特徴点の再投影座標値との間で平面運動への漸近値を表す漸近誤差を求め、この漸近誤差の増減により前記光軸並進運動復元手段による処理と前記回転運動復元手段における処理を切り替えて該漸近誤差を減少(カメラ運動を平面運動へ漸近)させる処理を繰り返す安定化処理手段と、
を有することを特徴とする。
(Invention of the device)
(1) In a time-series image, the movement of the camera viewpoint in the time series and the three-dimensional information constituting the object shape of the outside world are obtained from the temporal change amount of the image coordinate values regarding the feature points arranged in the target image. A device to restore,
In the feature point coordinate system set for the time series image, the image coordinate value (observation coordinate value) of the feature point in each frame image is input, and the rotation coordinate of the camera, the optical axis coordinate value, the translational motion, and Asymptotic matrix generation means for generating asymptotic matrix data whose elements are coordinate values multiplied by a coefficient consisting of three-dimensional information;
The asymptotic matrix data is subjected to singular value decomposition, noise removal is performed to obtain matrix data representing motion information and matrix data representing three-dimensional information, and the motion information satisfies the conditions set for defining the motion. A transformation matrix is obtained, and the transformation matrix is applied to the matrix data representing the motion information, so that the rotational motion around the optical axis with respect to the camera viewpoint and the translational motion on a plane perpendicular to the optical axis (a plane with three degrees of freedom consisting of these components). A plane motion / three-dimensional information restoring means for restoring the three-dimensional information constituting the object shape by applying an inverse matrix of the transformation matrix to the matrix data representing the three-dimensional information.
The plane motion obtained by the plane motion / three-dimensional information restoration means, the reprojection error calculated from the three-dimensional information, and the coordinates converted by the coefficient ε and the optical axis coordinate values into the observed coordinate values obtained by the asymptotic matrix generation means Matrix data having values as matrix elements is obtained, matrix data obtained by singular value decomposition of the matrix data to remove noise, and the Z coordinate value (Z direction) of each feature point obtained by the plane motion / three-dimensional information restoration means Optical axis motion that restores the translational motion in the optical axis direction of the camera viewpoint from the matrix whose element is the height of the feature point position when the is vertically oriented), and updates the coefficient δ by the restored optical axis translational motion Recovery means,
An error is obtained between the observed coordinate value obtained by the asymptotic matrix generation means, the plane motion obtained by the plane motion / three-dimensional information restoration means, and the re-projection error obtained from the three-dimensional information by the coefficient δ. From the matrix data having the error as a matrix element, the plane motion obtained by the plane motion / three-dimensional information restoring means, the three-dimensional information, and the optical axis translation obtained by the optical axis motion restoring means, the optical axis Rotational motion restoration means for obtaining rotational motion around mutually orthogonal axes other than and updating the coefficient ε and the optical axis coordinate value by the restored rotational motion,
The observed coordinate values obtained by the asymptotic matrix generating means are converted into the conversion coefficient (coefficient ε) and the optical axis coordinate value updated by the rotational motion restoring means, and the conversion coefficient (coefficient δ) updated by the optical axis motion restoring means. ), The asymptotic value to the plane motion between the plane motion obtained by the plane motion / three-dimensional information restoration means and the reprojected coordinate value of the feature point for each frame image from the three-dimensional information. An asymptotic error is calculated, and processing for reducing the asymptotic error (camera motion asymptotically approaches planar motion) by switching between processing by the optical axis translational motion restoring means and processing in the rotational motion restoring means by increasing or decreasing the asymptotic error. Repetitive stabilization means,
It is characterized by having.

(2)上記(1)において、全方位画像に設定した特徴点座標系において、各フレーム画像における特徴点の画像座標値を入力する手段と、その画像座標値からある基準軸からの方位角(位相角)と、全方位カメラに使用されている投影方式に従って求められる光軸方向からの角(仰角)を求める手段と、前記位相角と仰角を使って座標変換した座標値を前記観測座標値として求める手段とを有することを特徴とする。   (2) In the feature point coordinate system set for the omnidirectional image in the above (1), means for inputting the image coordinate value of the feature point in each frame image, and an azimuth angle from a reference axis based on the image coordinate value ( (Phase angle), means for obtaining an angle (elevation angle) from the optical axis direction obtained according to the projection method used in the omnidirectional camera, and coordinate values obtained by coordinate conversion using the phase angle and elevation angle It has the means to obtain as, It is characterized by the above-mentioned.

(3)上記(1)において、時系列画像に設定した特徴点座標系において、各フレーム画像における特徴点の画像座標値を入力する手段と、その観測座標値を行列要素とする行列を特異値分解する手段と、この特異値の成分から運動の自由度を表す判定値を算出する手段と、この判定値がある一定値未満の場合は、平面運動と見なして光軸周りの回転とその光軸に垂直な平面上の運動からなる自由度3の平面運動と3次元情報を復元する手段と、前記判定値がある一定値以上の場合は、カメラの回転運動と並進運動からなる自由度6の運動と3次元情報を復元する手段とを有することを特徴とする。   (3) In the feature point coordinate system set in the time-series image in (1) above, means for inputting image coordinate values of feature points in each frame image, and a matrix having the observed coordinate values as matrix elements are singular values. A means for decomposing, a means for calculating a determination value representing the degree of freedom of movement from the component of this singular value, and if this determination value is less than a certain value, the rotation around the optical axis and its light Means for restoring three-dimensional information with three degrees of freedom consisting of movement on a plane perpendicular to the axis, and a degree of freedom of six consisting of rotational movement and translational movement of the camera if the determination value exceeds a certain value. And a means for restoring three-dimensional information.

(4)上記(1)において、全方位画像に設定した特徴点座標系において、各フレーム画像における特徴点の画像座標値を入力する手段と、その画像座標値からある基準軸からの方位角(位相角)と、全方位カメラに使用されている投影方式に従って求められる光軸方向からの角(仰角)を求める手段と、前記位相角と仰角を使って座標変換した座標値を前記観測座標値として求める手段と、
前記観測座標値を行列要素とする行列を特異値分解する手段と、この特異値の成分から運動の自由度を表す判定値を算出する手段と、この判定値がある一定値未満の場合は、平面運動と見なして光軸周りの回転とその光軸に垂直な平面上の運動からなる自由度3の平面運動と3次元情報を復元する手段と、前記判定値がある一定値以上の場合は、カメラの回転運動と並進運動からなる自由度6の運動と3次元情報を復元する手段と、
を有することを特徴とする。
(4) In the feature point coordinate system set in the omnidirectional image in (1) above, means for inputting the image coordinate value of the feature point in each frame image, and an azimuth angle from a reference axis (from the image coordinate value) (Phase angle), means for obtaining an angle (elevation angle) from the optical axis direction obtained according to the projection method used in the omnidirectional camera, and coordinate values obtained by coordinate conversion using the phase angle and elevation angle As a means to seek
Means for singular value decomposition of a matrix having the observed coordinate values as matrix elements, means for calculating a determination value representing the degree of freedom of movement from the component of this singular value, and when the determination value is less than a certain value, If the judgment value is greater than a certain value, it is considered to be a planar motion, means for restoring three-dimensional information with three degrees of freedom consisting of rotation around the optical axis and motion on a plane perpendicular to the optical axis. A means for restoring the three-dimensional information and the six-degree-of-freedom motion comprising the rotational motion and translational motion of the camera;
It is characterized by having.

(方法の発明)
(5)時系列画像中において、対象とする画像に配置した特徴点に関する画像座標値の時間的変化量から、時系列におけるカメラ視点の運動、並びに、外界の物体形状を構成する3次元情報を復元する方法であって、
時系列画像に設定した特徴点座標系において、各フレーム画像における特徴点の画像座標値(観測座標値)を入力し、その観測座標値にカメラの回転運動、光軸座標値、並進運動、並びに、3次元情報からなる係数をかけた座標値を要素とする漸近行列データを生成する漸近行列生成ステップと、
前記漸近行列データを特異値分解し、雑音除去を行って運動情報を表す行列データと3次元情報を表す行列データを得て、その運動情報において、運動を規定するために設定した条件を満足する変換行列を求め、運動情報を表す行列データに前記変換行列を作用させてカメラ視点に関する光軸周りの回転運動と光軸と垂直な平面上の並進運動(これらの成分からなる自由度3の平面運動)を復元し、並びに、3次元情報を表す行列データに前記変換行列の逆行列を作用させて物体形状を構成する3次元情報を復元する平面運動・3次元情報復元ステップと、
前記平面運動・3次元情報復元ステップで得た平面運動と3次元情報から算出する再投影誤差と、前記漸近行列生成ステップで得た観測座標値に、係数εと光軸座標値で変換した座標値を行列要素とする行列データを求め、その行列データを特異値分解して雑音を除去した行列データと、前記平面運動・3次元情報復元ステップで得た各特徴点のZ座標値(Z方向を鉛直方向にしたときの特徴点位置の高さ)を要素とする行列から、カメラ視点の光軸方向の並進運動を復元し、その復元した光軸並進運動により係数δを更新する光軸運動復元ステップと、
前記漸近行列生成ステップで得た観測座標値と、前記平面運動・3次元情報復元ステップで得た平面運動と3次元情報から得る再投影誤差に係数δで変換した座標値の間の誤差を求め、その誤差を行列要素とする行列データと、前記平面運動・3次元情報復元ステップで得た平面運動、3次元情報、並びに、前記光軸運動復元ステップで得た光軸並進運動から、光軸以外の互いに直交する軸周りの回転運動を求め、その復元した回転運動により係数εと光軸座標値を更新する回転運動復元ステップと、
前記漸近行列生成ステップで得た観測座標値を前記回転運動復元ステップで更新された変換係数(係数ε)と光軸座標値、並びに、前記光軸運動復元ステップで更新された変換係数(係数δ)を使って変換した座標値と、前記平面運動・3次元情報復元ステップで得た平面運動と3次元情報から各フレーム画像に対する特徴点の再投影座標値との間で平面運動への漸近値を表す漸近誤差を求め、この漸近誤差の増減により前記光軸並進運動復元ステップによる処理と前記回転運動復元ステップにおける処理を切り替えて該漸近誤差を減少(カメラ運動を平面運動へ漸近)させる処理を繰り返す安定化処理ステップと、
を有することを特徴とする。
(Invention of method)
(5) In the time-series image, the movement of the camera viewpoint in the time series and the three-dimensional information constituting the object shape of the outside world are obtained from the temporal change amount of the image coordinate value regarding the feature point arranged in the target image. A method of restoring,
In the feature point coordinate system set for the time series image, the image coordinate value (observation coordinate value) of the feature point in each frame image is input, and the rotation coordinate of the camera, the optical axis coordinate value, the translational motion, and An asymptotic matrix generating step for generating asymptotic matrix data having a coordinate value multiplied by a coefficient consisting of three-dimensional information as an element;
The asymptotic matrix data is subjected to singular value decomposition, noise removal is performed to obtain matrix data representing motion information and matrix data representing three-dimensional information, and the motion information satisfies the conditions set for defining the motion. A transformation matrix is obtained, and the transformation matrix is applied to the matrix data representing the motion information, so that the rotational motion around the optical axis with respect to the camera viewpoint and the translational motion on a plane perpendicular to the optical axis (a plane with three degrees of freedom consisting of these components). A plane motion / three-dimensional information restoring step for restoring the three-dimensional information constituting the object shape by applying an inverse matrix of the transformation matrix to the matrix data representing the three-dimensional information.
Coordinates obtained by converting the plane motion obtained in the plane motion / three-dimensional information restoration step, the reprojection error calculated from the three-dimensional information, and the observed coordinate value obtained in the asymptotic matrix generation step using the coefficient ε and the optical axis coordinate value. Matrix data having values as matrix elements is obtained, the matrix data obtained by singular value decomposition of the matrix data to remove noise, and the Z coordinate value (Z direction) of each feature point obtained in the plane motion / three-dimensional information restoration step. Optical axis motion that restores the translational motion in the optical axis direction of the camera viewpoint from the matrix whose element is the height of the feature point position when the is vertically oriented), and updates the coefficient δ by the restored optical axis translational motion A restore step,
An error between the observed coordinate value obtained in the asymptotic matrix generation step, the plane value obtained in the plane motion / three-dimensional information restoration step, and the re-projection error obtained from the three-dimensional information is obtained by a coefficient δ. From the matrix data having the error as a matrix element, the plane motion obtained in the plane motion / three-dimensional information restoration step, the three-dimensional information, and the optical axis translation obtained in the optical axis motion restoration step, the optical axis A rotational motion restoring step for obtaining rotational motion around mutually orthogonal axes other than and updating the coefficient ε and the optical axis coordinate value by the restored rotational motion,
The observed coordinate values obtained in the asymptotic matrix generation step are converted into the conversion coefficient (coefficient ε) and the optical axis coordinate value updated in the rotational motion restoration step, and the conversion coefficient (coefficient δ) updated in the optical axis motion restoration step. ), The asymptotic value to the plane motion between the plane motion obtained in the plane motion / three-dimensional information restoration step and the reprojected coordinate value of the feature point for each frame image from the three-dimensional information. An asymptotic error representing the following is obtained, and processing to reduce the asymptotic error (camera motion is asymptotic to planar motion) by switching the processing in the optical axis translational motion restoration step and the processing in the rotational motion restoration step by increasing or decreasing the asymptotic error. Repeated stabilization steps;
It is characterized by having.

(6)上記(5)において、全方位画像に設定した特徴点座標系において、各フレーム画像における特徴点の画像座標値を入力するステップと、その画像座標値からある基準軸からの方位角(位相角)と、全方位カメラに使用されている投影方式に従って求められる光軸方向からの角(仰角)を求めるステップと、前記位相角と仰角を使って座標変換した座標値を前記観測座標値として求めるステップとを有することを特徴とする。   (6) In the feature point coordinate system set in the omnidirectional image in (5) above, the step of inputting the image coordinate value of the feature point in each frame image, and the azimuth angle from a reference axis based on the image coordinate value ( Phase angle), a step of obtaining an angle (elevation angle) from the optical axis direction obtained according to the projection method used for the omnidirectional camera, and a coordinate value obtained by performing coordinate transformation using the phase angle and the elevation angle. And a step of obtaining as follows.

(7)上記(5)において、時系列画像に設定した特徴点座標系において、各フレーム画像における特徴点の画像座標値を入力するステップと、その観測座標値を行列要素とする行列を特異値分解するステップと、この特異値の成分から運動の自由度を表す判定値を算出するステップと、この判定値がある一定値未満の場合は、平面運動と見なして光軸周りの回転とその光軸に垂直な平面上の運動からなる自由度3の平面運動と3次元情報を復元するステップと、前記判定値がある一定値以上の場合は、カメラの回転運動と並進運動からなる自由度6の運動と3次元情報を復元するステップとを有することを特徴とする。   (7) In the feature point coordinate system set in the time series image in (5) above, a step of inputting image coordinate values of feature points in each frame image, and a matrix having the observed coordinate values as matrix elements are singular values. A step of decomposing, a step of calculating a determination value representing the degree of freedom of movement from the component of this singular value, and if this determination value is less than a certain value, the rotation around the optical axis and the light A step of restoring three-dimensional information with three degrees of freedom consisting of movement on a plane perpendicular to the axis, and a degree of freedom of six consisting of rotational movement and translational movement of the camera if the determination value is greater than a certain value. And a step of restoring three-dimensional information.

(8)上記(5)において、全方位画像に設定した特徴点座標系において、各フレーム画像における特徴点の画像座標値を入力するステップと、その画像座標値からある基準軸からの方位角(位相角)と、全方位カメラに使用されている投影方式に従って求められる光軸方向からの角(仰角)を求めるステップと、前記位相角と仰角を使って座標変換した座標値を前記観測座標値として求めるステップと、
前記観測座標値を行列要素とする行列を特異値分解するステップと、この特異値の成分から運動の自由度を表す判定値を算出するステップと、この判定値がある一定値未満の場合は、平面運動と見なして光軸周りの回転とその光軸に垂直な平面上の運動からなる自由度3の平面運動と3次元情報を復元するステップと、前記判定値がある一定値以上の場合は、カメラの回転運動と並進運動からなる自由度6の運動と3次元情報を復元するステップと、
を有することを特徴とする。
(8) In the feature point coordinate system set in the omnidirectional image in (5) above, the step of inputting the image coordinate value of the feature point in each frame image, and the azimuth angle from a certain reference axis from the image coordinate value ( Phase angle), a step of obtaining an angle (elevation angle) from the optical axis direction obtained according to the projection method used for the omnidirectional camera, and a coordinate value obtained by performing coordinate transformation using the phase angle and the elevation angle. And asking for steps
A step of singular value decomposition of a matrix having the observed coordinate values as matrix elements, a step of calculating a determination value representing the degree of freedom of movement from the component of the singular value, and the determination value is less than a certain value, A step of restoring three-dimensional information with three degrees of freedom consisting of rotation around the optical axis and movement on a plane perpendicular to the optical axis as if it were a plane movement, Reconstructing the three-dimensional information and the six-degree-of-freedom motion comprising the rotational motion and translational motion of the camera;
It is characterized by having.

(プログラムの発明)
上記(5)〜(8)のいずれか1項に記載のカメラ運動と3次元情報の復元法における処理手順をコンピュータで実行可能に構成したことを特徴とする。
(Invention of the program)
The processing procedure in the camera motion and three-dimensional information restoration method described in any one of (5) to (8) above is configured to be executable by a computer.

以上のとおり、本発明によれば、カメラを使って取得した時系列画像全般(移動手段を利用して撮影した車載画像、海上画像、空撮画像、屋内画像、魚眼カメラや全方位カメラ、または手動撮影した画像)から、カメラの運動(回転運動と並進運動)と対象物に関する物体形状を高精度に獲得、復元することが可能となる。   As described above, according to the present invention, all time-series images acquired using a camera (vehicle-mounted images, sea images, aerial images, indoor images, fish-eye cameras, omnidirectional cameras, Alternatively, it is possible to acquire and restore the motion of the camera (rotational motion and translational motion) and the object shape related to the object with high accuracy from the manually captured image.

手動撮影には手振れがあり、車載カメラには走行中の振動があるため、本発明は、このようなカメラ振動においても雑音にロバストに、微小なカメラ姿勢の変動(三軸周り回転運動)を復元することができる。特に、図15でのカメラを車載した移動観測に本発明を応用した場合、GPSなどのリモートセンサを補間する精度の三軸方向の並進運動を正確に計測することが可能となる。   Since manual shooting has camera shake and the on-vehicle camera has vibration during traveling, the present invention is robust to noise even in such camera vibration, and can perform minute camera posture fluctuations (rotation around three axes). Can be restored. In particular, when the present invention is applied to the mobile observation with the camera shown in FIG. 15, it is possible to accurately measure the translational motion in the three-axis directions with the accuracy of interpolating a remote sensor such as GPS.

本発明で使用する計算は、大半が線形演算で構成されるため、コンピュータ言語での実装が容易である。   Since most of the calculations used in the present invention are composed of linear operations, implementation in a computer language is easy.

(実施形態1)
図1は請求項1等に関する基本構成図であり、図2は時系列画像データベース部などの記憶装置を必要としない、リアルタイムで処理する場合の処理構成図であり、図3は図1または図2における波線ブロック部分の処理フローである。
(Embodiment 1)
FIG. 1 is a basic configuration diagram relating to claim 1 and the like, FIG. 2 is a processing configuration diagram in the case of processing in real time that does not require a storage device such as a time-series image database unit, and FIG. 2 is a processing flow of a wavy line block portion in FIG.

本実施形態を図1〜図3により説明する。本実施形態では、時系列画像を格納する時系列画像データベース部1、そのデータベース部1から画像系列を取り出し、全フレーム間の特徴点の画像座標値を観測し、カメラ運動と3次元情報を復元するための元になる行列データ(以下、漸近行列データ)を生成する漸近行列生成部2、漸近行列データから前記の特許文献の手法を利用して平面運動と3次元情報を復元する平面運動・3次元情報復元部3、光軸回転以外の回転運動と光軸並進運動を復元し、カメラ運動を平面運動へ漸近(安定化)させるために次の反復が必要かどうかの判定を行い、反復が必要な場合は漸近行列生成部2へ漸近行列データを生成するために必要な情報を渡す安定化処理部4から構成される。この構成において、時系列画像データベース部1には、ハードディスク、RAID装置、CD−ROMなどの記録媒体を利用する形態、または、ネットワークを介したリモートなデータ資源を利用する形態でもどちらでも構わない。また、図2の画像入力部1Aは時系列画像データベース部1に代えて、データ資源をリアルタイムで得る。   This embodiment will be described with reference to FIGS. In this embodiment, a time-series image database unit 1 for storing time-series images, an image sequence is extracted from the database unit 1, image coordinate values of feature points between all frames are observed, and camera motion and three-dimensional information are restored. An asymptotic matrix generator 2 for generating matrix data (hereinafter referred to as asymptotic matrix data) to be a base for performing plane motion and three-dimensional information to restore plane motion and three-dimensional information from the asymptotic matrix data using the method of the above-mentioned patent document 3D information restoration unit 3, restores rotational motion other than optical axis rotation and optical axis translational motion, and determines whether the next iteration is necessary to make the camera motion asymptotic (stabilized) to planar motion. Is required, the stabilization processing unit 4 passes information necessary for generating asymptotic matrix data to the asymptotic matrix generation unit 2. In this configuration, the time series image database unit 1 may be in a form using a recording medium such as a hard disk, a RAID device, a CD-ROM, or a form using remote data resources via a network. Also, the image input unit 1A in FIG. 2 obtains data resources in real time instead of the time-series image database unit 1.

図14において、本発明で復元する対象の空間中の点Pj(Xj,Yj,Zj)と、カメラの運動、すなわち、ロール回転(ωi)、ピッチ回転(ψi)、ヨー回転(θi)、並びに、並進運動Ti(Txi,Tyi,Tzi)を説明する。図14ではカメラと対象物(被写体)との位置関係を表しており、運動の中心は視点としており、視点を原点としたカメラ座標系XYZ、原点Oとした世界座標系XwYwZwを設定する。説明の都合上、カメラ光軸をZ軸方向とし、光軸に垂直な平面をXY平面とする。この座標系において、カメラは、並進運動(Txi,Tyi,Tzi)で移動しながら、ロール回転(ωi)、ピッチ回転(ψi)、ヨー回転(θi)の回転をして点Pjを観測する。像が投影される投影中心(主点)の位置(視点位置Ti)はカメラ運動の中心であり、第iフレームでの並進運動Ti(Txi,Tyi,Tzi)の位置とする。対象物の点Pj(Xj,Yj,Zj)はカメラにより画像面において投影中心を原点とした画像座標値(xij,yij)へ投影されるとする。なお、初期フレームでの視点とOは一致しているとし、光軸はZw軸と平行関係にあり、θiはXとXw軸との成す角とするが、一般性を損なわない。 In FIG. 14, the point P j (X j , Y j , Z j ) in the space to be restored in the present invention and the camera motion, that is, roll rotation (ω i ), pitch rotation (ψ i ), yaw The rotation (θ i ) and the translational movement T i (Tx i , Ty i , Tz i ) will be described. FIG. 14 shows the positional relationship between the camera and the object (subject), the center of motion is the viewpoint, and the camera coordinate system XYZ with the viewpoint as the origin and the world coordinate system XwYwZw with the origin O are set. For convenience of explanation, the camera optical axis is the Z-axis direction, and the plane perpendicular to the optical axis is the XY plane. In this coordinate system, the camera rotates by roll rotation (ω i ), pitch rotation (ψ i ), and yaw rotation (θ i ) while moving in translational motion (Tx i , Ty i , Tz i ). Observe the point P j . The position (viewpoint position T i ) of the projection center (principal point) on which the image is projected is the center of the camera movement, and is the position of the translational movement T i (Tx i , Ty i , Tz i ) in the i-th frame. . It is assumed that the point P j (X j , Y j , Z j ) of the object is projected by the camera onto the image coordinate value (x ij , y ij ) with the projection center as the origin on the image plane. Note that the viewpoint in the initial frame and O coincide with each other, the optical axis is parallel to the Zw axis, and θ i is the angle formed by the X and Xw axes, but the generality is not impaired.

まず、図1又は図2の漸近行列生成部2において、対象物を撮影した時系列画像として時系列画像データベース部1からフレーム数Fの画像系列を取り出す。この取り出した画像系列において特徴点追跡を行う。特徴点は従来から用いられているような以下の手順により抽出する。初期画像(画像1)の領域において(1)各画素に対する2×2のヘッセ行列を求める。次に、(2)各点の3×3近傍領域において極大点かどうか判定し、極大点以外の点を削除する(non-maxima suppression)。さらに、(3)得られた各点のヘッセ行列の固有値σl,σs(σs≦σl)を求め、σsが所定の許容値σp以上となる点を抽出する。最後に、(4)抽出した点のσsの大きさの順にソートし、上位の点から順番にその点(pl)より上位の点(ph)が所定の画素数σd以内の距離に存在するかどうかを判定し、もし、存在する場合は下位の点plを削除する。さらに、抽出した特徴点(j=1,2,…,P)をKLT法(Kanade-Lucas-Tomasi)により画像i(i=2,…,F)にわたって追跡し、画像座標値(xij,yij)を観測する。このようにして得られた特徴の画像座標値を式(1)に示す配列に並べた2F×Pの行列データ(行列データ[A])を用意する。 First, in the asymptotic matrix generation unit 2 of FIG. 1 or FIG. 2, an image sequence of the number of frames F is extracted from the time-series image database unit 1 as a time-series image obtained by photographing the object. Feature point tracking is performed on the extracted image series. The feature points are extracted by the following procedure as used conventionally. In the region of the initial image (image 1), (1) a 2 × 2 Hessian matrix for each pixel is obtained. Next, (2) it is determined whether or not the point is a local maximum in the 3 × 3 neighborhood of each point, and points other than the local maximum are deleted (non-maxima suppression). Further, (3) eigenvalues σ l and σ ss ≦ σ l ) of the obtained Hessian matrix are obtained, and points where σ s is equal to or greater than a predetermined allowable value σ p are extracted. Finally, (4) sorting is performed in the order of the size of σ s of the extracted points, and the point (p h ) higher than the point (p l ) in order from the upper point is the distance within the predetermined number of pixels σ d If it exists, the lower point p 1 is deleted. Further, the extracted feature points (j = 1, 2,..., P) are tracked over the image i (i = 2,..., F) by the KLT method (Kanade-Lucas-Tomasi), and the image coordinate values (x ij , y ij ) is observed. 2F × P matrix data (matrix data [A]) in which the image coordinate values of the features obtained in this way are arranged in the array shown in Expression (1) is prepared.

Figure 2006172026
Figure 2006172026

図3の観測座標値の入力(S1)から行列データ[A]を漸近行列データの生成(S2)へ渡す。漸近行列データの生成(S2)では、係数εij=1,δij=1,(ζi,ηi)=(0,0),Tzi=0と初期化し、式(2)に従って変換座標値(x'ij,y'ij)を得る。変換座標値(x'ij,y'ij)を行列要素とする2F×Pの式(1a)の漸近行列データ[B]を生成する。このとき、初期設定として、安定化モードを“回転モード”にしておく。 The matrix data [A] is transferred to the generation of asymptotic matrix data (S2) from the input of observed coordinate values (S1) in FIG. In the generation of asymptotic matrix data (S2), coefficients ε ij = 1, δ ij = 1, (ζ i , η i ) = (0, 0), Tz i = 0 are initialized, and converted coordinates according to equation (2) A value (x ′ ij , y ′ ij ) is obtained. Asymptotic matrix data [B] of 2F × P expression (1a) having the converted coordinate values (x ′ ij , y ′ ij ) as matrix elements is generated. At this time, as an initial setting, the stabilization mode is set to the “rotation mode”.

Figure 2006172026
Figure 2006172026

Figure 2006172026
Figure 2006172026

次に、図1または図2の平面運動・3次元情報復元部3に漸近行列データが与えられると、図3の特異値分解(S3)において式(3)に示す3つの行列[U],[W],[V]に行列分解する。   Next, when asymptotic matrix data is given to the planar motion / three-dimensional information restoration unit 3 of FIG. 1 or FIG. 2, three matrices [U], shown in the equation (3) in the singular value decomposition (S3) of FIG. Matrix decomposition into [W] and [V].

Figure 2006172026
Figure 2006172026

ここで、[U]は2F×Pサイズの行列、[W]はP×Pサイズの対角行列、[V]はP×Pサイズの行列である。さらに、図3の雑音除去(S4)では、式(4)の第二項に示すように、ランク4以上の各行列の成分を削除する。   Here, [U] is a 2F × P size matrix, [W] is a P × P size diagonal matrix, and [V] is a P × P size matrix. Further, in the noise removal (S4) of FIG. 3, as shown in the second term of the equation (4), the components of each matrix of rank 4 or higher are deleted.

Figure 2006172026
Figure 2006172026

この削除のときは、行列[U]を取り出し、この行列の要素において第4から第P列目までを削除し、残りの成分からなる行列を保持し、行列[W]を取り出し、この行列の要素において第4から第P行目並びに第4から第P列目までを削除し、残りの成分からなる行列を保持し、行列[V]を取り出し、この行列の要素において第4から第P行目までを削除し、残りの成分からなる行列をそれぞれ保持する。この雑音除去は、式(5)に示すようになる。   At the time of this deletion, the matrix [U] is taken out, the fourth to Pth columns are deleted from the elements of this matrix, the matrix consisting of the remaining components is held, the matrix [W] is taken out, The fourth to Pth rows and the fourth to Pth columns are deleted in the element, the matrix composed of the remaining components is retained, the matrix [V] is extracted, and the fourth to Pth rows are extracted from the elements of this matrix. Delete up to the eyes and keep the matrix of the remaining components. This noise removal is as shown in equation (5).

Figure 2006172026
Figure 2006172026

次に、第4から第P行目並びに第4から第P列目までを削除した行列[W]の対角要素の平方をとった行列から、式(6)、(7)に示す行列[U’]と行列[V’]を得る。   Next, from the matrix obtained by taking the square of the diagonal elements of the matrix [W] from which the 4th to Pth rows and the 4th to Pth columns have been deleted, the matrix shown in Equations (6) and (7) [ U ′] and matrix [V ′] are obtained.

Figure 2006172026
Figure 2006172026

Figure 2006172026
Figure 2006172026

図3の変換行列算出(S5)では、保持してある行列[U’]を取り出し、式(8)〜(10)で得られる値を行列要素にもつ式(11)の行列[D]を準備し、この行列[D]と式(12)に示す計算を行い、値a,b,c,d,e,fを求める。なお、式(12)の右辺の最後の行列は1の値を上から2F個、続けて0の値をF個並べた3F×1の列ベクトルである。値a,b,c,d,e,fを式(13)に示す要素に入れた行列[C]を用意し、この行列[C]を式(14)に示すように固有値分解する。ここで、固有値行列の平方と固有値行列から、式(15)の行列[C’]を生成し、この行列要素を成分にもつ行列[Q]を式(16)に従って算出する。   In the transformation matrix calculation (S5) of FIG. 3, the held matrix [U ′] is taken out, and the matrix [D] of Expression (11) having values obtained by Expressions (8) to (10) as matrix elements is obtained. Prepare and perform the calculation shown in the matrix [D] and the equation (12) to obtain the values a, b, c, d, e, and f. Note that the last matrix on the right side of Expression (12) is a 3F × 1 column vector in which 2 values from the top are 1F, and F values from 0 are subsequently arranged. A matrix [C] in which the values a, b, c, d, e, and f are put in the elements shown in the equation (13) is prepared, and the matrix [C] is subjected to eigenvalue decomposition as shown in the equation (14). Here, a matrix [C ′] of Expression (15) is generated from the square of the eigenvalue matrix and the eigenvalue matrix, and a matrix [Q] having these matrix elements as components is calculated according to Expression (16).

Figure 2006172026
Figure 2006172026

Figure 2006172026
Figure 2006172026

Figure 2006172026
Figure 2006172026

Figure 2006172026
Figure 2006172026

Figure 2006172026
Figure 2006172026

Figure 2006172026
Figure 2006172026

Figure 2006172026
Figure 2006172026

Figure 2006172026
Figure 2006172026

Figure 2006172026
Figure 2006172026

次に、図3の平面運動復元(S6)では、前記の式(A3)の投影モデル式に基づいて、式(A3)右辺左側の行列を式(17)で得られる行列[M’]に、式(A3)右辺右側の行列を式(20)で得られる行列[S’]とする。この対応付けにより、式(17)の行列成分から光軸周りの回転(ヨー回転角)θiとXY並進運動を復元し、式(20)の行列要素からユークリッド空間での3次元情報(X,Y,Z)を復元する。求めた行列[Q]と、保持しておいた行列[U’]から、式(17)の行列演算により行列[M’]を計算する。行列[M’]から各フレーム(第iフレーム)の行列要素(mix,nix)または(miy,niy)を取り出し、式(18)を使って、ヨー回転θi,i=1,2,…,Fを復元する。また、行列[M’]から各フレーム(第iフレーム)の行列要素(Tiu,Tiv)を取り出す。この(Tiu,Tiv)から、式(19)を使って第iフレームにおけるユークリッド空間でのXY並進運動(Txi,Tyi),i=1,2,…,Fを計算する。 Next, in the plane motion restoration (S6) of FIG. 3, based on the projection model formula of the formula (A3), the matrix on the left side of the formula (A3) is changed to the matrix [M ′] obtained by the formula (17). The matrix on the right side of the right side of equation (A3) is defined as the matrix [S ′] obtained by equation (20). By this association, the rotation (yaw rotation angle) θ i around the optical axis and the XY translational motion are restored from the matrix component of Expression (17), and the three-dimensional information (X in the Euclidean space (X , Y, Z). From the obtained matrix [Q] and the retained matrix [U ′], the matrix [M ′] is calculated by the matrix operation of Expression (17). The matrix element (m ix , n ix ) or (m iy , n iy ) of each frame (i-th frame) is extracted from the matrix [M ′], and the yaw rotation θ i , i = 1 is obtained using equation (18). , 2, ..., F are restored. Further, the matrix element (T iu , T iv ) of each frame (i-th frame) is extracted from the matrix [M ′]. From this (T iu , T iv ), XY translational motion (T xi , T yi ), i = 1, 2,..., F in the Euclidean space in the i-th frame is calculated using equation (19).

Figure 2006172026
Figure 2006172026

Figure 2006172026
Figure 2006172026

Figure 2006172026
Figure 2006172026

一方、図3の3次元情報復元(S7)では、先に保持しておいた行列[V’]と、変換行列算出(S5)で得られた行列[Q]から、式(20)に示す行列演算を行い、行列[S’]を求める。次に、行列[S’]の要素に対して、式(21)に示す計算を行い、これを要素とする行列を[P]とする。行列を[P]の列ベクトルは、それぞれ第j番目の特徴点のユークリッド空間での3次元座標値(Xj,Yj,Zj)になっている。 On the other hand, in the three-dimensional information restoration (S7) in FIG. 3, the matrix [V ′] previously held and the matrix [Q] obtained by the transformation matrix calculation (S5) are shown in Expression (20). Matrix operation is performed to obtain a matrix [S ′]. Next, the calculation shown in Expression (21) is performed on the elements of the matrix [S ′], and the matrix having these elements as [P]. The column vector of the matrix [P] is a three-dimensional coordinate value (X j , Y j , Z j ) in the Euclidean space of the jth feature point.

Figure 2006172026
Figure 2006172026

Figure 2006172026
Figure 2006172026

次に、図1又は図2の安定化処理部4では、図3のチェック(S8)により、安定化モードが回転モードか光軸並進モードのどちらであるかをチェックし、異なる処理を行う。もし、安定化モードが回転モードのときは図3の回転運動安定化(S9)に、安定化モードが光軸並進モードのときは図3の光軸並進運動安定化(S10)に処理を進める。   Next, the stabilization processing unit 4 shown in FIG. 1 or 2 checks whether the stabilization mode is the rotation mode or the optical axis translation mode by performing the check (S8) in FIG. 3, and performs different processing. If the stabilization mode is the rotation mode, the process proceeds to rotational motion stabilization (S9) in FIG. 3, and if the stabilization mode is the optical axis translation mode, the process proceeds to optical axis translational motion stabilization (S10) in FIG. .

回転運動安定化(S9)では、係数δijが既知としてピッチ回転とロール回転を求める。この処理では、画像系列から観測した画像座標値(xij,yij)と、平面運動・3次元情報復元部3で得られる再投影座標値(Uij,Vij)の間の誤差が、ピッチ回転とロール回転から発生する誤差であるとしている。これを数式で表現すると、 In the rotational motion stabilization (S9), pitch rotation and roll rotation are obtained assuming that the coefficient δ ij is known. In this processing, an error between the image coordinate values (x ij , y ij ) observed from the image series and the reprojection coordinate values (U ij , V ij ) obtained by the plane motion / three-dimensional information restoration unit 3 is The error is caused by pitch rotation and roll rotation. If this is expressed in mathematical formulas,

Figure 2006172026
Figure 2006172026

となる。これは式(A3)左辺の行列要素で表現すると、 It becomes. This can be expressed by the matrix element on the left side of equation (A3).

Figure 2006172026
Figure 2006172026

となる。式(A8)左辺を式(A4),(A6)を使って展開すると、 It becomes. When the left side of Expression (A8) is expanded using Expressions (A4) and (A6),

Figure 2006172026
Figure 2006172026

となる。行列[Ri],[Ai]は式(22),(22a)〜(22d),(23)である。したがって、式(A9)の関係から、ピッチ回転ψi、ロール回転ωiは、式(24)の計算で求められる。 It becomes. The matrices [R i ] and [A i ] are the expressions (22), (22a) to (22d), and (23). Therefore, the pitch rotation ψ i and the roll rotation ω i are obtained by the calculation of the equation (24) from the relationship of the equation (A9).

Figure 2006172026
Figure 2006172026

Figure 2006172026
Figure 2006172026

Figure 2006172026
Figure 2006172026

Figure 2006172026
Figure 2006172026

Figure 2006172026
Figure 2006172026

Figure 2006172026
Figure 2006172026

Figure 2006172026
Figure 2006172026

以上の計算についての安定化処理(S9)、(S10)の詳細な処理フローが図4および図5である。図4に示す回転運動安定化(S9)では、式(1)に示すデータ形式の行列データ[A]の各行列要素と、係数δij、並びに、上記で復元した平面運動・3次元情報復元部3による再投影座標値の算出(S22)と3次元情報復元(S23)から、前記の式(A7)に示す誤差(Δxij,Δyij)を計算する(S21)。さらに、式(22a)〜(22d)の値を計算し(S24)、これを要素とする式(22)の行列[Ri]を準備する(S25)。一方、誤差(Δxij,Δyij)を行列要素とする式(23)の行列[Ai]を準備し(S26)、式(24)の演算を行って、ロール回転ωi、ピッチ回転ψi、を復元する(S27)。これを全フレーム(i=1,2,…,F)にわたり求める。このとき、同時に、式(25)の計算により各フレームでの(ζi,ηi),i=1,2,…,Fを求め、以前の(ζi,ηi),i=1,2,…,Fを更新すると共に、式(A6)により求めたピッチ回転ψi、ロール回転ωiを代入して係数εijを更新する(S28)。 FIG. 4 and FIG. 5 show detailed processing flows of the stabilization processing (S9) and (S10) for the above calculation. In the rotational motion stabilization (S9) shown in FIG. 4, each matrix element of the matrix data [A] in the data format shown in Expression (1), the coefficient δ ij , and the planar motion / three-dimensional information restoration restored above. The error (Δx ij , Δy ij ) shown in the above equation (A7) is calculated from the reprojection coordinate value calculation (S22) and the three-dimensional information restoration (S23) by the unit 3 (S21). Further, the values of the equations (22a) to (22d) are calculated (S24), and the matrix [R i ] of the equation (22) having these as elements is prepared (S25). On the other hand, a matrix [A i ] of Expression (23) having errors (Δx ij , Δy ij ) as matrix elements is prepared (S26), and the calculation of Expression (24) is performed to perform roll rotation ω i and pitch rotation ψ. i is restored (S27). This is obtained over all frames (i = 1, 2,..., F). At the same time, (ζ i , η i ), i = 1, 2,..., F are obtained for each frame by the calculation of equation (25), and the previous (ζ i , η i ), i = 1, 2,..., F are updated, and the coefficient ε ij is updated by substituting the pitch rotation ψ i and roll rotation ω i obtained by the equation (A6) (S28).

Figure 2006172026
Figure 2006172026

図3に示す光軸並進運動安定化S10では、係数εij、並びに、光軸座標値(ζi,ηi)が既知として光軸並進運動Tziを求める。このとき、式(A3)左辺の行列要素は、 In the optical axis translational motion stabilization S10 shown in FIG. 3, the optical axis translational motion Tz i is obtained on the assumption that the coefficient ε ij and the optical axis coordinate values (ζ i , η i ) are known. At this time, the matrix element on the left side of Expression (A3) is

Figure 2006172026
Figure 2006172026

Figure 2006172026
Figure 2006172026

となる。式(A10)は座標値(u'ij,v'ij)の(1−Tzi/Zj)倍が再投影座標値(uij,vij)となる形式である。この関係を利用して光軸並進運動Tziを求める。そこで、式(A10)を、 It becomes. Expression (A10) is a format in which (1-Tz i / Z j ) times the coordinate value (u ′ ij , v ′ ij ) is the reprojected coordinate value (u ij , v ij ). Using this relationship, the optical axis translational motion Tz i is obtained. Therefore, the equation (A10) is

Figure 2006172026
Figure 2006172026

と整理し、全フレームi=1,2,…,F、並びに、全特徴点j=1,2,…,Pに対して行列展開すると、 And matrix expansion for all frames i = 1, 2,..., F and all feature points j = 1, 2,.

Figure 2006172026
Figure 2006172026

となる(ただし、Δwijは式(26)である)。したがって、式(A13)に示す連立方程式を求めると光軸並進運動を復元することができる。 (Where Δw ij is Equation (26)). Therefore, the optical axis translational motion can be restored by obtaining simultaneous equations shown in Formula (A13).

図5に示す光軸並進運動安定化(S10)の詳細な処理フローでは、まず、観測座標値の入力から座標値(xij,yij)が与えられ、係数εijと光軸座標値(ζi,ηi)を使って式(A11)の座標値(u'ij,v'ij)を生成する。この座標値(u'ij,v'ij)と平面運動・3次元情報復元部3からの平面運動と3次元情報から求めた再投影座標値(uij,vij)から式(26)のΔwijを計算し(S31,S32)、これを行列要素とするF×Pの式(27)の行列[ΔW]を準備する(S33)。このとき、式(A13)左辺を見ると分かるようにランクは1である。それに対して、式(A13)右辺の行列[ΔW]はF×Pとなっている。そこで、式(28)に示すように特異値分解を行い、3つの行列、すなわち、F×Pの[Uw],P×Pの[Ww],P×Pの[Vw]に分解する(S34)。 In the detailed processing flow of optical axis translational stabilization (S10) shown in FIG. 5, first, coordinate values (x ij , y ij ) are given from the input of observed coordinate values, and coefficient ε ij and optical axis coordinate values ( The coordinate values (u ′ ij , v ′ ij ) of the equation (A11) are generated using ζ i , η i ). From the coordinate values (u ′ ij , v ′ ij ) and the re-projection coordinate values (u ij , v ij ) obtained from the plane motion and the three-dimensional information from the plane motion / three-dimensional information restoration unit 3, Δw ij is calculated (S31, S32), and a matrix [ΔW] of Formula (27) of F × P using this as a matrix element is prepared (S33). At this time, the rank is 1 as can be seen from the left side of the formula (A13). On the other hand, the matrix [ΔW] on the right side of Expression (A13) is F × P. Therefore, singular value decomposition is performed as shown in Expression (28), and decomposition into three matrices, that is, F × P [U w ], P × P [W w ], and P × P [V w ]. (S34).

Figure 2006172026
Figure 2006172026

Figure 2006172026
Figure 2006172026

Figure 2006172026
Figure 2006172026

次いで、雑音除去(S35)では、ランク1以上の各行列の成分を削除する。この削除のときは、行列[Uw]を取り出し、この行列の要素において第2から第P列目までを削除し、残りの成分からなる行列を保持し(行列[U'w])、行列[Ww]を取り出し、この行列の要素において第2から第P行目並びに第2から第P列目までを削除し、残りの成分からなる行列を保持し(行列[W'w])、行列[Vw]を取り出し、この行列の要素において第2から第P行目までを削除し、残りの成分からなる行列をそれぞれ保持(行列[V'w])し、式(28a)に示す行列演算を行い、これを行列[ΔW]として保持する(S36)。さらに、3次元情報復元から特徴点のZ値の逆数からなる式(30)の行列[1/Z]を準備し(S37)、式(29)の計算を行い、光軸並進運動Tziを求める(S38)。ここで、式(A6)により求めた光軸並進運動を使って係数δijを更新しておく(S39)。 Next, in noise removal (S35), the components of each matrix of rank 1 or higher are deleted. At the time of this deletion, the matrix [U w ] is taken out, the second to Pth columns are deleted from the elements of this matrix, the matrix consisting of the remaining components is held (matrix [U ′ w ]), and the matrix [W w ] is taken out, the 2nd to Pth rows and the 2nd to Pth columns are deleted from the elements of this matrix, and a matrix consisting of the remaining components is held (matrix [W ′ w ]). The matrix [V w ] is taken out, the second to P-th rows are deleted from the elements of this matrix, and the matrices composed of the remaining components are held (matrix [V ′ w ]), respectively, as shown in equation (28a) Matrix operation is performed and held as a matrix [ΔW] (S36). Further, a matrix [1 / Z] of Expression (30) consisting of the reciprocal of the Z value of the feature point is prepared from the three-dimensional information restoration (S37), and the calculation of Expression (29) is performed to calculate the optical axis translational motion Tz i . Obtain (S38). Here, the coefficient δ ij is updated using the optical axis translation obtained by the equation (A6) (S39).

Figure 2006172026
Figure 2006172026

Figure 2006172026
Figure 2006172026

Figure 2006172026
Figure 2006172026

以上、安定化モードが回転モードか光軸並進モードにより、上記の処理に振り分けて、ピッチ回転とロール回転、並びに、光軸並進運動を求める。   As described above, depending on whether the stabilization mode is the rotation mode or the optical axis translation mode, the pitch rotation, the roll rotation, and the optical axis translational motion are obtained by distributing to the above processing.

図3に戻って、この時点での係数εij、光軸座標値(ζi,ηi)、係数δijを使って、式(2)の計算により座標値(x'ij,y'ij)を得て、式(31)に示す漸近誤差ΔEを求める(S11)。この漸近誤差ΔEが前のΔEより減少している場合は、漸近行列データの生成に戻り、更新した係数εij、光軸座標値(ζi,ηi)、係数δijを使って得た式(2)の座標値(x’ij,y’ij)を新たな行列要素とする漸近行列[B]を得て、平面運動・3次元情報復元の処理を続ける(S12)。 Returning to FIG. 3, using the coefficient ε ij , the optical axis coordinate values (ζ i , η i ), and the coefficient δ ij at this time, the coordinate values (x ′ ij , y ′ ij ) are calculated by the equation (2). ) To obtain an asymptotic error ΔE shown in equation (31) (S11). When this asymptotic error ΔE is smaller than the previous ΔE, the process returns to the generation of asymptotic matrix data, and is obtained using the updated coefficient ε ij , optical axis coordinate values (ζ i , η i ), and coefficient δ ij . An asymptotic matrix [B] having the coordinate values (x ′ ij , y ′ ij ) of Expression (2) as a new matrix element is obtained, and the process of plane motion / three-dimensional information restoration is continued (S12).

Figure 2006172026
Figure 2006172026

一方、この漸近誤差ΔEが前のΔEより増加した場合は、安定化モードを切り替える(S13,S14)。すなわち、回転モードから光軸並進モードへ、または、光軸並進モードから回転モードへ切り替えて、漸近行列データの生成へ処理を進める。なお、安定化モードの切替回数が最初から数えてN回を超えた時点で漸近誤差ΔEが収束したと判断して反復処理を停止し、その時点でのカメラ運動と3次元情報を出力して、処理を終了する。   On the other hand, when this asymptotic error ΔE increases from the previous ΔE, the stabilization mode is switched (S13, S14). That is, the process proceeds to generation of asymptotic matrix data by switching from the rotation mode to the optical axis translation mode or from the optical axis translation mode to the rotation mode. When the number of times of switching the stabilization mode exceeds N times from the beginning, it is determined that the asymptotic error ΔE has converged, and the iterative process is stopped, and the camera motion and three-dimensional information at that time are output. The process is terminated.

以上、本実施形態により、画像系列における特徴点の時間的動きから、カメラ視点の運動、すなわち、三軸周りの回転運動と三軸方向の並進運動、並びに、物体形状を構成する3次元情報を復元することができる。   As described above, according to the present embodiment, from the temporal movement of the feature points in the image series, the movement of the camera viewpoint, that is, the rotational movement around the three axes and the translational movement in the three axial directions, and the three-dimensional information constituting the object shape are obtained. Can be restored.

(実施形態2)
全方位カメラはロボットビジョンや移動観測において利用されており、図15に示すように車両の屋根に搭載し、光軸を天空方向に向けて設置される。図15は車両による移動観測のときの模式図であり、全方位カメラにより建物壁面などの市街地景観を撮像する。移動観測では車両振動により全方位カメラが変動しており、本実施形態は、このような車両振動において揺れた画像系列からカメラ運動と3次元情報を復元する。
(Embodiment 2)
The omnidirectional camera is used in robot vision and mobile observation, and is installed on the roof of a vehicle as shown in FIG. 15 and installed with the optical axis facing the sky. FIG. 15 is a schematic diagram at the time of moving observation by a vehicle, and an urban landscape such as a building wall surface is imaged by an omnidirectional camera. In the moving observation, the omnidirectional camera is fluctuated due to the vehicle vibration, and the present embodiment restores the camera motion and the three-dimensional information from the image sequence shaken by the vehicle vibration.

図6は、請求項2等に関する基本構成図である。本実施形態ではカメラを全方位カメラとした場合の実施形態であり、実施形態1に対して、時系列画像データベース部1から取り出した画像において、特徴点観測部5により得た特徴点の画像座標値を座標変換部6で変換した座標値を実施形態1での特徴点の画像座標値とする点だけが異なるため、この部分だけについて説明する。   FIG. 6 is a basic configuration diagram relating to claim 2 and the like. In the present embodiment, the camera is an omnidirectional camera. Compared with the first embodiment, the image coordinates of the feature points obtained by the feature point observation unit 5 in the image extracted from the time-series image database unit 1 are described. Since only the point where the coordinate value obtained by converting the value by the coordinate conversion unit 6 is the image coordinate value of the feature point in the first embodiment is different, only this portion will be described.

本実施形態は、時系列画像データベース部には、ハードディスク、RAID装置、CD−ROMなどの記録媒体を利用する、または、ネットワークを介したリモートなデータ資源を利用する形態でもどちらでも構わない。さらに、図7は、リアルタイムで処理する場合の処理構成図であり、本実施形態では必ずしも各データベース部1などの記憶装置を必要としない。   In this embodiment, the time-series image database unit may use a recording medium such as a hard disk, a RAID device, a CD-ROM, or a remote data resource via a network. Furthermore, FIG. 7 is a processing configuration diagram in the case of processing in real time, and in this embodiment, a storage device such as each database unit 1 is not necessarily required.

全方位カメラは市販のカメラと異なり広視野を撮像できるように設計されているため、全方位画像中の特徴点の画像座標値のままでは本実施形態を応用することができない。そこで、図16に示すように、特徴点を示す画像座標値を位相角ρijと仰角φijを利用する。空間中の点Pj(Xj,Yj,Zj)は、画像面において画像座標値(xij,yij)へ投影されるとする。式(32a)は焦点距離をfとした等距離投影と呼ばれる魚眼レンズでの光学的投影であり、図16の位相角ρijは、画像座標値(xij,yij)から、式(33)を使って得ることができる。ただし、図16は、魚眼レンズを取り付けたカメラで画像を撮像する例であり、Rはイメージサークルの半径であり、画像面での投影中心の画像座標値を原点としている。これ以外の全方位カメラとして、放物面ミラーで反射する投影の場合は式(32b)により仰角φijが得られ(hは放物面のxy平面での半径)、双曲線ミラーで反射する全方位カメラの場合では、式(32c)により仰角φijが得られる(b,cは双曲線パラメータ、fは焦点距離)。なお、これらの全方位カメラでは画像面とXY面が平行と考えることができるので、全般的な全方位カメラに対して式(33)により位相角ρijを得ることができる。 Since the omnidirectional camera is designed to capture a wide field of view unlike a commercially available camera, the present embodiment cannot be applied with the image coordinate values of the feature points in the omnidirectional image. Therefore, as shown in FIG. 16, the phase angle ρ ij and the elevation angle φ ij are used as the image coordinate values indicating the feature points. It is assumed that a point P j (X j , Y j , Z j ) in space is projected onto an image coordinate value (x ij , y ij ) on the image plane. Expression (32a) is optical projection with a fish-eye lens called equidistance projection with the focal length f, and the phase angle ρ ij in FIG. 16 is obtained from the image coordinate values (x ij , y ij ) from Expression (33). Can be obtained using However, FIG. 16 is an example in which an image is captured by a camera equipped with a fisheye lens, R is the radius of the image circle, and the origin is the image coordinate value of the projection center on the image plane. As an omnidirectional camera other than this, in the case of projection reflected by a parabolic mirror, the elevation angle φ ij is obtained by the equation (32b) (h is the radius of the paraboloid in the xy plane), and all reflected by the hyperbolic mirror. In the case of the azimuth camera, the elevation angle φ ij is obtained by the equation (32c) (b and c are hyperbolic parameters, and f is a focal length). In these omnidirectional cameras, since the image plane and the XY plane can be considered parallel, the phase angle ρ ij can be obtained from the general omnidirectional camera by Expression (33).

Figure 2006172026
Figure 2006172026

Figure 2006172026
Figure 2006172026

Figure 2006172026
Figure 2006172026

Figure 2006172026
Figure 2006172026

図6の特徴点観測部5において、特徴点の画像座標値から位相角と仰角を得ると、次に、座標変換部6において、   When the phase angle and the elevation angle are obtained from the image coordinate value of the feature point in the feature point observation unit 5 in FIG.

Figure 2006172026
Figure 2006172026

なる座標変換を行い、座標値(pij,qij)を求める。 To obtain coordinate values (p ij , q ij ).

この座標変換の効果を図17、図18で説明する。図17は全方位カメラ(魚眼など)で移動観測したときに取得した画像の例である。この図のように全方位画像では建物の壁に位置する水平、垂直のエッジが、本来、水平と垂直のエッジが直線として投影されるべきところを、曲線として投影される。これに対して、式(A14)で座標変換すると、図18のように、水平と垂直のエッジを線分として得ることができる。この座標変換は全方位投影から透視投影への座標変換である。   The effect of this coordinate transformation will be described with reference to FIGS. FIG. 17 is an example of an image acquired when moving and observing with an omnidirectional camera (fisheye or the like). As shown in this figure, in the omnidirectional image, the horizontal and vertical edges located on the wall of the building are projected as curves where the horizontal and vertical edges should be projected as straight lines. On the other hand, if the coordinates are converted by the equation (A14), horizontal and vertical edges can be obtained as line segments as shown in FIG. This coordinate transformation is a coordinate transformation from omnidirectional projection to perspective projection.

座標変換部6では、式(A14)で得た(pij,qij)を(xij,yij)と見なし、この(xij,yij)を特徴点の画像座標値(観測座標値)として、図6の漸近行列生成部2にて扱う。 The coordinate conversion unit 6 regards (p ij , q ij ) obtained by the equation (A14) as (x ij , y ij ), and uses this (x ij , y ij ) as the image coordinate value (observed coordinate value) of the feature point. ) In the asymptotic matrix generation unit 2 in FIG.

以上、本発明の実施形態により、全方位画像系列における特徴点の時間的動きから、カメラ視点の運動、すなわち、三軸周りの回転運動と三軸方向の並進運動、並びに、物体形状を構成する3次元情報を復元することができる。   As described above, according to the embodiment of the present invention, the motion of the camera viewpoint, that is, the rotational motion around the three axes and the translational motion in the three axial directions, and the object shape are configured from the temporal motion of the feature points in the omnidirectional image sequence. Three-dimensional information can be restored.

(実施形態3)
図8は本実施形態の処理構成図であり、実施形態1に対して復元処理判定部7の処理が異なるため、以降ではこの部分の説明だけにする。この構成において、時系列画像データベース部1には、ハードディスク、RAID装置、CD−ROMなどの記録媒体を利用する形態、または、ネットワークを介したリモートなデータ資源を利用する形態でもどちらでも構わない。さらに、図9はリアルタイムで処理する場合の処理構成図であり、本実施形態では必ずしも時系列画像データベース部1などの記憶装置を必要としない。
(Embodiment 3)
FIG. 8 is a process configuration diagram of the present embodiment. Since the process of the restoration process determination unit 7 is different from that of the first embodiment, only this part will be described below. In this configuration, the time series image database unit 1 may be in a form using a recording medium such as a hard disk, a RAID device, a CD-ROM, or a form using remote data resources via a network. Furthermore, FIG. 9 is a processing configuration diagram in the case of processing in real time, and in this embodiment, a storage device such as the time-series image database unit 1 is not necessarily required.

図8の復元処理判定部では、時系列画像データベース部1から取り出した画像系列に対して特徴点の画像座標値を観測し、式(1)の形式の行列[A]として保持する。図10はその後の処理フローであり、この処理フローに従って説明する。行列[A]に対して、式(3)に示す3つの行列[U],[W],[V]に行列分解する。特異値行列[W]は対角要素であり、その各要素である特異値は昇降順の並びで、かつ、全て正の実数となっている。この特異値行列の中から式(4)に示す(3,3)の行列要素W33と(4,4)の行列要素W44の特異値を取り出す(S41,S42)。ランク検出では、式(34a)または式(34b)に示す計算を行い、判定量Ewを得る(S43)。この判定量Ewが許容値未満であるか、または、判定量Ewが許容値以上かを判定する(S44)。この許容値は特定の一定値であり、ユーザ(または作業者)が逐次、値を設定することもできる。もし、判定量Ewがある許容値未満の場合は、カメラ運動が平面運動であると判断して処理Aに進み(S45,S46)、判定量Ewがある許容値以上の場合は、カメラ運動が一般運動(平面運動以外)であると判断して処理Bに進む(S47,S48)。 In the restoration processing determination unit in FIG. 8, the image coordinate values of the feature points are observed for the image series extracted from the time-series image database unit 1, and held as a matrix [A] in the form of equation (1). FIG. 10 shows the subsequent processing flow, which will be described according to this processing flow. The matrix [A] is subjected to matrix decomposition into three matrices [U], [W], and [V] shown in Expression (3). The singular value matrix [W] is a diagonal element, and the singular values that are the respective elements are arranged in ascending / descending order and are all positive real numbers. From this singular value matrix, the singular values of the matrix element W 33 of (3, 3) and the matrix element W 44 of (4, 4) shown in Expression (4) are extracted (S41, S42). In rank detection, the calculation shown in Formula (34a) or Formula (34b) is performed to obtain the determination amount E w (S43). It is determined whether this determination amount E w is less than the allowable value or whether the determination amount E w is greater than or equal to the allowable value (S44). This allowable value is a specific constant value, and the user (or worker) can also set the value sequentially. If less than the allowable value is determined amount E w is camera motion proceeds to the process it is determined that the planar motion A (S45, S46), when exceeding the allowable value is determined amount E w is the camera It is determined that the motion is a general motion (other than planar motion), and the process proceeds to process B (S47, S48).

Figure 2006172026
Figure 2006172026

Figure 2006172026
Figure 2006172026

処理Bとは実施形態1の処理であり、処理Bにより画像系列における特徴点の時間的動きから、カメラ視点の運動、すなわち、三軸周りの回転運動と三軸方向の並進運動(自由度6の運動)、並びに、物体形状を構成する3次元情報を復元する。一方、処理Aと判定した場合、図11にしたがって平面運動と3次元情報を復元する。この処理は、実施形態1の平面運動・3次元情報復元部の処理内容と同等であるため説明を省く。   The process B is the process of the first embodiment, and from the temporal movement of the feature points in the image series by the process B, the movement of the camera viewpoint, that is, the rotational movement around the three axes and the translational movement in the three axial directions (6 degrees of freedom). And the three-dimensional information constituting the object shape are restored. On the other hand, when it is determined as the process A, the plane motion and the three-dimensional information are restored according to FIG. Since this processing is equivalent to the processing content of the planar motion / three-dimensional information restoration unit of the first embodiment, a description thereof will be omitted.

以上の処理により、カメラ運動が平面運動の場合は、実施形態1の処理に回さずに、平面運動だけを計算するようにして、計算コストを大幅に低減させて、カメラ運動と3次元情報を復元することができる。   With the above processing, when the camera motion is a plane motion, the calculation cost is greatly reduced by calculating only the plane motion without going to the processing of the first embodiment, and the camera motion and the three-dimensional information are calculated. Can be restored.

(実施形態4)
図12は請求項4等に関する基本構成図である。本実施形態では、実施形態2に対して、復元処理判定部7の処理のみが異なる。本実施形態は、時系列画像データベース部1には、ハードディスク、RAID装置、CD−ROMなどの記録媒体を利用する、または、ネットワークを介したリモートなデータ資源を利用する形態でもどちらでも構わない。さらに、図13はリアルタイムで処理する場合の処理構成図であり、本実施形態は必ずしも各データベース部1などの記憶装置を必要としない。
(Embodiment 4)
FIG. 12 is a basic configuration diagram relating to claim 4 and the like. In the present embodiment, only the process of the restoration process determination unit 7 is different from the second embodiment. In the present embodiment, the time-series image database unit 1 may use a recording medium such as a hard disk, a RAID device, a CD-ROM, or a remote data resource via a network. Furthermore, FIG. 13 is a processing configuration diagram in the case of processing in real time, and this embodiment does not necessarily require a storage device such as each database unit 1.

図12の復元処理判定部7では、時系列画像データベース部1から取り出した画像系列に対して特徴点の画像座標値を観測し、式(1)の形式の行列[A]として保持する。次に、各特徴点の画像座標値から位相角と仰角を全方位カメラの投影に応じて求め、式(A14)の座標変換を行い、座標値(pij,qij)を求める。この(pij,qij)を(xij,yij)と見なし、この(xij,yij)を特徴点の画像座標値(観測座標値)として、図12の復元処理判定部7にて扱う。復元処理判定部7の処理は実施形態3の処理と同じであるため説明を省く。 In the restoration processing determination unit 7 of FIG. 12, the image coordinate values of the feature points are observed for the image series extracted from the time-series image database unit 1 and held as a matrix [A] in the form of equation (1). Next, the phase angle and the elevation angle are obtained from the image coordinate values of each feature point according to the projection of the omnidirectional camera, the coordinate transformation of equation (A14) is performed, and the coordinate values (p ij , q ij ) are obtained. This (p ij , q ij ) is regarded as (x ij , y ij ), and this (x ij , y ij ) is used as the image coordinate value (observation coordinate value) of the feature point to the restoration processing determination unit 7 in FIG. Handle. Since the process of the restoration process determination unit 7 is the same as the process of the third embodiment, a description thereof will be omitted.

以上の処理により、全方位カメラ運動が平面運動の場合は、実施形態1の処理に回さずに、平面運動だけを計算するようにして、計算コストを大幅に低減させて、カメラ運動と3次元情報を復元することができる。   By the above processing, when the omnidirectional camera motion is a plane motion, the calculation cost is greatly reduced by calculating only the plane motion without going to the processing of the first embodiment, and the camera motion and 3 Dimensional information can be restored.

なお、本発明は、図3〜図5等に示した方法の一部又は全部の処理機能をプログラムとして構成してコンピュータを用いて実行可能にすることができる。また、このプログラムを記録した記録媒体を、ネットワークを通して提供することも可能である。   In the present invention, some or all of the processing functions of the methods shown in FIGS. 3 to 5 and the like can be configured as a program and can be executed using a computer. It is also possible to provide a recording medium recording this program through a network.

請求項1等に係る画像蓄積型の復元装置の基本構成図。The basic block diagram of the image storage type decompression | restoration apparatus which concerns on Claim 1 grade | etc.,. 請求項1等に係るリアルタイム処理型の復元装置の基本構成図。A basic configuration diagram of a real-time processing type restoration apparatus according to claim 1 and the like. 請求項1等に係る復元方法の処理フロー。A processing flow of the restoration method according to claim 1 and the like. 回転安定化の処理フロー。Processing flow for rotation stabilization. 光軸並進安定化の処理フロー。Processing flow for optical axis translation stabilization. 請求項2等に係る画像蓄積型の復元装置の基本構成図。The basic block diagram of the image storage type decompression | restoration apparatus which concerns on Claim 2 grade | etc.,. 請求項2等に係るリアルタイム処理型の復元装置の基本構成図。A basic configuration diagram of a real-time processing type restoration apparatus according to claim 2 or the like. 請求項3等に係る画像蓄積型の復元装置の基本構成図。The basic block diagram of the image storage type decompression | restoration apparatus which concerns on Claim 3 grade | etc.,. 請求項3等に係るリアルタイム処理型の復元装置の基本構成図。A basic configuration diagram of a real-time processing type restoration apparatus according to claim 3 and the like. 復元処理判定部での処理フロー。The processing flow in a restoration process determination part. 処理Aの処理フロー。Process flow of process A. 請求項4等に係る画像蓄積型の復元装置の基本構成図。The basic block diagram of the image storage type decompression | restoration apparatus based on Claim 4 grade | etc.,. 請求項4等に係るリアルタイム処理型の復元装置の基本構成図。A basic configuration diagram of a real-time processing type restoration apparatus according to claim 4 and the like. カメラと被写体の位置関係とカメラ座標系を示す図。The figure which shows the positional relationship of a camera, a to-be-photographed object, and a camera coordinate system. 全方位カメラを車両の天井に固定して移動観測する場合の図。The figure in the case of carrying out mobile observation, fixing an omnidirectional camera to the ceiling of a vehicle. 図15における全方位カメラと被写体の位置関係とカメラ座標系を示す図。The figure which shows the positional relationship of an omnidirectional camera and a to-be-photographed object in FIG. 15, and a camera coordinate system. 全方位カメラが撮像した建物壁面のエッジラインを示す図。The figure which shows the edge line of the building wall surface which the omnidirectional camera imaged. 図17のエッジを座標変換した結果を示す図。The figure which shows the result of having coordinate-transformed the edge of FIG.

符号の説明Explanation of symbols

1 時系列画像データベース部
1A 画像入力部
2 漸近行列生成部
3 平面運動・3次元情報復元部
4 安定化処理部
5 特徴点観測部
6 座標変換部
7 復元処理判定部
DESCRIPTION OF SYMBOLS 1 Time series image database part 1A Image input part 2 Asymptotic matrix production | generation part 3 Plane motion and three-dimensional information restoration part 4 Stabilization process part 5 Feature point observation part 6 Coordinate conversion part 7 Restoration process determination part

Claims (9)

時系列画像中において、対象とする画像に配置した特徴点に関する画像座標値の時間的変化量から、時系列におけるカメラ視点の運動、並びに、外界の物体形状を構成する3次元情報を復元する装置であって、
時系列画像に設定した特徴点座標系において、各フレーム画像における特徴点の画像座標値(観測座標値)を入力し、その観測座標値にカメラの回転運動、光軸座標値、並進運動、並びに、3次元情報からなる係数をかけた座標値を要素とする漸近行列データを生成する漸近行列生成手段と、
前記漸近行列データを特異値分解し、雑音除去を行って運動情報を表す行列データと3次元情報を表す行列データを得て、その運動情報において、運動を規定するために設定した条件を満足する変換行列を求め、運動情報を表す行列データに前記変換行列を作用させてカメラ視点に関する光軸周りの回転運動と光軸と垂直な平面上の並進運動(これらの成分からなる自由度3の平面運動)を復元し、並びに、3次元情報を表す行列データに前記変換行列の逆行列を作用させて物体形状を構成する3次元情報を復元する平面運動・3次元情報復元手段と、
前記平面運動・3次元情報復元手段で得た平面運動と3次元情報から算出する再投影誤差と、前記漸近行列生成手段で得た観測座標値に、係数εと光軸座標値で変換した座標値を行列要素とする行列データを求め、その行列データを特異値分解して雑音を除去した行列データと、前記平面運動・3次元情報復元手段で得た各特徴点のZ座標値(Z方向を鉛直方向にしたときの特徴点位置の高さ)を要素とする行列から、カメラ視点の光軸方向の並進運動を復元し、その復元した光軸並進運動により係数δを更新する光軸運動復元手段と、
前記漸近行列生成手段で得た観測座標値と、前記平面運動・3次元情報復元手段で得た平面運動と3次元情報から得る再投影誤差に係数δで変換した座標値の間の誤差を求め、その誤差を行列要素とする行列データと、前記平面運動・3次元情報復元手段で得た平面運動、3次元情報、並びに、前記光軸運動復元手段で得た光軸並進運動から、光軸以外の互いに直交する軸周りの回転運動を求め、その復元した回転運動により係数εと光軸座標値を更新する回転運動復元手段と、
前記漸近行列生成手段で得た観測座標値を前記回転運動復元手段で更新された変換係数(係数ε)と光軸座標値、並びに、前記光軸運動復元手段で更新された変換係数(係数δ)を使って変換した座標値と、前記平面運動・3次元情報復元手段で得た平面運動と3次元情報から各フレーム画像に対する特徴点の再投影座標値との間で平面運動への漸近値を表す漸近誤差を求め、この漸近誤差の増減により前記光軸並進運動復元手段による処理と前記回転運動復元手段における処理を切り替えて該漸近誤差を減少(カメラ運動を平面運動へ漸近)させる処理を繰り返す安定化処理手段と、
を有することを特徴とするカメラ運動と3次元情報の復元装置。
An apparatus for restoring the movement of the camera viewpoint in the time series and the three-dimensional information constituting the object shape of the outside world from the temporal change amount of the image coordinate value regarding the feature point arranged in the target image in the time series image Because
In the feature point coordinate system set for the time series image, the image coordinate value (observation coordinate value) of the feature point in each frame image is input, and the rotation coordinate of the camera, the optical axis coordinate value, the translational motion, and Asymptotic matrix generation means for generating asymptotic matrix data whose elements are coordinate values multiplied by a coefficient consisting of three-dimensional information;
The asymptotic matrix data is subjected to singular value decomposition, noise removal is performed to obtain matrix data representing motion information and matrix data representing three-dimensional information, and the motion information satisfies the conditions set for defining the motion. A transformation matrix is obtained, and the transformation matrix is applied to the matrix data representing the motion information, so that the rotational motion around the optical axis with respect to the camera viewpoint and the translational motion on a plane perpendicular to the optical axis (a plane with three degrees of freedom consisting of these components). A plane motion / three-dimensional information restoring means for restoring the three-dimensional information constituting the object shape by applying an inverse matrix of the transformation matrix to the matrix data representing the three-dimensional information.
The plane motion obtained by the plane motion / three-dimensional information restoration means, the reprojection error calculated from the three-dimensional information, and the coordinates converted by the coefficient ε and the optical axis coordinate values into the observed coordinate values obtained by the asymptotic matrix generation means Matrix data having values as matrix elements is obtained, matrix data obtained by singular value decomposition of the matrix data to remove noise, and the Z coordinate value (Z direction) of each feature point obtained by the plane motion / three-dimensional information restoration means Optical axis motion that restores the translational motion in the optical axis direction of the camera viewpoint from the matrix whose element is the height of the feature point position when the is vertically oriented), and updates the coefficient δ by the restored optical axis translational motion Recovery means,
An error is obtained between the observed coordinate value obtained by the asymptotic matrix generation means, the plane motion obtained by the plane motion / three-dimensional information restoration means, and the re-projection error obtained from the three-dimensional information by the coefficient δ. From the matrix data having the error as a matrix element, the plane motion obtained by the plane motion / three-dimensional information restoring means, the three-dimensional information, and the optical axis translation obtained by the optical axis motion restoring means, the optical axis Rotational motion restoration means for obtaining rotational motion around mutually orthogonal axes other than and updating the coefficient ε and the optical axis coordinate value by the restored rotational motion,
The observed coordinate values obtained by the asymptotic matrix generating means are converted into the conversion coefficient (coefficient ε) and the optical axis coordinate value updated by the rotational motion restoring means, and the conversion coefficient (coefficient δ) updated by the optical axis motion restoring means. ), The asymptotic value to the plane motion between the plane motion obtained by the plane motion / three-dimensional information restoration means and the reprojected coordinate value of the feature point for each frame image from the three-dimensional information. An asymptotic error is calculated, and processing for reducing the asymptotic error (camera motion asymptotically approaches planar motion) by switching between processing by the optical axis translational motion restoring means and processing in the rotational motion restoring means by increasing or decreasing the asymptotic error. Repetitive stabilization means,
A device for restoring camera motion and three-dimensional information, comprising:
請求項1において、
全方位画像に設定した特徴点座標系において、各フレーム画像における特徴点の画像座標値を入力する手段と、その画像座標値からある基準軸からの方位角(位相角)と、全方位カメラに使用されている投影方式に従って求められる光軸方向からの角(仰角)を求める手段と、前記位相角と仰角を使って座標変換した座標値を前記観測座標値として求める手段と、
を有することを特徴とするカメラ運動と3次元情報の復元装置。
In claim 1,
In the feature point coordinate system set for the omnidirectional image, the means for inputting the image coordinate value of the feature point in each frame image, the azimuth angle (phase angle) from a reference axis from the image coordinate value, and the omnidirectional camera Means for obtaining an angle (elevation angle) from the optical axis direction obtained according to the projection method used; means for obtaining a coordinate value obtained by coordinate conversion using the phase angle and elevation angle as the observation coordinate value;
A device for restoring camera motion and three-dimensional information, comprising:
請求項1において、
時系列画像に設定した特徴点座標系において、各フレーム画像における特徴点の画像座標値を入力する手段と、その観測座標値を行列要素とする行列を特異値分解する手段と、この特異値の成分から運動の自由度を表す判定値を算出する手段と、この判定値がある一定値未満の場合は、平面運動と見なして光軸周りの回転とその光軸に垂直な平面上の運動からなる自由度3の平面運動と3次元情報を復元する手段と、前記判定値がある一定値以上の場合は、カメラの回転運動と並進運動からなる自由度6の運動と3次元情報を復元する手段と、
を有することを特徴とするカメラ運動と3次元情報の復元装置。
In claim 1,
In the feature point coordinate system set for the time series image, means for inputting the image coordinate value of the feature point in each frame image, means for decomposing a matrix having the observed coordinate value as a matrix element, and the singular value A means for calculating a judgment value representing the degree of freedom of movement from the component, and if this judgment value is less than a certain value, it is regarded as a plane motion, and from rotation around the optical axis and movement on a plane perpendicular to the optical axis. Means for restoring three-dimensional information with three degrees of freedom, and if the determination value is greater than a certain value, restores six-degree-of-freedom movement and three-dimensional information consisting of rotational and translational motions of the camera. Means,
A device for restoring camera motion and three-dimensional information, comprising:
請求項1において、
全方位画像に設定した特徴点座標系において、各フレーム画像における特徴点の画像座標値を入力する手段と、その画像座標値からある基準軸からの方位角(位相角)と、全方位カメラに使用されている投影方式に従って求められる光軸方向からの角(仰角)を求める手段と、前記位相角と仰角を使って座標変換した座標値を前記観測座標値として求める手段と、
前記観測座標値を行列要素とする行列を特異値分解する手段と、この特異値の成分から運動の自由度を表す判定値を算出する手段と、この判定値がある一定値未満の場合は、平面運動と見なして光軸周りの回転とその光軸に垂直な平面上の運動からなる自由度3の平面運動と3次元情報を復元する手段と、前記判定値がある一定値以上の場合は、カメラの回転運動と並進運動からなる自由度6の運動と3次元情報を復元する手段と、
を有することを特徴とするカメラ運動と3次元情報の復元装置。
In claim 1,
In the feature point coordinate system set for the omnidirectional image, the means for inputting the image coordinate value of the feature point in each frame image, the azimuth angle (phase angle) from a reference axis from the image coordinate value, and the omnidirectional camera Means for obtaining an angle (elevation angle) from the optical axis direction obtained according to the projection method used; means for obtaining a coordinate value obtained by coordinate conversion using the phase angle and elevation angle as the observation coordinate value;
Means for singular value decomposition of a matrix having the observed coordinate values as matrix elements, means for calculating a determination value representing the degree of freedom of movement from the component of this singular value, and when the determination value is less than a certain value, If the judgment value is greater than a certain value, it is considered to be a planar motion, means for restoring three-dimensional information with three degrees of freedom consisting of rotation around the optical axis and motion on a plane perpendicular to the optical axis. A means for restoring the three-dimensional information and the six-degree-of-freedom motion comprising the rotational motion and translational motion of the camera;
A device for restoring camera motion and three-dimensional information, comprising:
時系列画像中において、対象とする画像に配置した特徴点に関する画像座標値の時間的変化量から、時系列におけるカメラ視点の運動、並びに、外界の物体形状を構成する3次元情報を復元する方法であって、
時系列画像に設定した特徴点座標系において、各フレーム画像における特徴点の画像座標値(観測座標値)を入力し、その観測座標値にカメラの回転運動、光軸座標値、並進運動、並びに、3次元情報からなる係数をかけた座標値を要素とする漸近行列データを生成する漸近行列生成ステップと、
前記漸近行列データを特異値分解し、雑音除去を行って運動情報を表す行列データと3次元情報を表す行列データを得て、その運動情報において、運動を規定するために設定した条件を満足する変換行列を求め、運動情報を表す行列データに前記変換行列を作用させてカメラ視点に関する光軸周りの回転運動と光軸と垂直な平面上の並進運動(これらの成分からなる自由度3の平面運動)を復元し、並びに、3次元情報を表す行列データに前記変換行列の逆行列を作用させて物体形状を構成する3次元情報を復元する平面運動・3次元情報復元ステップと、
前記平面運動・3次元情報復元ステップで得た平面運動と3次元情報から算出する再投影誤差と、前記漸近行列生成ステップで得た観測座標値に、係数εと光軸座標値で変換した座標値を行列要素とする行列データを求め、その行列データを特異値分解して雑音を除去した行列データと、前記平面運動・3次元情報復元ステップで得た各特徴点のZ座標値(Z方向を鉛直方向にしたときの特徴点位置の高さ)を要素とする行列から、カメラ視点の光軸方向の並進運動を復元し、その復元した光軸並進運動により係数δを更新する光軸運動復元ステップと、
前記漸近行列生成ステップで得た観測座標値と、前記平面運動・3次元情報復元ステップで得た平面運動と3次元情報から得る再投影誤差に係数δで変換した座標値の間の誤差を求め、その誤差を行列要素とする行列データと、前記平面運動・3次元情報復元ステップで得た平面運動、3次元情報、並びに、前記光軸運動復元ステップで得た光軸並進運動から、光軸以外の互いに直交する軸周りの回転運動を求め、その復元した回転運動により係数εと光軸座標値を更新する回転運動復元ステップと、
前記漸近行列生成ステップで得た観測座標値を前記回転運動復元ステップで更新された変換係数(係数ε)と光軸座標値、並びに、前記光軸運動復元ステップで更新された変換係数(係数δ)を使って変換した座標値と、前記平面運動・3次元情報復元ステップで得た平面運動と3次元情報から各フレーム画像に対する特徴点の再投影座標値との間で平面運動への漸近値を表す漸近誤差を求め、この漸近誤差の増減により前記光軸並進運動復元ステップによる処理と前記回転運動復元ステップにおける処理を切り替えて該漸近誤差を減少(カメラ運動を平面運動へ漸近)させる処理を繰り返す安定化処理ステップと、
を有することを特徴とするカメラ運動と3次元情報の復元方法。
A method for reconstructing three-dimensional information constituting the motion of the camera viewpoint in the time series and the object shape of the outside world from the temporal change amount of the image coordinate value regarding the feature point arranged in the target image in the time series image Because
In the feature point coordinate system set for the time series image, the image coordinate value (observation coordinate value) of the feature point in each frame image is input, and the rotation coordinate of the camera, the optical axis coordinate value, the translational motion, and An asymptotic matrix generating step for generating asymptotic matrix data having a coordinate value multiplied by a coefficient consisting of three-dimensional information as an element;
The asymptotic matrix data is subjected to singular value decomposition, noise removal is performed to obtain matrix data representing motion information and matrix data representing three-dimensional information, and the motion information satisfies the conditions set for defining the motion. A transformation matrix is obtained, and the transformation matrix is applied to the matrix data representing the motion information, so that the rotational motion around the optical axis with respect to the camera viewpoint and the translational motion on a plane perpendicular to the optical axis (a plane with three degrees of freedom consisting of these components). A plane motion / three-dimensional information restoring step for restoring the three-dimensional information constituting the object shape by applying an inverse matrix of the transformation matrix to the matrix data representing the three-dimensional information.
Coordinates obtained by converting the plane motion obtained in the plane motion / three-dimensional information restoration step, the reprojection error calculated from the three-dimensional information, and the observed coordinate value obtained in the asymptotic matrix generation step using the coefficient ε and the optical axis coordinate value. Matrix data having values as matrix elements is obtained, the matrix data obtained by singular value decomposition of the matrix data to remove noise, and the Z coordinate value (Z direction) of each feature point obtained in the plane motion / three-dimensional information restoration step. Optical axis motion that restores the translational motion in the optical axis direction of the camera viewpoint from the matrix whose element is the height of the feature point position when the is vertically oriented), and updates the coefficient δ by the restored optical axis translational motion A restore step,
An error between the observed coordinate value obtained in the asymptotic matrix generation step, the plane value obtained in the plane motion / three-dimensional information restoration step, and the re-projection error obtained from the three-dimensional information is obtained by a coefficient δ. From the matrix data having the error as a matrix element, the plane motion obtained in the plane motion / three-dimensional information restoration step, the three-dimensional information, and the optical axis translation obtained in the optical axis motion restoration step, the optical axis A rotational motion restoring step for obtaining rotational motion around mutually orthogonal axes other than and updating the coefficient ε and the optical axis coordinate value by the restored rotational motion,
The observed coordinate values obtained in the asymptotic matrix generation step are converted into the conversion coefficient (coefficient ε) and optical axis coordinate value updated in the rotational motion restoration step, and the conversion coefficient (coefficient δ) updated in the optical axis motion restoration step. ), The asymptotic value to the plane motion between the plane motion obtained in the plane motion / three-dimensional information restoration step and the reprojected coordinate value of the feature point for each frame image from the three-dimensional information. An asymptotic error representing the following is obtained, and processing for reducing the asymptotic error (camera motion asymptotically approaches planar motion) by switching the processing in the optical axis translational motion restoration step and the processing in the rotational motion restoration step by increasing or decreasing the asymptotic error. Repeated stabilization steps;
A method for restoring camera motion and three-dimensional information, comprising:
請求項5において、
全方位画像に設定した特徴点座標系において、各フレーム画像における特徴点の画像座標値を入力するステップと、その画像座標値からある基準軸からの方位角(位相角)と、全方位カメラに使用されている投影方式に従って求められる光軸方向からの角(仰角)を求めるステップと、前記位相角と仰角を使って座標変換した座標値を前記観測座標値として求めるステップと、
を有することを特徴とするカメラ運動と3次元情報の復元方法。
In claim 5,
In the feature point coordinate system set for the omnidirectional image, the step of inputting the image coordinate value of the feature point in each frame image, the azimuth angle (phase angle) from a certain reference axis from the image coordinate value, and the omnidirectional camera Obtaining an angle (elevation angle) from the optical axis direction obtained according to the projection method used, obtaining a coordinate value obtained by coordinate conversion using the phase angle and the elevation angle, as the observed coordinate value;
A method for restoring camera motion and three-dimensional information, comprising:
請求項5において、
時系列画像に設定した特徴点座標系において、各フレーム画像における特徴点の画像座標値を入力するステップと、その観測座標値を行列要素とする行列を特異値分解するステップと、この特異値の成分から運動の自由度を表す判定値を算出するステップと、この判定値がある一定値未満の場合は、平面運動と見なして光軸周りの回転とその光軸に垂直な平面上の運動からなる自由度3の平面運動と3次元情報を復元するステップと、前記判定値がある一定値以上の場合は、カメラの回転運動と並進運動からなる自由度6の運動と3次元情報を復元するステップと、
を有することを特徴とするカメラ運動と3次元情報の復元方法。
In claim 5,
In the feature point coordinate system set for the time series image, a step of inputting image coordinate values of feature points in each frame image, a step of singular value decomposition of a matrix having the observed coordinate values as matrix elements, and A step of calculating a judgment value representing the degree of freedom of movement from the component, and if this judgment value is less than a certain value, it is regarded as a plane motion, and is determined from a rotation around the optical axis and a movement on a plane perpendicular to the optical axis. If the determination value is greater than or equal to a certain value, the motion with the degree of freedom 6 consisting of the rotational motion and the translational motion and the 3D information are restored. Steps,
A method for restoring camera motion and three-dimensional information, comprising:
請求項5において、
全方位画像に設定した特徴点座標系において、各フレーム画像における特徴点の画像座標値を入力するステップと、その画像座標値からある基準軸からの方位角(位相角)と、全方位カメラに使用されている投影方式に従って求められる光軸方向からの角(仰角)を求めるステップと、前記位相角と仰角を使って座標変換した座標値を前記観測座標値として求めるステップと、
前記観測座標値を行列要素とする行列を特異値分解するステップと、この特異値の成分から運動の自由度を表す判定値を算出するステップと、この判定値がある一定値未満の場合は、平面運動と見なして光軸周りの回転とその光軸に垂直な平面上の運動からなる自由度3の平面運動と3次元情報を復元するステップと、前記判定値がある一定値以上の場合は、カメラの回転運動と並進運動からなる自由度6の運動と3次元情報を復元するステップと、
を有することを特徴とするカメラ運動と3次元情報の復元方法。
In claim 5,
In the feature point coordinate system set for the omnidirectional image, the step of inputting the image coordinate value of the feature point in each frame image, the azimuth angle (phase angle) from a certain reference axis from the image coordinate value, and the omnidirectional camera Obtaining an angle (elevation angle) from the optical axis direction obtained according to the projection method used, obtaining a coordinate value obtained by coordinate conversion using the phase angle and the elevation angle, as the observed coordinate value;
A step of singular value decomposition of a matrix having the observed coordinate values as matrix elements, a step of calculating a determination value representing the degree of freedom of movement from the component of the singular value, and the determination value is less than a certain value, A step of restoring three-dimensional information with three degrees of freedom consisting of rotation around the optical axis and movement on a plane perpendicular to the optical axis as if it were a plane movement, Reconstructing the three-dimensional information and the six-degree-of-freedom motion comprising the rotational motion and translational motion of the camera;
A method for restoring camera motion and three-dimensional information, comprising:
請求項5〜8のいずれか1項に記載のカメラ運動と3次元情報の復元法における処理手順をコンピュータで実行可能に構成したことを特徴とするプログラム。
9. A program configured to execute a processing procedure in the camera motion and three-dimensional information restoration method according to claim 5 by a computer.
JP2004362152A 2004-12-15 2004-12-15 Camera motion, and device and method for restoring three-dimensional information, and program Pending JP2006172026A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004362152A JP2006172026A (en) 2004-12-15 2004-12-15 Camera motion, and device and method for restoring three-dimensional information, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004362152A JP2006172026A (en) 2004-12-15 2004-12-15 Camera motion, and device and method for restoring three-dimensional information, and program

Publications (1)

Publication Number Publication Date
JP2006172026A true JP2006172026A (en) 2006-06-29

Family

ID=36672727

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004362152A Pending JP2006172026A (en) 2004-12-15 2004-12-15 Camera motion, and device and method for restoring three-dimensional information, and program

Country Status (1)

Country Link
JP (1) JP2006172026A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008032376A1 (en) * 2006-09-13 2008-03-20 Pioneer Corporation Distance measuring device and method, and computer program
US8107735B2 (en) 2007-04-10 2012-01-31 Denso Corporation Three dimensional shape reconstitution device and estimation device
CN104016016A (en) * 2014-05-28 2014-09-03 昆山市富众网络科技有限公司 Crab transporting device
CN112082483A (en) * 2020-09-09 2020-12-15 易思维(杭州)科技有限公司 Positioning method and application of object with edge characteristics only and precision evaluation method

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008032376A1 (en) * 2006-09-13 2008-03-20 Pioneer Corporation Distance measuring device and method, and computer program
JPWO2008032376A1 (en) * 2006-09-13 2010-01-21 パイオニア株式会社 Distance measuring apparatus and method, and computer program
JP4978938B2 (en) * 2006-09-13 2012-07-18 パイオニア株式会社 Distance measuring apparatus and method, and computer program
US8331625B2 (en) 2006-09-13 2012-12-11 Pioneer Corporation Distance measuring device and method, and computer program
US8107735B2 (en) 2007-04-10 2012-01-31 Denso Corporation Three dimensional shape reconstitution device and estimation device
CN104016016A (en) * 2014-05-28 2014-09-03 昆山市富众网络科技有限公司 Crab transporting device
CN112082483A (en) * 2020-09-09 2020-12-15 易思维(杭州)科技有限公司 Positioning method and application of object with edge characteristics only and precision evaluation method

Similar Documents

Publication Publication Date Title
JP6768156B2 (en) Virtually enhanced visual simultaneous positioning and mapping systems and methods
US10281276B2 (en) Surveying system
EP3678095B1 (en) Determination of position from images and associated camera positions
US7518636B2 (en) Image processing apparatus and image processing method
KR101314120B1 (en) Three-dimensional urban modeling apparatus and three-dimensional urban modeling method
JPH11252440A (en) Method and device for ranging image and fixing camera to target point
WO2014181726A1 (en) Background-differential extraction device and background-differential extraction method
JP2007323615A (en) Image processor and processing method thereof
CN111800589B (en) Image processing method, device and system and robot
CN111798373A (en) Rapid unmanned aerial vehicle image stitching method based on local plane hypothesis and six-degree-of-freedom pose optimization
US8509522B2 (en) Camera translation using rotation from device
CN113345032B (en) Initialization map building method and system based on wide-angle camera large distortion map
JP2006172026A (en) Camera motion, and device and method for restoring three-dimensional information, and program
JP2005063012A (en) Full azimuth camera motion and method and device for restoring three-dimensional information and program and recording medium with the same recorded
JP2004020398A (en) Method, device, and program for acquiring spatial information and recording medium recording program
CN111581322B (en) Method, device and equipment for displaying region of interest in video in map window
JP2004046573A (en) Method for calculating tilt angle, method for synthesizing cylindrical panorama picture, and computer-readable recording medium with program for cylindrical panorama picture synthesis processing recorded thereon
JP2021140262A (en) Camera calibration device, camera calibration method, and program
JP2004108836A (en) Azimuth angle computing method of imaging apparatus and system, attitude sensor of imaging apparatus, tilt sensor of imaging device and computer program and three-dimentional model configuration device
JP2006106930A (en) Parameter estimation device, parameter estimation method and parameter estimation program
JP3691401B2 (en) Method and apparatus for automatically acquiring and restoring the surface of an object to be photographed
JP4027294B2 (en) Moving object detection apparatus, moving object detection method, and moving object detection program
JP3901552B2 (en) Omnidirectional camera viewpoint movement and object shape restoration method, apparatus, omnidirectional camera viewpoint movement and object shape restoration program, and recording medium recording the program
JP2005078554A (en) Restoration method and device for fish-eye camera motion and three-dimensional information, and recording medium with program for implementing it recorded
JP2006106929A (en) Parameter estimation device, parameter estimation method and parameter estimation program