JP2005063013A - Method and device for restoring view point motions of full azimuth camera and three-dimensional information, and program and recording medium with the same recorded - Google Patents

Method and device for restoring view point motions of full azimuth camera and three-dimensional information, and program and recording medium with the same recorded Download PDF

Info

Publication number
JP2005063013A
JP2005063013A JP2003290025A JP2003290025A JP2005063013A JP 2005063013 A JP2005063013 A JP 2005063013A JP 2003290025 A JP2003290025 A JP 2003290025A JP 2003290025 A JP2003290025 A JP 2003290025A JP 2005063013 A JP2005063013 A JP 2005063013A
Authority
JP
Japan
Prior art keywords
motion
matrix
image
dimensional information
value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2003290025A
Other languages
Japanese (ja)
Inventor
Isao Miyagawa
勲 宮川
Yuji Ishikawa
裕治 石川
Yoshiori Wakabayashi
佳織 若林
Kenichi Arakawa
賢一 荒川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2003290025A priority Critical patent/JP2005063013A/en
Publication of JP2005063013A publication Critical patent/JP2005063013A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To highly precisely acquire and restore the shape of an object concerning an object from time series images acquired from a full azimuth camera. <P>SOLUTION: This device is configured to restore full azimuth camera view point motions in time series and three-dimensional information configuring the shape of an object in an external field from the secular change amounts of image coordinate values concerning featured points arranged in a target image in full azimuth images(or wide-angle view images) in time series acquired from the full azimuth camera. This device is provided with a featured point measuring part 11 to measure the coordinate values of featured points in each image, a measurement matrix converting part 12 to convert the image coordinate values acquired by the featured point measuring part 11 into a uv image, a measurement matrix inputting part 13 to apply a matrix with the uv coordinate values of the uv image as matrix elements as an initial value and a factorization processing part 14 to restore the motions of the camera and the three-dimensional information of an external field by factorization from data supplied from the measurement matrix inputting part 13. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

本発明は、魚眼レンズを装着したカメラ(以下、全方位カメラ)を使って取得した車載画像または室内画像、船上からの海上画像、空撮などお時系列画像全般に対して利用するもので、特に、全方位カメラで取得した時系列画像から全方位カメラ視点に関するロール、ピッチ、ヨー回転から構成される回転運動、配信運動、並びに時系列映像に移っている外界の3次元形状、すなわち被写体(物体)の外観形状を構成する3次元情報を復元するものに関するものである。   The present invention is used for vehicle-mounted images or indoor images acquired using a camera equipped with a fish-eye lens (hereinafter referred to as an omnidirectional camera), general time-series images such as sea images from a ship, aerial photography, etc. The three-dimensional shape of the outside world, that is, the subject (object), moving from the time-series image acquired by the omnidirectional camera to the omnidirectional camera viewpoint related to the roll, pitch, and yaw rotation, the distribution motion, and the time-series video. ) To restore the three-dimensional information constituting the external shape.

コンピュータビジョン分野では、時系列画像データから対象物の形状を計測または獲得する手法にはステレオ計測やエピポーラ面解析を用いた3次元解析手法がある。この手法によれば、物体が撮影されている複数の時系列画像から空間形状または空間構造に関する3次元位置情報並びにカメラ視点に関する運動を復元することができる。   In the field of computer vision, there are three-dimensional analysis methods using stereo measurement and epipolar plane analysis as methods for measuring or acquiring the shape of an object from time-series image data. According to this method, it is possible to restore the three-dimensional position information related to the spatial shape or the spatial structure and the motion related to the camera viewpoint from a plurality of time-series images in which the object is photographed.

しかしながら、移動手段等を利用して撮影カメラを動かしながら撮影した時系列映像においては、撮影時の環境、撮影カメラの微妙な動きによりシームレスに映像取得が困難であり、時系列映像中にランダム性の雑音が混入し、カメラ運動や物体形状を正確に復元することが困難な場合がある。   However, it is difficult to seamlessly acquire images in time-series images taken while moving the camera using moving means etc. due to the shooting environment and subtle movements of the camera. In some cases, it is difficult to accurately restore camera motion and object shape.

さらに、画像面が平面とした直交座標系で表現できる画像座標値から因子分解法(例えば非特許文献1や非特許文献2)等を利用してユークリッド空間でのカメラ運動と物体形状の復元が可能であるが、有限画角のカメラを使用する場合、微妙なカメラの回転運動を復元することが困難であり、しかも並進と回転運動の判別も正確ではない場合もある。   Furthermore, the camera motion and object shape restoration in the Euclidean space can be performed using a factorization method (for example, Non-Patent Document 1 and Non-Patent Document 2) from image coordinate values that can be expressed in an orthogonal coordinate system with a flat image surface. Although it is possible, when a camera with a finite field angle is used, it is difficult to restore the delicate rotational motion of the camera, and the translation and rotational motion may not be accurately discriminated.

一方、有限画角を回避するために、一度に360度の景観を取得する手段として、全方位カメラによる撮像が考えられる。全方位カメラは、そのカメラ光軸を鉛直上向きに設置して利用することが多く、全方位カメラ視点の姿勢推定や外界に関する空間計測には適する(例えば非特許文献3)。また、全方位カメラの利用により、微小な回転運動の復元も可能であり、並進運動と回転運動を双方とも正確に復元する点で優れている。
C.tomasi and T.Kanade;“Shape and Motion from Image Stream Under Orthography:A Factorization Method”,International Jaournal of Computer Vision,Vol.9,No.2,1992. C.J.Poelman and T.Kanade;“A Paraperspective Factorization Method forShape and Motion Recovery”,IEEE trans.Pattern Anal.and Mach.Intell,Vol.19,No.3,pp.206−218,1997. 宮川,若林,有川;“全方位投影型因子分解法による全方位画像からの運動と形状復元”,パターン認識・メディア理解(PRMU)研究会,June,2002
On the other hand, in order to avoid a finite field angle, imaging with an omnidirectional camera is conceivable as means for acquiring a landscape of 360 degrees at a time. An omnidirectional camera is often used with its camera optical axis set vertically upward, and is suitable for posture estimation of an omnidirectional camera viewpoint and space measurement related to the outside world (for example, Non-Patent Document 3). In addition, by using an omnidirectional camera, it is possible to restore a minute rotational motion, which is excellent in that both translational motion and rotational motion can be accurately restored.
C. tomasi and T.M. Kanade; “Shape and Motion from Image Stream Under Orthography: A Factorization Method”, International Journal of Computer Vision, Vol. 9, no. 2, 1992. C. J. et al. Poelman and T.W. Kanade; "A Paraperspective Factor Method for Shape and Motion Recovery", IEEE trans. Pattern Anal. and Mach. Intel, Vol. 19, no. 3, pp. 206-218, 1997. Miyakawa, Wakabayashi, Arikawa; “Motion and shape restoration from omnidirectional images by omnidirectional projection factorization”, Pattern Recognition and Media Understanding (PRMU) Study Group, June, 2002

移動手段を用いて全方位カメラのような一度に360度の景観を映像化する撮影環境で取得した時系列画像において、ステレオ視の原理を応用した計測方法により、外界の物体の空間情報を獲得、復元できるが、様々な撮影環境の中での移動撮影においては、カメラが微小に動くため、容易にシームレスな時系列画像を取得できない。そのため、ランダム性雑音の影響も大きく、常に安定的に、カメラの動きと物体の形状を同時にかつ高精度に復元することは困難である。   Acquire spatial information of objects in the outside world using a measuring method that applies the principle of stereo vision in a time-series image acquired in a shooting environment that visualizes a 360-degree landscape at once, such as an omnidirectional camera using a moving means. However, in moving shooting in various shooting environments, since the camera moves minutely, a seamless time-series image cannot be easily acquired. For this reason, the influence of random noise is large, and it is difficult to restore the camera movement and the shape of the object simultaneously and with high accuracy at all times.

例えば、非特許文献3の手法を適用した場合、図10に示したように、全方位カメラの光軸回転(ヨー回転)以外にロール回転、ピッチ回転、さらにはZ軸方向の並進運動が加わることで、正確な運動と3次元形状の復元は困難であった。つまり、図10に示すように、全方位カメラは光軸を鉛直上向きに設置した姿勢で用いることが多く、このため、ヨー回転とXY並進運動からなる自由度3の平面運動が復元することに主眼が置かれていた。   For example, when the method of Non-Patent Document 3 is applied, as shown in FIG. 10, roll rotation, pitch rotation, and translational motion in the Z-axis direction are applied in addition to the optical axis rotation (yaw rotation) of the omnidirectional camera. Therefore, it was difficult to restore accurate motion and three-dimensional shape. In other words, as shown in FIG. 10, the omnidirectional camera is often used in a posture in which the optical axis is installed vertically upward, and therefore, a plane motion with a degree of freedom 3 consisting of yaw rotation and XY translational motion is restored. The main focus was placed.

しかしながら、実環境においては、このような平面運動以外に、ロール回転、ピッチ回転、Z軸並進運動を含む場合、全方位カメラによる簡便な計算が使えず、カメラ運動と3次元形状を復元するための計算が複雑になり、上記のような全方位カメラに関する微小なカメラ姿勢変化を雑音と混在してしまい、正確かつロバストに復元できないという問題がある。   However, in the real environment, when roll rotation, pitch rotation, and Z-axis translational motion are included in addition to such planar motion, simple calculations using an omnidirectional camera cannot be used, and the camera motion and three-dimensional shape are restored. The calculation of the above becomes complicated, and the minute camera posture change related to the omnidirectional camera as described above is mixed with noise, and there is a problem that it cannot be accurately and robustly restored.

本発明は、かかる事情に鑑みなされたもので、その目的は、全方位カメラから取得した時系列画像から対象物に関する物体形状を高精度に獲得、復元することができる全方位カメラの視点運動と3次元情報の復元方法とその装置及びプログラム並びにこれを記録した記録媒体の提供にある。   The present invention has been made in view of such circumstances, and an object of the present invention is to provide an omnidirectional camera viewpoint motion capable of acquiring and restoring an object shape related to an object with high accuracy from a time-series image acquired from an omnidirectional camera. An object of the present invention is to provide a three-dimensional information restoration method, apparatus and program thereof, and a recording medium recording the same.

前記課題を解決するために、本発明の全方位カメラの視点運動と3次元情報の復元方法とその装置及びプログラム並びにこれを記録した記録媒体は、全方位カメラで取得した全方位画像における特徴点の座標の時間的変化から、因子分解法によって対象物体の3次元形状及び全方位カメラの(視点の)光軸周りの回転運動とXY平面上の並進運動の3自由度の運動(平面運動)を求め、さらに、演算によって全方位カメラの(視点の)Z軸方向の並進運動を求めた後に、これらの誤差が所定の値以下になるまで反復計算し、その結果として、対象物体の3次元情報および全方位カメラの(視点の)4自由度の運動を復元している。   In order to solve the above-mentioned problems, a viewpoint motion and three-dimensional information restoration method, apparatus and program thereof, and a recording medium on which the omnidirectional camera of the present invention is recorded are feature points in an omnidirectional image acquired by the omnidirectional camera. From the temporal change of the coordinates of the three-degree-of-freedom motion (planar motion) of the three-dimensional shape of the target object and the rotational motion around the optical axis (of the viewpoint) of the omnidirectional camera and the translational motion on the XY plane by the factorization method Furthermore, after obtaining the translational motion of the omnidirectional camera in the Z-axis direction (of the viewpoint) by calculation, iteratively calculates until these errors are below a predetermined value, and as a result, the three-dimensional The information and the four-degree-of-freedom movement (of the viewpoint) of the omnidirectional camera are restored.

すなわち、請求項1記載の発明は、全方位カメラから取得した時系列の全方位画像(または広視野画像)中において、対象とする画像に配置した特徴点に関する画像座標値の時間的変化量から、時系列における全方位カメラ視点の運動、並びに、外界の物体形状を構成する3次元情報を復元する方法であって、
取得した時系列の全方位画像(または広視野画像)に設定した特徴点座標系において、各画像における特徴点の時間的変化量を示す画像座標値を測定するステップ(計測行列測定ステップ)と、
この計測行列測定ステップにおいて得た各特徴点の画像座標値から算出される位相角と仰角により別の座標値(uv座標値)を求め、この各特徴点のuv座標値から復元処理するための行列データ(行列分解データ)を生成し、この行列分解データを特異値分解し雑音除去を行って運動情報を表す行列データと3次元情報を表す行列データを得て、その運動情報の成分において、運動を規定するために設定した条件を満足する変換行列を求め、運動情報となる行列データにこの変換行列を作用させて全方位カメラ視点の光軸周りの回転運動とその軸に垂直な平面(XY平面)上の並進運動(この自由度3の運動を平面運動と称する)を復元し、さらに3次元情報を表す行列データにこの変換行列の逆行列を作用させて物体形状を構成する3次元情報を復元するステップ(平面運動と3次元情報の復元ステップ)と、
この平面運動と3次元情報の復元ステップで得た平面運動と3次元情報から各特徴点に関するuv座標系での再投影座標値を求め、その再投影座標値と行列分解データを構成する行列要素との間の誤差を算出し、この誤差と、平面運動と3次元情報の復元ステップで得た特徴点のZ座標値(3次元情報の成分)を使って、カメラ視点のZ軸方向の並進運動を復元するステップ(Z軸並進運動復元ステップ)と、
このZ軸並進運動復元ステップで得た誤差が、ある一定値以下に収束しているかどうかを判断し、もし、収束していないならば、平面運動と3次元情報の復元ステップで得た平面運動と3次元情報から変形係数を求め、この変形係数を各特徴点のuv座標値に結合させて新たなuv座標値を求め、これを行列要素とする行列分解データを生成し、平面運動と3次元情報の復元ステップに戻り、誤差が一定値以下に収束するまで反復して、全方位カメラ運動と3次元情報を復元するステップとを有する。
That is, the invention according to claim 1 is based on the temporal change amount of the image coordinate value related to the feature point arranged in the target image in the time-series omnidirectional image (or wide-field image) acquired from the omnidirectional camera. , The movement of the omnidirectional camera viewpoint in time series, and the method of restoring the three-dimensional information constituting the object shape of the outside world,
In the feature point coordinate system set in the acquired time-series omnidirectional image (or wide-field image), a step of measuring an image coordinate value indicating a temporal change amount of the feature point in each image (measurement matrix measurement step);
Another coordinate value (uv coordinate value) is obtained from the phase angle and elevation angle calculated from the image coordinate value of each feature point obtained in the measurement matrix measurement step, and the restoration process is performed from the uv coordinate value of each feature point. Generate matrix data (matrix decomposition data), perform singular value decomposition on the matrix decomposition data and perform noise removal to obtain matrix data representing motion information and matrix data representing three-dimensional information. In the component of the motion information, A transformation matrix that satisfies the conditions set to define the motion is obtained, and this transformation matrix is applied to the matrix data that becomes the motion information, and the rotational motion around the optical axis of the omnidirectional camera viewpoint and the plane perpendicular to the axis ( 3rd order that reconstructs translational motion on the XY plane (this motion with 3 degrees of freedom is called planar motion), and further forms an object shape by applying an inverse matrix of this transformation matrix to matrix data representing three-dimensional information. And step (restoration step of planar motion and three-dimensional information) to restore the information,
The reprojected coordinate value in the uv coordinate system for each feature point is obtained from the planar motion and 3D information obtained in the plane motion and 3D information restoration step, and the reprojected coordinate value and matrix elements constituting the matrix decomposition data Using this error and the Z coordinate value (component of 3D information) of the feature point obtained in the plane motion and 3D information restoration step, the translation of the camera viewpoint in the Z-axis direction is calculated. A step of restoring motion (Z-axis translational motion restoration step);
It is determined whether the error obtained in the Z-axis translational motion restoration step has converged to a certain value or less. If not, the planar motion obtained in the planar motion and three-dimensional information restoration step. Then, the deformation coefficient is obtained from the three-dimensional information, and the deformation coefficient is combined with the uv coordinate value of each feature point to obtain a new uv coordinate value, and matrix decomposition data having this as a matrix element is generated to generate the plane motion and 3 Returning to the step of restoring the dimensional information, the method includes repeating the steps until the error converges to a certain value or less to restore the omnidirectional camera motion and the three-dimensional information.

請求項2記載の発明は、全方位カメラから取得した時系列の全方位画像(または広視野画像)中において、対象とする画像に配置した特徴点に関する画像座標値の時間的変化量から、時系列における全方位カメラ視点の運動、並びに外界の物体形状を構成する3次元情報を復元する方法であって、
取得した時系列の全方位画像(または広視野画像)に対して、各画像座標値から得られる位相角と仰角により各画像座標値をuv座標値に変換して各画素をそのuv座標値に対応付けるように時系列画像(uv画像)を生成し、このuv画像に設定した特徴点座標系において、各画像における特徴点の時間的変化量を示すuv座標値を測定するステップ(uv計測行列測定ステップ)と、
このuv計測行列測定ステップにおいて得た各特徴点のuv座標値から復元処理するための行列データ(行列分解データ)を生成し、この行列分解データを特異値分解し雑音除去を行って運動情報を表す行列データと3次元情報を表す行列データを得て、その運動情報の成分において、運動を規定するために設定した条件を満足する変換行列を求め、運動情報となる行列データにこの変換行列を作用させて全方位カメラ視点の光軸周りの回転運動とその軸に垂直な平面(XY平面)上の並進運動(この自由度3の運動を平面運動と称する)を復元し、さらに、3次元情報を表す行列データにこの変換行列の逆行列を作用させて物体形状を構成する3次元情報を復元するステップ(平面運動と3次元情報の復元ステップ)と、
この平面運動と3次元情報の復元ステップで得た平面運動と3次元情報から各特徴点に関するuv座標系での再投影座標値を求め、その再投影座標値と行列分解データを構成する行列要素との間の誤差を算出し、この誤差と、平面運動と3次元情報の復元ステップで得た特徴点のZ座標値(3次元情報の成分)を使って、カメラ視点のZ軸方向の並進運動を復元するステップ(Z軸並進運動復元ステップ)と、
このZ軸並進運動復元スナッブで得た誤差が、ある一定値以下に収束しているかどうかを判断し、もし、収束していないならば、平面運動と3次元情報の復元ステップで得た平面運動と3次元情報から変形係数を求め、この変形係数を各特徴点のuv座標値に結合させて新たなuv座標値を求め、これを行列要素とする行列分解データを生成し、平面運動と3次元情報の復元ステップに戻り、誤差が一定値以下に収束するまで反復して、全方位カメラ運動と3次元情報を復元するステップとを有する。
According to the second aspect of the present invention, in the time-series omnidirectional image (or wide-field image) acquired from the omnidirectional camera, the temporal change amount of the image coordinate value regarding the feature point arranged in the target image is A method of restoring the three-dimensional information constituting the movement of the omnidirectional camera viewpoint in the sequence and the object shape of the outside world,
With respect to the acquired time-series omnidirectional image (or wide-field image), each image coordinate value is converted into a uv coordinate value by a phase angle and an elevation angle obtained from each image coordinate value, and each pixel is converted to its uv coordinate value. A time series image (uv image) is generated so as to be associated, and in the feature point coordinate system set in the uv image, a uv coordinate value indicating a temporal change amount of the feature point in each image is measured (uv measurement matrix measurement) Step) and
Generate matrix data (matrix decomposition data) for restoration processing from the uv coordinate values of each feature point obtained in the uv measurement matrix measurement step, perform singular value decomposition on the matrix decomposition data, perform noise removal, and obtain motion information. The matrix data representing the three-dimensional information and the matrix data representing the three-dimensional information are obtained, and the transformation matrix satisfying the conditions set for defining the motion is obtained in the motion information component. The rotational motion around the optical axis of the omnidirectional camera viewpoint and the translational motion on the plane perpendicular to the axis (XY plane) (this three-degree-of-freedom motion is referred to as plane motion) are restored, and three-dimensional A step of restoring the three-dimensional information constituting the object shape by applying an inverse matrix of this transformation matrix to matrix data representing information (a step of restoring plane motion and three-dimensional information);
The reprojected coordinate value in the uv coordinate system for each feature point is obtained from the planar motion and 3D information obtained in the plane motion and 3D information restoration step, and the reprojected coordinate value and matrix elements constituting the matrix decomposition data Using this error and the Z coordinate value (component of 3D information) of the feature point obtained in the plane motion and 3D information restoration step, the translation of the camera viewpoint in the Z-axis direction is calculated. A step of restoring motion (Z-axis translational motion restoration step);
It is judged whether the error obtained by this Z-axis translational motion recovery snubber has converged to a certain value or less. Then, the deformation coefficient is obtained from the three-dimensional information, and the deformation coefficient is combined with the uv coordinate value of each feature point to obtain a new uv coordinate value, and matrix decomposition data having this as a matrix element is generated to generate the plane motion and 3 Returning to the step of restoring the dimensional information, the method includes repeating the steps until the error converges to a certain value or less to restore the omnidirectional camera motion and the three-dimensional information.

請求項3記載の発明は、請求項1記載の全方位カメラ視点運動と3次元情報の復元方法における計測行列測定ステップにおいて、計測行列を特異値分解して得る特異値成分において、その成分から運動の自由度を表す判定値を算出し、
判定値がある一定値未満の場合は、カメラ運動が平面運動とみなして、前記全方位カメラ運動と3次元情報を復元するステップにおいて、光軸周りの回転とある平面上の運動からなる自由度3の平面運動と3次元情報を復元する処理を行い、
判定値がある一定値以上の場合は、カメラ運動が自由度4の運動をしているとみなして、前記全方位カメラ運動と3次元情報を復元するステップによって、カメラに関する回転と並進運動からなる自由度4の運動と外界の3次元情報を復元している。
According to a third aspect of the present invention, a singular value component obtained by singular value decomposition of the measurement matrix in the measurement matrix measurement step in the omnidirectional camera viewpoint motion and three-dimensional information restoration method according to the first aspect is described below. A decision value representing the degree of freedom of
If the determination value is less than a certain value, the camera motion is regarded as a plane motion, and in the step of restoring the omnidirectional camera motion and the three-dimensional information, the degree of freedom comprising rotation about the optical axis and motion on a certain plane 3 to restore the plane motion and 3D information,
If the determination value is equal to or greater than a certain value, the camera motion is considered to be a motion with 4 degrees of freedom, and the omnidirectional camera motion and the step of restoring the three-dimensional information comprise rotation and translational motions related to the camera. It restores motion with 4 degrees of freedom and 3D information of the outside world.

請求項4記載の発明は、請求項2記載の全方位カメラ視点運動と3次元情報の復元方法におけるuv計測行列測定ステップにおいて、計測行列を特異値分解して得る特異値成分において、その成分から運動を表す判定値を算出し、
判定値がある一定値未満の場合は、カメラ運動が平面運動とみなして、前記全方位カメラ運動と3次元情報を復元するステップにおいて、光軸周りの回転とある平面上の運動からなる自由度3の平面運動と3次元情報を復元する処理を行い、
判定値がある一定値以上の場合は、カメラ運動が自由度4の運動をしているとみなして、前記全方位カメラ運動と3次元情報を復元するステップによって、請求項2記載の復元方法によってカメラに関する回転と並進運動からなる自由度4の運動と外界の3次元情報を復元するしている。
According to a fourth aspect of the present invention, in the uv measurement matrix measurement step in the omnidirectional camera viewpoint movement and three-dimensional information restoration method according to the second aspect, in the singular value component obtained by singular value decomposition of the measurement matrix, Calculate a judgment value representing exercise,
If the determination value is less than a certain value, the camera motion is regarded as a plane motion, and in the step of restoring the omnidirectional camera motion and the three-dimensional information, the degree of freedom comprising rotation about the optical axis and motion on a certain plane 3 to restore the plane motion and 3D information,
The restoration method according to claim 2, wherein if the determination value is equal to or greater than a certain value, the camera movement is regarded as a movement with 4 degrees of freedom, and the omnidirectional camera movement and the three-dimensional information are restored. The movement of the degree of freedom 4 consisting of rotation and translational motion about the camera and the three-dimensional information of the outside world are restored.

請求項5記載の発明は、全方位カメラから取得した時系列の全方位画像(または広視野画像)中において、対象とする画像に配置した特徴点に関する画像座標値の時間的変化量から、時系列における全方位カメラ視点の運動、並びに、外界の物体形状を構成する3次元情報を復元する装置であって、
各画像における特徴点の座標値を測定する特徴点計測部と、
前記特徴点計測部で得た画像座標値をuv画像に変換する計測行列変換部と、
前記uv画像のuv座標値を行列要素とする行列を初期値として与える計測行列入力部と、
交点座標計測部と計測行列入力部とから供給されたデータから因子分解法によりカメラの運動と外界の3次元情報を復元する因子分解法処理部とを備える。
According to the fifth aspect of the present invention, in the time-series omnidirectional image (or wide-field image) acquired from the omnidirectional camera, the temporal change amount of the image coordinate value regarding the feature point arranged in the target image is A device that restores the movement of the omnidirectional camera viewpoint in the series and the three-dimensional information constituting the object shape of the outside world,
A feature point measurement unit that measures coordinate values of feature points in each image;
A measurement matrix conversion unit that converts the image coordinate values obtained by the feature point measurement unit into a uv image;
A measurement matrix input unit for giving a matrix having the uv coordinate value of the uv image as a matrix element as an initial value;
A factorization processing unit that restores the motion of the camera and the three-dimensional information of the outside world from the data supplied from the intersection coordinate measurement unit and the measurement matrix input unit by a factorization method;

請求項6記載の発明は、全方位カメラから取得した時系列の全方位画像(または広視野画像)中において、対象とする画像に配置した特徴点に関する画像座標値の時間的変化量から、時系列における全方位カメラ視点の運動、並びに、外界の物体形状を構成する3次元情報を復元する装置であって、
各画像をuv画像に変換する画像変換処理部と、
各画像における特徴点の座標値を測定する特徴点計測部と、
前記uv画像のuv座標値を行列要素とする行列を初期値として与える計測行列入力部と、
計測行列入力部から供給されたデータから因子分解法によりカメラの運動と外界の3次元情報を復元する因子分解法処理部とを備える。
According to the sixth aspect of the present invention, in the time-series omnidirectional image (or wide-field image) acquired from the omnidirectional camera, the temporal change amount of the image coordinate value related to the feature point arranged in the target image is A device that restores the movement of the omnidirectional camera viewpoint in the series and the three-dimensional information constituting the object shape of the outside world,
An image conversion processing unit for converting each image into a uv image;
A feature point measurement unit that measures coordinate values of feature points in each image;
A measurement matrix input unit for giving a matrix having the uv coordinate value of the uv image as a matrix element as an initial value;
A factorization processing unit that restores the motion of the camera and the three-dimensional information of the outside world from the data supplied from the measurement matrix input unit by a factorization method;

請求項7記載の発明は、請求項5記載の全方位カメラ運動と3次元情報の復元装置において、前記計測行列変換部から供給されたuv画像を特異値分解して得た特異値成分から運動の自由度を表す判定値を算出する復元処理判定部を備え、
判定値がある一定値未満の場合は、カメラ運動が平面運動をしたとみなして、
前記因子分解法処理部は光軸周りの回転とその光軸に垂直な平面上の運動からなる自由度3の平面運動と3次元情報を復元する処理を行い、
判定値がある一定値以上の場合は、カメラ運動が自由度4の運動をしたとみなして、前記因子分解法処理部はカメラに関する回転と並進運動からなる自由度4の運動と外界の3次元情報を復元する処理を行なっている。
According to a seventh aspect of the present invention, in the omnidirectional camera motion and three-dimensional information restoration device according to the fifth aspect, the motion is performed from the singular value component obtained by singular value decomposition of the uv image supplied from the measurement matrix converter. A restoration processing determination unit that calculates a determination value representing the degree of freedom of
If the judgment value is less than a certain value, it is considered that the camera motion is a plane motion,
The factorization processing unit performs a process of restoring three-dimensional information and three-dimensional information with three degrees of freedom consisting of rotation around the optical axis and movement on a plane perpendicular to the optical axis,
If the determination value is equal to or greater than a certain value, the camera motion is regarded as having a motion of 4 degrees of freedom, and the factorization processing unit performs a motion of 4 degrees of freedom consisting of rotation and translational motion related to the camera and the 3D of the external world. Processing to restore information is performed.

請求項8記載の発明は、請求項6記載の全方位カメラ運動と3次元情報の復元装置において、前記特徴点計測部からuv画像を特異値分解して得る特異値成分から運動を表す判定値を算出する復元処理判定部を備え、
判定値がある一定値末満の場合は、カメラ運動が平面運動をしたとみなして、前記因子分解法処理部は光軸周りの回転とその光軸に垂直な平面上の運動からなる自由度3の平面運動と3次元情報を復元する処理を行い、
判定値がある一定値以上の場合は、カメラ運動が自由度4の運動をしたとみなして、前記因子分解法処理部はカメラに関する回転と並進運動からなる自由度4の運動と外界の3次元情報を復元する処理を行なっている。
The invention according to claim 8 is the omnidirectional camera motion and three-dimensional information restoration device according to claim 6, wherein the determination value represents motion from a singular value component obtained by singular value decomposition of the uv image from the feature point measurement unit. A restoration processing determination unit for calculating
When the judgment value is less than a certain value, it is considered that the camera motion is a plane motion, and the factorization processing unit has a degree of freedom comprising a rotation around the optical axis and a motion on a plane perpendicular to the optical axis. 3 to restore the plane motion and 3D information,
If the determination value is equal to or greater than a certain value, the camera motion is regarded as having a motion of 4 degrees of freedom, and the factorization processing unit performs a motion of 4 degrees of freedom consisting of rotation and translational motion related to the camera and the 3D of the external world. Processing to restore information is performed.

以上の発明において、広視野画像は全方位画像と同義の技術用語である(以下、後述の発明の実施形態においても同じ)。   In the above invention, the wide-field image is a technical term synonymous with the omnidirectional image (hereinafter, the same applies to embodiments of the invention described later).

uv座標値は、外界の3次元座標値を、視点を中心とした球面に投影した座標値において、カメラの進行方向の直交方向成分を高さ方向成分で割った値、およびカメラの進行方向成分を高さ方向成分で割った値を求め、それぞれをu座標およびv座標として得たものである。   The uv coordinate value is a value obtained by dividing a three-dimensional coordinate value of the external world onto a spherical surface centered on the viewpoint, and a value obtained by dividing the orthogonal direction component of the moving direction of the camera by the height direction component, and the moving direction component of the camera Is obtained by dividing the height component by the height direction component, and obtained as the u coordinate and the v coordinate, respectively.

変形係数は、全方位カメラの(視点の)Z軸方向並進運動、および光軸以外の他軸周りの回転運動を、それらに等価なuv座標値の変形で表した場合の変形の度合いを表わす係数である。   The deformation coefficient represents the degree of deformation when the translational motion in the Z-axis direction (of the viewpoint) of the omnidirectional camera and the rotational motion around other axes other than the optical axis are expressed by deformation of the uv coordinate value equivalent to them. It is a coefficient.

尚、本発明の全方位カメラの視点運動と3次元情報の復元方法及びその装置はコンピュータとプログラムによっても実現でき、プログラムをコンピュータ読み取り可能な記録媒体に記録すること、ネットワークを通して提供することも可能である。前記記録媒体としては、例えばFD(フロッピーデイスク(登録商標))や、MO、ROM、メモリカード、CD、DVD、リムーバルディスク等が挙げられる。   The viewpoint movement and three-dimensional information restoration method and apparatus of the omnidirectional camera of the present invention can be realized by a computer and a program, and the program can be recorded on a computer-readable recording medium or provided through a network. It is. Examples of the recording medium include FD (floppy disk (registered trademark)), MO, ROM, memory card, CD, DVD, and removable disk.

本発明の全方位カメラの視点運動と3次元情報の復元方法とその装置及びプログラム並びにこれを記録した記録媒体によれば、全方位カメラを用いて取得した時系列画像全般(移動手段を利用して撮影した車載画像、海上画像、空撮画像、屋内画像等)から対象物に関する物体形状を高精度に獲得、復元することが可能となる。また、これまでの測量技術並の高精度な3次元立体視が可能となる。   According to the omnidirectional camera viewpoint motion and three-dimensional information restoration method, apparatus and program thereof, and the recording medium on which the omnidirectional camera of the present invention is recorded, all time-series images acquired using the omnidirectional camera (using moving means) The object shape related to the object can be obtained and restored with high accuracy from the vehicle-mounted image, sea image, aerial image, indoor image, etc. In addition, high-accuracy three-dimensional stereoscopic viewing similar to conventional surveying techniques is possible.

特に、車載カメラに適用した場合、そのカメラは車の走行によって振動するが、本発明はこのような事態においても、雑音にロバストに、微小なカメラ姿勢の変動(光軸周り回転:ヨー回転)、並びにGPSなどのリモートセンサを補間する精度の並進運動を正確に計測することが可能となる。また、本発明で用いられる演算は、そのほとんどが線形演算で構成されているので、コンピュータ言語での実装が容易である。   In particular, when applied to an in-vehicle camera, the camera vibrates with the traveling of the car. However, even in such a situation, the present invention is robust against noise and has a minute camera posture fluctuation (rotation around the optical axis: yaw rotation). In addition, it is possible to accurately measure translational motion with accuracy for interpolating a remote sensor such as GPS. In addition, since most of the operations used in the present invention are composed of linear operations, they can be easily implemented in a computer language.

以下、図面を参照しながら本発明の実施の形態について説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

(実施形態1)
図1a及び図1bは請求項1記載の発明を実施する装置の形態例を示した概略構成図である。本実施形態では等距離投影(光軸から入射角に比例した投影)で光学的に設計された魚眼レンズを使用した魚眼カメラ(以下、カメラと略称する場合もある。尚、以降の実施形態では全方位カメラと称す。)について説明する。尚、本発明は、他の投影(立体角投影、等立体角投影)で設計された魚眼レンズを使用したカメラ(広視野カメラ)で取得した時系列画像に対しても適用可能である。
(Embodiment 1)
1a and 1b are schematic configuration diagrams showing an embodiment of an apparatus for carrying out the invention of claim 1. FIG. In the present embodiment, a fish-eye camera (hereinafter referred to as a camera) using a fish-eye lens optically designed by equidistant projection (projection proportional to the incident angle from the optical axis) may be abbreviated as a camera. (Referred to as an omnidirectional camera). The present invention can also be applied to a time-series image acquired by a camera (wide-field camera) using a fisheye lens designed by another projection (solid angle projection, equal solid angle projection).

図10を参照しながら、本実施形態で復元する対象の空間中の点P(Xj,Yj,Zj)と、カメラの運動、すなわちヨー回転(θi)と並進運動Ti(Txi,Tyi,Tzi)について説明する。 Referring to FIG. 10, the point P (X j , Y j , Z j ) in the space to be restored in this embodiment, the camera motion, that is, the yaw rotation (θ i ) and the translational motion T i (Tx i , Ty i , Tz i ) will be described.

図はカメラと対象物(被写体)との位置関係を表しており、説明の都合上、カメラが進行する軸をY軸とする。このとき、カメラのカメラ光軸をZ軸方向とする。このとき、カメラのカメラ光軸をZ軸方向とする。図10では、投影中心Cの位置(視点位置Ti)は運動の中心と考えて、第iフレームでの並進運動をTi(Txi,Tyi,Tzi)で表している。また、カメラ光軸(図10で示すZ軸)周りの回転をヨー回転とする。一方、空間中の点P(Xj,Yj,Zj)は、イメージサークル内の画像面において画像座標値(xij,yij)へ投影されるとする。式(1)は等距離投影と呼ばれる光学的投影であり、図10の位相角ρijは、画像座標値(xij,yij)から式(2)の演算によって得ることができる。また、式(1)において、fは魚眼レンズの焦点距離であり、DはD=πf/(2R)で決まる定数である。但し、Rは図10に示すイメージサークルの半径である。また、図10では画像面での投影中心Cの画像座標値を(Cx,Cy)としている。 The figure shows the positional relationship between the camera and the object (subject). For convenience of explanation, the axis along which the camera travels is the Y axis. At this time, the camera optical axis of the camera is the Z-axis direction. At this time, the camera optical axis of the camera is the Z-axis direction. In FIG. 10, the position of the projection center C (viewpoint position T i ) is considered as the center of motion, and the translational motion in the i-th frame is represented by T i (Tx i , Ty i , Tz i ). Further, rotation around the camera optical axis (Z axis shown in FIG. 10) is assumed to be yaw rotation. On the other hand, a point P (X j , Y j , Z j ) in space is projected onto an image coordinate value (x ij , y ij ) on the image plane in the image circle. Expression (1) is an optical projection called equidistant projection, and the phase angle ρ ij in FIG. 10 can be obtained from the image coordinate values (x ij , y ij ) by the calculation of Expression (2). In Expression (1), f is the focal length of the fisheye lens, and D is a constant determined by D = πf / (2R). Here, R is the radius of the image circle shown in FIG. In FIG. 10, the image coordinate value of the projection center C on the image plane is (C x , C y ).

Figure 2005063013
Figure 2005063013

Figure 2005063013
Figure 2005063013

図1aに示された復元装置は、全方位画像を蓄積した時系列データベース10と、各画像における特徴点の座標値を測定する特徴点計測部11と、この計測部で得た画像座標値をuv画像に変換する計測行列変換部12、uv座標値を行列要素とする行列を初期値として与える計測行列入力部13と、これらの入力データから因子分解法によりカメラの運動と外界の3次元情報を復元する因子分解法処理部14とを備える。尚、時系列画像データベース10には、ハードディスク、RAID装置、CD−ROM等の記録媒体を利用するか、またはネットワークを介したリモートなデータ資源を利用する形態でもどちらでもよい。   The restoration apparatus shown in FIG. 1a includes a time-series database 10 in which omnidirectional images are accumulated, a feature point measurement unit 11 that measures coordinate values of feature points in each image, and image coordinate values obtained by the measurement unit. A measurement matrix conversion unit 12 for converting to a uv image, a measurement matrix input unit 13 for giving a matrix having uv coordinate values as matrix elements as initial values, and three-dimensional information of camera motion and the external world from these input data by a factorization method And a factorization processing unit 14 for restoring. The time-series image database 10 may use a recording medium such as a hard disk, a RAID device, a CD-ROM, or a remote data resource via a network.

また、図1bはリアルタイムで処理する場合の復元装置の形態例を示した概略構成図である。当該復元装置は時系列画像データベース10に代えてデータ画像入力部15を備えている。したがって、本実施形態の復元装置は必ずしも各データベース部等の記憶手段を必要としない。   FIG. 1b is a schematic configuration diagram showing an example of a restoration device in the case of processing in real time. The restoration apparatus includes a data image input unit 15 instead of the time-series image database 10. Therefore, the restoration apparatus of this embodiment does not necessarily require storage means such as each database unit.

以下、本実施形態の各構成部について説明する。   Hereinafter, each component of the present embodiment will be described.

特徴点計測部11は、景観を撮影した全方位画像を時系列画像データベース10から取り出し、全方位画面上に特徴点を設定する。この特徴点設定には、濃淡の1次元的または2次元的変化による勾配値が大きくなる画素を検出(エッジ検出等)、Cannyオペレータ、ハフ変換等の画像処理手法により特徴点を自動的に発生させる。また、作業者が介在して適当に特徴点をマークするなどして初期画像上に特徴点を配置してもかまわない。このとき、配置する特徴点の数をP個(j=1,2,…,P)とし、配置したときの特徴点の2次元座標値として、図10での画像座標系での原点からの座標値(x1j,y1j),j=1,2,…,Pを記録しておく。次に、初期画像に続く時系列画像をデータベース10から1枚ずつ読み込み、初期画像に配置した特徴点を、時系列画像間の濃淡の変化に着目した手法、特徴点を中心とした画素パターンを各フレーム間で追跡する方法(例えばKLT(Kanade−Lucas−Tomasi)法)または全方位画像特有の投影歪みを考慮した手法を駆使して追跡して追跡し、各時系列画像(初期画像から第i番目の画像)の特徴点を画像座標値として図10での画像座標系での原点からの2次元座標値(xij,yij)記録する。時系列画像を読み続けた場合、特徴点が画像間で消失やオクルージョンにより消失してしまったときは追跡を停止し、特徴点追跡を終了する。特徴点追跡が終了した時点で、読み出した時系列画像の数は初期画像を含めてF枚とする(i=1,2,…,F)。特徴点計測部11では各時系列画像における特徴点の時間的な画像座標的配置の変化量は式(3)のデータ形式に配置して計測行列[A]を保持しておく。 The feature point measurement unit 11 takes out an omnidirectional image capturing a landscape from the time-series image database 10 and sets a feature point on the omnidirectional screen. For this feature point setting, pixels with a large gradient value due to a one-dimensional or two-dimensional change in shading are detected (edge detection, etc.), and feature points are automatically generated by image processing techniques such as Canny operator and Hough transform. Let Further, the feature points may be arranged on the initial image by appropriately marking the feature points with an operator intervening. At this time, the number of feature points to be arranged is P (j = 1, 2,..., P), and the two-dimensional coordinate values of the feature points at the time of placement are determined from the origin in the image coordinate system in FIG. Coordinate values (x 1j , y 1j ), j = 1, 2,..., P are recorded. Next, a time series image following the initial image is read from the database 10 one by one, and feature points arranged in the initial image are converted to a method that focuses on a change in shading between the time series images, and a pixel pattern centered on the feature points. A tracking method between each frame (for example, KLT (Kanade-Lucas-Tomasi) method) or a method that takes into account projection distortion peculiar to an omnidirectional image is used for tracking and tracking. The two-dimensional coordinate values (x ij , y ij ) from the origin in the image coordinate system in FIG. 10 are recorded as image coordinate values as feature points of the (i-th image). When the time series image is continuously read, if the feature point disappears between images due to disappearance or occlusion, the tracking is stopped and the feature point tracking is ended. When the feature point tracking is completed, the number of time-series images read out is F including the initial image (i = 1, 2,..., F). The feature point measurement unit 11 stores the measurement matrix [A] by arranging the amount of change in the temporal image coordinate arrangement of the feature points in each time-series image in the data format of Expression (3).

Figure 2005063013
Figure 2005063013

計測行列変換部12は、特徴点計測部11で取得した画像座標値を要素とする計測行列[A]から第iフレームおける第j番目の特徴点の画像座標値(xij,yij)を取り出す。さらに、投影中心(Cx,Cy)を原点とした相対的な画像座標値に一時変換し、式(1)及び(2)の演算によって位相角ρijと仰角φijを求める。この位相角と仰角を式(4)による演算に供して座標変換し、uv座標値(uij,vij)を得ている。この変換はこの全フレーム、全特徴点に対して行なわれる。尚、変換後のデータ形式として、式(5a)に示す要素形式の行列[B]は計測行列入力部13において初期値として保持される。 The measurement matrix conversion unit 12 obtains the image coordinate values (x ij , y ij ) of the j-th feature point in the i-th frame from the measurement matrix [A] having the image coordinate values acquired by the feature point measurement unit 11 as elements. Take out. Further, the phase angle ρ ij and the elevation angle φ ij are obtained by temporarily converting into relative image coordinate values with the projection center (C x , C y ) as the origin, and by the calculations of equations (1) and (2). The phase angle and the elevation angle are subjected to coordinate conversion by calculation according to Equation (4) to obtain uv coordinate values (u ij , v ij ). This conversion is performed for all frames and all feature points. As a converted data format, the matrix [B] in the element format shown in Expression (5a) is held as an initial value in the measurement matrix input unit 13.

Figure 2005063013
Figure 2005063013

Figure 2005063013
Figure 2005063013

u座標値及びv座標値は、外界の3次元座標値(X,Y,Z)を、視点Tiを中心とした球面に投影した座標値において、それぞれ、カメラの進行方向の直行方向成分を高さ方向成分で割った値、及びカメラの進行方向成分を高さ方向成分で割った値に相当する。すなわち、外界の3次元座標値(X,Y,Z)を、視点Tiを中心とした半径lの球面に投影すると、(X’,Y’,Z’)=(cos(φ)cos(ρ),cos(φ)sin(ρ),sin(φ))と表される(図10参照)。uv座標値はこの単位球面座標値(X’,Y’,Z’)から(u,v)=(X’/Z’,Y’/Z’)=(cot(φ)cos(ρ),cot(φ)sin(ρ))で算出される。尚、一般的な球面座標系では、図10においてZ軸から測った角φ’を用いて座標を定義するため、(X’,Y’,Z’)=(sin(φ’)cos(ρ),sin(φ’)sin(ρ),cos(φ’))と表せる。   The u-coordinate value and the v-coordinate value are obtained by projecting the three-dimensional coordinate values (X, Y, Z) of the external world onto a spherical surface with the viewpoint Ti as the center, and the orthogonal direction component of the moving direction of the camera is high. It corresponds to a value obtained by dividing by the direction component and a value obtained by dividing the moving direction component of the camera by the height direction component. That is, when the three-dimensional coordinate value (X, Y, Z) of the outside world is projected onto a spherical surface having a radius l centered on the viewpoint Ti, (X ′, Y ′, Z ′) = (cos (φ) cos (ρ ), Cos (φ) sin (ρ), sin (φ)) (see FIG. 10). The uv coordinate value is calculated from the unit spherical coordinate value (X ′, Y ′, Z ′) to (u, v) = (X ′ / Z ′, Y ′ / Z ′) = (cot (φ) cos (ρ), cot (φ) sin (ρ)). In the general spherical coordinate system, since the coordinates are defined using the angle φ ′ measured from the Z axis in FIG. 10, (X ′, Y ′, Z ′) = (sin (φ ′) cos (ρ ), Sin (φ ′) sin (ρ), cos (φ ′)).

これに対して本実施形態では、図10での視点から3次元座標値(X,Y,Z)を見上げたときの仰角φを用いて座標を定義しているため、φ’=π/2−φであり、(sin(π/2−φ)cos(ρ),sin(π/2−φ)sin(ρ),cos(π/2−φ))=(cos(φ)cos(ρ),cos(φ)sin(ρ),sin(φ))と表される。   On the other hand, in this embodiment, since the coordinates are defined using the elevation angle φ when looking up the three-dimensional coordinate value (X, Y, Z) from the viewpoint in FIG. 10, φ ′ = π / 2. −φ and (sin (π / 2−φ) cos (ρ), sin (π / 2−φ) sin (ρ), cos (π / 2−φ)) = (cos (φ) cos (ρ ), Cos (φ) sin (ρ), sin (φ)).

図15a(1)(2)(3)に全方位カメラが撮像した画像の例を示す。該図においてa(1)は全方位カメラが撮像した画像の例で対象物に輪郭線を付したものを、a(2)は全方位カメラが撮像した画像の例で対象物の輪郭線のみを示したものを、a(3)は全方位カメラが撮像した画像の例で対象物の輪郭線を付してないものである。   FIGS. 15a (1), (2) and (3) show examples of images taken by the omnidirectional camera. In the figure, a (1) is an example of an image taken by an omnidirectional camera and an object is attached with an outline, and a (2) is an example of an image taken by an omnidirectional camera and only the outline of the object. A (3) is an example of an image captured by an omnidirectional camera and does not have a contour line of an object.

また、図15b(1)(2)(3)は図15a(1)の画像を図5に開示した処理フローに従ってuv座標値に変換し、図4に示したuv画像を生成した例を示したものである。図15においてb(1)は全方位カメラが撮像した画像をuv座標変換して得た画像の例で対象物に輪郭線を付したものを、b(2)は全方位カメラが撮像した画像をuv座標変換して得た画像の例で対象物の輪郭線のみを示したものを、b(3)は全方位カメラが撮像した画像をuv座標変換して得た画像の例で対象物の輪郭線を付してないものである。   FIGS. 15b (1), (2), and (3) show examples in which the image of FIG. 15a (1) is converted into uv coordinate values according to the processing flow disclosed in FIG. 5, and the uv image shown in FIG. 4 is generated. It is a thing. In FIG. 15, b (1) is an example of an image obtained by uv coordinate conversion of an image captured by an omnidirectional camera, and an object is attached with an outline, and b (2) is an image captured by an omnidirectional camera. B (3) is an example of an image obtained by performing uv coordinate conversion on an image captured by an omnidirectional camera. The outline is not attached.

図15b(1)(2)(3)から明らかなように、本座標変換では、仰角φが小さい特徴点(建物の底辺に近い点)ほどv軸から遠ざかる点に測定誤差が強調されて変換される。すなわち、同じ操作により特徴点を測定した場合、xy平面上では判りづらい誤差などがuv平面ではより正確に把握できるようになる。したがって、この強調された誤差が最小となるようにカメラ視点の運動及び3次元座標値を求めれば、高精度な計測が可能となる。   As is apparent from FIGS. 15 b (1), (2), and (3), in this coordinate conversion, the measurement error is emphasized to a point that is further away from the v-axis as the feature point (point closer to the bottom of the building) with a smaller elevation angle φ is converted. Is done. That is, when feature points are measured by the same operation, errors that are difficult to understand on the xy plane can be grasped more accurately on the uv plane. Therefore, if the movement of the camera viewpoint and the three-dimensional coordinate value are obtained so that the emphasized error is minimized, highly accurate measurement can be performed.

また、uv平面において、ロール回転運動はv方向の座標移動、ピッチ回転運動はu方向の座標移動、Z軸並進運動はuv座標軸系におけるスケール変換に簡略的に換算できるため、xy平面よりもロール回転、ピッチ回転、Z軸並進運動の判別が容易となる。この判別の容易性を利用して、本発明では反復的に変形係数を使ってuv座標値を変形させて、繰り返しカメラ運動と3次元座標値の復元を続けることで、より高精度なカメラ運動と3次元座標値を復元することが可能となっている。   Further, in the uv plane, the roll rotation movement can be converted into the coordinate movement in the v direction, the pitch rotation movement can be converted into the coordinate movement in the u direction, and the Z-axis translation movement can be simply converted into scale conversion in the uv coordinate axis system. The rotation, pitch rotation, and Z-axis translation can be easily distinguished. By utilizing this ease of discrimination, the present invention repeatedly deforms the uv coordinate value using the deformation coefficient, and continues to reconstruct the camera motion and the three-dimensional coordinate value repeatedly, so that the camera motion with higher accuracy can be obtained. It is possible to restore the three-dimensional coordinate values.

次に、因子分解法処理部14の処理概要について説明する。図2は当該処理工程をフローチャートで示したものである。先ず、計測行列入力部14から計測行列データが供されると、係数εijを式(5b)のように初期化し、処理値の行列[B]と交点座標値から式(6)に示すデータを求めておき、これを改めて行列[B]として保持しておく(ステップ101)。このとき、計測行列入力部に保持してある処理値の行列[B]は上書きせず、図2の処理が終了するまでに保持しておく。この行列[B]が分解行列データとなる。 Next, an outline of processing of the factorization method processing unit 14 will be described. FIG. 2 is a flowchart showing the processing steps. First, when measurement matrix data is provided from the measurement matrix input unit 14, the coefficient ε ij is initialized as shown in the equation (5b), and the data shown in the equation (6) from the matrix [B] of the processing values and the intersection coordinate values. Is again stored as a matrix [B] (step 101). At this time, the matrix [B] of the processing values held in the measurement matrix input unit is not overwritten and is held until the processing of FIG. 2 ends. This matrix [B] becomes decomposition matrix data.

Figure 2005063013
Figure 2005063013

Figure 2005063013
Figure 2005063013

前記行列[B]は特異値分解(ステップ102)に供されて式(7)に示す3つの行列[U]、[W]、[V]に行列分解される。ここで、[U]は2F×Pサイズの行列、[W]はP×Pサイズの対角行列、[V]はP×Pサイズの行列である。   The matrix [B] is subjected to singular value decomposition (step 102) to be decomposed into three matrices [U], [W], and [V] shown in Expression (7). Here, [U] is a 2F × P size matrix, [W] is a P × P size diagonal matrix, and [V] is a P × P size matrix.

Figure 2005063013
Figure 2005063013

さらに、雑音除去(ステップ103)において、式(8)の第二項に示すように、ランク4以上の各行列の成分を削除する。この削除のときは、行列[U]を取り出し、この行列の要素において第4から第P列目までを削除し、残りの成分からなる行列を保持し、行列[W]を取り出し、この行列の要素において第4から第P行目並びに第4から第P列目までを削除し、残りの成分からなる行列を保持し、行列[V]を取り出し、この行列の要素において第4から第P行目までを削除し、残りの成分からなる行列をそれぞれ保持する(式(9))。次に、第4から第P行目並びに第4から第P列目までを削除した行列[W]の対角要素の平方をとった行列から、式(10)及び式(ll)に示す行列[U’]と行列[V’]を得る。   Further, in noise removal (step 103), as shown in the second term of equation (8), the components of each matrix of rank 4 or higher are deleted. At the time of this deletion, the matrix [U] is taken out, the fourth to Pth columns are deleted from the elements of this matrix, the matrix consisting of the remaining components is held, the matrix [W] is taken out, The fourth to Pth rows and the fourth to Pth columns are deleted in the element, the matrix composed of the remaining components is retained, the matrix [V] is extracted, and the fourth to Pth rows are extracted from the elements of this matrix. Delete up to the eye and hold the matrix composed of the remaining components (Equation (9)). Next, from the matrix obtained by taking the square of the diagonal elements of the matrix [W] from which the 4th to Pth rows and the 4th to Pth columns are deleted, the matrices shown in Expression (10) and Expression (ll) [U ′] and matrix [V ′] are obtained.

Figure 2005063013
Figure 2005063013

Figure 2005063013
Figure 2005063013

Figure 2005063013
Figure 2005063013

Figure 2005063013
Figure 2005063013

次いで、変換行列算出(ステップ104)では、保持してある行列[U’]を取り出し、式(13)〜式(15)に示す連立する条件式における対称行列[C](式(12)で表されている)の各要素にかかる係数を計算する。これらの係数計算は、行列演算により容易に得られるものであり、この条件式を全フレームに対して計算する。次に、全フレームの式(13)〜(15)に示す連立する条件式に対して、最小二乗法などの数値計算を利用して3×3サイズの行列[C]の各要素を決定する。さらに、求めた行列[C]を式(16)に示すように固有値分解する。ここで、固有値行列の平方と固有値行列から、式(17)の行列[C’]を生成し、この行列要素を成分にもつ行列[Q]を式(18)に従って算出する。   Next, in the transformation matrix calculation (step 104), the held matrix [U ′] is taken out, and the symmetric matrix [C] in the simultaneous conditional expressions shown in Expressions (13) to (15) (Expression (12)). Calculate the coefficients for each element (shown). These coefficient calculations are easily obtained by matrix operation, and this conditional expression is calculated for all frames. Next, each element of the 3 × 3 size matrix [C] is determined using numerical calculation such as the least square method with respect to the simultaneous conditional expressions shown in Expressions (13) to (15) of all frames. . Further, the obtained matrix [C] is subjected to eigenvalue decomposition as shown in Expression (16). Here, a matrix [C ′] of Expression (17) is generated from the square of the eigenvalue matrix and the eigenvalue matrix, and a matrix [Q] having this matrix element as a component is calculated according to Expression (18).

Figure 2005063013
Figure 2005063013

Figure 2005063013
Figure 2005063013

Figure 2005063013
Figure 2005063013

Figure 2005063013
Figure 2005063013

Figure 2005063013
Figure 2005063013

Figure 2005063013
Figure 2005063013

Figure 2005063013
Figure 2005063013

次いで、求めた行列[Q]と、保持しておいた行列[U’]から、式(19)の行列演算により行列[M’]を計算する。行列[M’]から各フレーム(第iフレーム)の行列要素(mix,nix)または(miy,niy)を取り出し、式(20)を使って、ヨー回転θiを復元する。 Next, the matrix [M ′] is calculated from the obtained matrix [Q] and the stored matrix [U ′] by the matrix operation of Expression (19). The matrix element (m ix , n ix ) or (m iy , n iy ) of each frame (i-th frame) is extracted from the matrix [M ′], and the yaw rotation θ i is restored using equation (20).

Figure 2005063013
Figure 2005063013

Figure 2005063013
Figure 2005063013

また、行列[M’]から各フレーム(第iフレーム)の行列要素(Tiu,Tiv)を取り出す。この(Tiu、Tiv)から、式(21)を使って第iフレームにおけるユークリッド空間でのXY並進運動(Txi,Tyi)を計算する(ステップ105)。また、式(24)(25)に示す誤差を計算する。 Further, the matrix element (T iu , T iv ) of each frame (i-th frame) is extracted from the matrix [M ′]. From this (T iu , T iv ), the XY translational motion (Tx i , Ty i ) in the Euclidean space in the i-th frame is calculated using equation (21) (step 105). Further, the error shown in the equations (24) and (25) is calculated.

次に、式(26)の計算を行い、各フレーム(第iフレーム)でのZ軸の並進運動Tziを復元する(ステップ106)。 Next, the calculation of Expression (26) is performed to restore the translational motion Tz i of the Z axis in each frame (i-th frame) (step 106).

Figure 2005063013
Figure 2005063013

Figure 2005063013
Figure 2005063013

Figure 2005063013
Figure 2005063013

Figure 2005063013
Figure 2005063013

Figure 2005063013
Figure 2005063013

Figure 2005063013
Figure 2005063013

続いて、先に保持しておいた行列[V’]と、変換行列算出で得られた行列[Q]から、式(22)に示す行列演算を行い、行列[S’]を求める、次に、行列[S’]の要素に対して、式(23)に示す変換を行い、これを要素とする行列を[P]とする(ステップ107)。行列が[P]の列ベクトルは、それぞれ第j番目の特徴点のユークリッド空間での3次元座標値(Xj,Yj,Zj)になっている。 Subsequently, from the matrix [V ′] held in advance and the matrix [Q] obtained by the conversion matrix calculation, the matrix calculation shown in Expression (22) is performed to obtain the matrix [S ′]. Then, the transformation shown in Expression (23) is performed on the elements of the matrix [S ′], and the matrix having these elements as [P] (step 107). The column vectors whose matrix is [P] are the three-dimensional coordinate values (X j , Y j , Z j ) in the Euclidean space of the j-th feature point.

ここで、式(27)(27a)で得られる誤差ΔWを算出する(ステップ108)。ここで、この誤差がある一定値以下に収束しているか否かの場合の判断がなされる(ステップ109)。そして、誤差が一定値に収束している場合は処理を終了する。一方、収束していない場合は、式(28)の演算によって変形係数δijを更新する(ステップ110)。さらに、この係数更新に伴い式(6)により行列分解データとなる行列[B]を更新する。以上の工程を誤差ΔWが一定値以下に収束するまで反復を繰り返す。 Here, the error ΔW obtained by the equations (27) and (27a) is calculated (step 108). Here, a determination is made as to whether or not this error has converged below a certain value (step 109). If the error has converged to a certain value, the process is terminated. On the other hand, if not converged, the deformation coefficient δ ij is updated by the calculation of Expression (28) (step 110). Further, with this coefficient update, the matrix [B], which is the matrix decomposition data, is updated by Expression (6). The above process is repeated until the error ΔW converges to a certain value or less.

Figure 2005063013
Figure 2005063013

Figure 2005063013
Figure 2005063013

Figure 2005063013
Figure 2005063013

尚、変形係数εij、δijは、全方位カメラの(視点の)。Z軸方向の並進運動、および光軸以外の他軸周りの回転運動ωi、ψiを、それらに等価なuv座標値の変形で表した場合の変形の度合いを表わす係数である。本実施形態では、平面運動と3次元情報の復元ステップで得たカメラ視点のXY並進成分(Txi,Tyi)と3次元情報(Xj,Yj,Zj)、並びに、光軸以外のXY軸周りの回転角(ωi、ψi)を使って、uV座標値を変形させる係数(ε係数;式(29)のεij)を求めると共に、平面運動と3次元情報の復元ステップで得た各特徴点の高さ情報(Zj)と前記Z軸並進運動を復元するステップで得た各視点のZ軸上の位置(Tzi)を使って、uv座標値をスケール変換する係数(δ係数;式(29)のδij)を求めている。そして、ε係数を前記計測行列の測定ステップで得た計測行列(式(5a)の[B])の各行列要素にそれぞれ掛け合わせて得た値と、計測行列測定ステップで得た計測行列の各行列要素から交点座標値(ζ、η)を差し引いた各座標値にδ係数をそれぞれ掛け合わせて得た値を合わせた新たな行列要素とする行列分解データ(式(5c)の[B])を生成している。 The deformation coefficients ε ij and δ ij are those of the omnidirectional camera (from the viewpoint). This is a coefficient representing the degree of deformation when the translational motion in the Z-axis direction and the rotational motions ωi, ψi around other axes other than the optical axis are represented by deformations of uv coordinate values equivalent to them. In this embodiment, the XY translation components (Txi, Tyi) and the three-dimensional information (Xj, Yj, Zj) of the camera viewpoint obtained in the plane motion and the three-dimensional information restoration step, and the XY axes around the XY axes other than the optical axis. Using the rotation angle (ωi, ψi), a coefficient (ε coefficient; ε ij in equation (29)) for deforming the uV coordinate value is obtained, and each feature point obtained in the plane motion and three-dimensional information restoration step is calculated. A coefficient for converting the uv coordinate value (δ coefficient; equation (29)) using the height information (Zj) and the position (Tzi) of each viewpoint on the Z axis obtained in the step of restoring the Z-axis translational motion. Δ ij ). Then, the value obtained by multiplying each matrix element of the measurement matrix ([B] in equation (5a)) obtained in the measurement matrix measurement step by the ε coefficient and the measurement matrix obtained in the measurement matrix measurement step Matrix decomposition data ([B] in equation (5c)) that is a new matrix element obtained by combining each coordinate value obtained by subtracting the intersection coordinate value (ζ, η) from each matrix element and the value obtained by multiplying the respective δ coefficients. ) Is generated.

以上のように、本実施形態の復元装置によれば、全方位映像の特徴点の時間的動きから、全方位カメラ視点の運動、すなわち、光軸周りの回転と三軸方向の並進運動、並びに、物体形状を構成する3次元情報を復元することができる。   As described above, according to the restoration device of the present embodiment, from the temporal movement of the feature point of the omnidirectional video, the movement of the omnidirectional camera viewpoint, that is, the rotation around the optical axis and the translational movement in the triaxial direction, The three-dimensional information constituting the object shape can be restored.

(実施形態2)
図3aは請求項2の発明を実施する装置の形態例を示した概略構成図である。本実施形態の復元装置は、実施形態1の復元装置において、画像変換処理部21を備える。ここでは、時系列画像データベース10から取り出した画像を画像変換処理部21に供して変形画像(uv画像)を生成する点が実施形態1の復元装置と異なるため、この点だけについて説明する。
(Embodiment 2)
FIG. 3A is a schematic configuration diagram showing an example of an apparatus for carrying out the invention of claim 2. The restoration apparatus according to the present embodiment includes the image conversion processing unit 21 in the restoration apparatus according to the first embodiment. Here, since the image taken out from the time-series image database 10 is used for the image conversion processing unit 21 to generate a deformed image (uv image), it differs from the restoration apparatus of the first embodiment, and only this point will be described.

本実施形態の復元装置は、全方位画像を蓄積した時系列画像データベース10と、各画像をuv画像に変換する画像変換処理部21と、各画像における特徴点の座標値を測定する特徴点計測部11と、uv座標値を行列要素とする行列を初期値として与える計測行列入力部13と、これら入カデータから因子分解法によりカメラの運動と外界の3次元情報を復元する因子分解法処理部14とを備える。尚、時系列画像データベース14には、ハードディスク、RAID装置、CD−ROMなどの記録媒体を利用する、または、ネットワークを介したリモートなデータ資源を利用する形態でもどちらでも構わない。   The restoration apparatus according to the present embodiment includes a time-series image database 10 in which omnidirectional images are accumulated, an image conversion processing unit 21 that converts each image into a uv image, and a feature point measurement that measures coordinate values of feature points in each image. Unit 11, measurement matrix input unit 13 that gives a matrix having uv coordinate values as matrix elements as initial values, and a factorization method processing unit that restores camera motion and three-dimensional information of the external world from these input data by factorization 14. Note that the time-series image database 14 may be in the form of using a recording medium such as a hard disk, a RAID device, a CD-ROM, or a remote data resource via a network.

また、図3bはリアルタイムで処理する場合の処理構成図である。当該復元装置は時系列画像データベース10に代えて画像入力部15を備えている。したがって、本実施形態の復元装置は必ずしも各データベース部等の記憶手段を必要としない。   FIG. 3B is a processing configuration diagram in the case of processing in real time. The restoration apparatus includes an image input unit 15 instead of the time-series image database 10. Therefore, the restoration apparatus of this embodiment does not necessarily require storage means such as each database unit.

本実施形態では、画像変換処理部21が時系列画像データベース10から取り出した画像からuv画像を生成する。画像変換処理部21は、uv画像を生成するのに、uv座標値を指定して、これに該当するxy座標値を算出し、その座標値の画素値を抽出してuv画素とする(図5)。   In the present embodiment, the image conversion processing unit 21 generates a uv image from the image extracted from the time-series image database 10. In order to generate a uv image, the image conversion processing unit 21 designates a uv coordinate value, calculates an xy coordinate value corresponding to the uv coordinate value, extracts a pixel value of the coordinate value, and sets it as a uv pixel (see FIG. 5).

図4はこの処理工程をフローチャートで示したものである。先ず、uv画像におけるu方向、v方向の単位画素あたりの重み付けを行う。uv画像の画像サイズをU×V画素とし、並びに、仰角φについてφmin≦φ≦90度の範囲と決めたとする(ステップ201,202)。これにより、u方向、v方向の単位画素あたりの重み付けが式(29)に従い決定する。 FIG. 4 is a flowchart showing this processing step. First, weighting per unit pixel in the u direction and v direction in the uv image is performed. Assume that the image size of the uv image is U × V pixels, and that the elevation angle φ is determined to be in a range of φ min ≦ φ ≦ 90 degrees (steps 201 and 202). Thereby, the weighting per unit pixel in the u direction and the v direction is determined according to the equation (29).

Figure 2005063013
Figure 2005063013

また、uv画像のuv座標値範囲は画像の中心を原点(0,0)として、u方向に−U/2から+U/2,v方向に−V/2から+V/2とする。u方向、v方向の各座標値を表す整数m,n(−M’≦m≦M、−N≦n≦N,M:整数、N:整数、MとNは同じ、すなわちuv画像が正方形でもよい)を使って、uv座標値は式(30)の演算によって得る(ステップ203)。   Further, the uv coordinate value range of the uv image is set from the center of the image to the origin (0, 0), from −U / 2 to + U / 2 in the u direction, and from −V / 2 to + V / 2 in the v direction. Integer m, n (−M ′ ≦ m ≦ M, −N ≦ n ≦ N, M: integer, N: integer, M and N are the same, that is, the uv image is square, representing each coordinate value in the u direction and v direction The uv coordinate value is obtained by the calculation of equation (30) (step 203).

Figure 2005063013
Figure 2005063013

整数m,nを変化させながら、式(31)の演算によってその(uij,vij)座標値に対応する位相角ρと仰角φを求める(ステップ204,205)。 While changing the integers m and n, the phase angle ρ and the elevation angle φ corresponding to the (u ij , v ij ) coordinate value are obtained by the calculation of the equation (31) (steps 204 and 205).

Figure 2005063013
Figure 2005063013

次に、式(32)の演算によって画像座標値を算出する。この画像座標値を四捨五入で整数化したものを(xij,yij)とする(ステップ206)。 Next, an image coordinate value is calculated by the calculation of Expression (32). A value obtained by rounding the image coordinate values into an integer is set to (x ij , y ij ) (step 206).

Figure 2005063013
Figure 2005063013

画像座標値(xij,yij)に対応する画素値を取り出し(ステップ207)、uv画像上でのuv座標値に該当する座標値にその画素値を埋め込む(ステップ208)。これを全uv座標値に対して行うことで、uv画像を生成する(ステップ209)。さらに、対象とする全時系列画像を逐次、この変換を使って時系列のuv画像を生成する。 A pixel value corresponding to the image coordinate value (x ij , y ij ) is extracted (step 207), and the pixel value is embedded in the coordinate value corresponding to the uv coordinate value on the uv image (step 208). By performing this operation for all uv coordinate values, a uv image is generated (step 209). Further, all the time series images of interest are sequentially used to generate a time series uv image using this conversion.

その後は、実施形態1と同様の処理工程により、全方位映像の特徴点の時間的動きから、全方位カメラ視点の運動、すなわち、光軸周りの回転と三軸方向の並進運動、並びに、物体形状を構成する3次元情報を復元することができる。   Thereafter, by the same processing steps as in the first embodiment, from the temporal movement of the feature point of the omnidirectional video, the movement of the omnidirectional camera viewpoint, that is, the rotation around the optical axis and the translational movement in the three axis directions, and the object Three-dimensional information constituting the shape can be restored.

(実施形態3)
図6aは請求項3の発明に関する基本構成図である。本実施形態の復元装置は、実施形態1の復元装置において復元処理判定部31を備えている。ここでは、特徴点計測部11により得た特徴点の画像座標値を計測行列変換部12によってuv座標値に変換したとき復元処理判定部31においてカメラ運動と3次元情報を復元するための処理を判定する点が実施形態1の復元装置と異なるので、この点だけについて説明する。尚、時系列画像データベース10には、ハードディスク、RAID装置、CD−ROMなどの記録媒体を利用する、または、ネットワークを介したリモートなデータ資源を利用する形態でもどちらでも構わない。
(Embodiment 3)
FIG. 6 a is a basic configuration diagram relating to the invention of claim 3. The restoration device according to the present embodiment includes a restoration processing determination unit 31 in the restoration device according to the first embodiment. Here, when the image coordinate value of the feature point obtained by the feature point measurement unit 11 is converted into the uv coordinate value by the measurement matrix conversion unit 12, the restoration process determination unit 31 performs a process for restoring the camera motion and the three-dimensional information. Since the determination point is different from the restoration device of the first embodiment, only this point will be described. Note that the time-series image database 10 may use a recording medium such as a hard disk, a RAID device, a CD-ROM, or a remote data resource via a network.

また、図6bはリアルタイムで処理する場合の復元装置の概略構成を示し、当該復元装置は時系列画像データベース10に代えて画像入力部16を備えている。したがって、本実施形態の復元装置は必ずしも各データベース部等の記憶手段を必要としない。   FIG. 6 b shows a schematic configuration of a restoration device when processing is performed in real time, and the restoration device includes an image input unit 16 instead of the time-series image database 10. Therefore, the restoration apparatus of this embodiment does not necessarily require storage means such as each database unit.

計測行列変換部12は特徴点計測部11で得た特徴点の画像座標値からuv座標値に変換して計測行列[B]を保持する。この計測行列[B]は式(5a)の形式で保持している。次に、復元処理判定部31での処理を行う。   The measurement matrix conversion unit 12 converts the image coordinate value of the feature point obtained by the feature point measurement unit 11 into the uv coordinate value and holds the measurement matrix [B]. This measurement matrix [B] is held in the form of equation (5a). Next, processing in the restoration process determination unit 31 is performed.

図7は復元処理判定部31での処理をフローチャートで示したものである。計測行列変換部12かから計測行列[B]が入力されると(ステップ301)、この行列は式(8)の演算による特異値分解によって特異値行列[W]に変換される(ステップ302)。特異値行列[W]は対角行列であり、その各要素である特異値は昇降順の並びで、かつ全て正の実数となっている。この特異値の中から3×3の行列要素W33と4×4の行列要素W44の特異値が取り出される。ランク検出(ステップ303)では、式(33a)または式(33b)に示した演算によって判定量EWを得ている。 FIG. 7 is a flowchart showing the process in the restoration process determination unit 31. When the measurement matrix [B] is input from the measurement matrix conversion unit 12 (step 301), this matrix is converted into a singular value matrix [W] by singular value decomposition by the calculation of equation (8) (step 302). . The singular value matrix [W] is a diagonal matrix, and the singular values that are the elements thereof are arranged in ascending / descending order and are all positive real numbers. Singular values of the 3 × 3 matrix element W 33 and the 4 × 4 matrix element W 44 are extracted from the singular values. In rank detection (step 303), the determination amount E W is obtained by the calculation shown in the equation (33a) or the equation (33b).

Figure 2005063013
Figure 2005063013

Figure 2005063013
Figure 2005063013

特異値W33は、カメラが自由度3以上の運動を行う場合に正の有限値となり、また、特異値W44は、カメラが自由度4以上の運動を行う場合に正の有限値となり、かつ自由度3未満の運動を行う場合にはほぼ0となる、という性質を有しているため、判定量EWはカメラの運動の自由度を判定する目安とすることができる。 The singular value W 33 is a positive finite value when the camera performs a motion with 3 degrees of freedom or more, and the singular value W 44 is a positive finite value when the camera performs a motion with 4 or more degrees of freedom. In addition, since it has a property that it becomes almost zero when exercise with less than 3 degrees of freedom is performed, the determination amount E W can be used as a criterion for determining the degree of freedom of motion of the camera.

そして、判定量EWがある許容値δW未満であるか、または判定量EWが許容値δW以上かを判定する(ステップ304)。この許容値δWは特定の一定値であり、作業者が逐次、その値を設定することもできる。 Then, it is determined whether the allowable value or less than δW is determined amount E W, or determining the amount of E W is tolerance δW above (step 304). This allowable value δW is a specific constant value, and the operator can set the value sequentially.

ここで、判定量EWがある許容値δw未満の場合は、カメラ運動が平面進動をしたと判断(ステップ305)して処理Aに進む(ステップ306)。一方、判定量EWがある許容値δW以上の場合は、カメラ運動が自由度4の運動をしたと判断(ステップ307)して処理Bに進む(ステップ308)。 Here, when the determination amount E W is less than a certain allowable value δw, it is determined that the camera motion has moved in a plane (step 305), and the process proceeds to process A (step 306). On the other hand, if the determination amount E W is equal to or greater than a certain allowable value δW, it is determined that the camera motion has performed a motion with 4 degrees of freedom (step 307), and the process proceeds to process B (step 308).

処理Bとは実施形態1の処理を行って、全方位映像の特徴点の時間的動きから、全方位カメラ視点の運動、すなわち光軸周りの回転とXYZ並進運動、並びに物体形状を構成する3次元情報を復元する処理である。そのため、以降では、処理Aについて説明する。   The process B performs the process of the first embodiment, and constitutes the movement of the omnidirectional camera viewpoint, that is, the rotation around the optical axis, the XYZ translational movement, and the object shape from the temporal movement of the feature points of the omnidirectional video. This process restores the dimension information. Therefore, hereinafter, the process A will be described.

図8は因子分解法処理部14において行なわれる処理Aのフローチャートを示したものである。   FIG. 8 shows a flowchart of the process A performed in the factorization processing unit 14.

復元処理判定部15において行った特異値分解により式(7)の3つの行列[U]、[W]、[V]に行列分解した各行列データを入力する(ステップ309)。ここで、[U]は2F×Pサイズの行列、[W]はP×Pサイズの対角行列、[V]はP×Pサイズの行列である。先ず、雑音除去(ステップ310)において、式(8)の第二項に示すようにランク4以上の各行列の成分を削除する。この削除のときは、行列[U]を取り出し、この行列の要素において第4から第P列目までを削除し、残りの成分からなる行列を保持し、行列[W]を取り出し、この行列の要素において第4から第P行目並びに第4から第P列目までを削除し、残りの成分からなる行列を保持し、行列[V]を取り出し、この行列の要素において第4から第P行目までを削除し、残りの成分からなる行列をそれぞれ保持する(式(9))。次に、第4から第P行目並びに第4から第P列目までを削除した行列[W]の対角要素の平方をとった行列から、式(10)(11)に示す行列[U’]と行列[V’]を得る。   Each matrix data subjected to matrix decomposition into the three matrices [U], [W], and [V] of Expression (7) by the singular value decomposition performed in the restoration processing determination unit 15 is input (step 309). Here, [U] is a 2F × P size matrix, [W] is a P × P size diagonal matrix, and [V] is a P × P size matrix. First, in noise removal (step 310), the components of each matrix of rank 4 or higher are deleted as shown in the second term of equation (8). At the time of this deletion, the matrix [U] is taken out, the fourth to Pth columns are deleted from the elements of this matrix, the matrix consisting of the remaining components is held, the matrix [W] is taken out, The fourth to Pth rows and the fourth to Pth columns are deleted in the element, the matrix composed of the remaining components is retained, the matrix [V] is extracted, and the fourth to Pth rows are extracted from the elements of this matrix. Delete up to the eye and hold the matrix composed of the remaining components (Equation (9)). Next, from the matrix obtained by taking the square of the diagonal elements of the matrix [W] from which the 4th to Pth rows and the 4th to Pth columns are deleted, the matrix [U shown in Equations (10) and (11) is used. '] And matrix [V'] are obtained.

続いて、変換行列算出(ステップ311)では、保持してある行列[U’]を取り出し、式(13)〜(15)に示す連立する条件式における対称行列[C](式(12)で表されている)の各要素にかかる係数を計算する。これらの係数計算は、行列演算により容易に得られるものであり、この条件式を全フレームに対して計算する。次に、全フレームの式(13)〜(15)に示す連立する条件式に対して、最小二乗法などの数値計算を利用するなどして3×3サイズの行列[C]の各要素を決定する。   Subsequently, in the transformation matrix calculation (step 311), the held matrix [U ′] is taken out, and the symmetric matrix [C] in the simultaneous conditional expressions shown in equations (13) to (15) (equation (12)). Calculate the coefficients for each element (shown). These coefficient calculations are easily obtained by matrix operation, and this conditional expression is calculated for all frames. Next, with respect to the simultaneous conditional expressions shown in the equations (13) to (15) for all frames, each element of the 3 × 3 size matrix [C] is changed by using numerical calculation such as the least square method. decide.

さらに、求めた行列[C]を式(16)に示すように固有値分解する。ここで、固有値行列の平方と固有値行列から、式(17)の行列[C’]を生成し、この行列要素を成分にもつ行列[Q]を式(18)に従って算出する。   Further, the obtained matrix [C] is subjected to eigenvalue decomposition as shown in Expression (16). Here, a matrix [C ′] of Expression (17) is generated from the square of the eigenvalue matrix and the eigenvalue matrix, and a matrix [Q] having this matrix element as a component is calculated according to Expression (18).

続いて、平面運動復元(ステップ312)において、前記行列[Q]と、保持しておいた行列[U’]から、式(19)の行列演算により行列[M’]を計算する。行列[M’]から各フレーム(第iフレーム)の行列要素(mix,nix)または(miy,niy)を取り出し、式(20)の演算によってヨー回転θiを復元する。行列[M’]から各フレーム(第iフレーム)の行列要素(Tiu,Tiv)を取り出す。この(Tiu,Tiv)から、式(21)の演算によって第iフレームにおけるユークリッド空間でのXY並進運動(Txi,Tyi)を算出する。 Subsequently, in the plane motion restoration (step 312), the matrix [M ′] is calculated from the matrix [Q] and the retained matrix [U ′] by the matrix calculation of Expression (19). The matrix element (m ix , n ix ) or (m iy , n iy ) of each frame (i-th frame) is extracted from the matrix [M ′], and the yaw rotation θ i is restored by the calculation of equation (20). A matrix element (T iu , T iv ) of each frame (i-th frame) is extracted from the matrix [M ′]. From this (T iu , T iv ), the XY translational motion (Tx i , Ty i ) in the Euclidean space in the i-th frame is calculated by the calculation of equation (21).

さらに、3次元情報復元(ステップ313)では、先に保持しておいた行列[v’]と、変換行列算出で得られた行列[Q]から、式(22)に示す行列演算を行い、行列[S’]を求める。次に、行列[S’]の要素に対して、式(23)に示す変換を行い、これを要素とする行列を[P]とする。行列を[P]の列ベクトルは、それぞれ第j番目の特徴点のユークリッド空間での3次元座標値(Xj,Yj,Zj)になっている。 Further, in the three-dimensional information restoration (step 313), the matrix operation shown in the equation (22) is performed from the matrix [v ′] held in advance and the matrix [Q] obtained by the conversion matrix calculation, The matrix [S ′] is obtained. Next, the transformation shown in Expression (23) is performed on the elements of the matrix [S ′], and the matrix having this as an element is defined as [P]. The column vector of the matrix [P] is a three-dimensional coordinate value (X j , Y j , Z j ) in the Euclidean space of the jth feature point.

このようにして本実施形態の復元装置によれば、復元処理判定部31においてカメラ運動が平面運動をしていると判定された場合、処理Aの実行によって、全方位映像の特徴点の時間的動きから、全方位カメラ視点の運動、すなわち光軸周りの回転とXY並進運動、並びに物体形状を構成する3次元情報を復元する。   As described above, according to the restoration device of the present embodiment, when the restoration process determination unit 31 determines that the camera motion is a plane movement, the time point of the feature point of the omnidirectional video is obtained by executing the process A. From the movement, the movement of the omnidirectional camera viewpoint, that is, the rotation around the optical axis and the XY translational movement, and the three-dimensional information constituting the object shape are restored.

また、復元処理判定部31においてカメラ運動が自由度4の運動をしていると判定された場合、実施形態1と同様に、図2に示した処理工程に基づく処理Bの実行により、全方位映像の特徴点の時間的動きから、全方位カメラ視点の運動、すなわち、光軸周りの回転と三軸方向の並進運動、並びに、物体形状を構成する3次元情報を復元することができる。   Further, when it is determined by the restoration process determination unit 31 that the camera movement is a movement with 4 degrees of freedom, as in the first embodiment, by performing the process B based on the process steps shown in FIG. From the temporal movement of the feature points of the image, the motion of the omnidirectional camera viewpoint, that is, the rotation around the optical axis and the translational motion in the three-axis direction, and the three-dimensional information constituting the object shape can be restored.

(実施形態4)
図9aは請求項4の発明を実施する形態例の概略構成図である。本実施形態の復元装置は、実施形態2の復元装置において復元処理判定部31を備えている。ここでは、時系列のuv画像において特徴点計測部11にて各特徴点のuv座標値を測定したとき、この座標値を復元処理判定部31に供してカメラ運動と3次元情報を復元する処理を判定する点が実施形態2の復元処理装置と異なるため、この点だけについて説明する。本実施例において、時系列画像データベースは、ハードディスク、RAID装置、CD−ROMなどの記録媒体を利用する、または、ネットワークを介したリモートなデータ資源を利用する形態でもどちらでも構わない。
(Embodiment 4)
FIG. 9 a is a schematic configuration diagram of an embodiment for carrying out the invention of claim 4. The restoration apparatus according to the present embodiment includes the restoration processing determination unit 31 in the restoration apparatus according to the second embodiment. Here, when the uv coordinate value of each feature point is measured by the feature point measurement unit 11 in the time series uv image, the coordinate value is used for the restoration processing determination unit 31 to restore the camera motion and the three-dimensional information. Since this is different from the restoration processing apparatus of the second embodiment, only this point will be described. In this embodiment, the time-series image database may be in the form of using a recording medium such as a hard disk, a RAID device, a CD-ROM, or a remote data resource via a network.

また、図9bはリアルタイムで処理する場合の処理構成図であり、本実施形態の復元装置も実施形態1、2及び3の復元装置と同様に時系列画像データベース10の代わりに画像入力部16を備えている。したがって、本実施形態の復元装置も必ずしも各データベース部10等の記憶手段を必要としない。   FIG. 9B is a processing configuration diagram in the case of processing in real time, and the restoration apparatus of this embodiment also uses the image input unit 16 instead of the time-series image database 10 as in the restoration apparatuses of the first, second, and third embodiments. I have. Therefore, the restoration apparatus of this embodiment does not necessarily require storage means such as each database unit 10.

特徴点計測部11は、各特徴点のuv座標値を得て、これらを行列要素とする計測行列[B]を保持する。この計測行列[B]は式(5a)の形式で保持されている。次に、計測行列[B]は復元処理判定部31での処理に供される。復元処理判定部31での処理フローは図7に示したフローチャートに基づく。すなわち、計測行列[B]を式(7)の演算に供して特異値分解を行い、特異値行列[W]を得る。特異値行列[W]は対角要素であり、その各要素である特異値は昇降順の並びで、かつ全て正の実数となっている。そして、この特異値の中から3×3の行列要素W33と4×4の行列要素W44の特異値を取り出している。ランク検出では、式(33a)または式(33b)に示す演算によって判定量EWを得ている。 The feature point measurement unit 11 obtains uv coordinate values of each feature point and holds a measurement matrix [B] having these as matrix elements. This measurement matrix [B] is held in the form of equation (5a). Next, the measurement matrix [B] is subjected to processing in the restoration processing determination unit 31. The processing flow in the restoration processing determination unit 31 is based on the flowchart shown in FIG. That is, the singular value decomposition is performed by using the measurement matrix [B] for the calculation of Expression (7) to obtain the singular value matrix [W]. The singular value matrix [W] is a diagonal element, and the singular values which are each element are arranged in ascending / descending order and are all positive real numbers. The singular values of the 3 × 3 matrix element W 33 and the 4 × 4 matrix element W 44 are extracted from the singular values. In rank detection, the determination amount E W is obtained by the calculation shown in Expression (33a) or Expression (33b).

次いで、判定量EWがある許容値δW未満であるか、または判定量EWが許容値δW以上かを判定する。この許容値δWは特定の一定値であり、作業者が逐次、値を設定することもできる。そして、判定量EWがある許容値δW未満の場合は、カメラ運動が平面運動をしたと判断して処理Aに進む。一方、判定量Ewがある許容値δW以上の場合は、カメラ運動が自由度4の運動をしたと判断して処理Bに進む。処理Bは、実施形態2と同様の処理を行なって、全方位映像の特徴点の時間的動きから、全方位カメラ視点の運動、すなわち光軸周りの回転と三軸方向の並進運動、並びに物体形状を構成する3次元情報を復元する処理である。尚、処理Aについては、実施形態3における処理Aと同じであるので、その説明は省略する。 Then, it is determined whether the allowable value or less than δW is determined amount E W, or determining the amount of E W is tolerance δW more. The allowable value δW is a specific constant value, and the operator can set the value sequentially. If the determination amount E W is less than a certain allowable value δW, it is determined that the camera motion is a plane motion, and the process proceeds to process A. On the other hand, when the determination amount Ew is equal to or greater than a certain allowable value δW, it is determined that the camera motion has performed a motion with 4 degrees of freedom, and the process proceeds to process B. The process B performs the same process as in the second embodiment, and from the temporal movement of the feature point of the omnidirectional video, the movement of the omnidirectional camera viewpoint, that is, the rotation around the optical axis and the translational movement in the three axis directions, This is a process for restoring the three-dimensional information constituting the shape. The process A is the same as the process A in the third embodiment, and a description thereof will be omitted.

次に、本発明の復元装置の様々な利用形態について述べる。   Next, various usage modes of the restoration apparatus of the present invention will be described.

図11は階段2などの上下方向の上り下りがある場合に、本発明の復元装置を備えた全方位カメラ1を使って撮影した場合の形態を示したものである。この場合、Z軸方向の運動があるため、本発明の復元装置によればZ軸運動の復元、並びに外界の3次元情報を同時に復元することができる。   FIG. 11 shows a form in the case of shooting using the omnidirectional camera 1 provided with the restoration device of the present invention when there is an up-down direction such as the stairs 2. In this case, since there is a motion in the Z-axis direction, the restoration device of the present invention can restore the Z-axis motion and the three-dimensional information of the outside world at the same time.

図12は本発明の復元装置を備えた全方位カメラ1を吊るして撮影した場合の形態である。左図は建物5の屋上または天井から水平維持部4によって吊るした全方位カメラ1をワイヤ等の吊り下げ手段3によって上下方向に運動させて撮影する場合の形態を示したものである。右図は配管などの中空円筒状部材6の中空部において水平維持部4によって全方向カメラ1を吊るしながら撮影する場合の形態である。いずれの場合においてZ軸方向の運動があり、本発明の復元装置によれば、Z軸運動の復元、並びに外界の3次元情報を同時に復元することができる。   FIG. 12 shows a form in which the omnidirectional camera 1 provided with the restoration device of the present invention is hung and photographed. The figure on the left shows a form in which the omnidirectional camera 1 hung from the roof or ceiling of the building 5 by the horizontal maintaining unit 4 is moved up and down by a hanging means 3 such as a wire and photographed. The right figure is a form in the case of photographing while hanging the omnidirectional camera 1 by the horizontal maintaining part 4 in the hollow part of the hollow cylindrical member 6 such as piping. In any case, there is a movement in the Z-axis direction, and according to the restoration device of the present invention, the restoration of the Z-axis movement and the three-dimensional information of the outside world can be restored at the same time.

図13は部屋7の天井部70に設置した本発明の復元装置を備えた全方位カメラ1を水平方向、または上下方向に移動させて撮影する形態である。この場合、本発明の復元装置によれば、部屋7内の3次元化を行うことができ、Z軸方向に移動させるだけでも人物71を含めたオブジェクト71,72に関する3次元情報の復元ができる。   FIG. 13 shows a form in which the omnidirectional camera 1 equipped with the restoring device of the present invention installed on the ceiling portion 70 of the room 7 is moved in the horizontal direction or in the vertical direction for shooting. In this case, according to the restoration device of the present invention, the room 7 can be three-dimensionalized, and the three-dimensional information on the objects 71 and 72 including the person 71 can be restored only by moving in the Z-axis direction. .

図14は、本発明の復元装置を備えた全方位カメラ1を車載8に取り付けた場合である。車両の移動を伴う全方位カメラ1を使って運動と3次元情報を復元する場合、従来は全方位カメラが微小に振動するためロバストに復元することが困難である。本発明の復元装置を備えた全方位カメラ1によれば車両を運転または停止させた状態でも、外界の3次元情報をロバストに復元することができる。また、車両8に取り付けなくても、本発明の復元装置を備えた全方位カメラ1を三脚に取り付けて、このカメラを上下方向に移動させることで、同様の効果がある。   FIG. 14 shows a case where the omnidirectional camera 1 equipped with the restoration device of the present invention is attached to the vehicle-mounted 8. When the motion and the three-dimensional information are restored using the omnidirectional camera 1 that accompanies the movement of the vehicle, it is difficult to restore it robustly because the omnidirectional camera vibrates minutely. According to the omnidirectional camera 1 equipped with the restoration device of the present invention, it is possible to robustly restore the three-dimensional information of the outside world even when the vehicle is driven or stopped. Even if it is not attached to the vehicle 8, the same effect can be obtained by attaching the omnidirectional camera 1 equipped with the restoring device of the present invention to a tripod and moving the camera in the vertical direction.

以上の実施形態で述べた復元方法は、図1a〜図9bで示した処理工程をコンピュータのプログラムで構成し、このプログラムをコンピュータに実行させることができることは言うまでもなく、コンピュータでその機能を実現するためのプログラム、あるいは、コンピュータにその処理の工程の実行させるためのプログラムを、そのコンピュータが読み取りできる記録媒体、例えば、FD(フロッピーデイスク(登録商標))や、MO、ROM、メモリカード、CD、DVD、リムーバルディスクなどに記録して、保存したり、配布したりすることが可能である。また、上記のプログラムをインターネットや電子メールなど、ネットワークを介して提供することも可能である。   In the restoration method described in the above embodiment, it is needless to say that the processing steps shown in FIGS. 1a to 9b can be configured by a computer program and the program can be executed by the computer. For recording a program for causing the computer to execute the process of the processing, such as a FD (floppy disk (registered trademark)), MO, ROM, memory card, CD, It can be recorded on a DVD, a removable disk, etc., and stored or distributed. It is also possible to provide the above program via a network such as the Internet or e-mail.

そして、これら記録媒体からコンピュータに前記のプログラムをインストールすることにより、あるいはネットワークからダウンロードしてコンピュータに前記のプログラムをインストールすることにより、本発明を実施することが可能となる。但し、コンピュータへのインストールはコンピュータ単位であり、装置やシステムが複数あることなどでインストールの対象となるコンピュータが複数ある場合には、当該プログラムは必要な処理部分毎にインストールされることは当然である。この場合、当該プログラムはコンピュータ対応に記録媒体に記録するか、またはネットワークを介してダウンロードしてもよい。   Then, the present invention can be implemented by installing the program from these recording media into a computer, or by downloading the program from a network and installing the program into the computer. However, installation on a computer is a computer unit, and when there are multiple computers to be installed due to multiple devices and systems, it is natural that the program is installed for each necessary processing part. is there. In this case, the program may be recorded on a recording medium corresponding to a computer, or downloaded via a network.

請求項1記載の発明を実施する装置の形態例を示した概略構成図。The schematic block diagram which showed the example of the form of the apparatus which implements invention of Claim 1. 請求項1記載の発明を実施する装置の形態例を示した概略構成図。The schematic block diagram which showed the example of the form of the apparatus which implements invention of Claim 1. 因子分解法処理部15における処理工程を説明したフローチャート。The flowchart explaining the process process in the factorization method process part 15. FIG. 請求項2記載の発明を実施する装置の形態例を示した概略構成図。A schematic configuration diagram showing an example of an apparatus for carrying out the invention according to claim 2. 請求項2記載の発明を実施する装置の形態例を示した概略構成図。A schematic configuration diagram showing an example of an apparatus for carrying out the invention according to claim 2. 画像変換処理部21におけるuv画像変換の処理工程を説明したフローチャート。The flowchart explaining the process process of uv image conversion in the image conversion process part 21. FIG. uv画像生成を説明した説明図。Explanatory drawing explaining uv image generation. 請求項3記載の発明を実施する装置の形態例を示した概略構成図。A schematic configuration diagram showing an example of an apparatus for carrying out the invention according to claim 3. 請求項3記載の発明を実施する装置の形態例を示した概略構成図。A schematic configuration diagram showing an example of an apparatus for carrying out the invention according to claim 3. 復元処理判定部31での処理工程を説明したフローチャート。The flowchart explaining the process process in the restoration process determination part 31. FIG. 因子分解法処理部15において行なわれる処理Aを説明したフローチャート。The flowchart explaining the process A performed in the factorization method process part 15. FIG. 請求項4記載の発明を実施する装置の形態例を示した概略構成図。FIG. 5 is a schematic configuration diagram showing an example of an apparatus for carrying out the invention according to claim 4; 請求項4記載の発明を実施する装置の形態例を示した概略構成図。FIG. 5 is a schematic configuration diagram showing an example of an apparatus for carrying out the invention according to claim 4; 全方位カメラと復元する空間情報とカメラ座標を示す図。The figure which shows the omnidirectional camera, the spatial information to restore | restore, and a camera coordinate. 本発明の復元装置を備えた全方位カメラ1の利用形態。The utilization form of the omnidirectional camera 1 provided with the decompression | restoration apparatus of this invention. 本発明の復元装置を備えた全方位カメラ1の利用形態。The utilization form of the omnidirectional camera 1 provided with the decompression | restoration apparatus of this invention. 本発明の復元装置を備えた全方位カメラ1の利用形態。The utilization form of the omnidirectional camera 1 provided with the decompression | restoration apparatus of this invention. 本発明の復元装置を備えた全方位カメラ1の利用形態。The utilization form of the omnidirectional camera 1 provided with the decompression | restoration apparatus of this invention. 全方位カメラが撮像した画像の例で、対象物に輪郭線を付したもの。An example of an image captured by an omnidirectional camera with an outline attached to an object. 全方位カメラが撮像した画像の例で、対象物の輪郭線のみを示したもの。An example of an image taken by an omnidirectional camera, showing only the outline of the object. 全方位カメラが撮像した画像の例で、対象物に輪郭線を付していないもの。An example of an image captured by an omnidirectional camera without a contour line attached to an object. 全方位カメラが撮像した画像をuv座標変換して得た画像の例で、対象物に輪郭線を付したもの。An example of an image obtained by uv coordinate conversion of an image captured by an omnidirectional camera, in which a contour is attached to an object. 全方位カメラが撮像した画像をuv座標変換して得た画像の例で、対象物の輪郭線のみを示したもの。An example of an image obtained by uv coordinate conversion of an image captured by an omnidirectional camera, showing only the outline of an object. 全方位カメラが撮像した画像をuv座標変換して得た画像の例で、対象物に輪郭線を付していないもの。An example of an image obtained by uv coordinate conversion of an image captured by an omnidirectional camera, in which a contour is not attached to an object.

符号の説明Explanation of symbols

10…時系列画像データベース、11…特徴点計測部、12…計測行列変換部、13…交点座標計測部、14…計測行列入力部、15…分子分解法処理部、16画像入力部
21…画像変換処理部
31…復元処理判定部
DESCRIPTION OF SYMBOLS 10 ... Time series image database, 11 ... Feature point measurement part, 12 ... Measurement matrix conversion part, 13 ... Intersection coordinate measurement part, 14 ... Measurement matrix input part, 15 ... Molecular decomposition method processing part, 16 Image input part 21 ... Image Conversion processing unit 31 ... Restoration processing determination unit

Claims (16)

全方位カメラから取得した時系列の全方位画像(または広視野画像)中において、対象とする画像に配置した特徴点に関する画像座標値の時間的変化量から、時系列における全方位カメラ視点の運動、並びに、外界の物体形状を構成する3次元情報を復元する方法であって、
取得した時系列の全方位画像(または広視野画像)に設定した特徴点座標系において、各画像における特徴点の時間的変化量を示す画像座標値を測定するステップ(計測行列測定ステップ)と、
この計測行列測定ステップにおいて得た各特徴点の画像座標値から算出される位相角と仰角により別の座標値(uv座標値)を求め、この各特徴点のuv座標値から復元処理するための行列データ(行列分解データ)を生成し、この行列分解データを特異値分解し雑音除去を行って運動情報を表す行列データと3次元情報を表す行列データを得て、その運動情報の成分において、運動を規定するために設定した条件を満足する変換行列を求め、運動情報となる行列データにこの変換行列を作用させて全方位カメラ視点の光軸周りの回転運動とその軸に垂直な平面(XY平面)上の並進運動(この自由度3の運動を平面運動と称する)を復元し、さらに3次元情報を表す行列データにこの変換行列の逆行列を作用させて物体形状を構成する3次元情報を復元するステップ(平面運動と3次元情報の復元ステップ)と、
この平面運動と3次元情報の復元ステップで得た平面運動と3次元情報から各特徴点に関するuv座標系での再投影座標値を求め、その再投影座標値と行列分解データを構成する行列要素との間の誤差を算出し、この誤差と、平面運動と3次元情報の復元ステップで得た特徴点のZ座標値(3次元情報の成分)を使って、カメラ視点のZ軸方向の並進運動を復元するステップ(Z軸並進運動復元ステップ)と、
このZ軸並進運動復元ステップで得た誤差が、ある一定値以下に収束しているかどうかを判断し、もし、収束していないならば、平面運動と3次元情報の復元ステップで得た平面運動と3次元情報から変形係数を求め、この変形係数を各特徴点のuv座標値に結合させて新たなuv座標値を求め、これを行列要素とする行列分解データを生成し、平面運動と3次元情報の復元ステップに戻り、誤差が一定値以下に収束するまで反復して、全方位カメラ運動と3次元情報を復元するステップとを有すること
を特徴とする全方位カメラ視点運動と3次元情報の復元方法。
The movement of the omnidirectional camera viewpoint in time series based on the amount of temporal change in the image coordinate values of the feature points placed in the target image in the chronological omnidirectional image (or wide-field image) acquired from the omnidirectional camera. And a method for restoring the three-dimensional information constituting the object shape of the outside world,
In the feature point coordinate system set in the acquired time-series omnidirectional image (or wide-field image), a step of measuring an image coordinate value indicating a temporal change amount of the feature point in each image (measurement matrix measurement step);
Another coordinate value (uv coordinate value) is obtained from the phase angle and elevation angle calculated from the image coordinate value of each feature point obtained in the measurement matrix measurement step, and the restoration process is performed from the uv coordinate value of each feature point. Generate matrix data (matrix decomposition data), perform singular value decomposition on the matrix decomposition data and perform noise removal to obtain matrix data representing motion information and matrix data representing three-dimensional information. In the component of the motion information, A transformation matrix that satisfies the conditions set to define the motion is obtained, and this transformation matrix is applied to the matrix data that becomes the motion information, and the rotational motion around the optical axis of the omnidirectional camera viewpoint and the plane perpendicular to the axis ( 3rd order that reconstructs translational motion on the XY plane (this motion with 3 degrees of freedom is called planar motion), and further forms an object shape by applying an inverse matrix of this transformation matrix to matrix data representing three-dimensional information. And step (restoration step of planar motion and three-dimensional information) to restore the information,
The reprojected coordinate value in the uv coordinate system for each feature point is obtained from the planar motion and 3D information obtained in the plane motion and 3D information restoration step, and the reprojected coordinate value and matrix elements constituting the matrix decomposition data Using this error and the Z coordinate value (component of 3D information) of the feature point obtained in the plane motion and 3D information restoration step, the translation of the camera viewpoint in the Z-axis direction is calculated. A step of restoring motion (Z-axis translational motion restoration step);
It is determined whether the error obtained in the Z-axis translational motion restoration step has converged to a certain value or less. If not, the planar motion obtained in the planar motion and three-dimensional information restoration step. Then, the deformation coefficient is obtained from the three-dimensional information, and the deformation coefficient is combined with the uv coordinate value of each feature point to obtain a new uv coordinate value, and matrix decomposition data having this as a matrix element is generated to generate the plane motion and 3 Returning to the dimensional information restoration step, iterating until the error converges to a certain value or less, and omnidirectional camera motion and three-dimensional information restoration step. How to restore.
全方位カメラから取得した時系列の全方位画像(または広視野画像)中において、対象とする画像に配置した特徴点に関する画像座標値の時間的変化量から、時系列における全方位カメラ視点の運動、並びに外界の物体形状を構成する3次元情報を復元する方法であって、
取得した時系列の全方位画像(または広視野画像)に対して、各画像座標値から得られる位相角と仰角により各画像座標値をuv座標値に変換して各画素をそのuv座標値に対応付けるように時系列画像(uv画像)を生成し、このuv画像に設定した特徴点座標系において、各画像における特徴点の時間的変化量を示すuv座標値を測定するステップ(uv計測行列測定ステップ)と、
このuv計測行列測定ステップにおいて得た各特徴点のuv座標値から復元処理するための行列データ(行列分解データ)を生成し、この行列分解データを特異値分解し雑音除去を行って運動情報を表す行列データと3次元情報を表す行列データを得て、その運動情報の成分において、運動を規定するために設定した条件を満足する変換行列を求め、運動情報となる行列データにこの変換行列を作用させて全方位カメラ視点の光軸周りの回転運動とその軸に垂直な平面(XY平面)上の並進運動(この自由度3の運動を平面運動と称する)を復元し、さらに、3次元情報を表す行列データにこの変換行列の逆行列を作用させて物体形状を構成する3次元情報を復元するステップ(平面運動と3次元情報の復元ステップ)と、
この平面運動と3次元情報の復元ステップで得た平面運動と3次元情報から各特徴点に関するuv座標系での再投影座標値を求め、その再投影座標値と行列分解データを構成する行列要素との間の誤差を算出し、この誤差と、平面運動と3次元情報の復元ステップで得た特徴点のZ座標値(3次元情報の成分)を使って、カメラ視点のZ軸方向の並進運動を復元するステップ(Z軸並進運動復元ステップ)と、
このZ軸並進運動復元スナッブで得た誤差が、ある一定値以下に収束しているかどうかを判断し、もし、収束していないならば、平面運動と3次元情報の復元ステップで得た平面運動と3次元情報から変形係数を求め、この変形係数を各特徴点のuv座標値に結合させて新たなuv座標値を求め、これを行列要素とする行列分解データを生成し、平面運動と3次元情報の復元ステップに戻り、誤差が一定値以下に収束するまで反復して、全方位カメラ運動と3次元情報を復元するステップとを有すること
を特徴とする全方位カメラ視点運動と3次元情報の復元方法。
The movement of the omnidirectional camera viewpoint in time series based on the amount of temporal change in the image coordinate values of the feature points placed in the target image in the chronological omnidirectional image (or wide-field image) acquired from the omnidirectional camera. , As well as a method for restoring the three-dimensional information constituting the object shape of the outside world,
With respect to the acquired time-series omnidirectional image (or wide-field image), each image coordinate value is converted into a uv coordinate value by a phase angle and an elevation angle obtained from each image coordinate value, and each pixel is converted to its uv coordinate value. A time series image (uv image) is generated so as to be associated, and in the feature point coordinate system set in the uv image, a uv coordinate value indicating a temporal change amount of the feature point in each image is measured (uv measurement matrix measurement) Step) and
Generate matrix data (matrix decomposition data) for restoration processing from the uv coordinate values of each feature point obtained in the uv measurement matrix measurement step, perform singular value decomposition on the matrix decomposition data, perform noise removal, and obtain motion information. The matrix data representing the three-dimensional information and the matrix data representing the three-dimensional information are obtained, and the transformation matrix satisfying the conditions set for defining the motion is obtained in the motion information component. The rotational motion around the optical axis of the omnidirectional camera viewpoint and the translational motion on the plane perpendicular to the axis (XY plane) (this three-degree-of-freedom motion is referred to as plane motion) are restored, and three-dimensional A step of restoring the three-dimensional information constituting the object shape by applying an inverse matrix of this transformation matrix to matrix data representing information (a step of restoring plane motion and three-dimensional information);
The reprojected coordinate value in the uv coordinate system for each feature point is obtained from the planar motion and 3D information obtained in the plane motion and 3D information restoration step, and the reprojected coordinate value and matrix elements constituting the matrix decomposition data Using this error and the Z coordinate value (component of 3D information) of the feature point obtained in the plane motion and 3D information restoration step, the translation of the camera viewpoint in the Z-axis direction is calculated. A step of restoring motion (Z-axis translational motion restoration step);
It is judged whether the error obtained by this Z-axis translational motion recovery snubber has converged to a certain value or less. Then, the deformation coefficient is obtained from the three-dimensional information, and the deformation coefficient is combined with the uv coordinate value of each feature point to obtain a new uv coordinate value, and matrix decomposition data having this as a matrix element is generated to generate the plane motion and 3 Returning to the dimensional information restoration step, iterating until the error converges to a certain value or less, and omnidirectional camera motion and three-dimensional information restoration step. How to restore.
前記計測行列測定ステップにおいて、計測行列を特異値分解して得る特異値成分において、その成分から運動の自由度を表す判定値を算出し、
判定値がある一定値未満の場合は、カメラ運動が平面運動とみなして、前記全方位カメラ運動と3次元情報を復元するステップにおいて、光軸周りの回転とある平面上の運動からなる自由度3の平面運動と3次元情報を復元する処理を行い、
判定値がある一定値以上の場合は、カメラ運動が自由度4の運動をしているとみなして、前記全方位カメラ運動と3次元情報を復元するステップによって、カメラに関する回転と並進運動からなる自由度4の運動と外界の3次元情報を復元すること
を特徴とする請求項1記載の全方位カメラ視点運動と3次元情報の復元方法。
In the measurement matrix measurement step, in the singular value component obtained by singular value decomposition of the measurement matrix, a determination value representing the degree of freedom of movement is calculated from the component,
If the determination value is less than a certain value, the camera motion is regarded as a plane motion, and in the step of restoring the omnidirectional camera motion and the three-dimensional information, the degree of freedom comprising rotation about the optical axis and motion on a certain plane 3 to restore the plane motion and 3D information,
If the determination value is equal to or greater than a certain value, the camera motion is considered to be a motion with 4 degrees of freedom, and the omnidirectional camera motion and the step of restoring the three-dimensional information comprise rotation and translational motions related to the camera. 2. The method of restoring an omnidirectional camera viewpoint motion and three-dimensional information according to claim 1, wherein the four-dimensional motion and the external three-dimensional information are restored.
前記uv計測行列測定ステップにおいて、計測行列を特異値分解して得る特異値成分において、その成分から運動を表す判定値を算出し、
判定値がある一定値未満の場合は、カメラ運動が平面運動とみなして、前記全方位カメラ運動と3次元情報を復元するステップにおいて、光軸周りの回転とある平面上の運動からなる自由度3の平面運動と3次元情報を復元する処理を行い、
判定値がある一定値以上の場合は、カメラ運動が自由度4の運動をしているとみなして、前記全方位カメラ運動と3次元情報を復元するステップによって、請求項2記載の復元方法によってカメラに関する回転と並進運動からなる自由度4の運動と外界の3次元情報を復元すること
を特徴とする請求項2記載の全方位カメラ視点運動と3次元情報の復元方法。
In the uv measurement matrix measurement step, in a singular value component obtained by singular value decomposition of the measurement matrix, a determination value representing motion is calculated from the component,
If the determination value is less than a certain value, the camera motion is regarded as a plane motion, and in the step of restoring the omnidirectional camera motion and the three-dimensional information, the degree of freedom comprising rotation about the optical axis and motion on a certain plane 3 to restore the plane motion and 3D information,
The restoration method according to claim 2, wherein if the determination value is equal to or greater than a certain value, the camera movement is regarded as a movement with 4 degrees of freedom, and the omnidirectional camera movement and the three-dimensional information are restored. The method of restoring an omnidirectional camera viewpoint motion and three-dimensional information according to claim 2, wherein the four-degree-of-freedom motion consisting of rotation and translational motion about the camera and three-dimensional information of the outside world are restored.
全方位カメラから取得した時系列の全方位画像(または広視野画像)中において、対象とする画像に配置した特徴点に関する画像座標値の時間的変化量から、時系列における全方位カメラ視点の運動、並びに、外界の物体形状を構成する3次元情報を復元する装置であって、
各画像における特徴点の座標値を測定する特徴点計測部と、
前記特徴点計測部で得た画像座標値をuv画像に変換する計測行列変換部と、
前記uv画像のuv座標値を行列要素とする行列を初期値として与える計測行列入力部と、
計測行列入力部とから供給されたデータから因子分解法によりカメラの運動と外界の3次元情報を復元する因子分解法処理部とを備えたこと
を特徴とする全方位カメラ運動と3次元情報の復元装置。
The movement of the omnidirectional camera viewpoint in time series based on the amount of temporal change in the image coordinate values of the feature points placed in the target image in the chronological omnidirectional image (or wide-field image) acquired from the omnidirectional camera. And a device for restoring the three-dimensional information constituting the object shape of the outside world,
A feature point measurement unit that measures coordinate values of feature points in each image;
A measurement matrix conversion unit that converts the image coordinate values obtained by the feature point measurement unit into a uv image;
A measurement matrix input unit for giving a matrix having the uv coordinate value of the uv image as a matrix element as an initial value;
An omnidirectional camera motion and three-dimensional information characterized by comprising a factorization method processing unit for restoring the three-dimensional information of the camera motion and the outside world by factorization from the data supplied from the measurement matrix input unit Restore device.
全方位カメラから取得した時系列の全方位画像(または広視野画像)中において、対象とする画像に配置した特徴点に関する画像座標値の時間的変化量から、時系列における全方位カメラ視点の運動、並びに、外界の物体形状を構成する3次元情報を復元する装置であって、
各画像をuv画像に変換する画像変換処理部と、
各画像における特徴点の座標値を測定する特徴点計測部と、
前記uv画像のuv座標値を行列要素とする行列を初期値として与える計測行列入力部と、
計測行列入力部から供給されたデータから因子分解法によりカメラの運動と外界の3次元情報を復元する因子分解法処理部とを備えたこと
を特徴とする全方位カメラ運動と3次元情報の復元装置。
The movement of the omnidirectional camera viewpoint in time series based on the amount of temporal change in the image coordinate values of the feature points placed in the target image in the chronological omnidirectional image (or wide-field image) acquired from the omnidirectional camera. And a device for restoring the three-dimensional information constituting the object shape of the outside world,
An image conversion processing unit for converting each image into a uv image;
A feature point measurement unit that measures coordinate values of feature points in each image;
A measurement matrix input unit for giving a matrix having the uv coordinate value of the uv image as a matrix element as an initial value;
An omnidirectional camera motion and three-dimensional information restoration comprising a factorization processing unit that restores the camera motion and the external three-dimensional information by factorization from the data supplied from the measurement matrix input unit apparatus.
前記計測行列変換部から供給されたuv画像を特異値分解して得た特異値成分から運動の自由度を表す判定値を算出する復元処理判定部を備え、
判定値がある一定値未満の場合は、カメラ運動が平面運動をしたとみなして、
前記因子分解法処理部は光軸周りの回転とその光軸に垂直な平面上の運動からなる自由度3の平面運動と3次元情報を復元する処理を行い、
判定値がある一定値以上の場合は、カメラ運動が自由度4の運動をしたとみなして、前記因子分解法処理部はカメラに関する回転と並進運動からなる自由度4の運動と外界の3次元情報を復元する処理を行なうこと
を特徴とする請求項5記載の全方位カメラ運動と3次元情報の復元装置。
A restoration processing determination unit that calculates a determination value representing a degree of freedom of movement from a singular value component obtained by performing singular value decomposition on the uv image supplied from the measurement matrix conversion unit;
If the judgment value is less than a certain value, it is considered that the camera motion is a plane motion,
The factorization processing unit performs a process of restoring three-dimensional information and three-dimensional information with three degrees of freedom consisting of rotation around the optical axis and movement on a plane perpendicular to the optical axis,
If the determination value is equal to or greater than a certain value, the camera motion is regarded as having a motion of 4 degrees of freedom, and the factorization processing unit performs a motion of 4 degrees of freedom consisting of rotation and translational motion related to the camera and the 3D of the external world. 6. The apparatus for restoring omnidirectional camera motion and three-dimensional information according to claim 5, wherein processing for restoring information is performed.
前記特徴点計測部からuv画像を特異値分解して得る特異値成分から運動を表す判定値を算出する復元処理判定部を備え、
判定値がある一定値末満の場合は、カメラ運動が平面運動をしたとみなして、前記因子分解法処理部は光軸周りの回転とその光軸に垂直な平面上の運動からなる自由度3の平面運動と3次元情報を復元する処理を行い、
判定値がある一定値以上の場合は、カメラ運動が自由度4の運動をしたとみなして、前記因子分解法処理部はカメラに関する回転と並進運動からなる自由度4の運動と外界の3次元情報を復元する処理を行なうこと
を特徴とする請求項6記載の全方位カメラ運動と3次元情報の復元装置。
A restoration process determination unit that calculates a determination value representing motion from a singular value component obtained by performing singular value decomposition of the uv image from the feature point measurement unit;
When the judgment value is less than a certain value, it is considered that the camera motion is a plane motion, and the factorization processing unit has a degree of freedom comprising a rotation around the optical axis and a motion on a plane perpendicular to the optical axis. 3 to restore the plane motion and 3D information,
If the determination value is equal to or greater than a certain value, the camera motion is regarded as having a motion of 4 degrees of freedom, and the factorization processing unit performs a motion of 4 degrees of freedom consisting of rotation and translational motion related to the camera and the 3D of the external world. 7. The apparatus for restoring omnidirectional camera motion and three-dimensional information according to claim 6, wherein processing for restoring information is performed.
全方位カメラから取得した時系列の全方位画像(または広視野画像)中において、対象とする画像に配置した特徴点に関する画像座標値の時間的変化量から、時系列における全方位カメラ視点の運動、並びに、外界の物体形状を構成する3次元情報を復元する方法をコンピュータによって実行するプログラムであって、
取得した時系列の全方位画像(または広視野画像)に設定した特徴点座標系において、各画像における特徴点の時間的変化量を示す画像座標値を測定するステップ(計測行列測定ステップ)と、
この計測行列測定ステップにおいて得た各特徴点の画像座標値から算出される位相角と仰角により別の座標値(uv座標値)を求め、この各特徴点のuv座標値から復元処理するための行列データ(行列分解データ)を生成し、この行列分解データを特異値分解し雑音除去を行って運動情報を表す行列データと3次元情報を表す行列データを得て、その運動情報の成分において、運動を規定するために設定した条件を満足する変換行列を求め、運動情報となる行列データにこの変換行列を作用させて全方位カメラ視点の光軸周りの回転運動とその軸に垂直な平面(XY平面)上の並進運動(この自由度3の運動を平面運動と称する)を復元し、さらに3次元情報を表す行列データにこの変換行列の逆行列を作用させて物体形状を構成する3次元情報を復元するステップ(平面運動と3次元情報の復元ステップ)と、
この平面運動と3次元情報の復元ステップで得た平面運動と3次元情報から各特徴点に関するuv座標系での再投影座標値を求め、その再投影座標値と行列分解データを構成する行列要素との間の誤差を算出し、この誤差と、平面運動と3次元情報の復元ステップで得た特徴点のZ座標値(3次元情報の成分)を使って、カメラ視点のZ軸方向の並進運動を復元するステップ(Z軸並進運動復元ステップ)と、
このZ軸並進運動復元ステップで得た誤差が、ある一定値以下に収束しているかどうかを判断し、もし、収束していないならば、平面運動と3次元情報の復元ステップで得た平面運動と3次元情報から変形係数を求め、この変形係数を各特徴点のuv座標値に結合させて新たなuv座標値を求め、これを行列要素とする行列分解データを生成し、平面運動と3次元情報の復元ステップに戻り、誤差が一定値以下に収束するまで反復して、全方位カメラ運動と3次元情報を復元するステップとを有すること
を特徴とする全方位カメラ視点運動と3次元情報の復元方法を実行するプログラム。
The movement of the omnidirectional camera viewpoint in time series based on the amount of temporal change in the image coordinate values of the feature points placed in the target image in the chronological omnidirectional image (or wide-field image) acquired from the omnidirectional camera. And a program for executing, by a computer, a method for restoring the three-dimensional information constituting the object shape of the outside world,
In the feature point coordinate system set in the acquired time-series omnidirectional image (or wide-field image), a step of measuring an image coordinate value indicating a temporal change amount of the feature point in each image (measurement matrix measurement step);
Another coordinate value (uv coordinate value) is obtained from the phase angle and elevation angle calculated from the image coordinate value of each feature point obtained in the measurement matrix measurement step, and the restoration process is performed from the uv coordinate value of each feature point. Generate matrix data (matrix decomposition data), perform singular value decomposition on the matrix decomposition data and perform noise removal to obtain matrix data representing motion information and matrix data representing three-dimensional information. In the component of the motion information, A transformation matrix that satisfies the conditions set to define the motion is obtained, and this transformation matrix is applied to the matrix data that becomes the motion information, and the rotational motion around the optical axis of the omnidirectional camera viewpoint and the plane perpendicular to the axis ( 3rd order that reconstructs translational motion on the XY plane (this motion with 3 degrees of freedom is called planar motion), and further forms an object shape by applying an inverse matrix of this transformation matrix to matrix data representing three-dimensional information. And step (restoration step of planar motion and three-dimensional information) to restore the information,
The reprojected coordinate value in the uv coordinate system for each feature point is obtained from the planar motion and 3D information obtained in the plane motion and 3D information restoration step, and the reprojected coordinate value and matrix elements constituting the matrix decomposition data Using this error and the Z coordinate value (component of 3D information) of the feature point obtained in the plane motion and 3D information restoration step, the translation of the camera viewpoint in the Z-axis direction is calculated. A step of restoring motion (Z-axis translational motion restoration step);
It is determined whether the error obtained in the Z-axis translational motion restoration step has converged to a certain value or less. If not, the planar motion obtained in the planar motion and three-dimensional information restoration step. Then, the deformation coefficient is obtained from the three-dimensional information, and the deformation coefficient is combined with the uv coordinate value of each feature point to obtain a new uv coordinate value, and matrix decomposition data having this as a matrix element is generated to generate the plane motion and 3 Returning to the dimensional information restoration step, iterating until the error converges to a certain value or less, and omnidirectional camera motion and three-dimensional information restoration step. Program that performs the restore method.
全方位カメラから取得した時系列の全方位画像(または広視野画像)中において、対象とする画像に配置した特徴点に関する画像座標値の時間的変化量から、時系列における全方位カメラ視点の運動、並びに外界の物体形状を構成する3次元情報を復元する方法をコンピュータによって実行するプログラムであって、
取得した時系列の全方位画像(または広視野画像)に対して、各画像座標値から得られる位相角と仰角により各画像座標値をuv座標値に変換して各画素をそのuv座標値に対応付けるように時系列画像(uv画像)を生成し、このuv画像に設定した特徴点座標系において、各画像における特徴点の時間的変化量を示すuv座標値を測定するステップ(uv計測行列測定ステップ)と、
このuv計測行列測定ステップにおいて得た各特徴点のuv座標値から復元処理するための行列データ(行列分解データ)を生成し、この行列分解データを特異値分解し雑音除去を行って運動情報を表す行列データと3次元情報を表す行列データを得て、その運動情報の成分において、運動を規定するために設定した条件を満足する変換行列を求め、運動情報となる行列データにこの変換行列を作用させて全方位カメラ視点の光軸周りの回転運動とその軸に垂直な平面(XY平面)上の並進運動(この自由度3の運動を平面運動と称する)を復元し、さらに、3次元情報を表す行列データにこの変換行列の逆行列を作用させて物体形状を構成する3次元情報を復元するステップ(平面運動と3次元情報の復元ステップ)と、
この平面運動と3次元情報の復元ステップで得た平面運動と3次元情報から各特徴点に関するuv座標系での再投影座標値を求め、その再投影座標値と行列分解データを構成する行列要素との間の誤差を算出し、この誤差と、平面運動と3次元情報の復元ステップで得た特徴点のZ座標値(3次元情報の成分)を使って、カメラ視点のZ軸方向の並進運動を復元するステップ(Z軸並進運動復元ステップ)と、
このZ軸並進運動復元スナッブで得た誤差が、ある一定値以下に収束しているかどうかを判断し、もし、収束していないならば、平面運動と3次元情報の復元ステップで得た平面運動と3次元情報から変形係数を求め、この変形係数を各特徴点のuv座標値に結合させて新たなuv座標値を求め、これを行列要素とする行列分解データを生成し、平面運動と3次元情報の復元ステップに戻り、誤差が一定値以下に収束するまで反復して、全方位カメラ運動と3次元情報を復元するステップとを有すること
を特徴とする全方位カメラ視点運動と3次元情報の復元方法を実行するプログラム。
The movement of the omnidirectional camera viewpoint in time series based on the amount of temporal change in the image coordinate values of the feature points placed in the target image in the chronological omnidirectional image (or wide-field image) acquired from the omnidirectional camera. , As well as a program for executing, by a computer, a method for restoring the three-dimensional information constituting the object shape of the outside world,
With respect to the acquired time-series omnidirectional image (or wide-field image), each image coordinate value is converted into a uv coordinate value by a phase angle and an elevation angle obtained from each image coordinate value, and each pixel is converted to its uv coordinate value. A time series image (uv image) is generated so as to be associated, and in the feature point coordinate system set in the uv image, a uv coordinate value indicating a temporal change amount of the feature point in each image is measured (uv measurement matrix measurement) Step) and
Generate matrix data (matrix decomposition data) for restoration processing from the uv coordinate values of each feature point obtained in the uv measurement matrix measurement step, perform singular value decomposition on the matrix decomposition data, perform noise removal, and obtain motion information. The matrix data representing the three-dimensional information and the matrix data representing the three-dimensional information are obtained, and the transformation matrix satisfying the conditions set for defining the motion is obtained in the motion information component. The rotational motion around the optical axis of the omnidirectional camera viewpoint and the translational motion on the plane perpendicular to the axis (XY plane) (this three-degree-of-freedom motion is referred to as plane motion) are restored, and three-dimensional A step of restoring the three-dimensional information constituting the object shape by applying an inverse matrix of this transformation matrix to matrix data representing information (a step of restoring plane motion and three-dimensional information);
The reprojected coordinate value in the uv coordinate system for each feature point is obtained from the planar motion and 3D information obtained in the plane motion and 3D information restoration step, and the reprojected coordinate value and matrix elements constituting the matrix decomposition data Using this error and the Z coordinate value (component of 3D information) of the feature point obtained in the plane motion and 3D information restoration step, the translation of the camera viewpoint in the Z-axis direction is calculated. A step of restoring motion (Z-axis translational motion restoration step);
It is judged whether the error obtained by this Z-axis translational motion recovery snubber has converged to a certain value or less. Then, the deformation coefficient is obtained from the three-dimensional information, and the deformation coefficient is combined with the uv coordinate value of each feature point to obtain a new uv coordinate value, and matrix decomposition data having this as a matrix element is generated to generate the plane motion and 3 Returning to the dimensional information restoration step, iterating until the error converges to a certain value or less, and omnidirectional camera motion and three-dimensional information restoration step. Program that performs the restore method.
前記計測行列測定ステップにおいて、計測行列を特異値分解して得る特異値成分において、その成分から運動の自由度を表す判定値を算出し、
判定値がある一定値未満の場合は、カメラ運動が平面運動とみなして、前記全方位カメラ運動と3次元情報を復元するステップにおいて、光軸周りの回転とある平面上の運動からなる自由度3の平面運動と3次元情報を復元する処理を行い、
判定値がある一定値以上の場合は、カメラ運動が自由度4の運動をしているとみなして、前記全方位カメラ運動と3次元情報を復元するステップによって、カメラに関する回転と並進運動からなる自由度4の運動と外界の3次元情報を復元すること
を特徴とする請求項9記載の全方位カメラ視点運動と3次元情報の復元方法を実行するプログラム。
In the measurement matrix measurement step, in the singular value component obtained by singular value decomposition of the measurement matrix, a determination value representing the degree of freedom of movement is calculated from the component,
If the determination value is less than a certain value, the camera motion is regarded as a plane motion, and in the step of restoring the omnidirectional camera motion and the three-dimensional information, the degree of freedom comprising rotation about the optical axis and motion on a certain plane 3 to restore the plane motion and 3D information,
If the determination value is equal to or greater than a certain value, the camera motion is considered to be a motion with 4 degrees of freedom, and the omnidirectional camera motion and the step of restoring the three-dimensional information comprise rotation and translational motions related to the camera. 10. The program for executing an omnidirectional camera viewpoint motion and three-dimensional information restoration method according to claim 9, wherein the four-degree-of-freedom motion and the external three-dimensional information are restored.
前記uv計測行列測定ステップにおいて、計測行列を特異値分解して得る特異値成分において、その成分から運動を表す判定値を算出し、
判定値がある一定値未満の場合は、カメラ運動が平面運動とみなして、前記全方位カメラ運動と3次元情報を復元するステップにおいて、光軸周りの回転とある平面上の運動からなる自由度3の平面運動と3次元情報を復元する処理を行い、
判定値がある一定値以上の場合は、カメラ運動が自由度4の運動をしているとみなして、前記全方位カメラ運動と3次元情報を復元するステップによって、請求項2記載の復元方法によってカメラに関する回転と並進運動からなる自由度4の運動と外界の3次元情報を復元すること
を特徴とする請求項10記載の全方位カメラ視点運動と3次元情報の復元方法を実行するプログラム。
In the uv measurement matrix measurement step, in a singular value component obtained by singular value decomposition of the measurement matrix, a determination value representing motion is calculated from the component,
If the determination value is less than a certain value, the camera motion is regarded as a plane motion, and in the step of restoring the omnidirectional camera motion and the three-dimensional information, the degree of freedom comprising rotation about the optical axis and motion on a certain plane 3 to restore the plane motion and 3D information,
The restoration method according to claim 2, wherein if the determination value is equal to or greater than a certain value, the camera movement is regarded as a movement with 4 degrees of freedom, and the omnidirectional camera movement and the three-dimensional information are restored. 11. The program for executing an omnidirectional camera viewpoint motion and three-dimensional information restoration method according to claim 10, wherein the four-degree-of-freedom motion consisting of rotation and translation about the camera and three-dimensional information of the outside world are restored.
全方位カメラから取得した時系列の全方位画像(または広視野画像)中において、対象とする画像に配置した特徴点に関する画像座標値の時間的変化量から、時系列における全方位カメラ視点の運動、並びに、外界の物体形状を構成する3次元情報を復元する方法をコンピュータによって実行するプログラムを記録したコンピュータ読み取り可能な記録媒体であって、
取得した時系列の全方位画像(または広視野画像)に設定した特徴点座標系において、各画像における特徴点の時間的変化量を示す画像座標値を測定するステップ(計測行列測定ステップ)と、
この計測行列測定ステップにおいて得た各特徴点の画像座標値から算出される位相角と仰角により別の座標値(uv座標値)を求め、この各特徴点のuv座標値から復元処理するための行列データ(行列分解データ)を生成し、この行列分解データを特異値分解し雑音除去を行って運動情報を表す行列データと3次元情報を表す行列データを得て、その運動情報の成分において、運動を規定するために設定した条件を満足する変換行列を求め、運動情報となる行列データにこの変換行列を作用させて全方位カメラ視点の光軸周りの回転運動とその軸に垂直な平面(XY平面)上の並進運動(この自由度3の運動を平面運動と称する)を復元し、さらに3次元情報を表す行列データにこの変換行列の逆行列を作用させて物体形状を構成する3次元情報を復元するステップ(平面運動と3次元情報の復元ステップ)と、
この平面運動と3次元情報の復元ステップで得た平面運動と3次元情報から各特徴点に関するuv座標系での再投影座標値を求め、その再投影座標値と行列分解データを構成する行列要素との間の誤差を算出し、この誤差と、平面運動と3次元情報の復元ステップで得た特徴点のZ座標値(3次元情報の成分)を使って、カメラ視点のZ軸方向の並進運動を復元するステップ(Z軸並進運動復元ステップ)と、
このZ軸並進運動復元ステップで得た誤差が、ある一定値以下に収束しているかどうかを判断し、もし、収束していないならば、平面運動と3次元情報の復元ステップで得た平面運動と3次元情報から変形係数を求め、この変形係数を各特徴点のuv座標値に結合させて新たなuv座標値を求め、これを行列要素とする行列分解データを生成し、平面運動と3次元情報の復元ステップに戻り、誤差が一定値以下に収束するまで反復して、全方位カメラ運動と3次元情報を復元するステップとを有すること
を特徴とする全方位カメラ視点運動と3次元情報の復元方法を実行するプログラムを記録した記録媒体。
The movement of the omnidirectional camera viewpoint in time series based on the amount of temporal change in the image coordinate values of the feature points placed in the target image in the chronological omnidirectional image (or wide-field image) acquired from the omnidirectional camera. And a computer-readable recording medium recording a program for executing a method for restoring the three-dimensional information constituting the object shape of the outside world by a computer,
In the feature point coordinate system set in the acquired time-series omnidirectional image (or wide-field image), a step of measuring an image coordinate value indicating a temporal change amount of the feature point in each image (measurement matrix measurement step);
Another coordinate value (uv coordinate value) is obtained from the phase angle and elevation angle calculated from the image coordinate value of each feature point obtained in the measurement matrix measurement step, and the restoration process is performed from the uv coordinate value of each feature point. Generate matrix data (matrix decomposition data), perform singular value decomposition on the matrix decomposition data and perform noise removal to obtain matrix data representing motion information and matrix data representing three-dimensional information. In the component of the motion information, A transformation matrix that satisfies the conditions set to define the motion is obtained, and this transformation matrix is applied to the matrix data that becomes the motion information, and the rotational motion around the optical axis of the omnidirectional camera viewpoint and the plane perpendicular to the axis ( 3rd order that reconstructs translational motion on the XY plane (this motion with 3 degrees of freedom is called planar motion), and further forms an object shape by applying an inverse matrix of this transformation matrix to matrix data representing three-dimensional information. And step (restoration step of planar motion and three-dimensional information) to restore the information,
The reprojected coordinate value in the uv coordinate system for each feature point is obtained from the planar motion and 3D information obtained in the plane motion and 3D information restoration step, and the reprojected coordinate value and matrix elements constituting the matrix decomposition data Using this error and the Z coordinate value (component of 3D information) of the feature point obtained in the plane motion and 3D information restoration step, the translation of the camera viewpoint in the Z-axis direction is calculated. A step of restoring motion (Z-axis translational motion restoration step);
It is determined whether the error obtained in the Z-axis translational motion restoration step has converged to a certain value or less. If not, the planar motion obtained in the planar motion and three-dimensional information restoration step. Then, the deformation coefficient is obtained from the three-dimensional information, and the deformation coefficient is combined with the uv coordinate value of each feature point to obtain a new uv coordinate value, and matrix decomposition data having this as a matrix element is generated to generate the plane motion and 3 Returning to the dimensional information restoration step, iterating until the error converges to a certain value or less, and omnidirectional camera motion and three-dimensional information restoration step. A recording medium on which a program for executing the restoration method is recorded.
全方位カメラから取得した時系列の全方位画像(または広視野画像)中において、対象とする画像に配置した特徴点に関する画像座標値の時間的変化量から、時系列における全方位カメラ視点の運動、並びに外界の物体形状を構成する3次元情報を復元する方法をコンピュータによって実行するプログラムを記録したコンピュータ読み取り可能な記録媒体であって、
取得した時系列の全方位画像(または広視野画像)に対して、各画像座標値から得られる位相角と仰角により各画像座標値をuv座標値に変換して各画素をそのuv座標値に対応付けるように時系列画像(uv画像)を生成し、このuv画像に設定した特徴点座標系において、各画像における特徴点の時間的変化量を示すuv座標値を測定するステップ(uv計測行列測定ステップ)と、
このuv計測行列測定ステップにおいて得た各特徴点のuv座標値から復元処理するための行列データ(行列分解データ)を生成し、この行列分解データを特異値分解し雑音除去を行って運動情報を表す行列データと3次元情報を表す行列データを得て、その運動情報の成分において、運動を規定するために設定した条件を満足する変換行列を求め、運動情報となる行列データにこの変換行列を作用させて全方位カメラ視点の光軸周りの回転運動とその軸に垂直な平面(XY平面)上の並進運動(この自由度3の運動を平面運動と称する)を復元し、さらに、3次元情報を表す行列データにこの変換行列の逆行列を作用させて物体形状を構成する3次元情報を復元するステップ(平面運動と3次元情報の復元ステップ)と、
この平面運動と3次元情報の復元ステップで得た平面運動と3次元情報から各特徴点に関するuv座標系での再投影座標値を求め、その再投影座標値と行列分解データを構成する行列要素との間の誤差を算出し、この誤差と、平面運動と3次元情報の復元ステップで得た特徴点のZ座標値(3次元情報の成分)を使って、カメラ視点のZ軸方向の並進運動を復元するステップ(Z軸並進運動復元ステップ)と、
このZ軸並進運動復元スナッブで得た誤差が、ある一定値以下に収束しているかどうかを判断し、もし、収束していないならば、平面運動と3次元情報の復元ステップで得た平面運動と3次元情報から変形係数を求め、この変形係数を各特徴点のuv座標値に結合させて新たなuv座標値を求め、これを行列要素とする行列分解データを生成し、平面運動と3次元情報の復元ステップに戻り、誤差が一定値以下に収束するまで反復して、全方位カメラ運動と3次元情報を復元するステップとを有すること
を特徴とする全方位カメラ視点運動と3次元情報の復元方法をコンピュータによって実行するプログラムを記録した記録媒体。
The movement of the omnidirectional camera viewpoint in time series based on the amount of temporal change in the image coordinate values of the feature points placed in the target image in the chronological omnidirectional image (or wide-field image) acquired from the omnidirectional camera. And a computer-readable recording medium storing a program for executing a method for restoring three-dimensional information constituting an object shape of the outside world by a computer,
With respect to the acquired time-series omnidirectional image (or wide-field image), each image coordinate value is converted into a uv coordinate value by a phase angle and an elevation angle obtained from each image coordinate value, and each pixel is converted to its uv coordinate value. A time series image (uv image) is generated so as to be associated, and in the feature point coordinate system set in the uv image, a uv coordinate value indicating a temporal change amount of the feature point in each image is measured (uv measurement matrix measurement) Step) and
Generate matrix data (matrix decomposition data) for restoration processing from the uv coordinate values of each feature point obtained in the uv measurement matrix measurement step, perform singular value decomposition on the matrix decomposition data, perform noise removal, and obtain motion information. The matrix data representing the three-dimensional information and the matrix data representing the three-dimensional information are obtained, and the transformation matrix satisfying the conditions set for defining the motion is obtained in the motion information component. The rotational motion around the optical axis of the omnidirectional camera viewpoint and the translational motion on the plane perpendicular to the axis (XY plane) (this three-degree-of-freedom motion is referred to as plane motion) are restored, and three-dimensional A step of restoring the three-dimensional information constituting the object shape by applying an inverse matrix of this transformation matrix to matrix data representing information (a step of restoring plane motion and three-dimensional information);
The reprojected coordinate value in the uv coordinate system for each feature point is obtained from the planar motion and 3D information obtained in the plane motion and 3D information restoration step, and the reprojected coordinate value and matrix elements constituting the matrix decomposition data Using this error and the Z coordinate value (component of 3D information) of the feature point obtained in the plane motion and 3D information restoration step, the translation of the camera viewpoint in the Z-axis direction is calculated. A step of restoring motion (Z-axis translational motion restoration step);
It is judged whether the error obtained by this Z-axis translational motion recovery snubber has converged to a certain value or less. Then, the deformation coefficient is obtained from the three-dimensional information, and the deformation coefficient is combined with the uv coordinate value of each feature point to obtain a new uv coordinate value, and matrix decomposition data having this as a matrix element is generated to generate the plane motion and 3 Returning to the dimensional information restoration step, iterating until the error converges to a certain value or less, and omnidirectional camera motion and three-dimensional information restoration step. Recording medium on which a program for executing the restoration method is recorded by a computer.
前記計測行列測定ステップにおいて、計測行列を特異値分解して得る特異値成分において、その成分から運動の自由度を表す判定値を算出し、
判定値がある一定値未満の場合は、カメラ運動が平面運動とみなして、前記全方位カメラ運動と3次元情報を復元するステップにおいて、光軸周りの回転とある平面上の運動からなる自由度3の平面運動と3次元情報を復元する処理を行い、
判定値がある一定値以上の場合は、カメラ運動が自由度4の運動をしているとみなして、前記全方位カメラ運動と3次元情報を復元するステップによって、カメラに関する回転と並進運動からなる自由度4の運動と外界の3次元情報を復元すること
を特徴とする請求項13記載の全方位カメラ視点運動と3次元情報の復元方法をコンピュータによって実行するプログラムを記録した記録媒体。
In the measurement matrix measurement step, in the singular value component obtained by singular value decomposition of the measurement matrix, a determination value representing the degree of freedom of movement is calculated from the component,
If the determination value is less than a certain value, the camera motion is regarded as a plane motion, and in the step of restoring the omnidirectional camera motion and the three-dimensional information, the degree of freedom comprising rotation about the optical axis and motion on a certain plane 3 to restore the plane motion and 3D information,
If the determination value is equal to or greater than a certain value, the camera motion is considered to be a motion with 4 degrees of freedom, and the omnidirectional camera motion and the step of restoring the three-dimensional information comprise rotation and translational motions related to the camera. 14. A recording medium storing a program for executing the omnidirectional camera viewpoint movement and the three-dimensional information restoring method by a computer according to claim 13, wherein the movement has four degrees of freedom and the three-dimensional information of the outside world is restored.
前記uv計測行列測定ステップにおいて、計測行列を特異値分解して得る特異値成分において、その成分から運動を表す判定値を算出し、
判定値がある一定値未満の場合は、カメラ運動が平面運動とみなして、前記全方位カメラ運動と3次元情報を復元するステップにおいて、光軸周りの回転とある平面上の運動からなる自由度3の平面運動と3次元情報を復元する処理を行い、
判定値がある一定値以上の場合は、カメラ運動が自由度4の運動をしているとみなして、前記全方位カメラ運動と3次元情報を復元するステップによって、請求項2記載の復元方法によってカメラに関する回転と並進運動からなる自由度4の運動と外界の3次元情報を復元すること
を特徴とする請求項14記載の全方位カメラ視点運動と3次元情報の復元方法をコンピュータによって実行するプログラムを記録した記録媒体。
In the uv measurement matrix measurement step, in a singular value component obtained by singular value decomposition of the measurement matrix, a determination value representing motion is calculated from the component,
If the determination value is less than a certain value, the camera motion is regarded as a plane motion, and in the step of restoring the omnidirectional camera motion and the three-dimensional information, the degree of freedom comprising rotation about the optical axis and motion on a certain plane 3 to restore the plane motion and 3D information,
The restoration method according to claim 2, wherein if the determination value is equal to or greater than a certain value, the camera movement is regarded as a movement with 4 degrees of freedom, and the omnidirectional camera movement and the three-dimensional information are restored. 15. The computer-executable computer program for restoring an omnidirectional camera viewpoint motion and three-dimensional information according to claim 14, wherein the four-degree-of-freedom motion consisting of rotation and translational motion and three-dimensional information of the outside world are restored. A recording medium on which is recorded.
JP2003290025A 2003-08-08 2003-08-08 Method and device for restoring view point motions of full azimuth camera and three-dimensional information, and program and recording medium with the same recorded Pending JP2005063013A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003290025A JP2005063013A (en) 2003-08-08 2003-08-08 Method and device for restoring view point motions of full azimuth camera and three-dimensional information, and program and recording medium with the same recorded

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003290025A JP2005063013A (en) 2003-08-08 2003-08-08 Method and device for restoring view point motions of full azimuth camera and three-dimensional information, and program and recording medium with the same recorded

Publications (1)

Publication Number Publication Date
JP2005063013A true JP2005063013A (en) 2005-03-10

Family

ID=34368175

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003290025A Pending JP2005063013A (en) 2003-08-08 2003-08-08 Method and device for restoring view point motions of full azimuth camera and three-dimensional information, and program and recording medium with the same recorded

Country Status (1)

Country Link
JP (1) JP2005063013A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10992879B2 (en) 2017-03-17 2021-04-27 Ricoh Company, Ltd. Imaging system with multiple wide-angle optical elements arranged on a straight line and movable along the straight line
CN112833838A (en) * 2020-09-30 2021-05-25 昆明理工大学 Polymorphic space three-dimensional displacement monitoring device and displacement calculation method
US11039120B2 (en) 2017-01-31 2021-06-15 Ricoh Company, Ltd. Imaging apparatus

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11039120B2 (en) 2017-01-31 2021-06-15 Ricoh Company, Ltd. Imaging apparatus
US10992879B2 (en) 2017-03-17 2021-04-27 Ricoh Company, Ltd. Imaging system with multiple wide-angle optical elements arranged on a straight line and movable along the straight line
CN112833838A (en) * 2020-09-30 2021-05-25 昆明理工大学 Polymorphic space three-dimensional displacement monitoring device and displacement calculation method
CN112833838B (en) * 2020-09-30 2023-04-28 昆明理工大学 Polymorphic space three-dimensional displacement monitoring device and displacement calculation method

Similar Documents

Publication Publication Date Title
JP6011548B2 (en) Camera calibration apparatus, camera calibration method, and camera calibration program
US10334168B2 (en) Threshold determination in a RANSAC algorithm
JP6057298B2 (en) Rapid 3D modeling
JP4825980B2 (en) Calibration method for fisheye camera.
CN108629831B (en) Three-dimensional human body reconstruction method and system based on parameterized human body template and inertial measurement
US20160321811A1 (en) Method for determining a parameter set designed for determining the pose of a camera and/or for determining a three-dimensional structure of the at least one real object
CN107833237B (en) Method and apparatus for blurring virtual objects in video
JP2008002980A (en) Information processing method and device
WO2020031950A1 (en) Measurement calibration device, measurement calibration method, and program
JP2005063012A (en) Full azimuth camera motion and method and device for restoring three-dimensional information and program and recording medium with the same recorded
JP2006195790A (en) Lens distortion estimation apparatus, lens distortion estimation method, and lens distortion estimation program
JP5726024B2 (en) Information processing method and apparatus
JP6109213B2 (en) Information processing apparatus and method, program
JP2005063013A (en) Method and device for restoring view point motions of full azimuth camera and three-dimensional information, and program and recording medium with the same recorded
WO2018100230A1 (en) Method and apparatuses for determining positions of multi-directional image capture apparatuses
WO2018150086A2 (en) Methods and apparatuses for determining positions of multi-directional image capture apparatuses
JP2005252482A (en) Image generating apparatus and three-dimensional distance information acquisition apparatus
CN114187344A (en) Map construction method, device and equipment
JP2007034964A (en) Method and device for restoring movement of camera viewpoint and three-dimensional information and estimating lens distortion parameter, and program for restoring movement of camera viewpoint and three-dimensional information and estimating lens distortion parameter
JP2002094849A (en) Wide view image pickup device
JP3901552B2 (en) Omnidirectional camera viewpoint movement and object shape restoration method, apparatus, omnidirectional camera viewpoint movement and object shape restoration program, and recording medium recording the program
JP2005078554A (en) Restoration method and device for fish-eye camera motion and three-dimensional information, and recording medium with program for implementing it recorded
JP6384961B2 (en) Camera calibration apparatus, camera calibration method, camera calibration program, and recording medium
JP2006172026A (en) Camera motion, and device and method for restoring three-dimensional information, and program
JP2006106930A (en) Parameter estimation device, parameter estimation method and parameter estimation program