JP2005063012A - Full azimuth camera motion and method and device for restoring three-dimensional information and program and recording medium with the same recorded - Google Patents

Full azimuth camera motion and method and device for restoring three-dimensional information and program and recording medium with the same recorded Download PDF

Info

Publication number
JP2005063012A
JP2005063012A JP2003290024A JP2003290024A JP2005063012A JP 2005063012 A JP2005063012 A JP 2005063012A JP 2003290024 A JP2003290024 A JP 2003290024A JP 2003290024 A JP2003290024 A JP 2003290024A JP 2005063012 A JP2005063012 A JP 2005063012A
Authority
JP
Japan
Prior art keywords
motion
matrix
image
dimensional information
value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2003290024A
Other languages
Japanese (ja)
Inventor
Isao Miyagawa
勲 宮川
Shiro Ozawa
史朗 小澤
Yoshiori Wakabayashi
佳織 若林
Kenichi Arakawa
賢一 荒川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2003290024A priority Critical patent/JP2005063012A/en
Publication of JP2005063012A publication Critical patent/JP2005063012A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To highly precisely acquire and restore the shape of an object concerning an object from time series images acquired from a full azimuth camera. <P>SOLUTION: This device is configured to restore full azimuth camera view point motions in time series and three-dimensional information constituting the shape of an object in an external field from the secular change amounts of image coordinate values concerning featured points arranged in the target image in full azimuth images(or wide-angle view images) in time series acquired from the full azimuth camera. This device is provided with a featured point measuring part 11 to measure the coordinate values of the featured points in each image, a measurement matrix converting part 12 to convert the image coordinate values acquired by the featured point measuring part 11 into a uv image, an intersection coordinate measuring part 13 to calculate intersection coordinate values in the neighborhood of the center of projection in each image, a measurement matrix inputting part 14 to apply a matrix with the uv coordinate values as matrix elements as an initial value and a factorization processing part 15 to restore the motions of the camera and the three-dimensional information of the external field by factorization from data supplied from the intersection coordinate measuring part 13 and the measurement matrix inputting part 14. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

本発明は、魚眼レンズを装着したカメラ(以下、全方位カメラ)を使って取得した車載画像または室内画像、船上からの海上画像、空撮などお時系列画像全般に対して利用するもので、特に、全方位カメラで取得した時系列画像から全方位カメラ視点に関するロール、ピッチ、ヨー回転から構成される回転運動、配信運動、並びに時系列映像に移っている外界の3次元形状、すなわち被写体(物体)の外観形状を構成する3次元情報を復元するものに関するものである。   The present invention is used for vehicle-mounted images or indoor images acquired using a camera equipped with a fish-eye lens (hereinafter referred to as an omnidirectional camera), general time-series images such as sea images from a ship, aerial photography, etc. The three-dimensional shape of the outside world, that is, the subject (object), moving from the time-series image acquired by the omnidirectional camera to the omnidirectional camera viewpoint related to the roll, pitch, and yaw rotation, the distribution motion, and the time-series video. ) To restore the three-dimensional information constituting the external shape.

コンピュータビジョン分野では、時系列画像データから対象物の形状を計測または獲得する手法にはステレオ計測やエピポーラ面解析を用いた3次元解析手法がある。この手法によれば、物体が撮影されている複数の時系列画像から空間形状または空間構造に関する3次元位置情報並びにカメラ視点に関する運動を復元することができる。   In the field of computer vision, there are three-dimensional analysis methods using stereo measurement and epipolar plane analysis as methods for measuring or acquiring the shape of an object from time-series image data. According to this method, it is possible to restore the three-dimensional position information related to the spatial shape or the spatial structure and the motion related to the camera viewpoint from a plurality of time-series images in which the object is photographed.

しかしながら、移動手段等を利用して撮影カメラを動かしながら撮影した時系列映像においては、撮影時の環境、撮影カメラの微妙な動きによりシームレスに映像取得が困難であり、時系列映像中にランダム性の雑音が混入し、カメラ運動や物体形状を正確に復元することが困難な場合がある。   However, it is difficult to seamlessly acquire images in time-series images taken while moving the camera using moving means etc. due to the shooting environment and subtle movements of the camera. In some cases, it is difficult to accurately restore camera motion and object shape.

さらに、画像面が平面とした直交座標系で表現できる画像座標値から因子分解法(例えば非特許文献1や非特許文献2)等を利用してユークリッド空間でのカメラ運動と物体形状の復元が可能であるが、有限画角のカメラを使用する場合、微妙なカメラの回転運動を復元することが困難であり、しかも並進と回転運動の判別も正確ではない場合もある。   Furthermore, the camera motion and object shape restoration in the Euclidean space can be performed using a factorization method (for example, Non-Patent Document 1 and Non-Patent Document 2) from image coordinate values that can be expressed in an orthogonal coordinate system with a flat image surface. Although it is possible, when a camera with a finite field angle is used, it is difficult to restore the delicate rotational motion of the camera, and the translation and rotational motion may not be accurately discriminated.

一方、有限画角を回避するために、一度に360度の景観を取得する手段として、全方位カメラによる撮像が考えられる。全方位カメラは、そのカメラ光軸を鉛直上向きに設置して利用することが多く、全方位カメラ視点の姿勢推定や外界に関する空間計測には適する(例えば非特許文献3)。また、全方位カメラの利用により、微小な回転運動の復元も可能であり、並進運動と回転運動を双方とも正確に復元する点で優れている。
C.tomasi and T.Kanade;“Shape and Motion from Image Stream Under Orthography:A Factorization Method”,International Jaournal of Computer Vision,Vol.9,No.2,1992. C.J.Poelman and T.Kanade;“A Paraperspective Factorization Method forShape and Motion Recovery”,IEEE trans.Pattern Anal.and Mach.Intell,Vol.19,No.3,pp.206−218,1997. 宮川,若林,有川;“全方位投影型因子分解法による全方位画像からの運動と形状復元”,パターン認識・メディア理解(PRMU)研究会,June,2002
On the other hand, in order to avoid a finite field angle, imaging with an omnidirectional camera is conceivable as means for acquiring a landscape of 360 degrees at a time. An omnidirectional camera is often used with its camera optical axis set vertically upward, and is suitable for posture estimation of an omnidirectional camera viewpoint and space measurement related to the outside world (for example, Non-Patent Document 3). In addition, by using an omnidirectional camera, it is possible to restore a minute rotational motion, which is excellent in that both translational motion and rotational motion can be accurately restored.
C. tomasi and T.M. Kanade; “Shape and Motion from Image Stream Under Orthography: A Factorization Method”, International Journal of Computer Vision, Vol. 9, no. 2, 1992. C. J. et al. Poelman and T.W. Kanade; "A Paraperspective Factor Method for Shape and Motion Recovery", IEEE trans. Pattern Anal. and Mach. Intel, Vol. 19, no. 3, pp. 206-218, 1997. Miyakawa, Wakabayashi, Arikawa; “Motion and shape restoration from omnidirectional images by omnidirectional projection factorization”, Pattern Recognition and Media Understanding (PRMU) Study Group, June, 2002

移動手段を用いて全方位カメラのような一度に360度の景観を映像化する撮影環境で取得した時系列画像において、ステレオ視の原理を応用した計測方法により、外界の物体の空間情報を獲得、復元できるが、様々な撮影環境の中での移動撮影においては、カメラが微小に動くため、容易にシームレスな時系列画像を取得できない。そのため、ランダム性雑音の影響も大きく、常に安定的に、カメラの動きと物体の形状を同時にかつ高精度に復元することは困難である。   Acquire spatial information of objects in the outside world using a measuring method that applies the principle of stereo vision in a time-series image acquired in a shooting environment that visualizes a 360-degree landscape at once, such as an omnidirectional camera using a moving means. However, in moving shooting in various shooting environments, since the camera moves minutely, a seamless time-series image cannot be easily acquired. For this reason, the influence of random noise is large, and it is difficult to restore the camera movement and the shape of the object simultaneously and with high accuracy at all times.

例えば、非特許文献3の手法を適用した場合、図13に示したように、全方位カメラの光軸回転(ヨー回転)以外にロール回転、ピッチ回転、さらにはZ軸方向の並進運動が加わることで、正確な運動と3次元形状の復元は困難であった。つまり、図13に示すように、全方位カメラは光軸を鉛直上向きに設置した姿勢で用いることが多く、このため、ヨー回転とXY並進運動からなる自由度3の平面運動が復元することに主眼が置かれていた。   For example, when the method of Non-Patent Document 3 is applied, as shown in FIG. 13, in addition to the optical axis rotation (yaw rotation) of the omnidirectional camera, roll rotation, pitch rotation, and translational motion in the Z-axis direction are applied. Therefore, it was difficult to restore accurate motion and three-dimensional shape. That is, as shown in FIG. 13, the omnidirectional camera is often used in a posture in which the optical axis is set vertically upward, and therefore, a plane motion with 3 degrees of freedom consisting of yaw rotation and XY translational motion is restored. The main focus was placed.

しかしながら、実環境においては、このような平面運動以外に、ロール回転、ピッチ回転、Z軸並進運動を含む場合、全方位カメラによる簡便な計算が使えず、カメラ運動と3次元形状を復元するための計算が複雑になり、上記のような全方位カメラに関する微小なカメラ姿勢変化を雑音と混在してしまい、正確かつロバストに復元できないという問題がある。   However, in the real environment, when roll rotation, pitch rotation, and Z-axis translational motion are included in addition to such planar motion, simple calculations using an omnidirectional camera cannot be used, and the camera motion and three-dimensional shape are restored. The calculation of the above becomes complicated, and the minute camera posture change related to the omnidirectional camera as described above is mixed with noise, and there is a problem that it cannot be accurately and robustly restored.

本発明は、かかる事情に鑑みなされたもので、その目的は、全方位カメラから取得した時系列画像から対象物に関する物体形状を高精度に獲得、復元することができる全方位カメラ運動と3次元情報の復元方法とその装置及びプログラム並びにこれを記録した記録媒体の提供にある。   The present invention has been made in view of such circumstances, and an object of the present invention is to provide an omnidirectional camera motion and three-dimensional image that can acquire and restore an object shape related to an object with high accuracy from a time-series image acquired from an omnidirectional camera. The present invention provides an information restoration method, an apparatus and a program thereof, and a recording medium on which the information is recorded.

前記課題を解決するために、本発明の全方位カメラ運動と3次元情報の復元方法とその装置及びプログラム並びにこれを記録した記録媒体は、全方位カメラで取得した全方位画像における特徴点の座標の時間的変化から因子分解法によって、全方位カメラの(視点の)光軸周りの回転運動とXY平面上の並進運動の3自由度の運動(平面運動)を求め、光軸周りの回転運動と各画像における投影中心付近での線分がなす交点の画像座標値(交点座標値)とから、全方位カメラの(視点の)光軸以外の他軸周りの回転運動を求めた後に、演算によって全方位カメラの(視点の)Z軸方向の並進運動を求め、さらに演算によって対象物体の3次元形状を求め、これらの誤差が所定の値以下になるまで反復計算し、その結果として、対象物体の3次元情報及び全方位カメラの(視点の)6自由度の運動を復元している。   In order to solve the above-described problems, the omnidirectional camera motion and three-dimensional information restoration method, apparatus and program thereof, and the recording medium on which the omnidirectional camera is recorded are the coordinates of the feature points in the omnidirectional image acquired by the omnidirectional camera. Using the factorization method, the rotational motion around the optical axis (of the viewpoint) and the translational motion on the XY plane (plane motion) of the omnidirectional camera are obtained from the temporal change of After calculating the rotational motion around the axis other than the optical axis (of the viewpoint) of the omnidirectional camera from the image coordinate value (intersection coordinate value) of the intersection point formed by the line segment near the projection center in each image Is used to determine the translational motion of the omnidirectional camera (viewpoint) in the Z-axis direction, further to calculate the three-dimensional shape of the target object, and repeatedly calculate until these errors are less than or equal to a predetermined value. 3rd order of the object And restoring the information and (viewpoint) 6 freedom of movement of the omnidirectional camera.

すなわち、請求項1記載の発明は、全方位カメラから取得した時系列の全方位画像(または広視野画像)中において、対象とする画像に配置した特徴点に関する画像座標値の時間的変化量から、時系列における全方位カメラ視点の運動、並びに、外界の物体形状を構成する3次元情報を復元する方法であって、
取得した時系列の全方位画像(または広視野画像)に設定した特徴点座標系において、各画像における特徴点の時間的変化量を示す画像座標値と、各画像における投影中心付近での線分がなす交点の画像座標値(交点座標値)を測定するステップ(計測行列測定ステップ)と、
この計測行列測定ステップにおいて得た各特徴点の画像座標値から算出される位相角と仰角により別の座標値(uv座標値)を求め、これらの各特徴点のuv座標値と、交点座標値を用いて復元処理するための行列データ(行列分解データ)を生成し、この行列分解データを特異値分解し、雑音除去を行って運動情報を表す行列データと3次元情報を表す行列データを得て、その運動情報の成分から、運動を規定するために設定した条件を満足する変換行列を求め、運動情報となる行列データにこの変換行列を作用させて全方位カメラ視点の光軸周りの回転運動とそれに垂直な平面(XY平面)上の並進運動(この自由度3の運動を平面運動と称する)を復元し、光軸周りの回転角と交点座標値を使って、光軸以外の他軸周りの回転運動を復元し、さらに、3次元情報を表す行列データにこの変換行列の逆行列を作用させて物体形状を構成する3次元情報を復元するステップ(平面運動と3次元情報の復元ステップ)と、
この平面運動と3次元情報の復元ステップで得た平面連動と3次元情報から各特徴点に関するuv座標系での再投影座標値を求め、その再投影座標値と行列分解データを構成する行列要素との間の誤差を算出し、この誤差と、平面運動と3次元情報の復元ステップで得た特徴点のZ座標値(3次元情報の成分)を使って、カメラ視点のZ軸方向の並進運動を復元するステップ(Z軸並進運動復元ステップ)と、
このZ軸並進運動復元スナッブで得た誤差が、ある一定値以下に収束しているかどらかを判断し、収束していないならば平面運動と3次元情報の復元ステップで得た平面運動と3次元情報、並びに、光軸以外の軸周りの回転運動から変形運動を求め、この変形係数を各特徴点のuv座標値に結合させて新たなuv座標値を求め、これを行列要素とする行列分解データを生成し、平面運動と3次元情報の復元ステップに戻り、誤差が一定値以下に収束するまで反復して、全方位カメラ運動と3次元情報を復元するステップとを有する。
That is, the invention according to claim 1 is based on the temporal change amount of the image coordinate value related to the feature point arranged in the target image in the time-series omnidirectional image (or wide-field image) acquired from the omnidirectional camera. , The movement of the omnidirectional camera viewpoint in time series, and the method of restoring the three-dimensional information constituting the object shape of the outside world,
In the feature point coordinate system set for the acquired time-series omnidirectional image (or wide-field image), the image coordinate value indicating the temporal change amount of the feature point in each image and the line segment near the projection center in each image A step (measurement matrix measurement step) of measuring an image coordinate value (intersection coordinate value) of an intersection formed by
Different coordinate values (uv coordinate values) are obtained from the phase angle and elevation angle calculated from the image coordinate values of each feature point obtained in this measurement matrix measurement step, and the uv coordinate values and intersection coordinate values of these feature points are obtained. Is used to generate matrix data (matrix decomposition data) for restoration processing, singular value decomposition of this matrix decomposition data, and noise removal to obtain matrix data representing motion information and matrix data representing three-dimensional information From the motion information component, a transformation matrix that satisfies the conditions set to define the motion is obtained, and this transformation matrix is applied to the matrix data that is motion information to rotate around the optical axis of the omnidirectional camera viewpoint. Restoring the motion and translational motion on the plane perpendicular to it (XY plane) (this motion with 3 degrees of freedom is called plane motion), and using the rotation angle around the optical axis and the intersection coordinate value, Restore rotational movement around the axis And, further, a step (restoration step of planar motion and three-dimensional information) to restore the three-dimensional information that constitutes the object shape by applying an inverse matrix of the transformation matrix matrix data representing the three-dimensional information,
The re-projection coordinate value in the uv coordinate system for each feature point is obtained from the plane interlock and the three-dimensional information obtained in the plane motion and the three-dimensional information restoration step, and the reprojected coordinate value and matrix elements constituting the matrix decomposition data Using this error and the Z coordinate value (component of 3D information) of the feature point obtained in the plane motion and 3D information restoration step, the translation of the camera viewpoint in the Z-axis direction is calculated. A step of restoring motion (Z-axis translational motion restoration step);
It is determined whether or not the error obtained by the Z-axis translational motion recovery snubber has converged to a certain value or less. If not, the planar motion obtained by the planar motion and the three-dimensional information restoration step and 3 Determining the deformation motion from the dimensional information and the rotational motion around the axis other than the optical axis, combining this deformation coefficient with the uv coordinate value of each feature point to determine a new uv coordinate value, and using this as a matrix element The method includes generating decomposition data, returning to the plane motion and three-dimensional information restoration step, and repeating until the error converges to a predetermined value or less to restore the omnidirectional camera motion and the three-dimensional information.

請求項2記載の発明は、全方位カメラから取得した時系列の全方位画像(または広視野画像)中において、対象とする画像に配置した特徴点に関する画像座標値の時間的変化量から、時系列における全方位カメラ視点の運動、並びに、外界の物体形状を構成する3次元情報を復元する方法であって
取得した時系列の全方位画像(または広視野画像)に対して、各画像座標値から得られる位相角と仰角により各画像座標値をuv座標値に変換して各画素をそのuv座標値に対応付けるように時系列画像(uv画像)を生成し、このuv画像に設定した特徴点座標系において、各画像における特徴点の時間的変化量を示すuv座標値と、各uv画像における投影中心付近での線分がなす交点のuv座標値(交点座標値)を測定するステップ(uv計測行列測定ステップ)と、
このuv計測行列測定ステップにおいて得た各特徴点のuv座標値と、交点座標値を用いて復元処理するための行列データ(行列分解データ)を生成し、この行列分解データを特異値分解し、雑音除去を行って運動情報を表す行列データと3次元情報を表す行列データを得て、その運動情報の成分から、運動を規定するために設定した条件を満足する変換行列を求め、運動情報となる行列データにこの変換行列を作用させて全方位カメラ視点の光軸周りの回転運動とそれに垂直な平面(XY平面)上の並進運動(この自由度3の運動を平面運動と称する)を復元し、光軸周りの回転角と交点座標値を使って、光軸以外の他軸周りの回転運動を復元し、さらに、3次元情報を表す行列データにこの変換行列の逆行列を作用させて物体形状を構成する3次元情報を復元するステップ(平面運動と3次元情報の復元ステップ)と、
平面運動と3次元情報の復元ステップで得た平面運動と3次元情報から各特徴点に関するuv座標系での再投影座標値を求め、その再投影座標値と行列分解データを構成する行列要素との間の誤差を算出し、この誤差と、平面運動と3次元情報の復元ステップで得た特徴点のZ座標値(3次元情報の成分)を使って、カメラ視点のZ軸方向の並進運動を復元するステップ(Z軸並進運動復元ステップ)と、
このZ軸並進運動復元ステップで得た誤差が、ある一定値以下に収束しているかどうかを判断し、収束していないならば、平面運動と3次元情報の復元ステップで得た平面運動と3次元情報、並びに、光軸以外の軸周りの回転運動から変形係数求め、この変形係数を各特徴点のuv座標値に結合させて新たなuv座標値を求め、これを行列要素とする行列分解データを生成し、平面運動と3次元情報の復元ステップに戻り、誤差が一定値以下に収束するまで反復して,全方位カメラ運動と3次元情報を復元するステップとを有する。
According to the second aspect of the present invention, in the time-series omnidirectional image (or wide-field image) acquired from the omnidirectional camera, the temporal change amount of the image coordinate value regarding the feature point arranged in the target image is This is a method for restoring the omnidirectional camera viewpoint movement in the sequence and the three-dimensional information constituting the object shape of the outside world. For each time-series omnidirectional image (or wide-field image) acquired, each image coordinate value A time series image (uv image) is generated by converting each image coordinate value into a uv coordinate value by the phase angle and the elevation angle obtained from the above, and associating each pixel with the uv coordinate value, and the feature points set in this uv image In the coordinate system, a step of measuring a uv coordinate value indicating a temporal change amount of a feature point in each image and a uv coordinate value (intersection coordinate value) of an intersection formed by a line segment in the vicinity of the projection center in each uv image (uv) Measurement matrix measurement step),
Generate matrix data (matrix decomposition data) for restoration processing using the uv coordinate value of each feature point obtained in the uv measurement matrix measurement step and the intersection coordinate value, and singular value decomposition of the matrix decomposition data, The matrix data representing the motion information and the matrix data representing the three-dimensional information are obtained by performing noise removal, and a transformation matrix satisfying the conditions set for defining the motion is obtained from the motion information components, and the motion information and This transformation matrix is applied to the matrix data to restore the rotational motion around the optical axis of the omnidirectional camera viewpoint and the translational motion on this plane (XY plane) (this motion with 3 degrees of freedom is called planar motion). Then, using the rotation angle around the optical axis and the coordinate value of the intersection point, the rotational motion around the other axis other than the optical axis is restored, and the inverse matrix of this transformation matrix is applied to the matrix data representing the three-dimensional information. Configure object shape And step (restoration step of planar motion and three-dimensional information) to restore the three-dimensional information that,
A reprojection coordinate value in the uv coordinate system for each feature point is obtained from the plane motion and 3D information obtained in the plane motion and 3D information restoration step, and the reprojected coordinate value and matrix elements constituting matrix decomposition data are obtained. Using this error and the Z coordinate value (component of 3D information) of the feature point obtained in the plane motion and 3D information restoration step, the translational motion of the camera viewpoint in the Z-axis direction is calculated. Restoring (Z-axis translational motion restoring step),
It is determined whether or not the error obtained in the Z-axis translational motion restoration step has converged to a certain value or less. If the error has not converged, the planar motion obtained in the planar motion and three-dimensional information restoration step and 3 Deformation coefficient is obtained from dimensional information and rotational motion around an axis other than the optical axis, and this deformation coefficient is combined with the uv coordinate value of each feature point to obtain a new uv coordinate value, and matrix decomposition using this as a matrix element The method includes generating data, returning to the plane motion and three-dimensional information restoration step, and repeating until the error converges to a certain value or less to restore the omnidirectional camera motion and the three-dimensional information.

請求項3記載の発明は、請求項1記載の全方位カメラ運動と3次元情報の復元方法において、前記計測行列測定ステップにおいて、計測行列を特異値分解して得る特異値成分から運動の自由度を表す判定値を算出し、
判定値がある一定値未満の場合は、カメラ運動が平面運動をしたとみなして、前記全方位カメラ運動と3次元情報を復元するステップにおいて、光軸周りの回転とその光軸に垂直な平面上の運動からなる自由度3の平面運動と3次元情報を復元する処理を行い、
判定値がある一定値以上の場合は、カメラ運動が平面運動以外の一般運動をしたとみなして、前記全方位カメラ運動と3次元情報を復元するステップによって、カメラに関する回転と並進運動からなる自由度6の運動と外界の3次元情報を復元する処理を行なうステップを有する。
The invention according to claim 3 is the omnidirectional camera motion and three-dimensional information restoration method according to claim 1, wherein, in the measurement matrix measurement step, the degree of freedom of motion from the singular value component obtained by singular value decomposition of the measurement matrix. A judgment value representing
When the determination value is less than a certain value, the camera motion is regarded as a plane motion, and in the step of restoring the omnidirectional camera motion and the three-dimensional information, the rotation around the optical axis and the plane perpendicular to the optical axis are performed. Perform 3 degrees of freedom of plane motion consisting of the above motion and processing to restore 3D information,
If the judgment value is greater than a certain value, the camera motion is regarded as a general motion other than a plane motion, and the omnidirectional camera motion and the three-dimensional information are restored, and the free motion consisting of rotation and translational motion about the camera A step of performing a process of restoring the degree 6 motion and the external three-dimensional information.

請求項4記載の発明は、請求項2記載の全方位カメラ運動と3次元情報の復元方法において、前記uv計測行列測定ステップにおいて、計測行列を特異値分解して得る特異値成分から運動を表す判定値を算出し、
判定値がある一定値末満の場合は、カメラ運動が平面運動をしたとみなして、前記全方位カメラ運動と3次元情報を復元するステップにおいて、光軸周りの回転とその光軸に垂直な平面上の運動からなる自由度3の平面運動と3次元情報を復元する処理を行い、
判定値がある一定値以上の場合は、カメラ運動が平面運動以外の一般運動をしたとみなして、前記全方位カメラ運動と3次元情報を復元するステップによって、カメラに関する回転と並進運動からなる自由度6の運動と外界の3次元情報を復元する処理を行なうステップを有する。
According to a fourth aspect of the present invention, in the omnidirectional camera motion and three-dimensional information restoration method according to the second aspect, in the uv measurement matrix measurement step, the motion is expressed from a singular value component obtained by singular value decomposition. Calculate the judgment value,
When the determination value is less than a certain value, the camera motion is considered to be a plane motion, and in the step of restoring the omnidirectional camera motion and the three-dimensional information, the rotation around the optical axis and the direction perpendicular to the optical axis are performed. Perform 3 degrees of freedom of plane motion consisting of motion on a plane and processing to restore 3D information,
If the judgment value is greater than a certain value, the camera motion is regarded as a general motion other than a plane motion, and the omnidirectional camera motion and the three-dimensional information are restored, and the free motion consisting of rotation and translational motion about the camera A step of performing a process of restoring the degree 6 motion and the external three-dimensional information.

請求項5記載の発明は、全方位カメラから取得した時系列の全方位画像(または広視野画像)中において、対象とする画像に配置した特徴点に関する画像座標値の時間的変化量から、時系列における全方位カメラ視点の運動、並びに、外界の物体形状を構成する3次元情報を復元する装置であって、
各画像における特徴点の座標値を測定する特徴点計測部と、
前記特徴点計測部で得た画像座標値をuv画像に変換する計測行列変換部と、
各画像での投影中心付近での交点座標値を求める交点座標計測部と、
uv座標値を行列要素とする行列を初期値として与える計測行列入力部と、
交点座標計測部と計測行列入力部とから供給されたデータから因子分解法によりカメラの運動と外界の3次元情報を復元する因子分解法処理部とを備える。
According to the fifth aspect of the present invention, in the time-series omnidirectional image (or wide-field image) acquired from the omnidirectional camera, the temporal change amount of the image coordinate value regarding the feature point arranged in the target image is A device that restores the movement of the omnidirectional camera viewpoint in the series and the three-dimensional information constituting the object shape of the outside world,
A feature point measurement unit that measures coordinate values of feature points in each image;
A measurement matrix conversion unit that converts the image coordinate values obtained by the feature point measurement unit into a uv image;
An intersection coordinate measurement unit for obtaining an intersection coordinate value near the projection center in each image;
a measurement matrix input unit that gives a matrix having uv coordinate values as matrix elements as an initial value;
A factorization processing unit that restores the motion of the camera and the three-dimensional information of the outside world from the data supplied from the intersection coordinate measurement unit and the measurement matrix input unit by a factorization method;

請求項6記載の発明は、全方位カメラから取得した時系列の全方位画像(または広視野画像)中において、対象とする画像に配置した特徴点に関する画像座標値の時間的変化量から、時系列における全方位カメラ視点の運動、並びに、外界の物体形状を構成する3次元情報を復元する装置であって、
各画像をuv画像に変換する画像変換処理部と、
各画像における特徴点の座標値を測定する特徴点計測部と、
各uv画像での投影中心付近での交点座標値を求める交点座標計測部と、
uv座標値を行列要素とする行列を初期値として与える計測行列入力部と、
交点座標計測部と計測行列入力部とから供給されたデータから因子分解法によりカメラの運動と外界の3次元情報を復元する因子分解法処理部とを備える。
According to the sixth aspect of the present invention, in the time-series omnidirectional image (or wide-field image) acquired from the omnidirectional camera, the temporal change amount of the image coordinate value related to the feature point arranged in the target image is A device that restores the movement of the omnidirectional camera viewpoint in the series and the three-dimensional information constituting the object shape of the outside world,
An image conversion processing unit for converting each image into a uv image;
A feature point measurement unit that measures coordinate values of feature points in each image;
An intersection coordinate measurement unit for obtaining an intersection coordinate value near the projection center in each uv image;
a measurement matrix input unit that gives a matrix having uv coordinate values as matrix elements as an initial value;
A factorization processing unit that restores the motion of the camera and the three-dimensional information of the outside world from the data supplied from the intersection coordinate measurement unit and the measurement matrix input unit by a factorization method;

請求項7記載の発明は、請求項5記載の全方位カメラ運動と3次元情報の復元装置において、前記計測行列変換部から供給されたuv画像を特異値分解して得た特異値成分から運動の自由度を表す判定値を算出する復元処理判定部を備え、
判定値がある一定値未満の場合は、カメラ運動が平面運動をしたとみなして、前記因子分解法処理部は光軸周りの回転とその光軸に垂直な平面上の運動からなる自由度3の平面運動と3次元情報を復元する処理を行い、
判定値がある一定値以上の場合は、カメラ運動が平面運動以外の一般運動をしたとみなして、前記因子分解法処理部はカメラに関する回転と並進運動からなる自由度6の運動と外界の3次元情報を復元する処理を行なう。
According to a seventh aspect of the present invention, in the omnidirectional camera motion and three-dimensional information restoration device according to the fifth aspect, the motion is performed from the singular value component obtained by singular value decomposition of the uv image supplied from the measurement matrix converter. A restoration processing determination unit that calculates a determination value representing the degree of freedom of
When the determination value is less than a certain value, it is considered that the camera motion is a plane motion, and the factorization processing unit has a degree of freedom 3 consisting of a rotation around the optical axis and a motion on a plane perpendicular to the optical axis. To restore the plane motion and 3D information of
If the determination value is equal to or greater than a certain value, it is assumed that the camera motion is a general motion other than a plane motion, and the factorization processing unit performs a motion of 6 degrees of freedom consisting of rotation and translational motion related to the camera and 3 of the external world. A process for restoring the dimension information is performed.

請求項8記載の発明は、請求項6記載の全方位カメラ運動と3次元情報の復元装置において、前記特徴点計測部から供給されたuv画像を特異値分解して得た特異値成分から運動を表す判定値を算出する復元処理判定部を備え、
判定値がある一定値末満の場合は、カメラ運動が平面運動をしたとみなして、前記因子分解法処理部は光軸周りの回転とその光軸に垂直な平面上の運動からなる自由度3の平面運動と3次元情報を復元する処理を行い、
判定値がある一定値以上の場合は、カメラ運動が平面運動以外の一般運動をしたとみなして、前記因子分解法処理部はカメラに関する回転と並進運動からなる自由度6の運動と外界の3次元情報を復元する処理を行なう。
According to an eighth aspect of the present invention, in the omnidirectional camera motion and three-dimensional information restoration device according to the sixth aspect, the motion is performed from a singular value component obtained by singular value decomposition of the uv image supplied from the feature point measurement unit. Including a restoration process determination unit that calculates a determination value representing
When the judgment value is less than a certain value, it is considered that the camera motion is a plane motion, and the factorization processing unit has a degree of freedom comprising a rotation around the optical axis and a motion on a plane perpendicular to the optical axis. 3 to restore the plane motion and 3D information,
If the determination value is equal to or greater than a certain value, it is assumed that the camera motion is a general motion other than a plane motion, and the factorization processing unit performs a motion of 6 degrees of freedom consisting of rotation and translational motion related to the camera and 3 of the external world. A process for restoring the dimension information is performed.

以上の発明において、広視野画像は全方位画像と同義の技術用語である(以下、後述の発明の実施形態においても同じ)。   In the above invention, the wide-field image is a technical term synonymous with the omnidirectional image (hereinafter, the same applies to embodiments of the invention described later).

uv座標値は、外界の3次元座標値を、視点を中心とした球面に投影した座標値において、カメラの進行方向の直交方向成分を高さ方向成分で割った値、およびカメラの進行方向成分を高さ方向成分で割った値を求め、それぞれをu座標およびv座標として得たものである。   The uv coordinate value is a value obtained by dividing a three-dimensional coordinate value of the external world onto a spherical surface centered on the viewpoint, and a value obtained by dividing the orthogonal direction component of the moving direction of the camera by the height direction component, and the moving direction component of the camera Is obtained by dividing the height component by the height direction component, and obtained as the u coordinate and the v coordinate, respectively.

変形係数は、全方位カメラの(視点の)Z軸方向並進運動、および光軸以外の他軸周りの回転運動を、それらに等価なuv座標値の変形で表した場合の変形の度合いを表わす係数である。   The deformation coefficient represents the degree of deformation when the translational motion in the Z-axis direction (of the viewpoint) of the omnidirectional camera and the rotational motion around other axes other than the optical axis are expressed by deformation of the uv coordinate value equivalent to them. It is a coefficient.

尚、本発明の全方位カメラ運動と3次元情報の復元方法及びその装置はコンピュータとプログラムによっても実現でき、プログラムをコンピュータ読み取り可能な記録媒体に記録すること、ネットワークを通して提供することも可能である。前記記録媒体としては、例えばFD(フロッピーデイスク(登録商標))や、MO、ROM、メモリカード、CD、DVD、リムーバルディスク等が挙げられる。   The omnidirectional camera motion and three-dimensional information restoration method and apparatus of the present invention can be realized by a computer and a program, and the program can be recorded on a computer-readable recording medium or provided through a network. . Examples of the recording medium include FD (floppy disk (registered trademark)), MO, ROM, memory card, CD, DVD, and removable disk.

本発明の全方位カメラ運動と3次元情報の復元方法とその装置及びプログラム並びにこれを記録した記録媒体によれば、全方位カメラを用いて取得した時系列画像全般(移動手段を利用して撮影した車載画像、海上画像、空撮画像、屋内画像等)から対象物に関する物体形状を高精度に獲得、復元することが可能となる。また、これまでの測量技術並の高精度な3次元立体視が可能となる。   According to the omnidirectional camera motion and three-dimensional information restoration method, apparatus and program thereof, and the recording medium on which the omnidirectional camera movement of the present invention is recorded, all time-series images acquired using the omnidirectional camera (photographed using moving means) The object shape related to the object can be obtained and restored with high accuracy from the in-vehicle image, the sea image, the aerial image, the indoor image, and the like. In addition, high-accuracy three-dimensional stereoscopic viewing similar to conventional surveying techniques is possible.

特に、車載カメラに適用した場合、そのカメラは車の走行によって振動するが、本発明はこのような事態においても、雑音にロバストに、微小なカメラ姿勢の変動(三軸周り回転運動)、並びにGPSなどのリモートセンサを補間する精度の並進運動を正確に計測することが可能となる。また、本発明で用いられる演算は、その大半が線形演算で構成されているので、コンピュータ言語での実装が容易である。   In particular, when applied to a vehicle-mounted camera, the camera vibrates with the traveling of the car. However, even in such a situation, the present invention is robust against noise, minute camera posture fluctuations (rotation around three axes), and It becomes possible to accurately measure translational motion with accuracy for interpolating a remote sensor such as GPS. In addition, since most of the operations used in the present invention are composed of linear operations, they can be easily implemented in a computer language.

以下、図面を参照しながら本発明の実施の形態について説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

(実施形態1)
図1a及び図1bは請求項1記載の発明を実施する装置の形態例を示した概略構成図である。本実施形態では等距離投影(光軸から入射角に比例した投影)で光学的に設計された魚眼レンズを使用した魚眼カメラ(以下、カメラと略称する場合もある。尚、以降の実施形態では全方位カメラと称す。)について説明する。尚、本発明は、他の投影(立体角投影、等立体角投影)で設計された魚眼レンズを使用した魚眼カメラレンズ撮像装置で取得した時系列画像に対しても適用可能である。
(Embodiment 1)
1a and 1b are schematic configuration diagrams showing an embodiment of an apparatus for carrying out the invention of claim 1. FIG. In the present embodiment, a fish-eye camera (hereinafter referred to as a camera) using a fish-eye lens optically designed by equidistant projection (projection proportional to the incident angle from the optical axis) may be abbreviated as a camera. (Referred to as an omnidirectional camera). Note that the present invention can also be applied to a time-series image acquired by a fisheye camera lens imaging apparatus using a fisheye lens designed by another projection (solid angle projection, equal solid angle projection).

図13を参照しながら、本実施形態で復元する対象の空間中の点P(Xj,Yj,Zj)と、全方位カメラの運動、すなわちロール回転(ωi)、ピッチ回転(φi)、ヨー回転(θi)並びに並進運動Ti(Txi,Tyi,Tzi)について説明する。 Referring to FIG. 13, the point P (X j , Y j , Z j ) in the space to be restored in this embodiment and the movement of the omnidirectional camera, that is, roll rotation (ω i ), pitch rotation (φ i ), yaw rotation (θ i ) and translational movement T i (Tx i , Ty i , Tz i ) will be described.

該図はカメラと対象物(被写体)との位置関係を表しており、説明の都合上、カメラが進行する軸をY軸とする。カメラは並進運動(Txi,Tyi,Tzi)で移動しながら、ロール回転(ωi)、ピッチ回転(φi)、ヨー回転(θi)の回転をする。このとき、カメラ光軸をZ軸方向とする。また、投影中心Cの位置(視点位置Ti)は運動の中心であり、第iフレームでの並進運動をTi(Txi,Tyi,Tzi)の位置とする。さらに、進行軸周りの回転をロール回転(Y軸周りの回転)、カメラ光軸周りの回転をヨー回転(Z軸周りの回転)、カメラ光軸と進行軸で張られる面の法線周りの回転をピッチ回転(X軸周りの回転)とする。一方、空間中の点点P(Xj,Yj,Zj)は、イメージサークル内の画像面において画像座標値(xij,yij)へ投影されるとする。式(1)は等距離投影と呼ばれる光学的投影であり、図13に示された位相角ρijは、画像座標値(xij,yij)から式(2)に演算によって得ることができる。式(1)において、fは魚眼レンズの焦点距離であり、DはD=πf/(2R)で決まる定数である。但し、Rは図13に示すイメージサークルの半径である。また、図13では画像面での投影中心Cの画像座標値を(Cx,Cy)としている。 This figure shows the positional relationship between the camera and the object (subject). For convenience of explanation, the axis along which the camera travels is the Y axis. The camera rotates by roll rotation (ω i ), pitch rotation (φ i ), and yaw rotation (θ i ) while moving by translational motion (Tx i , Ty i , Tz i ). At this time, the camera optical axis is the Z-axis direction. The position of the projection center C (viewpoint position T i ) is the center of motion, and the translational motion in the i-th frame is the position of Ti (Tx i , Ty i , Tz i ). Furthermore, the rotation around the traveling axis is roll rotation (rotating around the Y axis), the rotation around the camera optical axis is the yaw rotation (rotating around the Z axis), and around the normal of the surface stretched between the camera optical axis and the traveling axis. The rotation is referred to as pitch rotation (rotation around the X axis). On the other hand, the point P (X j , Y j , Z j ) in the space is projected onto the image coordinate value (x ij , y ij ) on the image plane in the image circle. Expression (1) is an optical projection called equidistant projection, and the phase angle ρ ij shown in FIG. 13 can be obtained by calculation from the image coordinate values (x ij , y ij ) to Expression (2). . In equation (1), f is the focal length of the fisheye lens, and D is a constant determined by D = πf / (2R). Here, R is the radius of the image circle shown in FIG. In FIG. 13, the image coordinate value of the projection center C on the image plane is (C x , C y ).

Figure 2005063012
Figure 2005063012

Figure 2005063012
Figure 2005063012

図1aに示された復元装置は、全方位画像を蓄積した時系列データベース10と、各画像における特徴点の座標値を測定する特徴点計測部11と、この計測部11で得た画像座標値をuv画像に変換する計測行列変換部12と、各画像での投影中心付近での交点座標値を求める交点座標計測部13と、uv座標値を行列要素とする行列を初期値として与える計測行列入力部14と、これらの入力データから因子分解法によりカメラの運動と外界の3次元情報を復元する因子分解法処理部15とを備える。尚、時系列画像データベース10には、ハードディスク、RAID装置、CD−ROM等の記録媒体を利用するか、またはネットワークを介したリモートなデータ資源を利用する形態でもどちらでもよい。   The restoration device shown in FIG. 1a includes a time-series database 10 in which omnidirectional images are accumulated, a feature point measurement unit 11 that measures coordinate values of feature points in each image, and image coordinate values obtained by the measurement unit 11 Is a measurement matrix conversion unit 12 that converts a uv image into a uv image, an intersection coordinate measurement unit 13 that obtains an intersection coordinate value near the projection center in each image, and a measurement matrix that provides a matrix having uv coordinate values as matrix elements as initial values An input unit 14 and a factorization method processing unit 15 that restores camera motion and three-dimensional information of the external world from these input data by a factorization method are provided. The time-series image database 10 may use a recording medium such as a hard disk, a RAID device, a CD-ROM, or a remote data resource via a network.

また、図1bはリアルタイムで処理する場合の復元装置の形態例を示した概略構成図である。当該復元装置は時系列画像データベース10に代えてデータ画像入力部16を備えている。したがって、本実施形態の復元装置は必ずしも各データベース部等の記憶手段を必要としない。   FIG. 1b is a schematic configuration diagram showing an example of a restoration device in the case of processing in real time. The restoration apparatus includes a data image input unit 16 instead of the time-series image database 10. Therefore, the restoration apparatus of this embodiment does not necessarily require storage means such as each database unit.

以下、本実施形態の各構成部について説明する。   Hereinafter, each component of the present embodiment will be described.

特徴点計測部11は、景観を撮影した全方位画像を時系列画像データベース10から取り出し、全方位画面上に特徴点を設定する。この特徴点設定には、濃淡の1次元的または2次元的変化による勾配値が大きくなる画素を検出(エッジ検出等)、Cannyオペレータ、ハフ変換等の画像処理手法により特徴点を自動的に発生させている。また、作業者が介在して適当に特徴点をマークするなどして初期画像上に特徴点を配置してもかまわない。このとき、配置する特徴点の数をP個(j=1,2,…,P)とし、配置したときの特徴点の2次元座標値として、図13での画像座標系での原点からの座標値(x1j,y1j),j=1,2,…,Pを記録しておく。次に、初期画像に続く時系列画像をデータベース10から1枚ずつ読み込み、初期画像に配置した特徴点を、時系列画像間の濃淡の変化に着目した手法、特徴点を中心とした画素パターンを各フレーム間で追跡する方法(例えばKLT(Kanade−Lucas−Tomasi)法)または全方位画像特有の投影歪みを考慮した手法を駆使して追跡し、各時系列画像(初期画像から第i番目の画像)の特徴点を画像座標値として図13での画像座標系での原点からの2次元座標値(xij,yij)記録する。また、時系列画像を読み続けた場合、特徴点が画像間で消失やオクルージョンにより消失してしまったときは追跡を停止し、特徴点追跡を終了する。特徴点追跡が終了した時点で、読み出した時系列画像の数は初期画像を含めてF枚とする(i=1,2,…,F)。特徴点計測部11では各時系列画像における特徴点の時間的な画像座標的配置の変化量は式(3)のデータ形式に配置して計測行列[A]を保持しておく。 The feature point measurement unit 11 takes out an omnidirectional image capturing a landscape from the time-series image database 10 and sets a feature point on the omnidirectional screen. For this feature point setting, pixels with a large gradient value due to a one-dimensional or two-dimensional change in shading are detected (edge detection, etc.), and feature points are automatically generated by image processing techniques such as Canny operator and Hough transform. I am letting. Further, the feature points may be arranged on the initial image by appropriately marking the feature points with an operator intervening. At this time, the number of feature points to be arranged is P (j = 1, 2,..., P), and the two-dimensional coordinate values of the feature points at the time of placement from the origin in the image coordinate system in FIG. Coordinate values (x 1j , y 1j ), j = 1, 2,..., P are recorded. Next, a time series image following the initial image is read from the database 10 one by one, and feature points arranged in the initial image are converted to a method that focuses on a change in shading between the time series images, and a pixel pattern centered on the feature points. Tracking is performed by using a method of tracking between frames (for example, KLT (Kanade-Lucas-Tomasi) method) or a method considering projection distortion peculiar to an omnidirectional image, and each time series image (i-th image from the initial image). The two-dimensional coordinate values (x ij , y ij ) from the origin in the image coordinate system in FIG. 13 are recorded as image coordinate feature points as image coordinate values. Further, when the time series image is continuously read, if the feature point is lost between images due to disappearance or occlusion, the tracking is stopped and the feature point tracking is ended. When the feature point tracking is completed, the number of time-series images read out is F including the initial image (i = 1, 2,..., F). The feature point measurement unit 11 stores the measurement matrix [A] by arranging the amount of change in the temporal image coordinate arrangement of the feature points in each time-series image in the data format of Expression (3).

Figure 2005063012
Figure 2005063012

計測行列変換部12は、特徴点計測部11で取得した画像座標値を要素とする計測行列[A]から第iフレームおける第j番目の特徴点の画像座標値(xij,yij)を取り出す。さらに、投影中心(Cx,Cy)を原点とした相対的な画像座標値に一時変換し、式(1)及び(2)の演算によって位相角ρijと仰角φijを求める。この位相角と仰角を式(4)による演算に供して座標変換し、uv座標値(uij,vij)を得ている。この変換はこの全フレーム、全特徴点に対して行なわれる。尚、変換後のデータ形式として、式(5a)に示す要素形式の行列[B]は計測行列入力部14において初期値として保持される。 The measurement matrix conversion unit 12 obtains the image coordinate values (x ij , y ij ) of the j-th feature point in the i-th frame from the measurement matrix [A] having the image coordinate values acquired by the feature point measurement unit 11 as elements. Take out. Further, the phase angle ρ ij and the elevation angle φ ij are obtained by temporarily converting into relative image coordinate values with the projection center (C x , C y ) as the origin, and by the calculations of equations (1) and (2). The phase angle and the elevation angle are subjected to coordinate conversion by calculation according to Equation (4) to obtain uv coordinate values (u ij , v ij ). This conversion is performed for all frames and all feature points. As a data format after conversion, the matrix [B] in the element format shown in Expression (5a) is held as an initial value in the measurement matrix input unit 14.

Figure 2005063012
Figure 2005063012

Figure 2005063012
Figure 2005063012

前記得られたu座標値及びv座標値は、外界の3次元座標値(X,Y,Z)を、視点Tiを中心とした球面に投影した座標値において、それぞれ、カメラの進行方向の直行方向成分を高さ方向成分で割った値、及びカメラの進行方向成分を高さ方向成分で割った値に相当する。すなわち、外界の3次元座標値(X,Y,Z)を、視点Tiを中心とした半径lの球面に投影すると、(X’,Y’,Z’)=(cos(φ)cos(ρ),cos(φ)sin(ρ),sin(φ))と表される(図13参照)。uv座標値はこの単位球面座標値(X’,Y’,Z’)から(u,v)=(X’/Z’,Y’/Z’)=(cot(φ)cos(ρ),cot(φ)sin(ρ))で算出される。尚、一般的な球面座標系では、図13においてZ軸から測った角φ’を用いて座標を定義するため、(X’,Y’,Z’)=(sin(φ’)cos(ρ),sin(φ’)sin(ρ),cos(φ’))と表せる。   The obtained u-coordinate value and v-coordinate value are orthogonal to each other in the advancing direction of the camera in the coordinate values obtained by projecting the three-dimensional coordinate values (X, Y, Z) of the external world onto the spherical surface with the viewpoint Ti as the center. This corresponds to a value obtained by dividing the direction component by the height direction component and a value obtained by dividing the moving direction component of the camera by the height direction component. That is, when the three-dimensional coordinate value (X, Y, Z) of the outside world is projected onto a spherical surface having a radius l centered on the viewpoint Ti, (X ′, Y ′, Z ′) = (cos (φ) cos (ρ ), Cos (φ) sin (ρ), sin (φ)) (see FIG. 13). The uv coordinate value is calculated from the unit spherical coordinate value (X ′, Y ′, Z ′) to (u, v) = (X ′ / Z ′, Y ′ / Z ′) = (cot (φ) cos (ρ), cot (φ) sin (ρ)). In the general spherical coordinate system, since the coordinates are defined using the angle φ ′ measured from the Z axis in FIG. 13, (X ′, Y ′, Z ′) = (sin (φ ′) cos (ρ ), Sin (φ ′) sin (ρ), cos (φ ′)).

これに対して本実施形態では、図13での視点から3次元座標値(X,Y,Z)を見上げたときの仰角φを用いて座標を定義しているため、φ’=π/2−φであり、(sin(π/2−φ)cos(ρ),sin(π/2−φ)sin(ρ),cos(π/2−φ))=(cos(φ)cos(ρ),cos(φ)sin(ρ),sin(φ))と表される。   On the other hand, in this embodiment, since the coordinates are defined using the elevation angle φ when looking up the three-dimensional coordinate value (X, Y, Z) from the viewpoint in FIG. 13, φ ′ = π / 2. −φ and (sin (π / 2−φ) cos (ρ), sin (π / 2−φ) sin (ρ), cos (π / 2−φ)) = (cos (φ) cos (ρ ), Cos (φ) sin (ρ), sin (φ)).

図12a(1)(2)(3)に全方位カメラが撮像した画像の例を示す。該図においてa(1)は全方位カメラが撮像した画像の例で対象物に輪郭線を付したものを、a(2)は全方位カメラが撮像した画像の例で対象物の輪郭線のみを示したものを、a(3)は全方位カメラが撮像した画像の例で対象物の輪郭線を付してないものである。   FIGS. 12a (1), (2), and (3) show examples of images taken by the omnidirectional camera. In the figure, a (1) is an example of an image taken by an omnidirectional camera and an object is attached with an outline, and a (2) is an example of an image taken by an omnidirectional camera and only the outline of the object. A (3) is an example of an image captured by an omnidirectional camera and does not have a contour line of an object.

また、図12b(1)(2)(3)は図12a(1)の画像を図5に開示した処理フローに従ってuv座標値に変換し、図6に示したuv画像を生成した例を示したものである。図12においてb(1)は全方位カメラが撮像した画像をuv座標変換して得た画像の例で対象物に輪郭線を付したものを、b(2)は全方位カメラが撮像した画像をuv座標変換して得た画像の例で対象物の輪郭線のみを示したものを、b(3)は全方位カメラが撮像した画像をuv座標変換して得た画像の例で対象物の輪郭線を付してないものである。   FIGS. 12 b (1), (2), and (3) show examples in which the image of FIG. 12 a (1) is converted into uv coordinate values according to the processing flow disclosed in FIG. 5 and the uv image shown in FIG. 6 is generated. It is a thing. In FIG. 12, b (1) is an example of an image obtained by uv coordinate conversion of an image captured by an omnidirectional camera, and an object is attached with a contour line, and b (2) is an image captured by an omnidirectional camera. B (3) is an example of an image obtained by performing uv coordinate conversion on an image captured by an omnidirectional camera. The outline is not attached.

図12b(1)(2)(3)から明らかなように、本座標変換では、仰角φが小さい特徴点(建物の底辺に近い点)ほどv軸から遠ざかる点に測定誤差が強調されて変換される。すなわち、同じ操作により特徴点を測定した場合、xy平面上ではわかりずらい誤差などがuv平面ではより正確に把握できるようになる。したがって、この強調された誤差が最小となるようにカメラ視点の運動及び3次元座標値を求めれば、高精度な計測が可能となる。   As is clear from FIGS. 12 b (1), (2), and (3), in this coordinate conversion, the measurement error is emphasized at a point farther from the v-axis as the feature point (point closer to the bottom of the building) with a smaller elevation angle φ is converted. Is done. That is, when feature points are measured by the same operation, errors that are difficult to understand on the xy plane can be grasped more accurately on the uv plane. Therefore, if the movement of the camera viewpoint and the three-dimensional coordinate value are obtained so that the emphasized error is minimized, highly accurate measurement can be performed.

また、uv平面において、ロール回転運動はv方向の座標移動、ピッチ回転運動はu方向の座標移動、Z軸並進運動はuv座標軸系におけるスケール変換に簡略的に換算できるため、xy平面よりもロール回転、ピッチ回転、Z軸並進運動の判別が容易となる。この判別の容易性を利用して、本実施形態では反復的に変形係数を使ってuv座標値を変形させて、繰り返しカメラ運動と3次元座標値の復元を続けることで、より高精度なカメラ運動と3次元座標値を復元することが可能となっている。   Further, in the uv plane, the roll rotation movement can be converted into the coordinate movement in the v direction, the pitch rotation movement can be converted into the coordinate movement in the u direction, and the Z-axis translation movement can be simply converted into scale conversion in the uv coordinate axis system. The rotation, pitch rotation, and Z-axis translation can be easily distinguished. By utilizing this ease of discrimination, in this embodiment, the uv coordinate value is repeatedly deformed using a deformation coefficient, and the camera motion and the three-dimensional coordinate value are continuously restored, so that a more accurate camera can be obtained. It is possible to restore motion and three-dimensional coordinate values.

交点座標計測部13は、特徴点計測部11で使った画像において、線分を検出しその線分上の直線が投影中心付近で交差する座標(交点座標)を計測する。   The intersection coordinate measurement unit 13 detects a line segment in the image used in the feature point measurement unit 11, and measures coordinates (intersection coordinate) at which a straight line on the line segment intersects in the vicinity of the projection center.

交点座標について図3を参照しながら説明する。図13のように、全方位カメラを天空方向または天井方向に向けて撮影した場合、垂直線分、例えば屋内では壁など高さ方向の線分、屋外では建物の高さ方向の線分を伸ばすと、図13に示すような交点で交わるという性質がある。つまり、無限大の高さを有する点は1点であり、この点を交点座標として画像から求めている。ここでは、交点座標を画像中において建物の高さ方向の線分(垂直線分)を検出して求める。線分検出には、ハフ変換やCannyオペレータなどの画像処理手法により求める。このような処理により各線分に関する直線パレメータを得ている。直線パラメータは直線の傾きaiと切片biであり、式(6a)に示した演算によって交点座標値(Dx,Dy)を得ている。あるいは、作業者が直線上の点を指定して求めてもよい。 The intersection coordinates will be described with reference to FIG. As shown in FIG. 13, when an omnidirectional camera is photographed in the sky direction or ceiling direction, a vertical line segment, for example, a line segment in the height direction such as a wall indoors, or a line segment in the height direction of the building outdoors is stretched. And have the property of intersecting at intersections as shown in FIG. That is, there is one point having an infinite height, and this point is obtained from the image as an intersection coordinate. Here, the intersection coordinates are obtained by detecting a line segment (vertical line segment) in the height direction of the building in the image. The line segment is detected by an image processing method such as a Hough transform or a Canny operator. A straight line parameter relating to each line segment is obtained by such processing. The straight line parameters are the straight line slope a i and the intercept b i , and the intersection coordinate values (D x , D y ) are obtained by the calculation shown in the equation (6a). Alternatively, the operator may specify and obtain a point on a straight line.

Figure 2005063012
Figure 2005063012

図3には直線l12上のペア:p1(x1,y1)とp2(x2,y2)、直線l34上のペア:p3(x3,y3)とp4(x4,y4)、直線l56上のペア:p5(x5,y5)とp6(x6,y6)、直線l78上のペア:p7(x7,y7)とp8(x8,y8)としている。各点の座標値から式(6b)の演算によって交点座標値(Dx,Dy)を算出する。さらに、式(6c)の演算によって、交点座標値(Dx,Dy)にD/fを乗じた値を交点座標値としている。尚、交点座標を算出するには最低2本の直線で十分であるが、多くの垂直直線を検出することで、より正確な交点座標を算出できることができる。この交点座標を全フレームにわたり求めて、各フレームでの交点座標値(ζi,ηi),i=1,2,…,Fを保持する。 FIG. 3 shows a pair on a straight line l 12 : p 1 (x 1 , y 1 ) and p 2 (x 2 , y 2 ), and a pair on a straight line l 34 : p 3 (x 3 , y 3 ) and p 4 (X 4 , y 4 ), pair on line l 56 : p 5 (x 5 , y 5 ) and p 6 (x 6 , y 6 ), pair on line l 78 : p 7 (x 7 , y 7 ) And p 8 (x 8 , y 8 ). The intersection coordinate value (D x , D y ) is calculated from the coordinate value of each point by the calculation of equation (6b). Furthermore, a value obtained by multiplying the intersection coordinate value (D x , D y ) by D / f by the calculation of Expression (6c) is set as the intersection coordinate value. Note that at least two straight lines are sufficient to calculate the intersection coordinates, but more accurate intersection coordinates can be calculated by detecting many vertical straight lines. The intersection coordinates are obtained over all frames, and the intersection coordinate values (ζ i , η i ), i = 1, 2,.

Figure 2005063012
Figure 2005063012

Figure 2005063012
Figure 2005063012

次に、因子分解法処理部15の処理概要について説明する。図2は当該処理工程を説明したフローチャートである。計測行列入力部14から計測行列データが、また交点座標計測部13から交点座標値が供されると、先ず、係数εij,δijを式(5b)のように初期化し、初期値の行列[B]と交点座標値から式(5c)に示すデータを求めておき、これを改めて行列[B]として保持しておく(ステップ101)。このとき、計測行列入力部14に保持してある処理値の行列[B]は上書きせず、本処理工程(図2)が終了するまでに保持しておく。この行列[B]が分解行列データとなる。 Next, the processing outline of the factorization method processing unit 15 will be described. FIG. 2 is a flowchart illustrating the processing steps. When the measurement matrix data is provided from the measurement matrix input unit 14 and the intersection coordinate values are provided from the intersection coordinate measurement unit 13, first, the coefficients ε ij and δ ij are initialized as shown in the equation (5b), and a matrix of initial values is obtained. Data shown in the equation (5c) is obtained from [B] and the intersection coordinate value, and this is held again as a matrix [B] (step 101). At this time, the matrix [B] of the processing values held in the measurement matrix input unit 14 is not overwritten and is held until this processing step (FIG. 2) is completed. This matrix [B] becomes decomposition matrix data.

Figure 2005063012
Figure 2005063012

Figure 2005063012
Figure 2005063012

前記行列[B]は特異値分解(ステップ102)に供されて式(7)に示す3つの行列[U]、[W]、[V]に行列分解される。ここで、[U]は2F×Pサイズの行列、[W]はP×Pサイズの対角行列、[V]はP×Pサイズの行列である。   The matrix [B] is subjected to singular value decomposition (step 102) to be decomposed into three matrices [U], [W], and [V] shown in Expression (7). Here, [U] is a 2F × P size matrix, [W] is a P × P size diagonal matrix, and [V] is a P × P size matrix.

Figure 2005063012
Figure 2005063012

さらに、雑音除去(ステップ103)において、式(8)の第二項に示すように、ランク4以上の各行列の成分を削除する。この削除のときは、行列[U]を取り出し、この行列の要素において第4から第P列目までを削除し、残りの成分からなる行列を保持し、行列[W]を取り出し、この行列の要素において第4から第P行目並びに第4から第P列目までを削除し、残りの成分からなる行列を保持し、行列[V]を取り出し、この行列の要素において第4から第P行目までを削除し、残りの成分からなる行列をそれぞれ保持する(式(9))。次に、第4から第P行目並びに第4から第P列目までを削除した行列[W]の対角要素の平方をとった行列から、式(10)及び式(ll)に示す行列[U’]と行列[V’]を得る。   Further, in noise removal (step 103), as shown in the second term of equation (8), the components of each matrix of rank 4 or higher are deleted. At the time of this deletion, the matrix [U] is taken out, the fourth to Pth columns are deleted from the elements of this matrix, the matrix consisting of the remaining components is held, the matrix [W] is taken out, The fourth to Pth rows and the fourth to Pth columns are deleted in the element, the matrix composed of the remaining components is retained, the matrix [V] is extracted, and the fourth to Pth rows are extracted from the elements of this matrix. Delete up to the eye and hold the matrix composed of the remaining components (Equation (9)). Next, from the matrix obtained by taking the square of the diagonal elements of the matrix [W] from which the 4th to Pth rows and the 4th to Pth columns are deleted, the matrices shown in Expression (10) and Expression (ll) [U ′] and matrix [V ′] are obtained.

Figure 2005063012
Figure 2005063012

Figure 2005063012
Figure 2005063012

Figure 2005063012
Figure 2005063012

Figure 2005063012
Figure 2005063012

次いで、変換行列算出(ステップ104)では、保持してある行列[U’]を取り出し、式(13)〜式(15)に示す連立する条件式における対称行列[C](式(12)で表されている)の各要素にかかる係数を計算する。これらの係数計算は、行列演算により容易に得られるものであり、この条件式を全フレームに対して計算する。次に、全フレームの式(13)〜(15)に示す連立する条件式に対して、最小二乗法などの数値計算を利用して3×3サイズの行列[C]の各要素を決定する。さらに、求めた行列[C]を式(16)に示すように固有値分解する。ここで、固有値行列の平方と固有値行列から、式(17)の行列[C’]を生成し、この行列要素を成分にもつ行列[Q]を式(18)に従って算出する。   Next, in the transformation matrix calculation (step 104), the held matrix [U ′] is taken out, and the symmetric matrix [C] in the simultaneous conditional expressions shown in Expressions (13) to (15) (Expression (12)). Calculate the coefficients for each element (shown). These coefficient calculations are easily obtained by matrix operation, and this conditional expression is calculated for all frames. Next, each element of the 3 × 3 size matrix [C] is determined using numerical calculation such as the least square method with respect to the simultaneous conditional expressions shown in Expressions (13) to (15) of all frames. . Further, the obtained matrix [C] is subjected to eigenvalue decomposition as shown in Expression (16). Here, a matrix [C ′] of Expression (17) is generated from the square of the eigenvalue matrix and the eigenvalue matrix, and a matrix [Q] having this matrix element as a component is calculated according to Expression (18).

Figure 2005063012
Figure 2005063012

Figure 2005063012
Figure 2005063012

Figure 2005063012
Figure 2005063012

Figure 2005063012
Figure 2005063012

Figure 2005063012
Figure 2005063012

Figure 2005063012
Figure 2005063012

Figure 2005063012
Figure 2005063012

続いて、求めた行列[Q]と、保持しておいた行列[U’]から、式(19)の行列演算により行列[M’]を計算する。   Subsequently, the matrix [M ′] is calculated from the obtained matrix [Q] and the stored matrix [U ′] by the matrix operation of Expression (19).

そして、行列[M’]から各フレーム(第iフレーム)の行列要素(mix,nix)または(miy,niy)を取り出し、式(20)を使って、ヨー回転θiを復元する。行列[M’]から各フレーム(第iフレーム)の交点座標(ζi,ηi)から式(21)を使ってピッチ回転ψiとロール回転ωiを復元する。以上がステップ106である。また、行列[M’]から各フレーム(第iフレーム)の行列要素(Tiu,Tiv)を取り出す。この(Tiu、Tiv)から、式(22)を使って第iフレームにおけるユークリッド空間でのXY並進運動(Txi,Tyi)を計算する(ステップ105)。さらに、式(25)(26)に示す誤差を計算する。 Then, the matrix element (m ix , n ix ) or (m iy , n iy ) of each frame (i-th frame) is extracted from the matrix [M ′], and the yaw rotation θ i is restored using equation (20). To do. The pitch rotation ψi and the roll rotation ωi are restored from the matrix [M ′] using the equation (21) from the intersection coordinates (ζ i , η i ) of each frame (i-th frame). The above is step 106. Further, the matrix element (T iu , T iv ) of each frame (i-th frame) is extracted from the matrix [M ′]. From this (T iu , T iv ), the XY translational motion (Tx i , Ty i ) in the Euclidean space in the i-th frame is calculated using equation (22) (step 105). Further, the error shown in equations (25) and (26) is calculated.

次に、式(27)の計算を行い、各フレーム(第iフレーム)でのZ軸の並進運動Tziを復元する(ステップ108)。 Next, the calculation of equation (27), to restore the translation Tz i of Z-axis in each frame (i-th frame) (step 108).

Figure 2005063012
Figure 2005063012

Figure 2005063012
Figure 2005063012

Figure 2005063012
Figure 2005063012

Figure 2005063012
Figure 2005063012

Figure 2005063012
Figure 2005063012

Figure 2005063012
Figure 2005063012

Figure 2005063012
Figure 2005063012

Figure 2005063012
Figure 2005063012

Figure 2005063012
Figure 2005063012

一方、先に保持しておいた行列[V’]と、変換行列算出で得られた行列[Q]から、式(23)に示す行列演算を行い、行列[S’]を求める、次に、行列[S’]の要素に対して、式(24)に示す変換を行い、これを要素とする行列を[P]とする(ステップ107)。行列[P]の列ベクトルは、それぞれ第j番目の特徴点のユークリッド空間での3次元座標値(Xj,Yj,Zj)になっている。 On the other hand, the matrix operation shown in Expression (23) is performed from the previously held matrix [V ′] and the matrix [Q] obtained by the conversion matrix calculation to obtain the matrix [S ′]. Then, the transformation shown in the equation (24) is performed on the elements of the matrix [S ′], and the matrix having this as an element is set to [P] (step 107). Each column vector of the matrix [P] is a three-dimensional coordinate value (X j , Y j , Z j ) in the Euclidean space of the j-th feature point.

ここで、式(25)(28)(28a)で得られる誤差ΔWを算出する(ステップ109)。この誤差が、ある一定値以下に収束している(yes)場合は処理を終了する。一方、収束していない(no)場合は、式(29)に従って変形係数εij,δijを更新する(ステップ111,112)。さらに、この変形係数εij,δijの更新に伴い式(5c)により行列分解データとなる行列[B]を更新する。これを誤差ΔWが一定定値以下に収束するまで反復を繰り返す(図2に示された記号A)。 Here, the error ΔW obtained by the equations (25), (28) and (28a) is calculated (step 109). If this error has converged below a certain value (yes), the process is terminated. On the other hand, if it has not converged (no), the deformation coefficients ε ij and δ ij are updated according to the equation (29) (steps 111 and 112). Further, with the update of the deformation coefficients ε ij and δ ij , the matrix [B] serving as the matrix decomposition data is updated by the equation (5c). This is repeated until the error ΔW converges below a certain constant value (symbol A shown in FIG. 2).

Figure 2005063012
Figure 2005063012

Figure 2005063012
Figure 2005063012

Figure 2005063012
Figure 2005063012

尚、変形係数εij、δijは、全方位カメラの(視点の)。Z軸方向の並進運動、および光軸以外の他軸周りの回転運動ωi、ψiを、それらに等価なuv座標値の変形で表した場合の変形の度合いを表わす係数である。本実施形態では、平面運動と3次元情報の復元ステップで得たカメラ視点のXY並進成分(Txi,Tyi)と3次元情報(Xj,Yj,Zj)、並びに、光軸以外のXY軸周りの回転角(ωi、ψi)を使って、uV座標値を変形させる係数(ε係数;式(29)のεij)を求めると共に、平面運動と3次元情報の復元ステップで得た各特徴点の高さ情報(Zj)と前記Z軸並進運動を復元するステップで得た各視点のZ軸上の位置(Tzi)を使って、uv座標値をスケール変換する係数(δ係数;式(29)のδij)を求めている。そして、ε係数を前記計測行列の測定ステップで得た計測行列(式(5a)の[B])の各行列要素にそれぞれ掛け合わせて得た値と、計測行列測定ステップで得た計測行列の各行列要素から交点座標値(ζ、η)を差し引いた各座標値にδ係数をそれぞれ掛け合わせて得た値を合わせた新たな行列要素とする行列分解データ(式(5c)の[B])を生成している。 The deformation coefficients ε ij and δ ij are those of the omnidirectional camera (from the viewpoint). This is a coefficient representing the degree of deformation when the translational motion in the Z-axis direction and the rotational motions ωi, ψi around other axes other than the optical axis are represented by deformations of uv coordinate values equivalent to them. In this embodiment, the XY translation components (Txi, Tyi) and the three-dimensional information (Xj, Yj, Zj) of the camera viewpoint obtained in the plane motion and the three-dimensional information restoration step, and the XY axes around the XY axes other than the optical axis. Using the rotation angle (ωi, ψi), a coefficient (ε coefficient; ε ij in equation (29)) for deforming the uV coordinate value is obtained, and each feature point obtained in the plane motion and three-dimensional information restoration step is calculated. A coefficient for converting the uv coordinate value (δ coefficient; equation (29)) using the height information (Zj) and the position (Tzi) of each viewpoint on the Z axis obtained in the step of restoring the Z-axis translational motion. Δ ij ). Then, the value obtained by multiplying each matrix element of the measurement matrix ([B] in equation (5a)) obtained in the measurement matrix measurement step by the ε coefficient and the measurement matrix obtained in the measurement matrix measurement step Matrix decomposition data ([B] in equation (5c)) that is a new matrix element obtained by combining each coordinate value obtained by subtracting the intersection coordinate value (ζ, η) from each matrix element and the value obtained by multiplying the respective δ coefficients. ) Is generated.

以上のように、本実施形態の復元装置によれば、全方位映像の特徴点の時間的動きから、全方位カメラ視点の運動、すなわち、三軸周りの回転と三軸方向の並進運動、並びに、物体形状を構成する3次元情報を復元することができる。   As described above, according to the restoration device of the present embodiment, from the temporal movement of the feature point of the omnidirectional video, the movement of the omnidirectional camera viewpoint, that is, the rotation around the three axes and the translational movement in the three axial directions, The three-dimensional information constituting the object shape can be restored.

(実施形態2)
図4aは請求項2の発明を実施する装置の形態例を示した概略構成図である。本実施形態の復元装置は、実施形態1の復元装置において画像変換処理部21を備えている。ここでは、時系列画像データベース10から取り出した画像を画像変換処理部21に供して変形画像(uv画像)を生成する点、並びに、このuv画像において交点座標を測定する点が実施形態1の復元装置と異なるため、この点だけについて説明する。
(Embodiment 2)
FIG. 4A is a schematic configuration diagram showing an example of an apparatus for carrying out the invention of claim 2. The restoration device according to the present embodiment includes an image conversion processing unit 21 in the restoration device according to the first embodiment. Here, the point that the image taken out from the time-series image database 10 is used for the image conversion processing unit 21 to generate a deformed image (uv image), and the point at which the intersection coordinates are measured in this uv image is the restoration of the first embodiment. Since this is different from the apparatus, only this point will be described.

図示された復元装置は、全方位画像を蓄積した時系列画像データベース10と、各画像をuv画像に変換する画像変換処理部21と、各画像における特徴点の座標値を測定する特徴点計測部11と、各uv画像での投影中心付近での交点座標値を求める交点座標計測部13と、uv座標値を行列要素とする行列を初期値として与える計測行列入力部14と、これら入カデータから因子分解法によりカメラの運動と外界の3次元情報を復元する因子分解法処理部15とを備える。尚、実施形態1と同様に時系列画像データベース10には、ハードディスク、RAID装置、CD−ROMなどの記録媒体を利用する、または、ネットワークを介したリモートなデータ資源を利用する形態でもどちらでも構わない。   The illustrated restoration device includes a time-series image database 10 in which omnidirectional images are accumulated, an image conversion processing unit 21 that converts each image into a uv image, and a feature point measurement unit that measures coordinate values of feature points in each image. 11, an intersection coordinate measurement unit 13 that obtains an intersection coordinate value near the projection center in each uv image, a measurement matrix input unit 14 that provides a matrix having uv coordinate values as matrix elements as initial values, and input data A factorization method processing unit 15 is provided that restores camera motion and three-dimensional information of the outside world by a factorization method. As in the first embodiment, the time-series image database 10 may be a recording medium such as a hard disk, a RAID device, a CD-ROM, or a remote data resource via a network. Absent.

また、図4bはリアルタイムで処理する場合の処理構成を示したもので、時系列画像データベース10に代えて画像入力部16を備えている。したがって、本実施形態の復元装置は必ずしも各データベース部等の記憶手段を必要としない。   FIG. 4B shows a processing configuration for processing in real time, and includes an image input unit 16 instead of the time-series image database 10. Therefore, the restoration apparatus of this embodiment does not necessarily require storage means such as each database unit.

本実施形態では、画像変換処理部21が時系列画像データベース10から取り出した画像からuv画像を生成する。画像変換処理部21は、uv画像を生成するのに、uv座標値を指定して、これに該当するxy座標値を算出し、その座標値の画素値を抽出してuv画素としている(図6)。   In the present embodiment, the image conversion processing unit 21 generates a uv image from the image extracted from the time-series image database 10. In order to generate a uv image, the image conversion processing unit 21 designates a uv coordinate value, calculates an xy coordinate value corresponding to this, extracts a pixel value of the coordinate value, and uses it as a uv pixel (see FIG. 6).

図5はこの処理工程をフローチャートで示したものである。先ず、uv画像におけるu方向、v方向の単位画素あたりの重み付けを行う。uv画像の画像サイズをU×V画素とし、並びに、仰角φについてφmin≦φ≦90度の範囲と決めたとする(ステップ201,202)。これにより、u方向、v方向の単位画素あたりの重み付けが式(30)に従い決定する。 FIG. 5 is a flowchart showing this processing step. First, weighting per unit pixel in the u direction and v direction in the uv image is performed. Assume that the image size of the uv image is U × V pixels, and that the elevation angle φ is determined to be in a range of φ min ≦ φ ≦ 90 degrees (steps 201 and 202). Thereby, the weighting per unit pixel in the u direction and the v direction is determined according to the equation (30).

Figure 2005063012
Figure 2005063012

また、uv画像のuv座標値範囲は画像の中心を原点(0,0)として、u方向に−U/2から+U/2,v方向に−V/2から+V/2とする。そして、u方向、v方向の各座標値を表す整数m,n(−M’≦m≦M、−N≦n≦N,M:整数、N:整数、MとNは同じ、すなわちuv画像が正方形でもよい)を使って、uv座標値を式(31)の演算によって得る(ステップ203)。   Further, the uv coordinate value range of the uv image is set from the center of the image to the origin (0, 0), from −U / 2 to + U / 2 in the u direction, and from −V / 2 to + V / 2 in the v direction. Then, integers m and n representing the coordinate values in the u direction and the v direction (−M ′ ≦ m ≦ M, −N ≦ n ≦ N, M: integer, N: integer, M and N are the same, that is, a uv image. The uv coordinate value is obtained by the calculation of the equation (31) (step 203).

Figure 2005063012
Figure 2005063012

次いで、整数m,nを−M≦m≦M、−N≦n≦Nの範囲で変化させながら、式(32)の演算によってその(u,v)座標値に対応する位相角ρと仰角φを求める(ステップ204,205)。   Next, while changing the integers m and n in the range of −M ≦ m ≦ M and −N ≦ n ≦ N, the phase angle ρ and the elevation angle corresponding to the (u, v) coordinate value are calculated by the equation (32). φ is obtained (steps 204 and 205).

Figure 2005063012
Figure 2005063012

次に、式(33)により画像座標値を算出する。この画像座標値を四捨五入で整数化したものを(x,y)とする(ステップ206)。   Next, an image coordinate value is calculated by Expression (33). A value obtained by rounding the image coordinate value to an integer is set to (x, y) (step 206).

Figure 2005063012
Figure 2005063012

そして、画像座標値(x,y)に対応する画素値を取り出し(ステップ207)、uv画像上でのuv座標値に該当する座標値にその画素値を埋め込む(ステップ208)。   Then, a pixel value corresponding to the image coordinate value (x, y) is extracted (step 207), and the pixel value is embedded in a coordinate value corresponding to the uv coordinate value on the uv image (step 208).

以上の工程を全uv座標値に対して行うことで、uv画像を生成する(ステップ209)。さらに、対象とする全時系列画像を逐次この変換処理を行なって時系列のuv画像を生成する。   By performing the above process for all uv coordinate values, a uv image is generated (step 209). Further, this conversion process is sequentially performed on all target time-series images to generate time-series uv images.

交点座標計測部13は、前記uv画像において線分を検出しその線分上の直線が投影中心付近で交差するuv座標(交点座標)を計測する。図7はuv画像上での交点座標(ζ、η)の計測を説明したものである。uv画像においても図3と同様に、全方位カメラを天空方向、または天井方向に向けて撮影した場合、垂直線分、例えば屋内では壁などの高さ方向の線分、屋外では建物の高さ方向の線分を伸ばすと、1点(交点座標)で交わるという性質を利用する。つまり、無限大の高さを有する点は1点であり、この点を交点座標(ζ、η)としてuv画像から求める。交点座標はuv画像中において建物の高さ方向の線分(垂直線分)を検出して求める。線分検出には、ハフ変換やCannyオペレータなどの画像処理手法により求める。このような処理により各線分に関する直線パラメータを得る。直線パラメータは直線の傾きaiと切片biであり、式(6a)に示す計算により交点座標値(ξ、η)を得る。あるいは作業者が直線上の点を指定して求めてもよい。 The intersection coordinate measurement unit 13 detects a line segment in the uv image and measures a uv coordinate (intersection coordinate) at which a straight line on the line segment intersects in the vicinity of the projection center. FIG. 7 explains the measurement of the intersection coordinates (ζ, η) on the uv image. Similarly to FIG. 3, in the uv image, when the omnidirectional camera is photographed in the sky direction or the ceiling direction, a vertical line segment, for example, a line segment in the height direction of a wall or the like indoors, or a building height outdoors. When the line segment in the direction is extended, the property of intersecting at one point (intersection coordinate) is used. That is, there is one point having an infinite height, and this point is obtained from the uv image as the intersection coordinates (ζ, η). The intersection coordinates are obtained by detecting a line segment (vertical line segment) in the height direction of the building in the uv image. The line segment is detected by an image processing method such as a Hough transform or a Canny operator. By such processing, straight line parameters relating to each line segment are obtained. The straight line parameters are the straight line slope a i and the intercept b i , and the intersection coordinate values (ξ, η) are obtained by the calculation shown in the equation (6a). Alternatively, the operator may specify and obtain a point on a straight line.

図7には、直線l12上のペア:p1(x1,y1)とp2(x2,y2)、直線l34上のペア:p3(x3,y3)とp4(x4,y4)、直線l56上のペア:p5(x5,y5)とp6(x6,y6)、直線l78上のペア:p7(x7,y7)とp8(x8,y8)としている。各点の座標値から、式(6b)に従い交点座標値(ξ、η)を得る。尚、交点座標を求めるには最低2本の直線で十分であるが、多くの垂直直線を検出することで、より正確な交点座標を来めることができる。この交点座標を全フレームにわたり求めて、各フレームでの交点座標値(ζi、ηi)、i=1,2、…、Fを保持しておく。その後は、実施形態1と同様の処理工程により、全方位映像の特徴点の時間的動きから、全方位カメラ視点の運動、すなわち三軸周りの回転と三軸方向の並進運動、並びに物体形状を構成する3次元情報を復元することができる。 FIG. 7 shows a pair on the straight line l 12 : p 1 (x 1 , y 1 ) and p 2 (x 2 , y 2 ) and a pair on the straight line l 34 : p 3 (x 3 , y 3 ) and p. 4 (x 4 , y 4 ), pair on line l 56 : p 5 (x 5 , y 5 ) and p 6 (x 6 , y 6 ), pair on line l 78 : p 7 (x 7 , y 7 ) and p 8 (x 8 , y 8 ). From the coordinate value of each point, the intersection coordinate value (ξ, η) is obtained according to the equation (6b). Note that at least two straight lines are sufficient for obtaining the intersection coordinates, but more accurate intersection coordinates can be obtained by detecting many vertical straight lines. The intersection coordinates are obtained over all the frames, and the intersection coordinates (ζ i , η i ), i = 1, 2,. Thereafter, from the temporal movement of the feature points of the omnidirectional video, the movement of the omnidirectional camera viewpoint, that is, the rotation around the three axes, the translational movement in the three axis directions, and the object shape are processed by the same processing steps as in the first embodiment. The three-dimensional information to be configured can be restored.

(実施形態3)
図8aは請求項3の発明に関する基本構成図である。本実施形態の復元装置は、実施形態1の復元装置において復元処理判定部31を備えている。ここでは、特徴点計測部11により得た特徴点の画像座標値を計測行列変換部12によってuv座標値に変換したとき復元処理判定部31がカメラ運動と3次元情報を復元するための処理を判定する点が実施形態1の復元装置と異なるので、この点だけについて説明する。尚、時系列画像データベース10には、ハードディスク、RAID装置、CD−ROMなどの記録媒体を利用する、または、ネットワークを介したリモートなデータ資源を利用する形態でもどちらでも構わない。
(Embodiment 3)
FIG. 8 a is a basic configuration diagram relating to the invention of claim 3. The restoration device according to the present embodiment includes a restoration processing determination unit 31 in the restoration device according to the first embodiment. Here, when the image coordinate value of the feature point obtained by the feature point measurement unit 11 is converted into the uv coordinate value by the measurement matrix conversion unit 12, the restoration process determination unit 31 performs a process for restoring the camera motion and the three-dimensional information. Since the determination point is different from the restoration device of the first embodiment, only this point will be described. Note that the time-series image database 10 may use a recording medium such as a hard disk, a RAID device, a CD-ROM, or a remote data resource via a network.

また、図8bはリアルタイムで処理する場合の復元装置の概略構成を示し、当該復元装置は時系列画像データベース10に代えてデータ画像入力部16を備えている。したがって、本実施形態の復元装置は必ずしも各データベース部等の記憶手段を必要としない。   FIG. 8 b shows a schematic configuration of a restoration apparatus when processing is performed in real time, and the restoration apparatus includes a data image input unit 16 instead of the time-series image database 10. Therefore, the restoration apparatus of this embodiment does not necessarily require storage means such as each database unit.

計測行列変換部12は特徴点計測部11で得た特徴点の画像座標値から座標値に変換して計測行列[B]を保持する。この計測行列[B]は式(5a)の形式で保持されている。計測行列[B]は復元処理判定部12での復元処理に供される。   The measurement matrix conversion unit 12 converts the image coordinate value of the feature point obtained by the feature point measurement unit 11 into a coordinate value and holds the measurement matrix [B]. This measurement matrix [B] is held in the form of equation (5a). The measurement matrix [B] is subjected to a restoration process in the restoration process determination unit 12.

図9は復元処理をフローチャートで示したものである。計測行列変換部12かから計測行列[B]が入力されると(ステップ301)、この行列は式(8)の演算による特異値分解によって特異値行列[W]に変換される(ステップ302)。特異値行列[W]は対角行列であり、その各要素である特異値は昇降順の並びで、かつ全て正の実数となっている。この特異値の中から3×3の行列要素W33と4×4の行列要素W44の特異値が取り出される。ランク検出(ステップ303)では、式(34a)または式(34b)に示した演算によって判定量EWを得ている。 FIG. 9 is a flowchart showing the restoration process. When the measurement matrix [B] is input from the measurement matrix conversion unit 12 (step 301), this matrix is converted into a singular value matrix [W] by singular value decomposition by the calculation of equation (8) (step 302). . The singular value matrix [W] is a diagonal matrix, and the singular values that are the elements thereof are arranged in ascending / descending order and are all positive real numbers. Singular values of the 3 × 3 matrix element W 33 and the 4 × 4 matrix element W 44 are extracted from the singular values. In rank detection (step 303), the determination amount E W is obtained by the calculation shown in the equation (34a) or the equation (34b).

Figure 2005063012
Figure 2005063012

Figure 2005063012
Figure 2005063012

特異値W33は、カメラが自由度3以上の運動を行う場合に正の有限値となり、また、特異値W44は、カメラが自由度4以上の運動を行う場合に正の有限値となり、かつ自由度3未満の運動を行う場合にはほぼ0となる、という性質を有しているため、判定量EWはカメラの運動の自由度を判定する目安とすることができる。 Singular value W 33, the camera becomes a positive finite value when performing three degrees of freedom or movement, also singular values W44, the camera becomes a positive finite value when performing four degrees of freedom or movement, and Since it has a property that it becomes almost zero when exercise with less than 3 degrees of freedom is performed, the determination amount E W can be used as a criterion for determining the degree of freedom of motion of the camera.

次いで、判定量EWがある許容値δW未満であるか、または判定量EWが許容値δW以上かを判定する(ステップ304)。この許容値δWは特定の一定値であり、作業者が逐次、その値を設定することもできる。 Then, it is determined whether the allowable value or less than δW is determined amount E W, or determining the amount of E W is tolerance δW above (step 304). This allowable value δW is a specific constant value, and the operator can set the value sequentially.

ここで、判定量EWがある許容値δw未満の場合は、カメラ運動が平面進動をしたと判断(ステップ305)して、処理Aに進む(ステップ306)。一方、判定量EWがある許容値δW以上の場合は、カメラ運動が一般運動(平面運動以外)をしたと判断(ステップ307)して、処理Bに進む(ステップ308)。 Here, if the determination amount E W is less than a certain allowable value δw, it is determined that the camera motion has moved in a plane (step 305), and the process proceeds to process A (step 306). On the other hand, if the determination amount E W is equal to or greater than a certain allowable value δW, it is determined that the camera motion has performed a general motion (other than planar motion) (step 307), and the process proceeds to process B (step 308).

処理Bとは実施形態1の処理を行って、全方位映像の特徴点の時間的動きから、全方位カメラ視点の運動、すなわち三軸周りの回転と並進運動、並びに物体形状を構成する3次元情報を復元する処理である。そのため、以降では、処理Aについて説明する。   The process B is the process of the first embodiment, and from the temporal movement of the feature points of the omnidirectional video, the movement of the omnidirectional camera viewpoint, that is, the three-dimensional rotation and translational movement around the three axes, and the object shape This is a process for restoring information. Therefore, hereinafter, the process A will be described.

図10は因子分解法処理部15において行なわれる処理A(ステップ306)のフローチャートを示したものである。   FIG. 10 shows a flowchart of the process A (step 306) performed in the factorization processing unit 15.

復元処理判定部15において行った特異値分解により式(7)の3つの行列[U]、[W]、[V]に行列分解した各行列データを入力する(ステップ309)。ここで、[U]は2F×Pサイズの行列、[W]はP×Pサイズの対角行列、[V]はP×Pサイズの行列である。   Each matrix data subjected to matrix decomposition into the three matrices [U], [W], and [V] of Expression (7) by the singular value decomposition performed in the restoration processing determination unit 15 is input (step 309). Here, [U] is a 2F × P size matrix, [W] is a P × P size diagonal matrix, and [V] is a P × P size matrix.

先ず、雑音除去(ステップ310)において、式(8)の第二項に示すようにランク4以上の各行列の成分を削除する。この削除のときは、行列[U]を取り出し、この行列の要素において第4から第P列目までを削除し、残りの成分からなる行列を保持し、行列[W]を取り出し、この行列の要素において第4から第P行目並びに第4から第P列目までを削除し、残りの成分からなる行列を保持し、行列[V]を取り出し、この行列の要素において第4から第P行目までを削除し、残りの成分からなる行列をそれぞれ保持する(式(9))。次に、第4から第P行目並びに第4から第P列目までを削除した行列[W]の対角要素の平方をとった行列から、式(10)(11)に示す行列[U’]と行列[V’]を得る。   First, in noise removal (step 310), the components of each matrix of rank 4 or higher are deleted as shown in the second term of equation (8). At the time of this deletion, the matrix [U] is taken out, the fourth to Pth columns are deleted from the elements of this matrix, the matrix consisting of the remaining components is held, the matrix [W] is taken out, The fourth to Pth rows and the fourth to Pth columns are deleted in the element, the matrix composed of the remaining components is retained, the matrix [V] is extracted, and the fourth to Pth rows are extracted from the elements of this matrix. Delete up to the eye and hold the matrix composed of the remaining components (Equation (9)). Next, from the matrix obtained by taking the square of the diagonal elements of the matrix [W] from which the 4th to Pth rows and the 4th to Pth columns are deleted, the matrix [U shown in Equations (10) and (11) is used. '] And matrix [V'] are obtained.

続いて、変換行列算出(ステップ311)では、保持してある行列[U’]を取り出し、式(13)〜(15)に示す連立する条件式における対称行列[C](式(12)で表されている)の各要素にかかる係数を計算する。これらの係数計算は、行列演算により容易に得られるものであり、この条件式を全フレームに対して計算する。次に、全フレームの式(13)〜(15)に示す連立する条件式に対して、最小二乗法などの数値計算を利用するなどして3×3サイズの行列[C]の各要素を決定する。   Subsequently, in the transformation matrix calculation (step 311), the held matrix [U ′] is taken out, and the symmetric matrix [C] in the simultaneous conditional expressions shown in equations (13) to (15) (equation (12)). Calculate the coefficients for each element (shown). These coefficient calculations are easily obtained by matrix operation, and this conditional expression is calculated for all frames. Next, with respect to the simultaneous conditional expressions shown in the equations (13) to (15) for all frames, each element of the 3 × 3 size matrix [C] is changed by using numerical calculation such as the least square method. decide.

さらに、求めた行列[C]を式(16)に示すように固有値分解する。ここで、固有値行列の平方と固有値行列から、式(17)の行列[C’]を生成し、この行列要素を成分にもつ行列[Q]を式(18)に従って算出する。   Further, the obtained matrix [C] is subjected to eigenvalue decomposition as shown in Expression (16). Here, a matrix [C ′] of Expression (17) is generated from the square of the eigenvalue matrix and the eigenvalue matrix, and a matrix [Q] having this matrix element as a component is calculated according to Expression (18).

続いて、平面運動復元(ステップ312)において、前記行列[Q]と、保持しておいた行列[U’]から、式(19)の行列演算により行列[M’]を計算する。行列[M’]から各フレーム(第iフレーム)の行列要素(mix,nix)または(miy,niy)を取り出し、式(20)の演算によってヨー回転θiを復元する。行列[M’]から各フレーム(第iフレーム)の行列要素(Tiu,Tiv)を取り出す。この(Tiu,Tiv)から、式(22)の演算によって第iフレームにおけるユークリッド空間でのXY並進運動(Txi,Tyi)を算出する。 Subsequently, in the plane motion restoration (step 312), the matrix [M ′] is calculated from the matrix [Q] and the retained matrix [U ′] by the matrix calculation of Expression (19). The matrix element (m ix , n ix ) or (m iy , n iy ) of each frame (i-th frame) is extracted from the matrix [M ′], and the yaw rotation θ i is restored by the calculation of equation (20). A matrix element (T iu , T iv ) of each frame (i-th frame) is extracted from the matrix [M ′]. From this (T iu , T iv ), the XY translational motion (Tx i , Ty i ) in the Euclidean space in the i-th frame is calculated by the calculation of Expression (22).

さらに、先に保持しておいた行列[V’]と、変換行列算出で得られた行列[Q]から、式(23)に示す行列演算を行い、行列[S’]を求める。次に、行列[S’]の要素に対して、式(24)に示す変換を行い、これを要素とする行列を[P]とする(ステップ313)。行列が[P]の列ベクトルは、それぞれ第j番目の特徴点のユークリッド空間での3次元座標値(Xj,Yj,Zj)になっている。 Furthermore, the matrix [S ′] is obtained by performing the matrix operation shown in the equation (23) from the matrix [V ′] held in advance and the matrix [Q] obtained by the conversion matrix calculation. Next, the transformation shown in Expression (24) is performed on the elements of the matrix [S ′], and the matrix having this as an element is set to [P] (step 313). The column vectors whose matrix is [P] are the three-dimensional coordinate values (X j , Y j , Z j ) in the Euclidean space of the j-th feature point.

このようにして本実施形態の復元装置によれば、復元処理判定部31においてカメラ運動が平面運動をしていると判定された場合、処理Aの実行によって、全方位映像の特徴点の時間的動きから、全方位カメラ視点の運動、すなわち光軸周りの回転とXY並進運動、並びに物体形状を構成する3次元情報を復元する。   As described above, according to the restoration device of the present embodiment, when the restoration process determination unit 31 determines that the camera motion is a plane movement, the time point of the feature point of the omnidirectional video is obtained by executing the process A. From the movement, the movement of the omnidirectional camera viewpoint, that is, the rotation around the optical axis and the XY translational movement, and the three-dimensional information constituting the object shape are restored.

また、復元処理判定部31においてカメラ運動が平面運動以外の一般運動をしていると判定された場合、実施形態1と同様に、図2に示した処理工程に基づく処理Bの実行により、全方位映像の特徴点の時間的動きから、全方位カメラ視点の運動、すなわち、三軸周りの回転と三軸方向の並進運動、並びに、物体形状を構成する3次元情報を復元することができる。   Further, when it is determined by the restoration processing determination unit 31 that the camera motion is a general motion other than the planar motion, the processing B based on the processing steps shown in FIG. From the temporal movement of the feature point of the azimuth image, the movement of the omnidirectional camera viewpoint, that is, the rotation around the three axes and the translational movement in the three axis directions, and the three-dimensional information constituting the object shape can be restored.

(実施形態4)
図11aは請求項4の発明を実施する形態例の概略構成図である。本実施形態の復元装置は、実施形態2の復元装置において復元処理判定部31を備えている。ここでは、特徴点計測部11にて時系列のuv画像における各特徴点のuv座標値を測定した後、この座標値を復元処理判定部31に供してカメラ運動と3次元情報を復元する処理を判定する点が実施形態2の復元処理装置と異なるため、この点だけについて説明する。本実施例において、時系列画像データベースは、ハードディスク、RAID装置、CD−ROMなどの記録媒体を利用する、または、ネットワークを介したリモートなデータ資源を利用する形態でもどちらでも構わない。
(Embodiment 4)
FIG. 11 a is a schematic configuration diagram of an embodiment for carrying out the invention of claim 4. The restoration apparatus according to the present embodiment includes the restoration processing determination unit 31 in the restoration apparatus according to the second embodiment. Here, after measuring the uv coordinate value of each feature point in the time-series uv image by the feature point measurement unit 11, the coordinate value is used for the restoration processing determination unit 31 to restore the camera motion and the three-dimensional information. Since this is different from the restoration processing apparatus of the second embodiment, only this point will be described. In this embodiment, the time-series image database may be in the form of using a recording medium such as a hard disk, a RAID device, a CD-ROM, or a remote data resource via a network.

また、図11bはリアルタイムで処理する場合の処理構成図であり、本実施形態の復元装置も実施形態1、2及び3の復元装置と同様に時系列画像データベース10の代わりに画像入力部16を備えている。したがって、本実施形態の復元装置も必ずしも各データベース部10等の記憶手段を必要としない。   FIG. 11B is a processing configuration diagram in the case of processing in real time, and the restoration device of this embodiment also uses the image input unit 16 instead of the time-series image database 10 as in the restoration devices of the first, second, and third embodiments. I have. Therefore, the restoration apparatus of this embodiment does not necessarily require storage means such as each database unit 10.

特徴点計測部11は、各特徴点のuv座標値を得て、これらを行列要素とする計測行列[B]を保持する。この計測行列[B]は式(5a)の形式で保持されている。次に、計測行列[B]は復元処理判定部31での処理に供される。復元処理判定部31での処理フローは図9に示したフローチャートに基づく。すなわち、計測行列[B]を式(8)の演算に供して特異値分解を行い、特異値行列[W]を得る。特異値行列[W]は対角要素であり、その各要素である特異値は昇降順の並びで、かつ全て正の実数となっている。そして、この特異値の中から3×3の行列要素W33と4×4の行列要素W44の特異値を取り出している。ランク検出では、式(34a)または式(34b)に示す演算によって判定量EWを得ている。 The feature point measurement unit 11 obtains uv coordinate values of each feature point and holds a measurement matrix [B] having these as matrix elements. This measurement matrix [B] is held in the form of equation (5a). Next, the measurement matrix [B] is subjected to processing in the restoration processing determination unit 31. The processing flow in the restoration processing determination unit 31 is based on the flowchart shown in FIG. That is, the singular value decomposition is performed by using the measurement matrix [B] for the calculation of Expression (8) to obtain the singular value matrix [W]. The singular value matrix [W] is a diagonal element, and the singular values which are each element are arranged in ascending / descending order and are all positive real numbers. The singular values of the 3 × 3 matrix element W 33 and the 4 × 4 matrix element W 44 are extracted from the singular values. In rank detection, the determination amount E W is obtained by the calculation shown in Expression (34a) or Expression (34b).

次いで、判定量EWがある許容値δW未満であるか、または判定量EWが許容値δW以上かを判定する。この許容値δWは特定の一定値であり、作業者が逐次、その値を設定することもできる。そして、判定量EWがある許容値δW未満の場合は、カメラ運動が平面運動をしたと判断して処理Aに進む。一方、判定量EWがある許容値δW以上の場合は、カメラ運動が一般運動(平面運動以外)をしたと判断して処理Bに進む。処理Bは、実施形態2と同様の処理を行なって、全方位映像の特徴点の時間的動きから、全方位カメラ視点の運動、すなわち三軸周りの回転と三軸方向の並進運動、並びに物体形状を構成する3次元情報を復元する処理である。尚、処理Aについては、実施形態3における処理Aと同じであるので、その説明は省略する。 Then, it is determined whether the allowable value or less than δW is determined amount E W, or determining the amount of E W is tolerance δW more. This allowable value δW is a specific constant value, and the operator can set the value sequentially. If the determination amount E W is less than a certain allowable value δW, it is determined that the camera motion is a plane motion, and the process proceeds to process A. On the other hand, when the determination amount E W is equal to or greater than a certain allowable value δW, it is determined that the camera motion has performed a general motion (other than a planar motion), and the process proceeds to process B. The process B performs the same process as in the second embodiment, and from the temporal movement of the feature points of the omnidirectional video, the movement of the omnidirectional camera viewpoint, that is, the rotation around the three axes and the translational movement in the three axis directions, and the object This is a process for restoring the three-dimensional information constituting the shape. The process A is the same as the process A in the third embodiment, and a description thereof will be omitted.

以上の実施形態で述べた復元方法は、図1a〜図11bで示した処理工程をコンピュータのプログラムで構成し、このプログラムをコンピュータに実行させることができることは言うまでもなく、コンピュータでその機能を実現するためのプログラム、あるいは、コンピュータにその処理の工程の実行させるためのプログラムを、そのコンピュータが読み取りできる記録媒体、例えば、FD(フロッピーデイスク(登録商標))や、MO、ROM、メモリカード、CD、DVD、リムーバルディスクなどに記録して、保存したり、配布したりすることが可能である。また、上記のプログラムをインターネットや電子メールなど、ネットワークを介して提供することも可能である。   In the restoration method described in the above embodiment, it is needless to say that the processing steps shown in FIGS. 1a to 11b can be configured by a computer program and the program can be executed by the computer. For recording a program for causing the computer to execute the process of the processing, such as a FD (floppy disk (registered trademark)), MO, ROM, memory card, CD, It can be recorded on a DVD, a removable disk, etc., and stored or distributed. It is also possible to provide the above program via a network such as the Internet or e-mail.

そして、これら記録媒体からコンピュータに前記のプログラムをインストールすることにより、あるいはネットワークからダウンロードしてコンピュータに前記のプログラムをインストールすることにより、本発明を実施することが可能となる。但し、コンピュータへのインストールはコンピュータ単位であり、装置やシステムが複数あることなどでインストールの対象となるコンピュータが複数ある場合には、当該プログラムは必要な処理部分毎にインストールされることは当然である。この場合、当該プログラムはコンピュータ対応に記録媒体に記録するか、またはネットワークを介してダウンロードしてもよい。   Then, the present invention can be implemented by installing the program from these recording media into a computer, or by downloading the program from a network and installing the program into the computer. However, installation on a computer is a computer unit, and when there are multiple computers to be installed due to multiple devices and systems, it is natural that the program is installed for each necessary processing part. is there. In this case, the program may be recorded on a recording medium corresponding to a computer, or downloaded via a network.

請求項1記載の発明を実施する装置の形態例を示した概略構成図。The schematic block diagram which showed the example of the form of the apparatus which implements invention of Claim 1. 請求項1記載の発明を実施する装置の形態例を示した概略構成図。The schematic block diagram which showed the example of the form of the apparatus which implements invention of Claim 1. 因子分解法処理部15における処理工程を説明したフローチャート。The flowchart explaining the process process in the factorization method process part 15. FIG. 交点座標の計測を説明した説明図。Explanatory drawing explaining the measurement of intersection coordinates. 請求項2記載の発明を実施する装置の形態例を示した概略構成図。A schematic configuration diagram showing an example of an apparatus for carrying out the invention according to claim 2. 請求項2記載の発明を実施する装置の形態例を示した概略構成図。A schematic configuration diagram showing an example of an apparatus for carrying out the invention according to claim 2. 画像変換処理部21におけるuv画像変換の処理工程を説明したフローチャート。The flowchart explaining the process process of uv image conversion in the image conversion process part 21. FIG. uv画像生成を説明した説明図。Explanatory drawing explaining uv image generation. uv画像での交点座標の計測を説明した説明図。Explanatory drawing explaining the measurement of the intersection coordinate in a uv image. 請求項3記載の発明を実施する装置の形態例を示した概略構成図。A schematic configuration diagram showing an example of an apparatus for carrying out the invention according to claim 3. 請求項3記載の発明を実施する装置の形態例を示した概略構成図。A schematic configuration diagram showing an example of an apparatus for carrying out the invention according to claim 3. 復元処理判定部31での処理工程を説明したフローチャート。The flowchart explaining the process process in the restoration process determination part 31. FIG. 因子分解法処理部15において行なわれる処理Aを説明したフローチャート。The flowchart explaining the process A performed in the factorization method process part 15. FIG. 請求項4記載の発明を実施する装置の形態例を示した概略構成図。FIG. 5 is a schematic configuration diagram showing an example of an apparatus for carrying out the invention according to claim 4; 請求項4記載の発明を実施する装置の形態例を示した概略構成図。FIG. 5 is a schematic configuration diagram showing an example of an apparatus for carrying out the invention according to claim 4; 全方位カメラが撮像した画像の例で、対象物に輪郭線を付したもの。An example of an image captured by an omnidirectional camera with an outline attached to an object. 全方位カメラが撮像した画像の例で、対象物の輪郭線のみを示したもの。An example of an image taken by an omnidirectional camera, showing only the outline of the object. 全方位カメラが撮像した画像の例で、対象物に輪郭線を付していないもの。An example of an image captured by an omnidirectional camera without a contour line attached to an object. 全方位カメラが撮像した画像をuv座標変換して得た画像の例で、対象物に輪郭線を付したもの。An example of an image obtained by uv coordinate conversion of an image captured by an omnidirectional camera, in which a contour is attached to an object. 全方位カメラが撮像した画像をuv座標変換して得た画像の例で、対象物の輪郭線のみを示したもの。An example of an image obtained by uv coordinate conversion of an image captured by an omnidirectional camera, showing only the outline of an object. 全方位カメラが撮像した画像をuv座標変換して得た画像の例で、対象物に輪郭線を付していないもの。An example of an image obtained by uv coordinate conversion of an image captured by an omnidirectional camera, in which a contour is not attached to an object. 全方位カメラと復元する空間情報とカメラ座標を示す図。The figure which shows the omnidirectional camera, the spatial information to restore | restore, and a camera coordinate.

符号の説明Explanation of symbols

10…時系列画像データベース、11…特徴点計測部、12…計測行列変換部、13…交点座標計測部、14…計測行列入力部、15…因子分解法処理部、16画像入力部
21…画像変換処理部
31…復元処理判定部
DESCRIPTION OF SYMBOLS 10 ... Time series image database, 11 ... Feature point measurement part, 12 ... Measurement matrix conversion part, 13 ... Intersection coordinate measurement part, 14 ... Measurement matrix input part, 15 ... Factorization method processing part, 16 Image input part 21 ... Image Conversion processing unit 31 ... Restoration processing determination unit

Claims (16)

全方位カメラから取得した時系列の全方位画像(または広視野画像)中において、対象とする画像に配置した特徴点に関する画像座標値の時間的変化量から、時系列における全方位カメラ視点の運動、並びに、外界の物体形状を構成する3次元情報を復元する方法であって、
取得した時系列の全方位画像(または広視野画像)に設定した特徴点座標系において、各画像における特徴点の時間的変化量を示す画像座標値と、各画像における投影中心付近での線分がなす交点の画像座標値(交点座標値)を測定するステップ(計測行列測定ステップ)と、
この計測行列測定ステップにおいて得た各特徴点の画像座標値から算出される位相角と仰角により別の座標値(uv座標値)を求め、これらの各特徴点のuv座標値と、交点座標値を用いて復元処理するための行列データ(行列分解データ)を生成し、この行列分解データを特異値分解し、雑音除去を行って運動情報を表す行列データと3次元情報を表す行列データを得て、その運動情報の成分から、運動を規定するために設定した条件を満足する変換行列を求め、運動情報となる行列データにこの変換行列を作用させて全方位カメラ視点の光軸周りの回転運動とそれに垂直な平面(XY平面)上の並進運動(この自由度3の運動を平面運動と称する)を復元し、光軸周りの回転角と交点座標値を使って、光軸以外の他軸周りの回転運動を復元し、さらに、3次元情報を表す行列データにこの変換行列の逆行列を作用させて物体形状を構成する3次元情報を復元するステップ(平面運動と3次元情報の復元ステップ)と、
この平面運動と3次元情報の復元ステップで得た平面連動と3次元情報から各特徴点に関するuv座標系での再投影座標値を求め、その再投影座標値と行列分解データを構成する行列要素との間の誤差を算出し、この誤差と、平面運動と3次元情報の復元ステップで得た特徴点のZ座標値(3次元情報の成分)を使って、カメラ視点のZ軸方向の並進運動を復元するステップ(Z軸並進運動復元ステップ)と、
このZ軸並進運動復元スナッブで得た誤差が、ある一定値以下に収束しているかどらかを判断し、収束していないならば平面運動と3次元情報の復元ステップで得た平面運動と3次元情報、並びに、光軸以外の軸周りの回転運動から変形運動を求め、この変形係数を各特徴点のuv座標値に結合させて新たなuv座標値を求め、これを行列要素とする行列分解データを生成し、平面運動と3次元情報の復元ステップに戻り、誤差が一定値以下に収束するまで反復して、全方位カメラ運動と3次元情報を復元するステップとを有すること
を特徴とする全方位カメラ運動と3次元情報の復元方法。
The movement of the omnidirectional camera viewpoint in time series based on the amount of temporal change in the image coordinate values of the feature points placed in the target image in the chronological omnidirectional image (or wide-field image) acquired from the omnidirectional camera. And a method for restoring the three-dimensional information constituting the object shape of the outside world,
In the feature point coordinate system set for the acquired time-series omnidirectional image (or wide-field image), the image coordinate value indicating the temporal change amount of the feature point in each image and the line segment near the projection center in each image A step (measurement matrix measurement step) of measuring an image coordinate value (intersection coordinate value) of an intersection formed by
Different coordinate values (uv coordinate values) are obtained from the phase angle and elevation angle calculated from the image coordinate values of each feature point obtained in this measurement matrix measurement step, and the uv coordinate values and intersection coordinate values of these feature points are obtained. Is used to generate matrix data (matrix decomposition data) for restoration processing, singular value decomposition of this matrix decomposition data, and noise removal to obtain matrix data representing motion information and matrix data representing three-dimensional information From the motion information component, a transformation matrix that satisfies the conditions set to define the motion is obtained, and this transformation matrix is applied to the matrix data that is motion information to rotate around the optical axis of the omnidirectional camera viewpoint. Restoring the motion and translational motion on the plane perpendicular to it (XY plane) (this motion with 3 degrees of freedom is called plane motion), and using the rotation angle around the optical axis and the intersection coordinate value, Restore rotational movement around the axis And, further, a step (restoration step of planar motion and three-dimensional information) to restore the three-dimensional information that constitutes the object shape by applying an inverse matrix of the transformation matrix matrix data representing the three-dimensional information,
The re-projection coordinate value in the uv coordinate system for each feature point is obtained from the plane interlock and the three-dimensional information obtained in the plane motion and the three-dimensional information restoration step, and the reprojected coordinate value and matrix elements constituting the matrix decomposition data Using this error and the Z coordinate value (component of 3D information) of the feature point obtained in the plane motion and 3D information restoration step, the translation of the camera viewpoint in the Z-axis direction is calculated. A step of restoring motion (Z-axis translational motion restoration step);
It is determined whether or not the error obtained by the Z-axis translational motion recovery snubber has converged to a certain value or less. If not, the planar motion obtained by the planar motion and the three-dimensional information restoration step and 3 Determining the deformation motion from the dimensional information and the rotational motion around the axis other than the optical axis, combining this deformation coefficient with the uv coordinate value of each feature point to determine a new uv coordinate value, and using this as a matrix element Generating decomposition data, returning to the step of restoring the plane motion and the three-dimensional information, and repeating the steps until the error converges to a certain value or less to restore the omnidirectional camera motion and the three-dimensional information. To restore omnidirectional camera motion and 3D information.
全方位カメラから取得した時系列の全方位画像(または広視野画像)中において、対象とする画像に配置した特徴点に関する画像座標値の時間的変化量から、時系列における全方位カメラ視点の運動、並びに、外界の物体形状を構成する3次元情報を復元する方法であって
取得した時系列の全方位画像(または広視野画像)に対して、各画像座標値から得られる位相角と仰角により各画像座標値をuv座標値に変換して各画素をそのuv座標値に対応付けるように時系列画像(uv画像)を生成し、このuv画像に設定した特徴点座標系において、各画像における特徴点の時間的変化量を示すuv座標値と、各uv画像における投影中心付近での線分がなす交点のuv座標値(交点座標値)を測定するステップ(uv計測行列測定ステップ)と、
このuv計測行列測定ステップにおいて得た各特徴点のuv座標値と、交点座標値を用いて復元処理するための行列データ(行列分解データ)を生成し、この行列分解データを特異値分解し、雑音除去を行って運動情報を表す行列データと3次元情報を表す行列データを得て、その運動情報の成分から、運動を規定するために設定した条件を満足する変換行列を求め、運動情報となる行列データにこの変換行列を作用させて全方位カメラ視点の光軸周りの回転運動とそれに垂直な平面(XY平面)上の並進運動(この自由度3の運動を平面運動と称する)を復元し、光軸周りの回転角と交点座標値を使って、光軸以外の他軸周りの回転運動を復元し、さらに、3次元情報を表す行列データにこの変換行列の逆行列を作用させて物体形状を構成する3次元情報を復元するステップ(平面運動と3次元情報の復元ステップ)と、
平面運動と3次元情報の復元ステップで得た平面運動と3次元情報から各特徴点に関するuv座標系での再投影座標値を求め、その再投影座標値と行列分解データを構成する行列要素との間の誤差を算出し、この誤差と、平面運動と3次元情報の復元ステップで得た特徴点のZ座標値(3次元情報の成分)を使って、カメラ視点のZ軸方向の並進運動を復元するステップ(Z軸並進運動復元ステップ)と、
このZ軸並進運動復元ステップで得た誤差が、ある一定値以下に収束しているかどうかを判断し、収束していないならば、平面運動と3次元情報の復元ステップで得た平面運動と3次元情報、並びに、光軸以外の軸周りの回転運動から変形係数求め、この変形係数を各特徴点のuv座標値に結合させて新たなuv座標値を求め、これを行列要素とする行列分解データを生成し、平面運動と3次元情報の復元ステップに戻り、誤差が一定値以下に収束するまで反復して,全方位カメラ運動と3次元情報を復元するステップとを有すること
を特徴とする全方位カメラ運動と3次元情報の復元方法。
The movement of the omnidirectional camera viewpoint in time series based on the amount of temporal change in the image coordinate values of the feature points placed in the target image in the chronological omnidirectional image (or wide-field image) acquired from the omnidirectional camera. And a method for restoring the three-dimensional information constituting the object shape of the outside world, and for the acquired time-series omnidirectional images (or wide-field images), depending on the phase angle and elevation angle obtained from each image coordinate value A time-series image (uv image) is generated so that each image coordinate value is converted into a uv coordinate value and each pixel is associated with the uv coordinate value. In the feature point coordinate system set for this uv image, a feature in each image is generated. A step of measuring a uv coordinate value indicating a temporal change amount of a point and a uv coordinate value (intersection coordinate value) of an intersection formed by a line segment in the vicinity of the projection center in each uv image (uv measurement matrix measurement step) When,
Generate matrix data (matrix decomposition data) for restoration processing using the uv coordinate value of each feature point obtained in the uv measurement matrix measurement step and the intersection coordinate value, and singular value decomposition of the matrix decomposition data, The matrix data representing the motion information and the matrix data representing the three-dimensional information are obtained by performing noise removal, and a transformation matrix satisfying the conditions set for defining the motion is obtained from the motion information components, and the motion information and This transformation matrix is applied to the matrix data to restore the rotational motion around the optical axis of the omnidirectional camera viewpoint and the translational motion on this plane (XY plane) (this motion with 3 degrees of freedom is called planar motion). Then, using the rotation angle around the optical axis and the coordinate value of the intersection point, the rotational motion around the other axis other than the optical axis is restored, and the inverse matrix of this transformation matrix is applied to the matrix data representing the three-dimensional information. Configure object shape And step (restoration step of planar motion and three-dimensional information) to restore the three-dimensional information that,
A reprojection coordinate value in the uv coordinate system for each feature point is obtained from the plane motion and 3D information obtained in the plane motion and 3D information restoration step, and the reprojected coordinate value and matrix elements constituting matrix decomposition data are obtained. Using this error and the Z coordinate value (component of 3D information) of the feature point obtained in the plane motion and 3D information restoration step, the translational motion of the camera viewpoint in the Z-axis direction is calculated. Restoring (Z-axis translational motion restoring step),
It is determined whether or not the error obtained in the Z-axis translational motion restoration step has converged to a certain value or less. If the error has not converged, the planar motion obtained in the planar motion and three-dimensional information restoration step and 3 Deformation coefficient is obtained from dimensional information and rotational motion around an axis other than the optical axis, and this deformation coefficient is combined with the uv coordinate value of each feature point to obtain a new uv coordinate value, and matrix decomposition using this as a matrix element Generating data, returning to the plane motion and 3D information restoration step, and repeating the process until the error converges to a certain value or less to restore the omnidirectional camera motion and 3D information. Omni-directional camera motion and 3D information restoration method.
前記計測行列測定ステップにおいて、計測行列を特異値分解して得る特異値成分から運動の自由度を表す判定値を算出し、
判定値がある一定値未満の場合は、カメラ運動が平面運動をしたとみなして、前記全方位カメラ運動と3次元情報を復元するステップにおいて、光軸周りの回転とその光軸に垂直な平面上の運動からなる自由度3の平面運動と3次元情報を復元する処理を行い、
判定値がある一定値以上の場合は、カメラ運動が平面運動以外の一般運動をしたとみなして、前記全方位カメラ運動と3次元情報を復元するステップによって、カメラに関する回転と並進運動からなる自由度6の運動と外界の3次元情報を復元する処理を行なうステップを有すること
を特徴とする請求項1記載の全方位カメラ運動と3次元情報の復元方法。
In the measurement matrix measurement step, a determination value representing a degree of freedom of movement is calculated from a singular value component obtained by singular value decomposition of the measurement matrix,
When the determination value is less than a certain value, the camera motion is regarded as a plane motion, and in the step of restoring the omnidirectional camera motion and the three-dimensional information, the rotation around the optical axis and the plane perpendicular to the optical axis are performed. Perform 3 degrees of freedom of plane motion consisting of the above motion and processing to restore 3D information,
If the judgment value is greater than a certain value, the camera motion is regarded as a general motion other than a plane motion, and the omnidirectional camera motion and the three-dimensional information are restored, and the free motion consisting of rotation and translational motion about the camera The method of restoring an omnidirectional camera motion and three-dimensional information according to claim 1, further comprising a step of performing a process of restoring the motion of degree 6 and the three-dimensional information of the outside world.
前記uv計測行列測定ステップにおいて、計測行列を特異値分解して得る特異値成分から運動を表す判定値を算出し、
判定値がある一定値末満の場合は、カメラ運動が平面運動をしたとみなして、前記全方位カメラ運動と3次元情報を復元するステップにおいて、光軸周りの回転とその光軸に垂直な平面上の運動からなる自由度3の平面運動と3次元情報を復元する処理を行い、
判定値がある一定値以上の場合は、カメラ運動が平面運動以外の一般運動をしたとみなして、前記全方位カメラ運動と3次元情報を復元するステップによって、カメラに関する回転と並進運動からなる自由度6の運動と外界の3次元情報を復元する処理を行なうステップを有すること
を特徴とする請求項2記載の全方位カメラ運動と3次元情報の復元方法。
In the uv measurement matrix measurement step, a determination value representing motion is calculated from a singular value component obtained by singular value decomposition of the measurement matrix,
When the determination value is less than a certain value, the camera motion is considered to be a plane motion, and in the step of restoring the omnidirectional camera motion and the three-dimensional information, the rotation around the optical axis and the direction perpendicular to the optical axis are performed. Perform 3 degrees of freedom of plane motion consisting of motion on a plane and processing to restore 3D information,
If the judgment value is greater than a certain value, the camera motion is regarded as a general motion other than a plane motion, and the omnidirectional camera motion and the three-dimensional information are restored, and the free motion consisting of rotation and translational motion about the camera The method of restoring an omnidirectional camera motion and three-dimensional information according to claim 2, further comprising a step of performing a process of restoring the motion of degree 6 and the three-dimensional information of the outside world.
全方位カメラから取得した時系列の全方位画像(または広視野画像)中において、対象とする画像に配置した特徴点に関する画像座標値の時間的変化量から、時系列における全方位カメラ視点の運動、並びに、外界の物体形状を構成する3次元情報を復元する装置であって、
各画像における特徴点の座標値を測定する特徴点計測部と、
前記特徴点計測部で得た画像座標値をuv画像に変換する計測行列変換部と、
各画像での投影中心付近での交点座標値を求める交点座標計測部と、
uv座標値を行列要素とする行列を初期値として与える計測行列入力部と、
交点座標計測部と計測行列入力部とから供給されたデータから因子分解法によりカメラの運動と外界の3次元情報を復元する因子分解法処理部とを備えたことを特徴とする全方位カメラ運動と3次元情報の復元装置。
The movement of the omnidirectional camera viewpoint in time series based on the amount of temporal change in the image coordinate values of the feature points placed in the target image in the chronological omnidirectional image (or wide-field image) acquired from the omnidirectional camera. And a device for restoring the three-dimensional information constituting the object shape of the outside world,
A feature point measurement unit that measures coordinate values of feature points in each image;
A measurement matrix conversion unit that converts the image coordinate values obtained by the feature point measurement unit into a uv image;
An intersection coordinate measurement unit for obtaining an intersection coordinate value near the projection center in each image;
a measurement matrix input unit that gives a matrix having uv coordinate values as matrix elements as an initial value;
An omnidirectional camera motion comprising a factorization processing unit that restores the motion of the camera and the three-dimensional information of the outside world from the data supplied from the intersection coordinate measurement unit and the measurement matrix input unit by a factorization method And 3D information restoration device.
全方位カメラから取得した時系列の全方位画像(または広視野画像)中において、対象とする画像に配置した特徴点に関する画像座標値の時間的変化量から、時系列における全方位カメラ視点の運動、並びに、外界の物体形状を構成する3次元情報を復元する装置であって、
各画像をuv画像に変換する画像変換処理部と、
各画像における特徴点の座標値を測定する特徴点計測部と、
各uv画像での投影中心付近での交点座標値を求める交点座標計測部と、
uv座標値を行列要素とする行列を初期値として与える計測行列入力部と、
交点座標計測部と計測行列入力部とから供給されたデータから因子分解法によりカメラの運動と外界の3次元情報を復元する因子分解法処理部とを備えたこと
を特徴とする全方位カメラ運動と3次元情報の復元装置。
The movement of the omnidirectional camera viewpoint in time series based on the amount of temporal change in the image coordinate values of the feature points placed in the target image in the chronological omnidirectional image (or wide-field image) acquired from the omnidirectional camera. And a device for restoring the three-dimensional information constituting the object shape of the outside world,
An image conversion processing unit for converting each image into a uv image;
A feature point measurement unit that measures coordinate values of feature points in each image;
An intersection coordinate measurement unit for obtaining an intersection coordinate value near the projection center in each uv image;
a measurement matrix input unit that gives a matrix having uv coordinate values as matrix elements as an initial value;
An omnidirectional camera motion comprising a factorization processing unit that restores the motion of the camera and the three-dimensional information of the outside world from the data supplied from the intersection coordinate measurement unit and the measurement matrix input unit by a factorization method And 3D information restoration device.
前記計測行列変換部から供給されたuv画像を特異値分解して得た特異値成分から運動の自由度を表す判定値を算出する復元処理判定部を備え、
判定値がある一定値未満の場合は、カメラ運動が平面運動をしたとみなして、前記因子分解法処理部は光軸周りの回転とその光軸に垂直な平面上の運動からなる自由度3の平面運動と3次元情報を復元する処理を行い、
判定値がある一定値以上の場合は、カメラ運動が平面運動以外の一般運動をしたとみなして、前記因子分解法処理部はカメラに関する回転と並進運動からなる自由度6の運動と外界の3次元情報を復元する処理を行なうこと
を特徴とする請求項5記載の全方位カメラ運動と3次元情報の復元装置。
A restoration processing determination unit that calculates a determination value representing a degree of freedom of movement from a singular value component obtained by performing singular value decomposition on the uv image supplied from the measurement matrix conversion unit;
When the determination value is less than a certain value, it is considered that the camera motion is a plane motion, and the factorization processing unit has a degree of freedom 3 consisting of a rotation around the optical axis and a motion on a plane perpendicular to the optical axis. To restore the plane motion and 3D information of
If the determination value is equal to or greater than a certain value, it is assumed that the camera motion is a general motion other than a plane motion, and the factorization processing unit performs a motion of 6 degrees of freedom consisting of rotation and translational motion related to the camera and 3 of the external world. 6. The apparatus for restoring omnidirectional camera motion and three-dimensional information according to claim 5, wherein a process for restoring the dimensional information is performed.
前記特徴点計測部から供給されたuv画像を特異値分解して得た特異値成分から運動を表す判定値を算出する復元処理判定部を備え、
判定値がある一定値末満の場合は、カメラ運動が平面運動をしたとみなして、前記因子分解法処理部は光軸周りの回転とその光軸に垂直な平面上の運動からなる自由度3の平面運動と3次元情報を復元する処理を行い、
判定値がある一定値以上の場合は、カメラ運動が平面運動以外の一般運動をしたとみなして、前記因子分解法処理部はカメラに関する回転と並進運動からなる自由度6の運動と外界の3次元情報を復元する処理を行なうこと
を特徴とする請求項6記載の全方位カメラ運動と3次元情報の復元装置。
A restoration process determination unit that calculates a determination value representing motion from a singular value component obtained by performing singular value decomposition on the uv image supplied from the feature point measurement unit;
When the judgment value is less than a certain value, it is considered that the camera motion is a plane motion, and the factorization processing unit has a degree of freedom comprising a rotation around the optical axis and a motion on a plane perpendicular to the optical axis. 3 to restore the plane motion and 3D information,
If the determination value is equal to or greater than a certain value, it is assumed that the camera motion is a general motion other than a plane motion, and the factorization processing unit performs a motion of 6 degrees of freedom consisting of rotation and translational motion related to the camera and 3 of the external world. 7. The apparatus for restoring omnidirectional camera motion and three-dimensional information according to claim 6, wherein processing for restoring the dimensional information is performed.
全方位カメラから取得した時系列の全方位画像(または広視野画像)中において、対象とする画像に配置した特徴点に関する画像座標値の時間的変化量から、時系列における全方位カメラ視点の運動、並びに、外界の物体形状を構成する3次元情報を復元する方法をコンピュータによって実行するプログラムであって、
時系列の全方位画像(または広視野画像)に設定した特徴点座標系において、各画像における特徴点の時間的変化量を示す画像座標値と、各画像における投影中心付近での線分がなす交点の画像座標値(交点座標値)を測定するステップ(計測行列測定ステップ)と、
この計測行列測定ステップにおいて得た各特徴点の画像座標値から算出される位相角と仰角により別の座標値(uv座標値)を求め、これらの各特徴点のuv座標値と、交点座標値を用いて復元処理するための行列データ(行列分解データ)を生成し、この行列分解データを特異値分解し、雑音除去を行って運動情報を表す行列データと3次元情報を表す行列データを得て、その運動情報の成分から、運動を規定するために設定した条件を満足する変換行列を求め、運動情報となる行列データにこの変換行列を作用させて全方位カメラ視点の光軸周りの回転運動とそれに垂直な平面(XY平面)上の並進運動(この自由度3の運動を平面運動と称する)を復元し、光軸周りの回転角と交点座標値を使って、光軸以外の他軸周りの回転運動を復元し、さらに、3次元情報を表す行列データにこの変換行列の逆行列を作用させて物体形状を構成する3次元情報を復元するステップ(平面運動と3次元情報の復元ステップ)と、
この平面運動と3次元情報の復元ステップで得た平面連動と3次元情報から各特徴点に関するuv座標系での再投影座標値を求め、その再投影座標値と行列分解データを構成する行列要素との間の誤差を算出し、この誤差と、平面運動と3次元情報の復元ステップで得た特徴点のZ座標値(3次元情報の成分)を使って、カメラ視点のZ軸方向の並進運動を復元するステップ(Z軸並進運動復元ステップ)と、
このZ軸並進運動復元スナッブで得た誤差が、ある一定値以下に収束しているかどらかを判断し、収束していないならば、平面運動と3次元情報の復元ステップで得た平面運動と3次元情報、並びに、光軸以外の軸周りの回転運動から変形運動を求め、この変形係数を各特徴点のuv座標値に結合させて新たなuv座標値を求め、これを行列要素とする行列分解データを生成し、平面運動と3次元情報の復元ステップに戻り、誤差が一定値以下に収束するまで反復して、全方位カメラ運動と3次元情報を復元する処理を行なうステップとを有すること
を特徴とする全方位カメラ運動と3次元情報の復元方法を実行するプログラム。
The movement of the omnidirectional camera viewpoint in time series based on the amount of temporal change in the image coordinate values of the feature points placed in the target image in the chronological omnidirectional image (or wide-field image) acquired from the omnidirectional camera. And a program for executing, by a computer, a method for restoring the three-dimensional information constituting the object shape of the outside world,
In a feature point coordinate system set for a time-series omnidirectional image (or wide-field image), an image coordinate value indicating a temporal change amount of a feature point in each image and a line segment near the projection center in each image are formed. A step of measuring the image coordinate value (intersection coordinate value) of the intersection (measurement matrix measurement step);
Different coordinate values (uv coordinate values) are obtained from the phase angle and elevation angle calculated from the image coordinate values of each feature point obtained in this measurement matrix measurement step, and the uv coordinate values and intersection coordinate values of these feature points are obtained. Is used to generate matrix data (matrix decomposition data) for restoration processing, singular value decomposition of this matrix decomposition data, and noise removal to obtain matrix data representing motion information and matrix data representing three-dimensional information From the motion information component, a transformation matrix that satisfies the conditions set to define the motion is obtained, and this transformation matrix is applied to the matrix data that is motion information to rotate around the optical axis of the omnidirectional camera viewpoint. Restoring the motion and translational motion on the plane perpendicular to it (XY plane) (this motion with 3 degrees of freedom is called plane motion), and using the rotation angle around the optical axis and the intersection coordinate value, Restore rotational movement around the axis And, further, a step (restoration step of planar motion and three-dimensional information) to restore the three-dimensional information that constitutes the object shape by applying an inverse matrix of the transformation matrix matrix data representing the three-dimensional information,
The re-projection coordinate value in the uv coordinate system for each feature point is obtained from the plane interlock and the three-dimensional information obtained in the plane motion and the three-dimensional information restoration step, and the reprojected coordinate value and matrix elements constituting the matrix decomposition data Using this error and the Z coordinate value (component of 3D information) of the feature point obtained in the plane motion and 3D information restoration step, the translation of the camera viewpoint in the Z-axis direction is calculated. A step of restoring motion (Z-axis translational motion restoration step);
It is determined whether the error obtained by the Z-axis translational motion recovery snubber has converged to a certain value or less. If not, the planar motion and the planar motion obtained in the three-dimensional information recovery step A deformation motion is obtained from the three-dimensional information and a rotational motion around an axis other than the optical axis, and this deformation coefficient is combined with the uv coordinate value of each feature point to obtain a new uv coordinate value, which is used as a matrix element. Generating matrix-decomposed data, returning to the plane motion and three-dimensional information restoration step, and repeating the process until the error converges to a certain value or less to perform processing for restoring the omnidirectional camera motion and the three-dimensional information. A program for executing an omnidirectional camera motion and a method for restoring three-dimensional information.
全方位カメラから取得した時系列の全方位画像(または広視野画像)中において、対象とする画像に配置した特徴点に関する画像座標値の時間的変化量から、時系列における全方位カメラ視点の運動、並びに、外界の物体形状を構成する3次元情報を復元する方法をコンピュータによって実行するプログラムであって、
取得した時系列の全方位画像(または広視野画像)に対して、各画像座標値から得られる位相角と仰角により各画像座標値をuv座標値に変換して各画素をそのuv座標値に対応付けるように時系列画像(uv画像)を生成し、このuv画像に設定した特徴点座標系において、各画像における特徴点の時間的変化量を示すuv座標値と、各uv画像における投影中心付近での線分がなす交点のuv座標値(交点座標値)を測定するステップ(uv計測行列測定ステップ)と、
このuv計測行列測定ステップにおいて得た各特徴点のuv座標値と、交点座標値を用いて復元処理するための行列データ(行列分解データ)を生成し、この行列分解データを特異値分解し、雑音除去を行って運動情報を表す行列データと3次元情報を表す行列データを得て、その運動情報の成分から、運動を規定するために設定した条件を満足する変換行列を求め、運動情報となる行列データにこの変換行列を作用させて全方位カメラ視点の光軸周りの回転運動とそれに垂直な平面(XY平面)上の並進運動(この自由度3の運動を平面運動と称する)を復元し、光軸周りの回転角と交点座標値を使って、光軸以外の他軸周りの回転運動を復元し、さらに、3次元情報を表す行列データにこの変換行列の逆行列を作用させて物体形状を構成する3次元情報を復元するステップ(平面運動と3次元情報の復元ステップ)と、
平面運動と3次元情報の復元ステップで得た平面運動と3次元情報から各特徴点に関するuv座標系での再投影座標値を求め、その再投影座標値と行列分解データを構成する行列要素との間の誤差を算出し、この誤差と、平面運動と3次元情報の復元ステップで得た特徴点のZ座標値(3次元情報の成分)を使って、カメラ視点のZ軸方向の並進運動を復元するステップ(Z軸並進運動復元ステップ)と、
このZ軸並進運動復元ステップで得た誤差が、ある一定値以下に収束しているかどうかを判断し、収束していないならば、平面運動と3次元情報の復元ステップで得た平面運動と3次元情報、並びに、光軸以外の軸周りの回転運動から変形係数求め、この変形係数を各特徴点のuv座標値に結合させて新たなuv座標値を求め、これを行列要素とする行列分解データを生成し、平面運動と3次元情報の復元ステップに戻り、誤差が一定値以下に収束するまで反復して,全方位カメラ運動と3次元情報を復元するステップとを有すること
を特徴とする全方位カメラ運動と3次元情報の復元方法を実行するプログラム。
The movement of the omnidirectional camera viewpoint in time series based on the amount of temporal change in the image coordinate values of the feature points placed in the target image in the chronological omnidirectional image (or wide-field image) acquired from the omnidirectional camera. And a program for executing, by a computer, a method for restoring the three-dimensional information constituting the object shape of the outside world,
With respect to the acquired time-series omnidirectional image (or wide-field image), each image coordinate value is converted into a uv coordinate value by a phase angle and an elevation angle obtained from each image coordinate value, and each pixel is converted to its uv coordinate value. A time-series image (uv image) is generated so as to be associated, and in the feature point coordinate system set for this uv image, the uv coordinate value indicating the temporal change amount of the feature point in each image and the vicinity of the projection center in each uv image Measuring a uv coordinate value (intersection coordinate value) of an intersection formed by a line segment at (uv measurement matrix measurement step);
Generate matrix data (matrix decomposition data) for restoration processing using the uv coordinate value of each feature point obtained in the uv measurement matrix measurement step and the intersection coordinate value, and singular value decomposition of the matrix decomposition data, The matrix data representing the motion information and the matrix data representing the three-dimensional information are obtained by performing noise removal, and a transformation matrix satisfying the conditions set for defining the motion is obtained from the motion information components, and the motion information and This transformation matrix is applied to the matrix data to restore the rotational motion around the optical axis of the omnidirectional camera viewpoint and the translational motion on this plane (XY plane) (this motion with 3 degrees of freedom is called planar motion). Then, using the rotation angle around the optical axis and the coordinate value of the intersection point, the rotational motion around the other axis other than the optical axis is restored, and the inverse matrix of this transformation matrix is applied to the matrix data representing the three-dimensional information. Configure object shape And step (restoration step of planar motion and three-dimensional information) to restore the three-dimensional information that,
A reprojection coordinate value in the uv coordinate system for each feature point is obtained from the plane motion and 3D information obtained in the plane motion and 3D information restoration step, and the reprojected coordinate value and matrix elements constituting matrix decomposition data are obtained. Using this error and the Z coordinate value (component of 3D information) of the feature point obtained in the plane motion and 3D information restoration step, the translational motion of the camera viewpoint in the Z-axis direction is calculated. Restoring (Z-axis translational motion restoring step),
It is determined whether or not the error obtained in the Z-axis translational motion restoration step has converged to a certain value or less. If the error has not converged, the planar motion obtained in the planar motion and three-dimensional information restoration step and 3 Deformation coefficient is obtained from dimensional information and rotational motion around an axis other than the optical axis, and this deformation coefficient is combined with the uv coordinate value of each feature point to obtain a new uv coordinate value, and matrix decomposition using this as a matrix element Generating data, returning to the plane motion and 3D information restoration step, and repeating the process until the error converges to a certain value or less to restore the omnidirectional camera motion and 3D information. A program that executes omnidirectional camera motion and 3D information restoration method.
前記計測行列測定ステップにおいて、計測行列を特異値分解して得る特異値成分から運動の自由度を表す判定値を算出し、
判定値がある一定値未満の場合は、カメラ運動が平面運動をしたとみなして、前記全方位カメラ運動と3次元情報を復元するステップにおいて、光軸周りの回転とその光軸に垂直な平面上の運動からなる自由度3の平面運動と3次元情報を復元する処理を行い、
判定値がある一定値以上の場合は、カメラ運動が平面運動以外の一般運動をしたとみなして、前記全方位カメラ運動と3次元情報を復元するステップによって、カメラに関する回転と並進運動からなる自由度6の運動と外界の3次元情報を復元する処理を行なうステップを有すること
を特徴とする請求項9記載の全方位カメラ運動と3次元情報の復元方法実行するプログラム。
In the measurement matrix measurement step, a determination value representing a degree of freedom of movement is calculated from a singular value component obtained by singular value decomposition of the measurement matrix,
When the determination value is less than a certain value, the camera motion is regarded as a plane motion, and in the step of restoring the omnidirectional camera motion and the three-dimensional information, the rotation around the optical axis and the plane perpendicular to the optical axis are performed. Perform 3 degrees of freedom of plane motion consisting of the above motion and processing to restore 3D information,
If the judgment value is greater than a certain value, the camera motion is regarded as a general motion other than a plane motion, and the omnidirectional camera motion and the three-dimensional information are restored, and the free motion consisting of rotation and translational motion about the camera 10. The program for executing an omnidirectional camera motion and three-dimensional information restoration method according to claim 9, further comprising a step of performing a process of restoring the motion of degree 6 and the three-dimensional information of the outside world.
前記uv計測行列測定ステップにおいて、計測行列を特異値分解して得る特異値成分から運動を表す判定値を算出し、
判定値がある一定値末満の場合は、カメラ運動が平面運動をしたとみなして、前記全方位カメラ運動と3次元情報を復元するステップにおいて、光軸周りの回転とその光軸に垂直な平面上の運動からなる自由度3の平面運動と3次元情報を復元する処理を行い、
判定値がある一定値以上の場合は、カメラ運動が平面運動以外の一般運動をしたとみなして、前記全方位カメラ運動と3次元情報を復元するステップによって、カメラに関する回転と並進運動からなる自由度6の運動と外界の3次元情報を復元する処理を行なうステップを有すること
を特徴とする請求項10記載の全方位カメラ運動と3次元情報の復元方法実行するプログラム。
In the uv measurement matrix measurement step, a determination value representing motion is calculated from a singular value component obtained by singular value decomposition of the measurement matrix,
When the determination value is less than a certain value, the camera motion is considered to be a plane motion, and in the step of restoring the omnidirectional camera motion and the three-dimensional information, the rotation around the optical axis and the direction perpendicular to the optical axis are performed. Perform 3 degrees of freedom of plane motion consisting of motion on a plane and processing to restore 3D information,
If the judgment value is greater than a certain value, the camera motion is regarded as a general motion other than a plane motion, and the omnidirectional camera motion and the three-dimensional information are restored, and the free motion consisting of rotation and translational motion about the camera 11. The program for executing an omnidirectional camera motion and three-dimensional information restoration method according to claim 10, further comprising a step of performing processing for restoring the motion of degree 6 and the three-dimensional information of the outside world.
全方位カメラから取得した時系列の全方位画像(または広視野画像)中において、対象とする画像に配置した特徴点に関する画像座標値の時間的変化量から、時系列における全方位カメラ視点の運動、並びに、外界の物体形状を構成する3次元情報を復元する方法をコンピュータによって実行するプログラムを記録したコンピュータ読み取り可能な記録媒体であって、
時系列の全方位画像(または広視野画像)に設定した特徴点座標系において、各画像における特徴点の時間的変化量を示す画像座標値と、各画像における投影中心付近での線分がなす交点の画像座標値(交点座標値)を測定するステップ(計測行列測定ステップ)と、
この計測行列測定ステップにおいて得た各特徴点の画像座標値から算出される位相角と仰角により別の座標値(uv座標値)を求め、これらの各特徴点のuv座標値と、交点座標値を用いて復元処理するための行列データ(行列分解データ)を生成し、この行列分解データを特異値分解し、雑音除去を行って運動情報を表す行列データと3次元情報を表す行列データを得て、その運動情報の成分から、運動を規定するために設定した条件を満足する変換行列を求め、運動情報となる行列データにこの変換行列を作用させて全方位カメラ視点の光軸周りの回転運動とそれに垂直な平面(XY平面)上の並進運動(この自由度3の運動を平面運動と称する)を復元し、光軸周りの回転角と交点座標値を使って、光軸以外の他軸周りの回転運動を復元し、さらに、3次元情報を表す行列データにこの変換行列の逆行列を作用させて物体形状を構成する3次元情報を復元するステップ(平面運動と3次元情報の復元ステップ)と、
この平面運動と3次元情報の復元ステップで得た平面連動と3次元情報から各特徴点に関するuv座標系での再投影座標値を求め、その再投影座標値と行列分解データを構成する行列要素との間の誤差を算出し、この誤差と、平面運動と3次元情報の復元ステップで得た特徴点のZ座標値(3次元情報の成分)を使って、カメラ視点のZ軸方向の並進運動を復元するステップ(Z軸並進運動復元ステップ)と、
このZ軸並進運動復元スナッブで得た誤差が、ある一定値以下に収束しているかどらかを判断し、収束していないならば平面運動と3次元情報の復元ステップで得た平面運動と3次元情報、並びに、光軸以外の軸周りの回転運動から変形運動を求め、この変形係数を各特徴点のuv座標値に結合させて新たなuv座標値を求め、これを行列要素とする行列分解データを生成し、平面運動と3次元情報の復元ステップに戻り、誤差が一定値以下に収束するまで反復して、全方位カメラ運動と3次元情報を復元するステップとを有すること
を特徴とする全方位カメラ運動と3次元情報の復元方法をコンピュータによって実行するプログラムを記録したコンピュータ読み取り可能な記録媒体。
The movement of the omnidirectional camera viewpoint in time series based on the amount of temporal change in the image coordinate values of the feature points placed in the target image in the chronological omnidirectional image (or wide-field image) acquired from the omnidirectional camera. And a computer-readable recording medium recording a program for executing a method for restoring the three-dimensional information constituting the object shape of the outside world by a computer,
In a feature point coordinate system set for a time-series omnidirectional image (or wide-field image), an image coordinate value indicating a temporal change amount of a feature point in each image and a line segment near the projection center in each image are formed. A step of measuring the image coordinate value (intersection coordinate value) of the intersection (measurement matrix measurement step);
Different coordinate values (uv coordinate values) are obtained from the phase angle and elevation angle calculated from the image coordinate values of each feature point obtained in this measurement matrix measurement step, and the uv coordinate values and intersection coordinate values of these feature points are obtained. Is used to generate matrix data (matrix decomposition data) for restoration processing, singular value decomposition of this matrix decomposition data, and noise removal to obtain matrix data representing motion information and matrix data representing three-dimensional information From the motion information component, a transformation matrix that satisfies the conditions set to define the motion is obtained, and this transformation matrix is applied to the matrix data that is motion information to rotate around the optical axis of the omnidirectional camera viewpoint. Restoring the motion and translational motion on the plane perpendicular to it (XY plane) (this motion with 3 degrees of freedom is called plane motion), and using the rotation angle around the optical axis and the intersection coordinate value, Restore rotational movement around the axis And, further, a step (restoration step of planar motion and three-dimensional information) to restore the three-dimensional information that constitutes the object shape by applying an inverse matrix of the transformation matrix matrix data representing the three-dimensional information,
The re-projection coordinate value in the uv coordinate system for each feature point is obtained from the plane interlock and the three-dimensional information obtained in the plane motion and the three-dimensional information restoration step, and the reprojected coordinate value and matrix elements constituting the matrix decomposition data Using this error and the Z coordinate value (component of 3D information) of the feature point obtained in the plane motion and 3D information restoration step, the translation of the camera viewpoint in the Z-axis direction is calculated. A step of restoring motion (Z-axis translational motion restoration step);
It is determined whether or not the error obtained by the Z-axis translational motion recovery snubber has converged to a certain value or less. If not, the planar motion obtained by the planar motion and the three-dimensional information restoration step and 3 Determining the deformation motion from the dimensional information and the rotational motion around the axis other than the optical axis, combining this deformation coefficient with the uv coordinate value of each feature point to determine a new uv coordinate value, and using this as a matrix element Generating decomposition data, returning to the step of restoring the plane motion and the three-dimensional information, and repeating the steps until the error converges to a certain value or less to restore the omnidirectional camera motion and the three-dimensional information. A computer-readable recording medium having recorded thereon a computer program for executing an omnidirectional camera motion and a three-dimensional information restoration method.
全方位カメラから取得した時系列の全方位画像(または広視野画像)中において、対象とする画像に配置した特徴点に関する画像座標値の時間的変化量から、時系列における全方位カメラ視点の運動、並びに、外界の物体形状を構成する3次元情報を復元する方法をコンピュータによって実行するプログラムを記録したコンピュータ読み取り可能な記録媒体であって、
取得した時系列の全方位画像(または広視野画像)に対して、各画像座標値から得られる位相角と仰角により各画像座標値をuv座標値に変換して各画素をそのuv座標値に対応付けるように時系列画像(uv画像)を生成し、このuv画像に設定した特徴点座標系において、各画像における特徴点の時間的変化量を示すuv座標値と、各uv画像における投影中心付近での線分がなす交点のuv座標値(交点座標値)を測定するステップ(uv計測行列測定ステップ)と、
このuv計測行列測定ステップにおいて得た各特徴点のuv座標値と、交点座標値を用いて復元処理するための行列データ(行列分解データ)を生成し、この行列分解データを特異値分解し、雑音除去を行って運動情報を表す行列データと3次元情報を表す行列データを得て、その運動情報の成分から、運動を規定するために設定した条件を満足する変換行列を求め、運動情報となる行列データにこの変換行列を作用させて全方位カメラ視点の光軸周りの回転運動とそれに垂直な平面(XY平面)上の並進運動(この自由度3の運動を平面運動と称する)を復元し、光軸周りの回転角と交点座標値を使って、光軸以外の他軸周りの回転運動を復元し、さらに、3次元情報を表す行列データにこの変換行列の逆行列を作用させて物体形状を構成する3次元情報を復元するステップ(平面運動と3次元情報の復元ステップ)と、
平面運動と3次元情報の復元ステップで得た平面運動と3次元情報から各特徴点に関するuv座標系での再投影座標値を求め、その再投影座標値と行列分解データを構成する行列要素との間の誤差を算出し、この誤差と、平面運動と3次元情報の復元ステップで得た特徴点のZ座標値(3次元情報の成分)を使って、カメラ視点のZ軸方向の並進運動を復元するステップ(Z軸並進運動復元ステップ)と、
このZ軸並進運動復元ステップで得た誤差が、ある一定値以下に収束しているかどうかを判断し、収束していないならば、平面運動と3次元情報の復元ステップで得た平面運動と3次元情報、並びに、光軸以外の軸周りの回転運動から変形係数求め、この変形係数を各特徴点のuv座標値に結合させて新たなuv座標値を求め、これを行列要素とする行列分解データを生成し、平面運動と3次元情報の復元ステップに戻り、誤差が一定値以下に収束するまで反復して,全方位カメラ運動と3次元情報を復元するステップとを有すること
を特徴とする全方位カメラ運動と3次元情報の復元方法をコンピュータによって実行するプログラムを記録したコンピュータ読み取り可能な記録媒体。
The movement of the omnidirectional camera viewpoint in time series based on the amount of temporal change in the image coordinate values of the feature points placed in the target image in the chronological omnidirectional image (or wide-field image) acquired from the omnidirectional camera. And a computer-readable recording medium recording a program for executing a method for restoring the three-dimensional information constituting the object shape of the outside world by a computer,
With respect to the acquired time-series omnidirectional image (or wide-field image), each image coordinate value is converted into a uv coordinate value by a phase angle and an elevation angle obtained from each image coordinate value, and each pixel is converted to its uv coordinate value. A time-series image (uv image) is generated so as to be associated, and in the feature point coordinate system set for this uv image, the uv coordinate value indicating the temporal change amount of the feature point in each image and the vicinity of the projection center in each uv image Measuring a uv coordinate value (intersection coordinate value) of an intersection formed by a line segment at (uv measurement matrix measurement step);
Generate matrix data (matrix decomposition data) for restoration processing using the uv coordinate value of each feature point obtained in the uv measurement matrix measurement step and the intersection coordinate value, and singular value decomposition of the matrix decomposition data, The matrix data representing the motion information and the matrix data representing the three-dimensional information are obtained by performing noise removal, and a transformation matrix satisfying the conditions set for defining the motion is obtained from the motion information components, and the motion information and This transformation matrix is applied to the matrix data to restore the rotational motion around the optical axis of the omnidirectional camera viewpoint and the translational motion on this plane (XY plane) (this motion with 3 degrees of freedom is called planar motion). Then, using the rotation angle around the optical axis and the coordinate value of the intersection point, the rotational motion around the other axis other than the optical axis is restored, and the inverse matrix of this transformation matrix is applied to the matrix data representing the three-dimensional information. Configure object shape And step (restoration step of planar motion and three-dimensional information) to restore the three-dimensional information that,
A reprojection coordinate value in the uv coordinate system for each feature point is obtained from the plane motion and 3D information obtained in the plane motion and 3D information restoration step, and the reprojected coordinate value and matrix elements constituting matrix decomposition data are obtained. Using this error and the Z coordinate value (component of 3D information) of the feature point obtained in the plane motion and 3D information restoration step, the translational motion of the camera viewpoint in the Z-axis direction is calculated. Restoring (Z-axis translational motion restoring step),
It is determined whether or not the error obtained in the Z-axis translational motion restoration step has converged to a certain value or less. If the error has not converged, the planar motion obtained in the planar motion and 3D information restoration step and 3 Deformation coefficient is obtained from dimensional information and rotational motion around an axis other than the optical axis, and this deformation coefficient is combined with the uv coordinate value of each feature point to obtain a new uv coordinate value, and matrix decomposition using this as a matrix element Generating data, returning to the plane motion and 3D information restoration step, and repeating the process until the error converges to a certain value or less to restore the omnidirectional camera motion and 3D information. A computer-readable recording medium storing a program for executing an omnidirectional camera motion and a three-dimensional information restoration method by a computer.
前記計測行列測定ステップにおいて、計測行列を特異値分解して得る特異値成分から運動の自由度を表す判定値を算出し、
判定値がある一定値未満の場合は、カメラ運動が平面運動をしたとみなして、前記全方位カメラ運動と3次元情報を復元するステップにおいて、光軸周りの回転とその光軸に垂直な平面上の運動からなる自由度3の平面運動と3次元情報を復元する処理を行い、
判定値がある一定値以上の場合は、カメラ運動が平面運動以外の一般運動をしたとみなして、前記全方位カメラ運動と3次元情報を復元するステップによって、カメラに関する回転と並進運動からなる自由度6の運動と外界の3次元情報を復元する処理を行なうステップを有すること
を特徴とする請求項13記載の全方位カメラ運動と3次元情報の復元方法をコンピュータによって実行するプログラムを記録したコンピュータ読み取り可能な記録媒体。
In the measurement matrix measurement step, a determination value representing a degree of freedom of movement is calculated from a singular value component obtained by singular value decomposition of the measurement matrix,
When the determination value is less than a certain value, the camera motion is regarded as a plane motion, and in the step of restoring the omnidirectional camera motion and the three-dimensional information, the rotation around the optical axis and the plane perpendicular to the optical axis are performed. Perform 3 degrees of freedom of plane motion consisting of the above motion and processing to restore 3D information,
If the judgment value is greater than a certain value, the camera motion is regarded as a general motion other than a plane motion, and the omnidirectional camera motion and the three-dimensional information are restored, and the free motion consisting of rotation and translational motion about the camera 14. A computer having recorded thereon a program for executing an omnidirectional camera motion and three-dimensional information restoration method by a computer according to claim 13, further comprising a step of restoring the motion of degree 6 and the three-dimensional information of the outside world. A readable recording medium.
前記uv計測行列測定ステップにおいて、計測行列を特異値分解して得る特異値成分から運動を表す判定値を算出し、
判定値がある一定値末満の場合は、カメラ運動が平面運動をしたとみなして、前記全方位カメラ運動と3次元情報を復元するステップにおいて、光軸周りの回転とその光軸に垂直な平面上の運動からなる自由度3の平面運動と3次元情報を復元する処理を行い、
判定値がある一定値以上の場合は、カメラ運動が平面運動以外の一般運動をしたとみなして、前記全方位カメラ運動と3次元情報を復元するステップによって、カメラに関する回転と並進運動からなる自由度6の運動と外界の3次元情報を復元する処理を行なうステップを有すること
を特徴とする請求項14記載の全方位カメラ運動と3次元情報の復元方法をコンピュータによって実行するプログラムを記録したコンピュータ読み取り可能な記録媒体。
In the uv measurement matrix measurement step, a determination value representing motion is calculated from a singular value component obtained by singular value decomposition of the measurement matrix,
When the determination value is less than a certain value, the camera motion is considered to be a plane motion, and in the step of restoring the omnidirectional camera motion and the three-dimensional information, the rotation around the optical axis and the direction perpendicular to the optical axis are performed. Perform 3 degrees of freedom of plane motion consisting of motion on a plane and processing to restore 3D information,
If the judgment value is greater than a certain value, the camera motion is regarded as a general motion other than a plane motion, and the omnidirectional camera motion and the three-dimensional information are restored, and the free motion consisting of rotation and translational motion about the camera 15. A computer recording a program for executing the omnidirectional camera motion and the three-dimensional information restoration method by the computer according to claim 14, further comprising a step of restoring the motion of degree 6 and the three-dimensional information of the outside world. A readable recording medium.
JP2003290024A 2003-08-08 2003-08-08 Full azimuth camera motion and method and device for restoring three-dimensional information and program and recording medium with the same recorded Pending JP2005063012A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003290024A JP2005063012A (en) 2003-08-08 2003-08-08 Full azimuth camera motion and method and device for restoring three-dimensional information and program and recording medium with the same recorded

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003290024A JP2005063012A (en) 2003-08-08 2003-08-08 Full azimuth camera motion and method and device for restoring three-dimensional information and program and recording medium with the same recorded

Publications (1)

Publication Number Publication Date
JP2005063012A true JP2005063012A (en) 2005-03-10

Family

ID=34368174

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003290024A Pending JP2005063012A (en) 2003-08-08 2003-08-08 Full azimuth camera motion and method and device for restoring three-dimensional information and program and recording medium with the same recorded

Country Status (1)

Country Link
JP (1) JP2005063012A (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017017674A (en) * 2015-06-30 2017-01-19 日本電信電話株式会社 Vertical axis calibration device, method, and program
US10992879B2 (en) 2017-03-17 2021-04-27 Ricoh Company, Ltd. Imaging system with multiple wide-angle optical elements arranged on a straight line and movable along the straight line
US11039120B2 (en) 2017-01-31 2021-06-15 Ricoh Company, Ltd. Imaging apparatus
CN114492117A (en) * 2022-01-10 2022-05-13 西北工业大学 Large-scale structure displacement field reconstruction method based on photogrammetry
US11348200B2 (en) 2019-09-20 2022-05-31 Ricoh Company, Ltd. Information processing apparatus for correcting a zenith of a spherical image, information processing method, and non-transitory computer-readable recording medium
CN114608450A (en) * 2022-03-10 2022-06-10 西安应用光学研究所 Method for measuring and calculating three-dimensional size of remote sea surface target by airborne photoelectric system
CN116452776A (en) * 2023-06-19 2023-07-18 国网浙江省电力有限公司湖州供电公司 Low-carbon substation scene reconstruction method based on vision synchronous positioning and mapping system

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017017674A (en) * 2015-06-30 2017-01-19 日本電信電話株式会社 Vertical axis calibration device, method, and program
US11039120B2 (en) 2017-01-31 2021-06-15 Ricoh Company, Ltd. Imaging apparatus
US10992879B2 (en) 2017-03-17 2021-04-27 Ricoh Company, Ltd. Imaging system with multiple wide-angle optical elements arranged on a straight line and movable along the straight line
US11348200B2 (en) 2019-09-20 2022-05-31 Ricoh Company, Ltd. Information processing apparatus for correcting a zenith of a spherical image, information processing method, and non-transitory computer-readable recording medium
CN114492117A (en) * 2022-01-10 2022-05-13 西北工业大学 Large-scale structure displacement field reconstruction method based on photogrammetry
CN114492117B (en) * 2022-01-10 2024-03-19 西北工业大学 Large-scale structure displacement field reconstruction method based on photogrammetry
CN114608450A (en) * 2022-03-10 2022-06-10 西安应用光学研究所 Method for measuring and calculating three-dimensional size of remote sea surface target by airborne photoelectric system
CN114608450B (en) * 2022-03-10 2023-09-26 西安应用光学研究所 Method for measuring and calculating three-dimensional size of remote sea surface target by airborne photoelectric system
CN116452776A (en) * 2023-06-19 2023-07-18 国网浙江省电力有限公司湖州供电公司 Low-carbon substation scene reconstruction method based on vision synchronous positioning and mapping system
CN116452776B (en) * 2023-06-19 2023-10-20 国网浙江省电力有限公司湖州供电公司 Low-carbon substation scene reconstruction method based on vision synchronous positioning and mapping system

Similar Documents

Publication Publication Date Title
US10334168B2 (en) Threshold determination in a RANSAC algorithm
JP6057298B2 (en) Rapid 3D modeling
JP6011548B2 (en) Camera calibration apparatus, camera calibration method, and camera calibration program
WO2012083982A1 (en) Method for determining a parameter set designed for determining the pose of a camera and/or for determining a three-dimensional structure of the at least one real object
EP3185212B1 (en) Dynamic particle filter parameterization
Pathak et al. Dense 3D reconstruction from two spherical images via optical flow-based equirectangular epipolar rectification
JP2005063012A (en) Full azimuth camera motion and method and device for restoring three-dimensional information and program and recording medium with the same recorded
JP2006195790A (en) Lens distortion estimation apparatus, lens distortion estimation method, and lens distortion estimation program
JP4778569B2 (en) Stereo image processing apparatus, stereo image processing method, and stereo image processing program
WO2018100230A1 (en) Method and apparatuses for determining positions of multi-directional image capture apparatuses
CN114187344A (en) Map construction method, device and equipment
WO2018150086A2 (en) Methods and apparatuses for determining positions of multi-directional image capture apparatuses
JP2005063013A (en) Method and device for restoring view point motions of full azimuth camera and three-dimensional information, and program and recording medium with the same recorded
JP3901552B2 (en) Omnidirectional camera viewpoint movement and object shape restoration method, apparatus, omnidirectional camera viewpoint movement and object shape restoration program, and recording medium recording the program
JP2005078554A (en) Restoration method and device for fish-eye camera motion and three-dimensional information, and recording medium with program for implementing it recorded
JP2006172026A (en) Camera motion, and device and method for restoring three-dimensional information, and program
JP2006106930A (en) Parameter estimation device, parameter estimation method and parameter estimation program
Ahmadabadian Photogrammetric multi-view stereo and imaging network design
JP2004127080A (en) Restoration method, device and program of omnidirectional camera motion and spatial information, and storage medium recording the program
JP2006106929A (en) Parameter estimation device, parameter estimation method and parameter estimation program
CN116170689A (en) Video generation method, device, computer equipment and storage medium
JP3759712B2 (en) Camera parameter estimation method, apparatus, program, and recording medium
Martín et al. Heuristic method based on voting for extrinsic orientation through image epipolarization
JP2006195789A (en) Lens distortion estimation apparatus, lens distortion estimation method, and lens distortion estimation program
JP2005030956A (en) Three-dimensional information restoration method, three-dimensional information restoration, three-dimensional information restoration program, and recording medium with the program recorded thereon