JP2000067216A - Method and device for acquiring three-dimensional structure and recording medium for the method - Google Patents

Method and device for acquiring three-dimensional structure and recording medium for the method

Info

Publication number
JP2000067216A
JP2000067216A JP10232979A JP23297998A JP2000067216A JP 2000067216 A JP2000067216 A JP 2000067216A JP 10232979 A JP10232979 A JP 10232979A JP 23297998 A JP23297998 A JP 23297998A JP 2000067216 A JP2000067216 A JP 2000067216A
Authority
JP
Japan
Prior art keywords
input device
image input
component
shape
motion
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP10232979A
Other languages
Japanese (ja)
Inventor
Isao Miyagawa
勲 宮川
Shigeru Nagai
茂 長井
Norio Nakamura
典生 中村
Toshiaki Sugimura
利明 杉村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP10232979A priority Critical patent/JP2000067216A/en
Publication of JP2000067216A publication Critical patent/JP2000067216A/en
Pending legal-status Critical Current

Links

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)

Abstract

PROBLEM TO BE SOLVED: To acquire the structure of an object or accurate structure of a shape from two-dimensional(2D) measured data (measurement matrix) at a feature point provided from time sequential image data photographing the object. SOLUTION: Concerning this 3D structure acquiring method, the coordinate values of feature points constituting the structure of the object are measured in the photographed 2D image data, the feature points are time sequentially traced and concerning the provided 2D measured data of time sequential feature points, the structure or shape of the object is acquired while using a fractorizing method. In this case, the data are decomposed into action information of the camera removing a noise component and structure information of the object removing a noise component and in this decomposing process, a sensor to be operated synchronously with the physical motion of the camera measures the angle value of rotation around the horizontal axis of coordinates of the camera on a coordinate system with the viewpoint of the camera as an origin, the angle value of rotation around the vertical axis, and the angle value of rotation around an optical axis as the motion information of the camera. While using this measured motion information, the relevant motion information is corrected and the structure component of the fractorized object is restored/ reproduced.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、時系列の2次元画
像から計測した物体の構造もしくは形状を構成する特徴
点を、時系列に追跡した2次元計測データから、物体の
構造もしくは形状を構成する特徴点の3次元座標値を獲
得する3次元構造獲得方法、この3次元構造獲得方法の
処理手順をコンピュータに実行させるためのプログラム
を記録したコンピュータ読みとり可能な記録媒体及びそ
の実施装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a method for constructing a structure or a shape of an object from two-dimensional measurement data tracked in a time series for feature points constituting the structure or the shape of the object measured from a time-series two-dimensional image. The present invention relates to a three-dimensional structure obtaining method for obtaining three-dimensional coordinate values of feature points to be performed, a computer-readable recording medium storing a program for causing a computer to execute the processing procedure of the three-dimensional structure obtaining method, and an apparatus for implementing the same.

【0002】[0002]

【従来の技術】物体を撮影した2次元画像上の特徴点か
ら物体の構造もしくは形状を復元、再現する3次元情報
の獲得方法は、複数の画像から特徴点の対応点をマッチ
ングした多眼視により、3次元情報を獲得する方法が従
来から行われている。図15は従来のカメラ1とカメラ
2のステレオ視による3次元構造獲得方法の例を示す図
であり、01は対象とする物体、02は3次元座標値、
03はカメラ1の光軸、04はカメラ2の光軸、05は
カメラ1による画像面、06はカメラ2による画像面、
07はカメラ1での対応点(X1,Y1)、08はカメラ2
での対応点(X2,Y2)、09は基線長である。
2. Description of the Related Art A method of acquiring three-dimensional information for restoring and reproducing the structure or shape of an object from a feature point on a two-dimensional image obtained by photographing the object is a multi-view image matching corresponding points of feature points from a plurality of images. Accordingly, a method of acquiring three-dimensional information has been conventionally performed. FIG. 15 is a diagram illustrating an example of a conventional three-dimensional structure acquisition method by stereoscopic viewing of the camera 1 and the camera 2, where 01 is an object, 02 is three-dimensional coordinate values,
03 is the optical axis of camera 1, 04 is the optical axis of camera 2, 05 is the image plane of camera 1, 06 is the image plane of camera 2,
07 is the corresponding point (X 1 , Y 1 ) on camera 1 and 08 is camera 2
, The corresponding point (X 2 , Y 2 ), 09 is the base line length.

【0003】一方、特徴点を時系列に追跡した特徴点デ
ータ、すなわち計測行列から特異値分解を採り入れた因
子分解法なる3次元構造獲得方法により、画像入力装置
の物理的運動と、物体の構造もしくは形状を同時に、か
つ、ロバストに求めることができる方法が提案され、近
年、前記因子分解法の様々な応用・改良が行われてい
る。
On the other hand, the physical motion of an image input device and the structure of an object are obtained by a feature point data obtained by tracking feature points in time series, that is, a three-dimensional structure acquisition method called a factorization method employing singular value decomposition from a measurement matrix. Alternatively, a method has been proposed in which the shape can be determined simultaneously and robustly. In recent years, various applications and improvements of the factor decomposition method have been made.

【0004】前記因子分解法なる手段を用いた3次元構
造獲得装置は、例えば、特開平10−111934号公
報に開示されている。
A three-dimensional structure obtaining apparatus using the factor decomposition method is disclosed, for example, in Japanese Patent Application Laid-Open No. H10-111934.

【0005】[0005]

【発明が解決しようとする課題】しかし、前記の従来の
因子分解法等では、2次元画像から得た計測行列を測定
する場合、画像座標上の量子化誤差や、測定誤差等によ
る雑音の影響を受け、画像入力装置の物理的運動の誤検
出や、物体の構造もしくは形状の歪みにも、影響を及ぼ
すという問題があった。
However, in the above-described conventional factorization method or the like, when measuring a measurement matrix obtained from a two-dimensional image, the influence of noise due to quantization errors on the image coordinates and measurement errors. Accordingly, there has been a problem that erroneous detection of physical movement of the image input device and distortion of the structure or shape of the object are affected.

【0006】本発明の目的は、物体を撮影した時系列画
像から得た特徴点の2次元計測データから、特徴点が構
成する物体の構造もしくは形状の3次元構造を獲得する
手段において、復元・再現する物体の構造もしくは形状
の精度を向上させることが可能な技術を提供することに
ある。
An object of the present invention is to provide a method for obtaining a three-dimensional structure of a structure or a shape of an object constituted by a feature point from two-dimensional measurement data of the feature point obtained from a time-series image of the object. An object of the present invention is to provide a technique capable of improving the accuracy of the structure or shape of an object to be reproduced.

【0007】本発明の前記ならびにその他の目的と新規
な特徴は、本明細書の記述及び添付図面によって明らか
にする。
[0007] The above and other objects and novel features of the present invention will become apparent from the description of the present specification and the accompanying drawings.

【0008】[0008]

【課題を解決するための手段】本願において開示される
発明のうち代表的なものの概要を簡単に説明すれば、以
下のとおりである。
The outline of a typical invention among the inventions disclosed in the present application will be briefly described as follows.

【0009】(1)画像入力装置により物体(対象物)
を撮影し、該撮影した2次元画像データにおいて、物体
の構造もしくは形状を構成する2次元座標点(以下、
「特徴点」と称する)を測定し、時系列に特徴点を追跡
し、得られた時系列の特徴点データ(特異値分解法の入
力データ)を因子分解法を用いて、物体の構造もしくは
形状を獲得する3次元構造獲得方法であって、前記特徴
点データから構成される2次元計測データを、因子分解
法により、雑音成分を除去した前記画像入力装置の物理
的運動を表現する運動情報と、雑音成分を除去した物体
の構造もしくは形状を表現する構造情報もしくは形状情
報に分解し、該分解する過程で、前記画像入力装置の物
理的運動に同期して動作するセンサ装置により、前記画
像入力装置の視点を原点とする座標系(画像入力装置の
座標系、カメラ(視点)座標系)における、前記画像入
力装置の座標の水平方向の軸周りの回転角度値、垂直方
向の軸周りの回転角度値、及び光軸周りの回転角度値を
前記画像入力装置の運動情報として計測し、該計測した
運動情報を用いて当該運動成分を補正し、かつ、因子分
解した物体の構造成分もしくは形状成分を復元・再現す
る。
(1) An object (object) by the image input device
Is captured, and two-dimensional coordinate points (hereinafter, referred to as “structures”) constituting the structure or shape of the object are obtained from the captured two-dimensional image data.
"Feature points") are measured, the feature points are tracked in a time series, and the obtained time-series feature point data (input data of the singular value decomposition method) is subjected to a factor decomposition method to obtain an object structure or A three-dimensional structure acquiring method for acquiring a shape, wherein motion information representing physical motion of the image input device from which noise components have been removed from two-dimensional measurement data composed of the feature point data by a factorization method. And decompose into structural information or shape information representing the structure or shape of the object from which the noise component has been removed, and in the process of decomposing, the sensor device that operates in synchronization with the physical motion of the image input device, In a coordinate system (the coordinate system of the image input device, the coordinate system of the camera (viewpoint)) with the viewpoint of the input device as the origin, the rotation angle value of the coordinates of the image input device around the horizontal axis and the rotation angle around the vertical axis rotation A degree value, and a rotation angle value around the optical axis are measured as motion information of the image input device, the motion component is corrected using the measured motion information, and a structural component or a shape component of the factorized object is measured. Is restored and reproduced.

【0010】(2)前記特徴点データから構成される2
次元計測データを、因子分解法により、雑音成分を除去
した前記画像入力装置の物理的運動を表現する運動情報
と、雑音成分を除去した物体の構造もしくは形状を表現
する構造情報もしくは形状情報に分解する過程で、前記
画像入力装置の物理的運動に同期して動作するセンサ装
置により、前記画像入力装置の視点を原点とする座標系
における、画像入力装置の座標の水平方向の軸に沿った
並進成分値、垂直方向の軸に沿った並進成分値、及び光
軸に沿った並進成分値を前記画像入力装置の運動情報と
して計測し、該計測した運動情報を用いて当該運動成分
を補正し、かつ、因子分解した物体の構造成分もしくは
形状成分を復元・再現する。
(2) 2 composed of the feature point data
The dimension measurement data is decomposed by a factorization method into motion information representing the physical motion of the image input device from which the noise component has been removed, and structural information or shape information representing the structure or shape of the object from which the noise component has been removed. In the process of performing the translation, the sensor device operating in synchronization with the physical movement of the image input device translates the coordinates of the image input device along a horizontal axis in a coordinate system with the viewpoint of the image input device as the origin. The component value, the translation component value along the vertical axis, and the translation component value along the optical axis are measured as motion information of the image input device, and the motion component is corrected using the measured motion information, In addition, the structural or shape components of the factorized object are restored and reproduced.

【0011】(3)前記特徴点データから構成される2
次元計測データを、因子分解法により、雑音成分を除去
した前記画像入力装置の物理的運動を表現する運動情報
と、雑音成分を除去した物体の構造もしくは形状を表現
する構造情報もしくは形状情報に分解する過程で、前記
画像入力装置の物理的運動に同期して動作するセンサ装
置等により、前記画像入力装置の視点を原点とする座標
系における、前記画像入力装置の座標の水平方向の軸周
りの回転角度値、垂直方向の軸周りの回転角度値、及び
光軸周りの回転角度値と、前記画像入力装置の座標の水
平方向の軸に沿った並進成分、垂直方向の軸に沿った並
進成分、及び光軸に沿った並進成分値を、前記画像入力
装置の運動情報とし計測し、該計測した運動情報を用い
て当該運動成分を補正し、かつ、因子分解した物体の構
造成分もしくは形状成分を復元・再現する。
(3) 2 composed of the feature point data
The dimension measurement data is decomposed by a factorization method into motion information representing the physical motion of the image input device from which the noise component has been removed, and structural information or shape information representing the structure or shape of the object from which the noise component has been removed. In the process of, by a sensor device or the like that operates in synchronization with the physical movement of the image input device, in a coordinate system with the origin of the viewpoint of the image input device, around the horizontal axis of the coordinates of the image input device. A rotation angle value, a rotation angle value around a vertical axis, and a rotation angle value around an optical axis, and a translation component along a horizontal axis and a translation component along a vertical axis of the coordinates of the image input apparatus. , And the translation component value along the optical axis is measured as motion information of the image input device, the motion component is corrected using the measured motion information, and the structural component or shape of the factorized object is measured. To restore and reproducibility of the components.

【0012】(4)前記特徴点データから構成される2
次元計測データを、因子分解法により、雑音成分を除去
した前記画像入力装置の物理的運動を表現する運動情報
と、雑音成分を除去した物体の構造もしくは形状を表現
する構造情報もしくは形状情報に分解する過程で、前記
特徴点データから構成される2次元計測データから、前
記画像入力装置の物理的運動に同期して動作するセンサ
装置により、画像入力装置の物理的な運動状態情報を計
測し、該計測した物理的な運動状態情報を用いて当該運
動成分を補正し、物体の構造成分もしくは形状成分を復
元・再現する。
(4) 2 composed of the feature point data
The dimension measurement data is decomposed by a factorization method into motion information representing the physical motion of the image input device from which the noise component has been removed, and structural information or shape information representing the structure or shape of the object from which the noise component has been removed. In the process of, from the two-dimensional measurement data composed of the feature point data, by a sensor device that operates in synchronization with the physical motion of the image input device, measure the physical motion state information of the image input device, The motion component is corrected using the measured physical motion state information, and the structural component or shape component of the object is restored and reproduced.

【0013】(5)画像入力装置により物体を撮影し、
該撮影した2次元画像データにおいて、前記物体の構造
もしくは特徴点を測定し、時系列に特徴点を追跡し、得
られた時系列の特徴点データを因子分解法を用いて、物
体の構造もしくは形状を獲得する3次元構造獲得方法の
処理手順をコンピュータに実行させるためのプログラム
を記録したコンピュータ読みとり可能な記録媒体であっ
て、前記特徴点データから構成される2次元計測データ
を、因子分解法により、雑音成分を除去した前記画像入
力装置の物理的運動を表現する運動情報と、雑音成分を
除去した物体の構造もしくは形状を表現する構造情報も
しくは形状情報に分解する手順と、該分解する手順で、
前記画像入力装置の物理的運動に同期して動作するセン
サ装置により、前記画像入力装置の視点を原点とする座
標系における、前記画像入力装置の座標の水平方向の軸
周りの回転角度値、垂直方向の軸周りの回転角度値、及
び光軸周りの回転角度値を前記画像入力装置の運動情報
として計測する手順と、該計測した運動情報を用いて当
該運動成分を補正する手順と、因子分解した物体の構造
成分もしくは形状成分を復元、再現する手順をコンピュ
ータに実行させるためのプログラムを記録したコンピュ
ータ読みとり可能な記録媒体である。
(5) An object is photographed by the image input device,
In the photographed two-dimensional image data, the structure or feature points of the object are measured, the feature points are tracked in time series, and the obtained time-series feature point data is subjected to a factorization method to determine the structure or feature of the object. A computer-readable storage medium storing a program for causing a computer to execute a processing procedure of a three-dimensional structure obtaining method for obtaining a shape, the two-dimensional measurement data including the feature point data being subjected to a factor decomposition method. A motion information expressing the physical motion of the image input device from which the noise component has been removed, a structural information or a shape information expressing the structure or shape of the object from which the noise component has been removed, and the decomposing procedure so,
By a sensor device that operates in synchronization with the physical movement of the image input device, a rotation angle value around a horizontal axis of the coordinates of the image input device in a coordinate system with the origin of the viewpoint of the image input device, A procedure for measuring a rotation angle value about a direction axis and a rotation angle value about an optical axis as motion information of the image input device, a procedure for correcting the motion component using the measured motion information, and a factor decomposition A computer-readable recording medium on which a program for causing a computer to execute a procedure for restoring and reproducing a structural component or a shape component of an object is recorded.

【0014】(6)前記特徴点データから構成される2
次元計測データを、因子分解法により、雑音成分を除去
した前記画像入力装置の物理的運動を表現する運動情報
と、雑音成分を除去した物体の構造もしくは形状を表現
する構造情報もしくは形状情報に分解する手順で、前記
画像入力装置の物理的運動に同期して動作するセンサ装
置により、前記画像入力装置の視点を原点とする座標系
における、画像入力装置の座標の水平方向の軸に沿った
並進成分値、垂直方向の軸に沿った並進成分値、及び光
軸に沿った並進成分値を前記画像入力装置の運動情報と
して計測する手順と、該計測した運動情報を用いて当該
運動成分を補正する手順と、因子分解した物体の構造成
分もしくは形状成分を復元・再現する手順をコンピュー
タに実行させるためのプログラムを記録したコンピュー
タ読みとり可能な記録媒体である。
(6) 2 composed of the feature point data
The dimension measurement data is decomposed by a factorization method into motion information representing the physical motion of the image input device from which the noise component has been removed, and structural information or shape information representing the structure or shape of the object from which the noise component has been removed. In the coordinate system having the origin at the viewpoint of the image input device, the translation along the horizontal axis of the coordinates of the image input device by the sensor device operating in synchronization with the physical movement of the image input device. A procedure of measuring component values, translation component values along a vertical axis, and translation component values along an optical axis as motion information of the image input device, and correcting the motion component using the measured motion information Computer-readable program that stores a program for causing a computer to execute a procedure for restoring and reproducing a structural component or a shape component of a factorized object. It is a recording medium.

【0015】(7)前記特徴点データから構成される2
次元計測データを、因子分解法により、雑音成分を除去
した前記画像入力装置の物理的運動を表現する運動情報
と、雑音成分を除去した物体の構造もしくは形状を表現
する構造もしくは形状情報に分解する手順で、前記画像
入力装置の物理的運動に同期して動作するセンサ装置等
により、前記画像入力装置の視点を原点とする座標系に
おける、前記画像入力装置の座標の水平方向の軸周りの
回転角度値、垂直方向の軸周りの回転角度値、及び光軸
周りの回転角度値と、前記画像入力装置の座標の水平方
向の軸に沿った並進成分、垂直方向の軸に沿った並進成
分、及び光軸に沿った並進成分値を、前記画像入力装置
の運動情報とし計測する手順と、該計測した運動情報を
用いて当該運動成分を補正する手順と、因子分解した物
体の構造成分もしくは形状成分を復元・再現する手順を
コンピュータに実行させるためのプログラムを記録した
コンピュータ読みとり可能な記録媒体である。
(7) 2 composed of the feature point data
The dimension measurement data is decomposed by a factor decomposition method into motion information representing the physical motion of the image input device from which noise components have been removed and structure or shape information representing the structure or shape of the object from which noise components have been removed. In a procedure, by a sensor device or the like that operates in synchronization with the physical movement of the image input device, rotation of the coordinates of the image input device around a horizontal axis in a coordinate system with the viewpoint of the image input device as the origin. An angle value, a rotation angle value about a vertical axis, and a rotation angle value about an optical axis, and a translation component along a horizontal axis of the coordinates of the image input device, a translation component along a vertical axis, And a procedure for measuring a translation component value along the optical axis as motion information of the image input device, a procedure for correcting the motion component using the measured motion information, and a structural component of the factorized object. Is a computer readable recording medium recording a program for executing the procedure for restoring and reproducing a shape component to the computer.

【0016】(8)前記特徴点データから構成される2
次元計測データを、因子分解法により、雑音成分を除去
した前記画像入力装置の物理的運動を表現する運動情報
と、雑音成分を除去した物体の構造もしくは形状を表現
する構造もしくは形状情報に分解する手順で、前記特徴
点データから構成される2次元計測データから、前記画
像入力装置の物理的運動に同期して動作するセンサ装置
により、画像入力装置の物理的な運動状態情報を計測す
る手順と、該計測した物理的な運動状態情報を用いて当
該運動成分を補正する手順と、物体の構造成分もしくは
形状成分を復元・再現する手順をコンピュータに実行さ
せるためのプログラムを記録したコンピュータ読みとり
可能な記録媒体である。
(8) 2 composed of the feature point data
The dimension measurement data is decomposed by a factor decomposition method into motion information representing the physical motion of the image input device from which noise components have been removed and structure or shape information representing the structure or shape of the object from which noise components have been removed. A step of measuring physical motion state information of the image input device from the two-dimensional measurement data composed of the feature point data by a sensor device that operates in synchronization with the physical motion of the image input device. A computer-readable program storing a program for causing a computer to execute a procedure for correcting the motion component using the measured physical motion state information and a procedure for restoring and reproducing a structural component or a shape component of the object. It is a recording medium.

【0017】(9)物体を撮影するカメラ等の画像入力
装置と、物体を撮影した2次元画像データにおいて、物
体の構造もしくは形状を構成する特徴点を測定する測定
手段と、該測定値を時系列に特徴点を追跡し、得られた
時系列の特徴点データを因子分解法を用いて、物体の構
造もしくは形状を獲得する手段とを有する3次元構造獲
得装置であって、前記特徴点データから構成される2次
元計測データを、因子分解法により、雑音成分を除去し
た画像入力装置の物理的運動を表現する成分と、雑音成
分を除去した物体の構造もしくは形状を表現する成分に
分解する手段と、前記画像入力装置の物理的運動に同期
して動作するセンサ装置と、該センサ装置の出力を用い
て運動成分を補正する手段と、因子分解した物体の構造
成分もしくは形状成分を復元・再現する手段を具備す
る。
(9) An image input device such as a camera for photographing an object, measuring means for measuring feature points constituting the structure or shape of the object in two-dimensional image data of the object, and Means for tracing a feature point in a series and acquiring the structure or shape of the object by using a factorization method on the obtained time-series feature point data. The two-dimensional measurement data composed of is decomposed by a factor decomposition method into a component that represents the physical motion of the image input device from which the noise component has been removed and a component that represents the structure or shape of the object from which the noise component has been removed. Means, a sensor device operating in synchronization with the physical motion of the image input device, means for correcting a motion component using an output of the sensor device, and a structural component or shape of the factorized object It comprises a means for restoring or reproducing a minute.

【0018】(10)前記センサ装置により、前記画像
入力装置の視点を原点とする座標系における、画像入力
装置座標の水平方向の軸周りの回転角度値、垂直方向の
軸周りの回転角度値、及び光軸周りの回転角度値を画像
入力装置の物理的運動のセンサ情報として計測する手段
を具備する。
(10) The rotation angle value of the coordinates of the image input device around the horizontal axis, the rotation angle value around the vertical axis of the coordinates of the image input device in the coordinate system whose origin is the viewpoint of the image input device, And a means for measuring a rotation angle value about the optical axis as sensor information of physical movement of the image input device.

【0019】(11)前記センサ装置により、前記画像
入力装置の視点を原点とする座標系における、画像入力
装置座標の水平方向の軸に沿った並進成分値、垂直方向
の軸に沿った並進成分値及び光軸に沿った並進成分値を
画像入力装置の物理的運動のセンサ情報として計測する
手段を具備する。
(11) A translation component value along the horizontal axis and a translation component along the vertical axis of the coordinates of the image input device in the coordinate system whose origin is the viewpoint of the image input device by the sensor device. Means for measuring the value and the translation component value along the optical axis as sensor information of the physical movement of the image input device.

【0020】(12)前記センサ装置により、前記画像
入力装置の視点を原点とする座標系における、画像入力
装置座標の水平方向の軸周りの回転角度値、垂直方向の
軸周りの回転角度値、及び光軸周りの回転角度値と、画
像入力装置座標の水平方向の軸に沿った並進成分値、垂
直方向の軸に沿った並進成分値、並びに、光軸に沿った
並進成分値とを計測する手段を具備する。
(12) The rotation angle value of the coordinates of the image input device around the horizontal axis, the rotation angle value around the vertical axis of the coordinates of the image input device in the coordinate system whose origin is the viewpoint of the image input device, And the rotation angle value around the optical axis, and the translation component value along the horizontal axis, the translation component value along the vertical axis, and the translation component value along the optical axis of the image input device coordinates are measured. Means.

【0021】(13)前記センサ装置により、前記特徴
点データから構成される2次元計測データから、画像入
力装置の物理的な運動状態情報を計測する手段を具備す
る。
(13) There is provided means for measuring physical motion state information of the image input device from the two-dimensional measurement data composed of the feature point data by the sensor device.

【0022】すなわち、本発明は、時系列画像から得た
特徴点の2次元計測データ(計測行列)から、3次元構
造を獲得する因子分解法と、物体を撮影する画像入力装
置の物理的な運動状態をセンシングしたセンサ情報を用
いて、物体の構造もしくは形状について、精度の高い復
元・再現をすることを特徴とする。
That is, the present invention provides a factorization method for acquiring a three-dimensional structure from two-dimensional measurement data (measurement matrix) of feature points obtained from a time-series image, and a physical resolution of an image input device for photographing an object. It is characterized in that the structure or shape of an object is accurately restored / reproduced using sensor information obtained by sensing a motion state.

【0023】本発明の方法を利用することにより、物体
を撮影した時系列画像から得た特徴点の2次元計測デー
タ(計測行列)から、物体の構造もしくは形状に関する
精度の高い構造を獲得することが可能となる。
Using the method of the present invention, a highly accurate structure relating to the structure or shape of an object is obtained from two-dimensional measurement data (measurement matrix) of feature points obtained from a time-series image of the object. Becomes possible.

【0024】[0024]

【発明の実施の形態】以下、図面を参照して本発明の実
施形態(実施例)を詳細に説明する。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS The embodiments (examples) of the present invention will be described below in detail with reference to the drawings.

【0025】なお、実施形態(実施例)を説明するため
の全図において、同一機能を有するものは同一符号を付
け、その繰り返しの説明は省略する。
In all the drawings for describing the embodiments (examples), those having the same functions are denoted by the same reference numerals, and their repeated description will be omitted.

【0026】以下では、3次元構造獲得手段に、平行透
視(Paraperspective)変換型因子分解法を使用し、カ
メラ運動を光軸方向に一定に保持して回転、並進運動し
た場合を例にして説明する。また、特徴点追跡による時
系列の画像枚数、すなわち、フレーム数はFとし、各フ
レームにおける特徴点の個数をP個とする。
In the following, an example will be described in which a parallel perspective transformation type factorization method is used as a three-dimensional structure acquisition means, and rotation and translation are performed while the camera motion is kept constant in the optical axis direction. I do. Further, the number of time-series images by the feature point tracking, that is, the number of frames is F, and the number of feature points in each frame is P.

【0027】(実施形態1)図1は本発明の実施形態1
の3次元構造獲得方法の全体的な処理フロー図であり、
S11はカメラの運動(移動)ステップ、S12は物体
を撮影するステップ、S13はセンサ情報を獲得するス
テップ、S14は特徴点を追跡するステップ、S15は
因子分解法のデータを入力するステップ、S16は因子
分解法による処理を行うステップ、S17は因子分解法
による処理データを出力するステップである。
(Embodiment 1) FIG. 1 shows Embodiment 1 of the present invention.
FIG. 4 is an overall processing flow diagram of a three-dimensional structure acquisition method of
S11 is a step of moving (moving) the camera, S12 is a step of photographing an object, S13 is a step of acquiring sensor information, S14 is a step of tracking feature points, S15 is a step of inputting data of the factorization method, S16 is a step of inputting data of the factorization method. A step of performing processing by the factor decomposition method, and step S17 is a step of outputting processing data by the factor decomposition method.

【0028】図2は対象とする物体と画像入力装置との
関係を説明するための図であり、21は対象とする物
体、22はカメラ22A等からなる画像入力装置、23
はカメラ(視点)座標系、24はカメラ回転運動を検出
するセンサ、25は対象とする物体を撮影した時系列画
像データ、26は画像入力装置22の運動を記録したセ
ンサ情報蓄積装置である。
FIG. 2 is a diagram for explaining the relationship between a target object and an image input device. Reference numeral 21 denotes a target object; 22, an image input device including a camera 22A;
Is a camera (viewpoint) coordinate system, 24 is a sensor for detecting camera rotational movement, 25 is time-series image data of an image of a target object, and 26 is a sensor information storage device that records the movement of the image input device 22.

【0029】図3は本実施形態1の画像入力装置の一実
施例としての3次元構造獲得用カメラ及び3次元構造獲
得用8mmカメラの外観を示す模式図であり、(a)は3
次元構造獲得用カメラ22Aの外観図、(b)は3次元
構造獲得用8mmカメラ22Bの外観図である。前記3次
元構造獲得用カメラ22Aには、因子分解法にカメラ回
転運動を与える3次元構造獲得手段22A1及びカメラ
回転運動を検出するセンサ(カメラ姿勢センサ)22A
2が設けられている。また、前記3次元構造獲得用8mm
カメラ22Bには、因子分解法にカメラ回転運動を与え
る3次元構造獲得手段22B1及びカメラ回転運動を検
出するセンサ(カメラ姿勢センサ)22B2が設けられ
ている。前記3次元構造獲得手段22A1もしくは22
B1で獲得した3次元構造データは、これを用いて後か
ら再生する別の視点からウォークスルーできる。以下、
前記画像入力装置22は単にカメラ22と称する。
FIGS. 3A and 3B are schematic diagrams showing the appearance of a camera for acquiring a three-dimensional structure and an 8 mm camera for acquiring a three-dimensional structure as one example of the image input device of the first embodiment. FIG.
FIG. 3B is an external view of a camera 22A for acquiring a three-dimensional structure, and FIG. The camera 22A for acquiring a three-dimensional structure includes a three-dimensional structure acquiring means 22A1 for applying a camera rotational movement to a factorization method and a sensor (camera attitude sensor) 22A for detecting the camera rotational movement.
2 are provided. Also, 8mm for obtaining the three-dimensional structure
The camera 22B is provided with a three-dimensional structure acquiring means 22B1 for giving the camera rotational movement to the factorization method and a sensor (camera attitude sensor) 22B2 for detecting the camera rotational movement. The three-dimensional structure acquiring means 22A1 or 22
The three-dimensional structure data acquired in B1 can be used for walk-through from another viewpoint to be reproduced later. Less than,
The image input device 22 is simply referred to as a camera 22.

【0030】本実施形態1の3次元構造獲得方法の全体
的な処理手順を図1に沿って説明する。まず、カメラ2
2を回転、並進の物理的な運動をさせ(S11)、対象
とする物体を撮影し(S12)、時系列の画像データを
得る(図2)。このとき、カメラ22の回転運動に対し
て、カメラ22に取り付けたジャイロ等によるカメラ回
転検出センサ(カメラ姿勢センサ)22A2もしくは2
2B2により、初期状態(画像データの最初の画像を撮
影したときのカメラ22の運動の初期状態)でのカメラ
22の視点における座標系を基準として、時系列的にカ
メラ22を回転運動させたときのカメラ22の回転パラ
メータ値をセンサ情報として獲得する(S13)。
The overall processing procedure of the three-dimensional structure acquisition method according to the first embodiment will be described with reference to FIG. First, camera 2
2 is rotated and translated (S11), and a target object is photographed (S12) to obtain time-series image data (FIG. 2). At this time, in response to the rotational movement of the camera 22, a camera rotation detection sensor (camera attitude sensor) 22A2 or 2A using a gyro or the like attached to the camera 22
2B2, when the camera 22 is rotationally moved in time series with reference to the coordinate system at the viewpoint of the camera 22 in the initial state (the initial state of the movement of the camera 22 when the first image of the image data is captured) The rotation parameter value of the camera 22 is obtained as sensor information (S13).

【0031】ここで、カメラ22のパラメータ値は、X
軸の周りに回転した角度値αf(ラジアン)、Y軸の周
りに回転した角度値βf(ラジアン)、Z軸の周りに回
転した角度値γf(ラジアン)である。サフィックスf
は、フレーム毎に回転値が存在するという意味で添えて
ある。
Here, the parameter value of the camera 22 is X
An angle value α f (radian) rotated around the axis, an angle value β f (radian) rotated around the Y axis, and an angle value γ f (radian) rotated around the Z axis. Suffix f
Is added in the sense that a rotation value exists for each frame.

【0032】一方、図3に示すカメラ22が運動するこ
とで、撮影した時系列画像データ(以下、時系列画像デ
ータと称する)について、フレーム数Fのディジタル画
像を記録し、図4に示すように、フレームf(f=1,
2,…,F)の画像における特徴点の2次元画像面での
座標値を測定する。図4において、311は時系列の画
像データ、312はNO.fのフレーム画像(f=1,
2,…,F)、313は座標系Xd、314は座標軸Y
d、315は特徴点p(p=1,2,…p)の座標軸
(Xfp,Yfp)である。
On the other hand, as the camera 22 shown in FIG. 3 moves, a digital image of the number F of frames is recorded for the photographed time-series image data (hereinafter, referred to as time-series image data), as shown in FIG. To the frame f (f = 1,
The coordinate values of the feature points on the two-dimensional image plane in the images (2,..., F) are measured. In FIG. 4, 311 is time-series image data, 312 is a frame image of NO.f (f = 1,
2,..., F), 313 is a coordinate system Xd, 314 is a coordinate axis Y
d and 315 are coordinate axes (Xfp, Yfp) of the feature point p (p = 1, 2,... p).

【0033】この測定については、フレーム番号(N
O.f)の画像をディスプレイ等の画像出力装置に表示
させておき、マウスポインタ等の操作により物体の構造
もしくは形状を構成する物体の角、エッジ等の特徴とな
る画像上の点を、画像面上に設定した座標系(Xd,Y
d)における特徴点の座標値(Xfp,Yfp)として、特
徴点NO.1〜NO.Pまで順番に測定する。この座標
点、すなわち、特徴点の座標値(Xfp,Yfp)を図5に
示すような計測行列の様式に従って配置していく。計測
行列は、2F×Pサイズの行列であり、後に記述するよ
うに因子分解法の入力データである。
For this measurement, the frame number (N
The image of Off) is displayed on an image output device such as a display, and points on the image such as corners and edges of the object constituting the structure or shape of the object are manipulated by operating a mouse pointer or the like. Coordinate system (Xd, Y
The coordinate values (Xfp, Yfp) of the feature points in d) are sequentially measured from feature points No. 1 to NO.P. The coordinate points, that is, the coordinate values (Xfp, Yfp) of the feature points are arranged according to the format of the measurement matrix as shown in FIG. The measurement matrix is a matrix of 2F × P size, and is input data of the factorization method as described later.

【0034】また、上半分のF×P行列の領域が各フレ
ームにおける特徴点のX座標値であり、下半分のF×P
行列の領域が、各フレームにおける特徴点のY座標値で
ある。加えて、フレームNO.f上での特徴点の場合、
P個ある特徴点は、行方向に順番に並べられ、列方向に
は、フレームNO.1〜NO.Fまでが順番に並べられ
る。このような一連の特徴点追跡処理は、図6に示すよ
うな処理フローに従って行われ、最終的に、図12に示
す因子分解法の入力データ(特徴点の2次元計測デー
タ)、すなわち、計測行列[A]を得る。
The area of the F × P matrix in the upper half is the X coordinate value of the feature point in each frame, and the F × P matrix in the lower half is
The area of the matrix is the Y coordinate value of the feature point in each frame. In addition, in the case of a feature point on frame No. f,
The P feature points are arranged in order in the row direction, and frames NO. 1 to NO.F are arranged in order in the column direction. Such a series of feature point tracking processing is performed according to a processing flow as shown in FIG. 6, and finally, input data (two-dimensional measurement data of feature points) of the factor decomposition method shown in FIG. Obtain the matrix [A].

【0035】図6は時系列に追跡する特徴点を計測する
処理手順を示すフロー図であり、S31は第fフレーム
画像を読込むステップ、S32は現在のフレーム番号が
Fを超えていないかどうかを判定するステップ、S33
は第P番目の特徴点座標を計測するステップ、S34は
特徴点個数がP個を超えていないかどうかを判定するス
テップ、S35は特徴点座標Xfpの座標値を書込むステ
ップ、S36は特徴点座標Yfpの座標値を書込むステッ
プである。
FIG. 6 is a flowchart showing a processing procedure for measuring the feature points to be tracked in time series. S31 is a step of reading the f-th frame image. S32 is whether or not the current frame number does not exceed F. Determining step S33
Is a step of measuring the P-th feature point coordinates, S34 is a step of determining whether the number of feature points does not exceed P, S35 is a step of writing the coordinate values of the feature point coordinates Xfp, S36 is a feature point This is the step of writing the coordinate value of the coordinate Yfp.

【0036】図7(a),(b)は本実施形態1のカメラ運
動とセンサ情報とカメラベクトルの関係を示す図であ
り、41は初期状態におけるカメラ(画像入力装置)、
42は初期状態におけるカメラ(視点)座標系における
X軸、43は初期状態におけるカメラ(視点)座標系に
おけるY軸、44は初期状態におけるカメラ(視点)座
標系におけるZ軸である。
FIGS. 7A and 7B are diagrams showing the relationship between camera motion, sensor information, and camera vector according to the first embodiment. Reference numeral 41 denotes a camera (image input device) in an initial state;
42 is the X axis in the camera (viewpoint) coordinate system in the initial state, 43 is the Y axis in the camera (viewpoint) coordinate system in the initial state, and 44 is the Z axis in the camera (viewpoint) coordinate system in the initial state.

【0037】45はX軸周りにαf回転、Y軸周りにβf
回転、Z軸周りにγf回転したときのカメラ(画像入力
装置)、46はX軸周りにαf回転、Y軸周りにβf
転、Z軸周りにγf回転したときのカメラ座標系におけ
るX軸、47はX軸周りにαf回転、Y軸周りにβf
転、Z軸周りにγf回転したときのカメラ座標系におけ
るY軸、48はX軸周りにαf回転、Y軸周りにβf
転、Z軸周りにγf回転したときのカメラ座標系におけ
るZ軸、49はX軸周りにαf回転、Y軸周りにβf
転、Z軸周りにγf回転したときのカメラ座標系におけ
るX軸の単位方向ベクトル、410はX軸周りにαf
転、Y軸周りにβf回転、Z軸周りにγf回転したときの
カメラ座標系におけるY軸の単位方向ベクトル、411
はX軸周りにαf回転、Y軸周りにβf回転、Z軸周りに
γf回転したときのカメラ座標系におけるZ軸の単位方
向ベクトルである。
Reference numeral 45 denotes α f rotation around the X axis, and β f rotation around the Y axis.
Rotation, camera (image input device) when rotated by γ f around the Z axis, 46 denotes a camera coordinate system when rotated by α f around the X axis, β f around the Y axis, and γ f around the Z axis , The Y axis in the camera coordinate system when α f rotation around the X axis, β f rotation around the Y axis, and γ f rotation around the Z axis, 48 is α f rotation around the X axis, and Y Z axis in the camera coordinate system when rotated β f around the axis and γ f around the Z axis, 49 rotated α f around the X axis, β f around the Y axis, and γ f around the Z axis The unit direction vector of the X axis in the camera coordinate system at the time, 410 is the unit direction of the Y axis in the camera coordinate system when rotated by α f around the X axis, β f around the Y axis, and γ f around the Z axis. Vector, 411
Is a unit direction vector of the Z axis in the camera coordinate system when rotated by α f around the X axis, β f around the Y axis, and γ f around the Z axis.

【0038】次に、図1におけるセンサ情報獲得から因
子分解法までのフローを図7を用いて説明する。カメラ
運動の初期状態とは、物体を撮影したときの最初に撮影
した画像のときのカメラ22の物理的な状態であり、カ
メラ視点を原点として、光軸方向にZ軸、便宜上、水平
方向にX軸、垂直方向にY軸を想定して、これを初期状
態とし、それぞれのX軸方向、Y軸方向、Z軸方向への
単位方向ベクトルi1,j1,k1を初期状態でのカメラベ
クトルとする。カメラ運動時の回転パラメータ値とは、
この単位方向ベクトルi1,j1,k1に関する回転成分であ
り、物体撮影のカメラ運動において、i1周りの回転が発
生した場合は、回転パラメータ値αfとしてセンサ情報
を検出し、j1周りの回転が発生した場合は、回転パラメ
ータ値βfとしてセンサ情報を検出し、k1周りの回転が
発生した場合は、回転パラメータ値γfとしてセンサ情
報を検出して時系列画像と同時に、フレームf毎に、検
出した回転パラメータ値αf、βf、γfを記録する。さ
らに、因子分解法においては、この回転パラメータ値の
ままで入力することができなく、図7に示すように、X
軸、Y軸、Z軸周りの回転行列[R]を数1の計算式によ
り計算し、
Next, a flow from acquisition of sensor information to a factor decomposition method in FIG. 1 will be described with reference to FIG. The initial state of the camera motion is a physical state of the camera 22 at the time of the first image taken when the object is imaged, with the camera viewpoint as the origin, the Z axis in the optical axis direction, and the horizontal direction for convenience. Assuming the X-axis and the Y-axis in the vertical direction, this is set to the initial state, and the unit direction vectors i 1 , j 1 , and k 1 in the X-axis direction, the Y-axis direction, and the Z-axis direction are set in the initial state. Let it be a camera vector. The rotation parameter value during camera movement is
A rotary component about the unit vector i 1, j 1, k 1, the camera movement of an object photographed, if the rotation about i 1 occurs, detects sensor information as the rotation parameter values alpha f, j 1 If rotation around occurs, detects sensor information as the rotation parameter value beta f, if rotation about k 1 has occurred, at the same time as the time-series images by detecting the sensor information as a rotation parameter value gamma f, The detected rotation parameter values α f , β f , and γ f are recorded for each frame f. Further, in the factorization method, the rotation parameter value cannot be input as it is, and as shown in FIG.
Calculate the rotation matrix [R] around the axis, Y-axis, and Z-axis by the calculation formula of Equation 1.

【0039】[0039]

【数1】 (Equation 1)

【0040】フレームNO.fにおけるカメラ視点座標
におけるX軸方向、Y軸方向、Z軸方向の単位方向ベク
トルif,jf,kfを数4の計算式により逐次計算し、これ
が因子分解法へのセンサ情報としての入力データとな
る。
The unit direction vectors i f , j f , and k f in the X-axis direction, the Y-axis direction, and the Z-axis direction in the camera viewpoint coordinates in the frame NO.f are sequentially calculated by the equation (4). Input data as sensor information.

【0041】図8は前記実施形態1での因子分解法の処
理手順を示すフロー図であり、S111は計測行列を入
力するステップ、S112は物体重心を計算するステッ
プ、S113は特異値分解を処理するステップ、S11
4はランク3(図4参照)による雑音成分を分離するス
テップ、S115はカメラ回転パラメータ値からのカメ
ラベクトルを計算するステップ、S116はカメラベク
トルからのカメラ運動行列を計算するステップ、S11
7は行列[Q]を計算するステップ、S118は行列[S]
を計算するステップである。
FIG. 8 is a flow chart showing the processing procedure of the factor decomposition method in the first embodiment. S111 is a step of inputting a measurement matrix, S112 is a step of calculating the center of gravity of the object, and S113 is a processing of singular value decomposition. Step S11
4 is a step of separating noise components due to rank 3 (see FIG. 4), S115 is a step of calculating a camera vector from camera rotation parameter values, S116 is a step of calculating a camera motion matrix from the camera vector, S11
7 is a step of calculating a matrix [Q], and S118 is a step of calculating a matrix [S].
Is the step of calculating

【0042】本実施形態1での因子分解法の処理に用い
る計算式を以下に示す。
The calculation formula used in the processing of the factor decomposition method in the first embodiment is shown below.

【0043】[0043]

【数2】[A]=[U][W][V][A] = [U] [W] [V]

【0044】[0044]

【数3】[A]=[U1][W1][V1]+[U2][W2][V2]≒
[U1][W1][V1]
[A] = [U 1 ] [W 1 ] [V 1 ] + [U 2 ] [W 2 ] [V 2 ] ≒
[U 1 ] [W 1 ] [V 1 ]

【0045】[0045]

【数4】 (Equation 4)

【0046】[0046]

【数5】 (Equation 5)

【0047】[0047]

【数6】 (Equation 6)

【0048】[0048]

【数7】 (Equation 7)

【0049】次に、図1における因子分解法の部分につ
いて、図8に沿って説明をする。
Next, the factor decomposition method in FIG. 1 will be described with reference to FIG.

【0050】2次元画像面での特徴点の座標点からなる
計測行列2F×Pサイズの[A]を、数2の計算式に従っ
て特異値分解なる数学的手法により行列[U](2F×
P)、[W](P×Pの対角化行列)、[V](P×P)に分
解する(S113)。ここで、ランク3により、行列
[U]を2F×3サイズの行列[U1]と2F×(P−3)サ
イズの行列[U2]に、行列[W]を3×3サイズの対角行
列[W1]と(P−3)×(P−3)サイズの行列[W2]に、行
列[V]を3×Pサイズの行列[V1〕と(P−3)×Pサイ
ズの行列[V2]に分離する(S114)(数2参照、図
9)。
A measurement matrix 2F × P size [A] composed of coordinate points of feature points on the two-dimensional image plane is converted into a matrix [U] (2F × P
P), [W] (P × P diagonalization matrix), and [V] (P × P) (S113). Where rank 3 gives the matrix
[U] is converted into a 2F × 3 size matrix [U 1 ] and a 2F × (P-3) size matrix [U 2 ], and the matrix [W] is changed into a 3 × 3 size diagonal matrix [W 1 ]. The matrix [V] is transformed into a matrix [V 1 ] of 3 × P size and a matrix [V 2 ] of (P-3) × P size in a matrix [W 2 ] of (P-3) × (P-3) size. Separation (S114) (see Equation 2, FIG. 9).

【0051】図9は特異値分解処理の後のランク3によ
る雑音成分除去を説明するための図であり、[W2]の対
角要素は、[W1]の対角要素に比較して非常に小さく、
[U2][W2][V2]雑音成分と見なして削除する。
FIG. 9 is a diagram for explaining noise component removal by rank 3 after singular value decomposition processing. The diagonal element of [W 2 ] is compared with the diagonal element of [W 1 ]. Very small,
[U 2 ] [W 2 ] [V 2 ] It is regarded as a noise component and deleted.

【0052】一方、センサ情報として入力されたカメラ
ベクトルif,jf,kfからカメラ運動行列[M]へは、数5
の計算式を用いて計算する(S116)。この計算式
は、平行透視変換カメラモデルから導き出される関係式
である。尚、この計算式におけるXf、Yfの値は、計測
行列[A]から物体重心の計算(S112)として得てお
り、Zf(=1)については光軸方向への運動は考慮し
ないとして固定的な値を設定している。
On the other hand, from the camera vectors i f , j f , and k f input as sensor information to the camera motion matrix [M],
(S116). This calculation formula is a relational formula derived from the parallel perspective transformation camera model. Note that the values of X f and Y f in this formula are obtained from the measurement matrix [A] as the calculation of the physical center of gravity (S112), and the movement in the optical axis direction is not considered for Z f (= 1). Is set as a fixed value.

【0053】前記図8のステップS115、S116、
S117の処理手順の詳細を図10(データ処理フロー
図)に示す。図10において、S201は1フレーム毎
に回転成分を読み込むステップ、S202はカメラ基底
ベクトルを生成するステップ、S203はカメラベクト
ルmf、nfを生成するステップ、S204は計測行列
[A]を入力するステップ、S205は第fフレームでの
P個の特徴点座標を読み込むステップ、S206は計測
行列から第fフレームにおける物体重心を計算するステ
ップ、S207は特異値分解を処理するステップ、S2
08は雑音成分を除去するステップ、S209は全フレ
ームに対する処理が終了したかを判定するステップ、S
210は全フレームに対する処理が終了していない場
合、次フレームの処理に移るステップ、S211はカメ
ラ運動行列[M]を生成するステップ、S212はカメラ
作用行列[Q]を生成するステップ、S213は構造もし
くは形状の復元処理を行うステップである。
Steps S115 and S116 in FIG.
The details of the processing procedure of S117 are shown in FIG. 10 (data processing flowchart). In FIG. 10, S201 is a step of reading a rotation component for each frame, S202 is a step of generating a camera base vector, S203 is a step of generating camera vectors m f and n f , and S204 is a measurement matrix.
[A] is input, S205 is a step of reading P feature point coordinates in the f-th frame, S206 is a step of calculating the body weight in the f-th frame from the measurement matrix, and S207 is a step of processing singular value decomposition. , S2
08 is a step of removing noise components, S209 is a step of determining whether or not processing has been completed for all frames, S209
210 is a step for moving to the processing of the next frame when processing for all frames is not completed, S211 is a step for generating a camera motion matrix [M], S212 is a step for generating a camera action matrix [Q], and S213 is a structure. Alternatively, this is a step of performing a shape restoration process.

【0054】また、内部の詳細な計算式を以下に示す。The detailed internal calculation formula is shown below.

【0055】カメラの基底ベクトルの生成計算式として
は前記数4の計算式を用いる。
As a formula for calculating the basis vector of the camera, the above formula (4) is used.

【0056】カメラベクトルmf、nfの生成計算式とし
ては前記数5の計算式を用いる。
The formula for calculating the camera vectors m f and n f is the formula of the above equation (5).

【0057】カメラ運動行列[M]生成の計算式は次の数
8の計算式を用いる。
The formula for generating the camera motion matrix [M] uses the following formula (8).

【0058】[0058]

【数8】 (Equation 8)

【0059】計測行列から第fフレームにおける物体重
心Xf、Yfの計算式は次の数9の計算式を用いる。
The following formula 9 is used to calculate the body weight centers X f and Y f in the f-th frame from the measurement matrix.

【0060】[0060]

【数9】 (Equation 9)

【0061】因子分解法では、図11に示すような因子
分解法の入力データを入力し、雑音成分[U1][W1]
[V1]を削除した行列から、([U1][Q]×[Q]~1[W1]
[V1])なる分解を行い、前者の行列[U1][Q]をカメラ
運動行列[M](図12)、後者の行列[Q]~1[W1][V1]を
物体の構造もしくは形状を構成する特徴点の3次元座標
値を配置した行列[S]であるとする。
In the factorization method, input data of the factorization method as shown in FIG. 11 is input, and noise components [U 1 ] [W 1 ]
From the matrix from which [V 1 ] is deleted, ([U 1 ] [Q] × [Q] ~ 1 [W 1 ]
[V 1 ]), the former matrix [U 1 ] [Q] is converted to a camera motion matrix [M] (FIG. 12), and the latter matrix [Q] ~ 1 [W 1 ] [V 1 ] is converted to an object. Is a matrix [S] in which the three-dimensional coordinate values of the feature points constituting the structure or the shape are arranged.

【0062】本発明では、行列[M]を前記のカメラ運動
行列とし、行列[Q]を[U1]の擬似逆行列と[M]から求
めており(数6)、行列[S]も該行列[Q]を用いて計算
する(数7)。行列[S]は、2次元画像面において、特
徴点として測定した座標点の3次元座標値であり、行列
形式は、図13のようになっており、列方向に、特徴点
pの3次元座標X、Y、Z座標値が並び、行方向に特徴
点の順番通りに並ぶ。この行列の要素が本発明における
物体の構造もしくは形状の復元、再現として求めた因子
分解法の出力データである。
In the present invention, the matrix [M] is the camera motion matrix described above, and the matrix [Q] is obtained from the pseudo inverse matrix of [U 1 ] and [M] (Equation 6). Calculation is performed using the matrix [Q] (Equation 7). The matrix [S] is a three-dimensional coordinate value of a coordinate point measured as a feature point on the two-dimensional image plane. The matrix format is as shown in FIG. The coordinates X, Y, and Z coordinate values are arranged, and are arranged in the row direction in the order of the feature points. The elements of this matrix are the output data of the factorization method obtained as the reconstruction and reproduction of the structure or shape of the object according to the present invention.

【0063】(実施形態2)本発明の実施形態2は、前
記実施形態1において、因子分解法の部分において、差
分があるので、差分のある箇所についてのみ説明する。
(Embodiment 2) In Embodiment 2 of the present invention, since there is a difference in the factor decomposition method in Embodiment 1, only a portion having a difference will be described.

【0064】図14は本発明の実施形態2の因子分解法
の処理手順を示すフロー図であり、S121は計測行列
を入力するステップ、S122は物体重心を計算するス
テップ、S123はカメラ回転パラメータ値からカメラ
ベクトルを計算するステップ、S124はカメラベクト
ルからのカメラ運動行列を計算するステップ、S125
は行列[S]を計算するステップである。
FIG. 14 is a flowchart showing the processing procedure of the factorization method according to the second embodiment of the present invention. S121 is a step of inputting a measurement matrix, S122 is a step of calculating the body weight, and S123 is a camera rotation parameter value. Calculating a camera vector from the camera vector, S124 calculating a camera motion matrix from the camera vector, S125
Is a step of calculating the matrix [S].

【0065】2次元画像面での特徴点の座標からなる計
測行列2F×Pサイズの[A]から、計謝行列[A]から物
体重心の計算(数9)として、Xf、Yfを計算してお
く。次に、センサ情報として入力されたカメラベクトル
if,jf,kfからカメラ運動行列[M]へ数5の計算式を用
いて計算する。この数5の計算式は、平行透視変換カメ
ラモデルから導き出される関係式である。尚、この数5
の計算式におけるZf(=1)については、光軸方向へ
の運動は考慮しないとして固定的な値を設置した。物体
の構造もしくは形状を構成する特徴点の3次元座標値を
配置した行列[S]は、前記の行列[M]と、因子分解法の
入力データ[A]を用いて計算する(数10)。
From the measurement matrix 2F × P size [A] consisting of the coordinates of the feature points on the two-dimensional image plane, X f and Y f are calculated from the total reward matrix [A] as (Equation 9). Calculate. Next, the camera vector input as sensor information
The camera motion matrix [M] is calculated from i f , j f , and k f by using the equation (5). The calculation formula of Expression 5 is a relational expression derived from the parallel perspective transformation camera model. In addition, this number 5
As for Z f (= 1) in the calculation formula, a fixed value is set because the movement in the optical axis direction is not considered. The matrix [S] in which the three-dimensional coordinate values of the feature points constituting the structure or shape of the object are arranged is calculated using the matrix [M] and the input data [A] of the factorization method (Equation 10). .

【0066】[0066]

【数10】 (Equation 10)

【0067】行列[S]は、2次元画像面において、特徴
点として計測した座標点の3次元座標値であり、前記実
施形態1と同様に物体の構造もしくは形状を記述する情
報として獲得することができる。
The matrix [S] is a three-dimensional coordinate value of a coordinate point measured as a feature point on a two-dimensional image plane, and is obtained as information describing the structure or shape of an object as in the first embodiment. Can be.

【0068】以上、本発明者によってなされた発明を、
前記実施形態(実施例)に基づき具体的に説明したが、
本発明は、前記実施形態(実施例)に限定されるもので
はなく、その要旨を逸脱しない範囲において種々変更可
能であることは勿論である。
As described above, the invention made by the present inventor is:
Although specifically described based on the embodiment (example),
The present invention is not limited to the above-described embodiment (example), and it is needless to say that various changes can be made without departing from the gist of the present invention.

【0069】[0069]

【発明の効果】以上、説明したように、本発明によれ
ば、特徴点が構成する物体の構造もしくは形状の3次元
構造を獲得する手段において、復元、再現する物体の構
造、物体を撮影した時系列画像から得た特徴点の2次元
計測データ(計測行列)から、物体の3次元構造もしく
は形状の獲得精度を向上することができる。
As described above, according to the present invention, the structure and object of the object to be restored and reproduced are photographed by the means for acquiring the three-dimensional structure of the structure or shape of the object constituted by the feature points. From the two-dimensional measurement data (measurement matrix) of the feature points obtained from the time-series images, it is possible to improve the accuracy of acquiring the three-dimensional structure or shape of the object.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の実施形態1の3次元構造獲得方法の全
体的な処理フロー図である。
FIG. 1 is an overall processing flowchart of a three-dimensional structure acquisition method according to a first embodiment of the present invention.

【図2】本実施形態1の対象とする物体と画像入力装置
との関係を説明するための図である。
FIG. 2 is a diagram for explaining a relationship between an object to be processed and an image input device according to the first embodiment.

【図3】本実施形態1の3次元構造獲得用カメラ及び3
次元構造獲得用8mmカメラの外観を示す模式図である。
FIG. 3 shows a camera and a camera for acquiring a three-dimensional structure according to the first embodiment.
It is a schematic diagram which shows the external appearance of the 8 mm camera for dimension structure acquisition.

【図4】本実施形態1の時系列の画像データから各フレ
ーム画像での特徴点の座標値を計測する例を示す図であ
る。
FIG. 4 is a diagram illustrating an example of measuring coordinate values of feature points in each frame image from time-series image data according to the first embodiment.

【図5】本実施形態1の計測行列中の特徴点座標値の配
置を示す図である。
FIG. 5 is a diagram illustrating an arrangement of feature point coordinate values in a measurement matrix according to the first embodiment.

【図6】本実施形態1の時系列に特徴点の座標値を追跡
して計測する処理手順を示すフロー図である。
FIG. 6 is a flowchart showing a processing procedure of tracking and measuring the coordinate values of the feature points in time series according to the first embodiment.

【図7】本実施形態1のカメラ運動とセンサ情報とカメ
ラベクトルの関係図である。
FIG. 7 is a relationship diagram of camera motion, sensor information, and a camera vector according to the first embodiment.

【図8】本実施形態1の因子分解法の処理手順を示すフ
ロー図である。
FIG. 8 is a flowchart illustrating a processing procedure of a factor decomposition method according to the first embodiment.

【図9】本実施形態1の特異値分解処理の後のランク3
による雑音成分除去を説明するための図である。
FIG. 9 shows rank 3 after the singular value decomposition processing according to the first embodiment.
FIG. 4 is a diagram for explaining noise component removal by the following method.

【図10】図8のステップS115、S116、S11
7の処理手順の詳細なデータ処理フロー図である。
FIG. 10 shows steps S115, S116 and S11 in FIG.
7 is a detailed data processing flowchart of the processing procedure of FIG.

【図11】本実施形態1の因子分解法の入力データの様
式を示す図である。
FIG. 11 is a diagram showing a format of input data of the factorization method according to the first embodiment.

【図12】本実施形態1のカメラ運動行列の様式を示す
図である。
FIG. 12 is a diagram illustrating a format of a camera motion matrix according to the first embodiment.

【図13】本実施形態1の因子分解法の出力データの様
式を示す図である。
FIG. 13 is a diagram illustrating a format of output data of the factorization method according to the first embodiment.

【図14】本発明の実施形態2の因子分解法の処理手順
を示すフロー図である。
FIG. 14 is a flowchart showing a processing procedure of a factor decomposition method according to the second embodiment of the present invention.

【図15】従来のカメラ1とカメラ2のステレオ視によ
る3次元構造獲得方法を説明するための図である。
FIG. 15 is a diagram illustrating a conventional method of acquiring a three-dimensional structure by stereoscopic viewing of cameras 1 and 2.

【符号の説明】[Explanation of symbols]

01…対象とする物体、02…3次元座標値、03…カ
メラ1の光軸、04…カメラ2の光軸、05…カメラ1
による画像面、06…カメラ2による画像面、07…カ
メラ1での対応点(X1,Y1)、08…カメラ2での対
応点(X2,Y2)、09…基線長、S11…カメラの運
動、S12…物体撮影、S13…センサ情報獲得、S1
4…特徴点追跡、S15…因子分解法の入力データ、S
16…因子分解法処理、S17…因子分解法の出力デー
タ、21…対象とする物体、22…画像入力装置(カメ
ラ)、23…カメラ(視点)座標系、24…カメラ回転
運動を検出するセンサ、25…対象とする物体を撮影し
た時系列画像データ、26…画像入力装置の運動を記録
したセンサ情報蓄積装置、311…時系列の画像デー
タ、312…NO.fのフレーム画像、313…座標軸
Xd、314…座標軸Yd、315…特徴点p、41…初
期状態における画像入力装置(カメラ)、42…初期状
態におけるカメラ(視点)座標系におけるX軸、43…
初期状態におけるカメラ(視点)座標系におけるY軸、
44…初期状態におけるカメラ(視点)座標系における
Z軸、45…X軸周りにαf回転、Y軸周りにβf回転、
Z軸周りにγf回転したときの画像入力装置(カメ
ラ)、46…X軸周りにαf回転、Y軸周りにβf回転、
Z軸周りにγf回転したときのカメラ座標系におけるX
軸、47…X軸周りにαf回転、Y軸周りにβf回転、Z
軸周りにγf回転したときのカメラ座標系におけるY
軸、48…X軸周りにαf回転、Y軸周りにβf回転、Z
軸周りにγf回転したときのカメラ座標系におけるZ
軸、49…X軸周りにαf回転、Y軸周りにβf回転、Z
軸周りにγf回転したときのカメラ座標系におけるX軸
の単位方向ベクトル、410…X軸周りにαf回転、Y
軸周りにβf回転、Z軸周りにγf回転したときのカメラ
座標系におけるY軸の単位方向ベクトル、411…X軸
周りにαf回転、Y軸周りにβf回転、Z軸周りにγf
転したときのカメラ座標系におけるZ軸の単位方向ベク
トル。
01: target object, 02: three-dimensional coordinate value, 03: optical axis of camera 1, 04: optical axis of camera 2, 05: camera 1
Image plane by the image plane by 06 ... camera 2, the corresponding point of 07 ... camera 1 (X 1, Y 1) , the corresponding point in the 08 ... camera 2 (X 2, Y 2), 09 ... base length, S11 ... camera movement, S12 ... object shooting, S13 ... sensor information acquisition, S1
4: Feature point tracking, S15: Input data of factorization method, S
16: Factor decomposition method processing, S17: Output data of the factor decomposition method, 21: Target object, 22: Image input device (camera), 23: Camera (viewpoint) coordinate system, 24: Sensor for detecting camera rotational movement .., 25... Time-series image data of an object to be photographed, 26... Sensor information storage device that records the motion of the image input device, 311. Time-series image data, 312. Xd, 314: coordinate axes Yd, 315: feature point p, 41: image input device (camera) in initial state, 42: X axis in camera (viewpoint) coordinate system in initial state, 43 ...
Y axis in the camera (viewpoint) coordinate system in the initial state,
44: Z axis in the camera (viewpoint) coordinate system in the initial state, 45: α f rotation around the X axis, β f rotation around the Y axis,
Image input device (camera) when rotated γ f around the Z axis, 46 .alpha. F rotation around the X axis, β f rotation around the Y axis,
X in the camera coordinate system when rotated by γ f around the Z axis
Axis, 47: α f rotation around X axis, β f rotation around Y axis, Z
Y in the camera coordinate system when rotated by γ f around the axis
Axis, 48: α f rotation around X axis, β f rotation around Y axis, Z
Z in the camera coordinate system when rotated by γ f around the axis
Axis, 49: α f rotation around X axis, β f rotation around Y axis, Z
Unit direction vector of the X axis in the camera coordinate system when rotated by γ f around the axis, 410... Α f rotation around the X axis, Y
Unit direction vector of Y axis in camera coordinate system when β f rotation around axis and γ f rotation around Z axis, 411 ... α f rotation around X axis, β f rotation around Y axis, around Z axis γ The unit direction vector of the Z axis in the camera coordinate system when rotated by f .

───────────────────────────────────────────────────── フロントページの続き (72)発明者 中村 典生 東京都新宿区西新宿三丁目19番2号 日本 電信電話株式会社内 (72)発明者 杉村 利明 東京都新宿区西新宿三丁目19番2号 日本 電信電話株式会社内 Fターム(参考) 2F065 AA03 AA04 AA09 AA12 AA17 AA32 AA39 AA53 BB05 DD03 DD04 FF04 FF65 FF67 JJ03 JJ13 MM08 PP04 PP05 QQ01 QQ21 QQ24 QQ27 QQ28 RR05 SS13 UU05 5B057 CA08 CA12 CA16 CB08 CB13 CB16 CC01 CE02 CH08 DA17 DB02 DB09 DC09  ──────────────────────────────────────────────────続 き Continuing on the front page (72) Inventor Norio Nakamura 3-19-2 Nishi-Shinjuku, Shinjuku-ku, Tokyo Japan Telegraph and Telephone Corporation (72) Inventor Toshiaki Sugimura 3-192 Nishishinjuku, Shinjuku-ku, Tokyo No. Nippon Telegraph and Telephone Corporation F-term (reference) 2F065 AA03 AA04 AA09 AA12 AA17 AA32 AA39 AA53 BB05 DD03 DD04 FF04 FF65 FF67 JJ03 JJ13 MM08 PP04 PP05 QQ01 QQ21 QQ24 QQ27 QQ28 RR05 SS13 UU08 CC13 DA17 DB02 DB09 DC09

Claims (13)

【特許請求の範囲】[Claims] 【請求項1】 画像入力装置により物体(対象物)を撮
影し、該撮影した2次元画像データにおいて、物体の構
造もしくは形状を構成する2次元座標点(以下、「特徴
点」と称する)を測定し、時系列に特徴点を追跡し、得
られた時系列の特徴点データ(特異値分解法の入力デー
タ)を因子分解法を用いて、物体の構造もしくは形状を
獲得する3次元構造獲得方法であって、前記特徴点デー
タから構成される2次元計測データを、因子分解法によ
り、雑音成分を除去した前記画像入力装置の物理的運動
を表現する運動情報と、雑音成分を除去した物体の構造
もしくは形状を表現する構造情報もしくは形状情報に分
解し、該分解する過程で、前記画像入力装置の物理的運
動に同期して動作するセンサ装置により、前記画像入力
装置の視点を原点とする座標系(画像入力装置の座標
系、カメラ(視点)座標系)における、前記画像入力装
置の座標の水平方向の軸周りの回転角度値、垂直方向の
軸周りの回転角度値、及び光軸周りの回転角度値を前記
画像入力装置の運動情報として計測し、該計測した運動
情報を用いて当該運動成分を補正し、かつ、因子分解し
た物体の構造成分もしくは形状成分を復元・再現するこ
とを特徴とする3次元構造獲得方法。
1. An object (object) is photographed by an image input device, and two-dimensional coordinate points (hereinafter, referred to as “feature points”) constituting a structure or a shape of the object in the photographed two-dimensional image data. Measures and tracks feature points in a time series, and acquires the structure or shape of an object using a factorization method on the obtained time-series feature point data (input data of the singular value decomposition method). A method, comprising: moving information representing physical movement of the image input device from which noise components have been removed by a factorization method using two-dimensional measurement data composed of the feature point data; and an object from which noise components have been removed. Is decomposed into structural information or shape information expressing the structure or shape of the image input device, and in the process of decomposing, the sensor device that operates in synchronization with the physical movement of the image input device sets the viewpoint of the image input device as the origin The rotation angle of the coordinates of the image input device around the horizontal axis, the rotation angle around the vertical axis, and the optical axis in the coordinate system (the coordinate system of the image input device, the camera (viewpoint) coordinate system) Measuring the surrounding rotation angle value as motion information of the image input device, correcting the motion component using the measured motion information, and restoring / reproducing the structural component or shape component of the factorized object. A three-dimensional structure acquisition method characterized by the following.
【請求項2】 画像入力装置により物体を撮影し、該撮
影した2次元画像データにおいて、物体の構造もしくは
形状を構成する特徴点を測定し、時系列に特徴点を追跡
し、得られた時系列の特徴点データを因子分解法を用い
て、物体の構造もしくは形状を獲得する3次元構造獲得
方法であって、前記特徴点データから構成される2次元
計測データを、因子分解法により、雑音成分を除去した
前記画像入力装置の物理的運動を表現する運動情報と、
雑音成分を除去した物体の構造もしくは形状を表現する
構造情報もしくは形状情報に分解し、該分解する過程
で、前記画像入力装置の物理的運動に同期して動作する
センサ装置により、前記画像入力装置の視点を原点とす
る座標系における、画像入力装置の座標の水平方向の軸
に沿った並進成分値、垂直方向の軸に沿った並進成分
値、及び光軸に沿った並進成分値を前記画像入力装置の
運動情報として計測し、該計測した運動情報を用いて当
該運動成分を補正し、かつ、因子分解した物体の構造成
分もしくは形状成分を復元・再現することを特徴とする
3次元構造獲得方法。
2. An object is photographed by an image input device, characteristic points constituting the structure or shape of the object are measured in the photographed two-dimensional image data, and the characteristic points are tracked in time series. A three-dimensional structure acquiring method for acquiring a structure or a shape of an object by using a factorization method for feature point data of a series, wherein two-dimensional measurement data composed of the feature point data is subjected to noise reduction by a factorization method. Motion information representing the physical motion of the image input device with the component removed,
The image input device is decomposed into structural information or shape information expressing the structure or shape of the object from which the noise component has been removed, and in the process of decomposing, the sensor device that operates in synchronization with the physical movement of the image input device. In the coordinate system with the viewpoint of the origin as the origin, the translation component value along the horizontal axis, the translation component value along the vertical axis, and the translation component value along the optical axis of the coordinates of the image input device are displayed in the image. A three-dimensional structure acquisition characterized by measuring as motion information of an input device, correcting the motion component by using the measured motion information, and restoring and reproducing a structural component or a shape component of the factorized object. Method.
【請求項3】 画像入力装置により物体を撮影し、該撮
影した2次元画像データにおいて、物体の構造もしくは
形状を構成する特徴点を測定し、時系列に特徴点を追跡
し、得られた時系列の特徴点データを因子分解法を用い
て、物体の構造もしくは形状を獲得する3次元構造獲得
方法であって、前記特徴点データから構成される2次元
計測データを、因子分解法により、雑音成分を除去した
前記画像入力装置の物理的運動を表現する運動情報と、
雑音成分を除去した物体の構造もしくは形状を表現する
構造情報もしくは形状情報に分解し、該分解する過程
で、前記画像入力装置の物理的運動に同期して動作する
センサ装置等により、前記画像入力装置の視点を原点と
する座標系における、前記画像入力装置の座標の水平方
向の軸周りの回転角度値、垂直方向の軸周りの回転角度
値、及び光軸周りの回転角度値と、前記画像入力装置の
座標の水平方向の軸に沿った並進成分、垂直方向の軸に
沿った並進成分、及び光軸に沿った並進成分値を、前記
画像入力装置の運動情報として計測し、該計測した運動
情報を用いて当該運動成分を補正し、かつ、因子分解し
た物体の構造成分もしくは形状成分を復元・再現するこ
とを特徴とする3次元構造獲得方法。
3. An object is photographed by an image input device, characteristic points constituting the structure or shape of the object are measured in the photographed two-dimensional image data, and the characteristic points are tracked in time series. A three-dimensional structure acquiring method for acquiring a structure or a shape of an object by using a factorization method for feature point data of a series, wherein two-dimensional measurement data composed of the feature point data is subjected to noise reduction by a factorization method. Motion information representing the physical motion of the image input device with the component removed,
The image input is decomposed into structural information or shape information representing the structure or shape of the object from which the noise component has been removed, and in the process of decomposing, the image input is performed by a sensor device or the like that operates in synchronization with the physical motion of the image input device. A rotation angle value about a horizontal axis, a rotation angle value about a vertical axis, and a rotation angle value about an optical axis of the coordinates of the image input device in a coordinate system with the viewpoint of the device as an origin; The translation component along the horizontal axis, the translation component along the vertical axis, and the translation component value along the optical axis of the coordinates of the input device were measured as motion information of the image input device, and the measurement was performed. A method for acquiring a three-dimensional structure, wherein the motion component is corrected using the motion information, and the structural component or the shape component of the factorized object is restored and reproduced.
【請求項4】 画像入力装置により物体を撮影し、該撮
影した2次元画像データにおいて、物体の構造もしくは
形状を構成する特徴点を測定し、時系列に特徴点を追跡
し、得られた時系列の特徴点データを因子分解法を用い
て、物体の構造もしくは形状を獲得する3次元構造獲得
方法であって、前記特徴点データから構成される2次元
計測データを、因子分解法により、雑音成分を除去した
前記画像入力装置の物理的運動を表現する運動情報と、
雑音成分を除去した物体の構造もしくは形状を表現する
構造情報もしくは形状情報に分解し、該分解する過程
で、前記特徴点データから構成される2次元計測データ
から、前記画像入力装置の物理的運動に同期して動作す
るセンサ装置により、画像入力装置の物理的な運動状態
情報を計測し、該計測した物理的な運動状態情報を用い
て当該運動成分を補正し、物体の構造もしくは形状成分
を復元・再現することを特徴とする3次元構造獲得方
法。
4. An object is photographed by an image input device, characteristic points constituting the structure or shape of the object are measured in the photographed two-dimensional image data, and the characteristic points are tracked in time series. A three-dimensional structure acquiring method for acquiring a structure or a shape of an object by using a factorization method for feature point data of a series, wherein two-dimensional measurement data composed of the feature point data is subjected to noise reduction by a factorization method. Motion information representing the physical motion of the image input device with the component removed,
In the process of decomposing into structural information or shape information representing the structure or shape of the object from which the noise component has been removed, and in the process of decomposing, the physical movement of the image The physical motion state information of the image input device is measured by a sensor device that operates in synchronization with the motion, and the motion component is corrected using the measured physical motion state information, and the structure or shape component of the object is calculated. A three-dimensional structure acquisition method characterized by restoring and reproducing.
【請求項5】 画像入力装置により物体を撮影し、該撮
影した2次元画像データにおいて、前記物体の構造もし
くは特徴点を測定し、時系列に特徴点を追跡し、得られ
た時系列の特徴点データを因子分解法を用いて、物体の
構造もしくは形状を獲得する3次元構造獲得方法の処理
手順をコンピュータに実行させるためのプログラムを記
録したコンピュータ読みとり可能な記録媒体であって、
前記特徴点データから構成される2次元計測データを、
因子分解法により、雑音成分を除去した前記画像入力装
置の物理的運動を表現する運動情報と、雑音成分を除去
した物体の構造もしくは形状を表現する構造情報もしく
は形状情報に分解する手順と、該分解する手順で、前記
画像入力装置の物理的運動に同期して動作するセンサ装
置により、前記画像入力装置の視点を原点とする座標系
における、前記画像入力装置の座標の水平方向の軸周り
の回転角度値、垂直方向の軸周りの回転角度値、及び光
軸周りの回転角度値を前記画像入力装置の運動情報とし
て計測する手順と、該計測した運動情報を用いて当該運
動成分を補正する手順と、因子分解した物体の構造成分
もしくは形状成分を復元・再現する手順をコンピュータ
に実行させるためのプログラムを記録したコンピュータ
読みとり可能な記録媒体。
5. An object is photographed by an image input device, the structure or feature points of the object are measured in the photographed two-dimensional image data, the feature points are tracked in time series, and the obtained time-series features are obtained. A computer-readable recording medium storing a program for causing a computer to execute a processing procedure of a three-dimensional structure acquisition method of acquiring a structure or a shape of an object by using a factorization method for point data,
Two-dimensional measurement data composed of the feature point data,
A factorization method for decomposing into motion information representing a physical motion of the image input device from which the noise component has been removed, and structural information or shape information representing the structure or shape of the object from which the noise component has been removed; In the disassembling procedure, the sensor device that operates in synchronization with the physical movement of the image input device, in a coordinate system whose origin is the viewpoint of the image input device, around a horizontal axis of the coordinates of the image input device. A procedure of measuring a rotation angle value, a rotation angle value around a vertical axis, and a rotation angle value around an optical axis as motion information of the image input device, and correcting the motion component using the measured motion information. A computer-readable record of a program for causing a computer to execute a procedure and a procedure for restoring and reproducing a structural component or a shape component of a factorized object. Media.
【請求項6】 画像入力装置により物体を撮影し、該撮
影した2次元画像データにおいて、前記物体の構造もし
くは形状を構成する特徴点を測定し、時系列に特徴点を
追跡し、得られた時系列の特徴点データを因子分解法を
用いて、物体の構造もしくは形状を獲得する3次元構造
獲得方法の処理手順をコンピュータに実行させるための
プログラムを記録したコンピュータ読みとり可能な記録
媒体であって、前記特徴点データから構成される2次元
計測データを、因子分解法により、雑音成分を除去した
前記画像入力装置の物理的運動を表現する運動情報と、
雑音成分を除去した物体の構造もしくは形状を表現する
構造情報もしくは形状情報に分解する手順と、該分解す
る手順で、前記画像入力装置の物理的運動に同期して動
作するセンサ装置により、前記画像入力装置の視点を原
点とする座標系における、画像入力装置の座標の水平方
向の軸に沿った並進成分値、、垂直方向の軸に沿った並
進成分値、及び光軸に沿った並進成分値を前記画像入力
装置の運動情報として計測する手順と、該計測した運動
情報を用いて当該運動成分を補正する手順と、因子分解
した物体の構造成分もしくは形状成分を復元・再現する
手順をコンピュータに実行させるためのプログラムを記
録したコンピュータ読みとり可能な記録媒体。
6. An object is photographed by an image input device, characteristic points constituting the structure or shape of the object are measured in the photographed two-dimensional image data, and the characteristic points are tracked in chronological order. A computer-readable storage medium storing a program for causing a computer to execute a processing procedure of a three-dimensional structure obtaining method for obtaining a structure or a shape of an object using a factorization method on time-series feature point data, , Two-dimensional measurement data composed of the feature point data, by a factorization method, motion information representing the physical motion of the image input device from which noise components have been removed,
A step of decomposing the structure or shape information representing the structure or shape of the object from which the noise component has been removed, and a step of decomposing the image by a sensor device that operates in synchronization with the physical motion of the image input device; A translation component value along the horizontal axis, a translation component value along the vertical axis, and a translation component value along the optical axis of the coordinates of the image input device in a coordinate system whose origin is the viewpoint of the input device. To the computer, a procedure for measuring the motion information as the motion information of the image input device, a procedure for correcting the motion component using the measured motion information, and a procedure for restoring and reproducing the structural component or the shape component of the factorized object. A computer-readable recording medium that stores a program to be executed.
【請求項7】 画像入力装置により物体を撮影し、該撮
影した2次元画像データにおいて、前記物体の構造もし
くは形状を構成する特徴点を測定し、時系列に特徴点を
追跡し、得られた時系列の特徴点データを因子分解法を
用いて、物体の構造もしくは形状を獲得する3次元構造
獲得方法の処理手順をコンピュータに実行させるための
プログラムを記録したコンピュータ読みとり可能な記録
媒体であって、前記特徴点データから構成される2次元
計測データを、因子分解法により、雑音成分を除去した
前記画像入力装置の物理的運動を表現する運動情報と、
雑音成分を除去した物体の構造もしくは形状を表現する
構造情報もしくは形状情報に分解する手順と、該分解す
る手順で、前記画像入力装置の物理的運動に同期して動
作するセンサ装置等により、前記画像入力装置の視点を
原点とする座標系における、前記画像入力装置の座標の
水平方向の軸周りの回転角度値、垂直方向の軸周りの回
転角度値、及び光軸周りの回転角度値と、前記画像入力
装置の座標の水平方向の軸に沿った並進成分、垂直方向
の軸に沿った並進成分、及び光軸に沿った並進成分値
を、前記画像入力装置の運動情報とし計測する手順と、
該計測した運動情報を用いて当該運動成分を補正する手
順と、因子分解した物体の構造成分もしくは形状成分を
復元・再現する手順をコンピュータに実行させるための
プログラムを記録したコンピュータ読みとり可能な記録
媒体。
7. An object is photographed by an image input device, characteristic points constituting the structure or shape of the object are measured in the photographed two-dimensional image data, and the characteristic points are tracked in time series. A computer-readable storage medium storing a program for causing a computer to execute a processing procedure of a three-dimensional structure obtaining method for obtaining a structure or a shape of an object using a factorization method on time-series feature point data, , Two-dimensional measurement data composed of the feature point data, by a factorization method, motion information representing the physical motion of the image input device from which noise components have been removed,
A step of decomposing the structure or shape information representing the structure or shape of the object from which the noise component has been removed, and a step of decomposing the object by a sensor device or the like that operates in synchronization with the physical motion of the image input device; In a coordinate system whose origin is the viewpoint of the image input device, a rotation angle value around a horizontal axis, a rotation angle value around a vertical axis, and a rotation angle value around an optical axis of the coordinates of the image input device, A step of measuring a translation component along the horizontal axis of the coordinates of the image input device, a translation component along the vertical axis, and a translation component value along the optical axis as motion information of the image input device; ,
A computer-readable recording medium storing a program for causing a computer to execute a procedure for correcting the motion component using the measured motion information and a procedure for restoring and reproducing a structural component or a shape component of the factorized object. .
【請求項8】 画像入力装置により物体を撮影し、該撮
影した2次元画像データにおいて、前記物体の構造もし
くは形状を構成する特徴点を測定し、時系列に特徴点を
追跡し、得られた時系列の特徴点データを因子分解法を
用いて、物体の構造もしくは形状を獲得する3次元構造
獲得方法の処理手順をコンピュータに実行させるための
プログラムを記録したコンピュータ読みとり可能な記録
媒体であって、前記特徴点データから構成される2次元
計測データを、因子分解法により、雑音成分を除去した
前記画像入力装置の物理的運動を表現する運動情報と、
雑音成分を除去した物体の構造もしくは形状を表現する
構造情報もしくは形状情報に分解する手順と、該分解す
る手順で、前記特徴点データから構成される2次元計測
データから、前記画像入力装置の物理的運動に同期して
動作するセンサ装置により、画像入力装置の物理的な運
動状態情報を計測する手順と、該計測した物理的な運動
状態情報を用いて当該運動成分を補正する手順と、物体
の構造成分もしくは形状成分を復元・再現する手順をコ
ンピュータに実行させるためのプログラムを記録したコ
ンピュータ読みとり可能な記録媒体。
8. An object is photographed by an image input device, characteristic points constituting the structure or shape of the object are measured in the photographed two-dimensional image data, and the characteristic points are tracked in a time series. A computer-readable storage medium storing a program for causing a computer to execute a processing procedure of a three-dimensional structure obtaining method for obtaining a structure or a shape of an object using a factorization method on time-series feature point data, , Two-dimensional measurement data composed of the feature point data, by a factorization method, motion information representing the physical motion of the image input device from which noise components have been removed,
A step of decomposing the structure or shape information representing the structure or shape of the object from which the noise component has been removed, and a step of decomposing the two-dimensional measurement data composed of the feature point data from the physical data of the image input device. Measuring the physical motion state information of the image input device by a sensor device operating in synchronization with the dynamic motion, correcting the motion component using the measured physical motion state information, A computer-readable recording medium on which a program for causing a computer to execute a procedure for restoring and reproducing a structural component or a shape component of the computer is recorded.
【請求項9】 物体を撮影するカメラ等の画像入力装置
と、物体を撮影した2次元画像データにおいて、物体の
構造もしくは形状を構成する特徴点を測定する測定手段
と、該測定値を時系列に特徴点を追跡し、得られた時系
列の特徴点データを因子分解法を用いて、物体の構造も
しくは形状を獲得する手段とを有する3次元構造獲得装
置であって、前記特徴点データから構成される2次元計
測データを、因子分解法により、雑音成分を除去した画
像入力装置の物理的運動を表現する成分と、雑音成分を
除去した物体の構造もしくは形状を表現する成分に分解
する手段と、前記画像入力装置の物理的運動に同期して
動作するセンサ装置と、該センサ装置の出力を用いて運
動成分を補正する手段と、因子分解した物体の構造成分
もしくは形状成分を復元・再現する手段を具備すること
を特徴とする3次元構造獲得装置。
9. An image input device such as a camera for photographing an object, a measuring means for measuring feature points constituting the structure or shape of the object in two-dimensional image data of the object, and a time series of the measured values. Means for acquiring the structure or shape of an object by using a factorization method on the obtained time-series feature point data using a factorization method. Means for decomposing the constituted two-dimensional measurement data into a component expressing the physical motion of the image input device from which the noise component has been removed and a component expressing the structure or shape of the object from which the noise component has been removed by a factor decomposition method. And a sensor device that operates in synchronization with the physical motion of the image input device, means for correcting a motion component using an output of the sensor device, and a structural component or a shape component of the factorized object. A three-dimensional structure acquisition device comprising means for restoring and reproducing.
【請求項10】 請求項9に記載の3次元構造獲得装置
において、前記センサ装置により、前記画像入力装置の
視点を原点とする座標系における、画像入力装置座標の
水平方向の軸周りの回転角度値、垂直方向の軸周りの回
転角度値、及び光軸周りの回転角度値を画像入力装置の
物理的運動のセンサ情報として計測する手段を具備する
ことを特徴とする3次元構造獲得装置。
10. The three-dimensional structure acquiring apparatus according to claim 9, wherein the sensor device rotates the rotation angle of the coordinates of the image input device around a horizontal axis in a coordinate system whose origin is the viewpoint of the image input device. A three-dimensional structure acquiring apparatus comprising: means for measuring a value, a rotation angle value around a vertical axis, and a rotation angle value around an optical axis as sensor information of physical motion of an image input device.
【請求項11】 請求項9に記載の3次元構造獲得装置
において、前記センサ装置により、前記画像入力装置の
視点を原点とする座標系における、画像入力装置座標の
水平方向の軸に沿った並進成分値、垂直方向の軸に沿っ
た並進成分値、及び光軸に沿った並進成分値を画像入力
装置の物理的運動のセンサ情報として計測する手段を具
備することを特徴とする3次元構造獲得装置。
11. The three-dimensional structure acquiring apparatus according to claim 9, wherein the sensor device translates the image input device coordinates along a horizontal axis in a coordinate system whose origin is the viewpoint of the image input device. A three-dimensional structure acquisition unit comprising means for measuring component values, translation component values along a vertical axis, and translation component values along an optical axis as sensor information of physical movement of the image input device. apparatus.
【請求項12】 請求項9に記載の3次元構造獲得装置
において、前記センサ装置により、前記画像入力装置の
視点を原点とする座標系における、画像入力装置座標の
水平方向の軸周りの回転角度値、垂直方向の軸周りの回
転角度値、及び光軸周りの回転角度値と、画像入力装置
座標の水平方向の軸に沿った並進成分値、垂直方向の軸
に沿った並進成分値、並びに、光軸に沿った並進成分値
とを計測する手段を具備することを特徴とする3次元構
造獲得装置。
12. The three-dimensional structure acquisition device according to claim 9, wherein the sensor device is configured to rotate the image input device coordinates around a horizontal axis in a coordinate system whose origin is the viewpoint of the image input device. Values, rotation angle values about the vertical axis, and rotation angle values about the optical axis, and translation component values along the horizontal axis of the image input device coordinates, translation component values along the vertical axis, and And a means for measuring a translation component value along the optical axis.
【請求項13】 請求項9に記載の3次元構造獲得装置
において、前記センサ装置により、前記特徴点データか
ら構成される2次元計測データから、画像入力装置の物
理的な運動状態情報を計測する手段を具備することを特
徴とする3次元構造獲得装置。
13. The three-dimensional structure acquiring device according to claim 9, wherein the sensor device measures physical motion state information of the image input device from two-dimensional measurement data composed of the feature point data. A three-dimensional structure obtaining apparatus comprising: means for obtaining a three-dimensional structure.
JP10232979A 1998-08-19 1998-08-19 Method and device for acquiring three-dimensional structure and recording medium for the method Pending JP2000067216A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP10232979A JP2000067216A (en) 1998-08-19 1998-08-19 Method and device for acquiring three-dimensional structure and recording medium for the method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP10232979A JP2000067216A (en) 1998-08-19 1998-08-19 Method and device for acquiring three-dimensional structure and recording medium for the method

Publications (1)

Publication Number Publication Date
JP2000067216A true JP2000067216A (en) 2000-03-03

Family

ID=16947900

Family Applications (1)

Application Number Title Priority Date Filing Date
JP10232979A Pending JP2000067216A (en) 1998-08-19 1998-08-19 Method and device for acquiring three-dimensional structure and recording medium for the method

Country Status (1)

Country Link
JP (1) JP2000067216A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005056295A (en) * 2003-08-07 2005-03-03 Iwane Kenkyusho:Kk 360-degree image conversion processing apparatus
CN114781087A (en) * 2022-04-22 2022-07-22 郑州大学 Space structure performance quantitative analysis method based on plate unit deformation decomposition

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005056295A (en) * 2003-08-07 2005-03-03 Iwane Kenkyusho:Kk 360-degree image conversion processing apparatus
CN114781087A (en) * 2022-04-22 2022-07-22 郑州大学 Space structure performance quantitative analysis method based on plate unit deformation decomposition

Similar Documents

Publication Publication Date Title
US20200314340A1 (en) Anti-shake method and apparatus for panoramic video, and portable terminal
Zhang Camera calibration with one-dimensional objects
US8350897B2 (en) Image processing method and image processing apparatus
JP4010753B2 (en) Shape measuring system, imaging device, shape measuring method, and recording medium
CN111127422A (en) Image annotation method, device, system and host
JP2014002744A (en) Event-based image processing apparatus and method using the same
KR102169309B1 (en) Information processing apparatus and method of controlling the same
KR20000064528A (en) 3D image processing method and apparatus using parallax shape at both points
WO2023082306A1 (en) Image processing method and apparatus, and electronic device and computer-readable storage medium
JP5901447B2 (en) Image processing apparatus, imaging apparatus including the same, image processing method, and image processing program
JP2007004578A (en) Method and device for acquiring three-dimensional shape and recording medium for program
JP5463584B2 (en) Displacement measuring method, displacement measuring apparatus, and displacement measuring program
CN114663463A (en) Method, system, device, electronic device and storage medium for measuring joint mobility
JP5281479B2 (en) Camera motion / object shape restoration method, camera motion / object shape restoration device, camera motion / object shape restoration program, and recording medium recording the program
JP2000067216A (en) Method and device for acquiring three-dimensional structure and recording medium for the method
CN113962853B (en) Automatic precise resolving method for rotary linear array scanning image pose
CN110853113A (en) TOF-PET image reconstruction algorithm and reconstruction system based on BPF
Medien Implementation of a low cost marker based infrared optical tracking system
CN115294280A (en) Three-dimensional reconstruction method, apparatus, device, storage medium, and program product
JP3267383B2 (en) Image processing method and image processor
JP2001091250A (en) Three-dimensional structure acquisition method, and recording medium and device
JP3871582B2 (en) Object shape restoration / moving object detection method, object shape restoration / moving object detection device, object shape restoration / moving object detection program, and recording medium recording this program
JP3452188B2 (en) Tracking method of feature points in 2D video
JP2001245323A (en) Three-dimensional input method and device
CN108109195B (en) Method, device and system for displaying cultural relic defect component