JP2000048204A - Forming method of solid model of actual size - Google Patents

Forming method of solid model of actual size

Info

Publication number
JP2000048204A
JP2000048204A JP10229512A JP22951298A JP2000048204A JP 2000048204 A JP2000048204 A JP 2000048204A JP 10229512 A JP10229512 A JP 10229512A JP 22951298 A JP22951298 A JP 22951298A JP 2000048204 A JP2000048204 A JP 2000048204A
Authority
JP
Japan
Prior art keywords
viewpoint
movement
subject
point
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP10229512A
Other languages
Japanese (ja)
Inventor
Yoshiteru Ooi
祥照 大井
Shinji Ozawa
慎治 小沢
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
INES CORP
Original Assignee
INES CORP
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by INES CORP filed Critical INES CORP
Priority to JP10229512A priority Critical patent/JP2000048204A/en
Publication of JP2000048204A publication Critical patent/JP2000048204A/en
Pending legal-status Critical Current

Links

Landscapes

  • Measurement Of Optical Distance (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

PROBLEM TO BE SOLVED: To represent the size and positional relation of each subject precisely and to easily actualize real computer graphics(CG) by measuring the distances between visual points and a subject and calculating motion parameters of the visual points regarding movements by using the actual size information. SOLUTION: A subject 100 is photographed by a camera 120 at positions before and after camera movement. A gaze point EFP on the subject 100 is indicated with the light of a laser pointer 110 on the image and the 2D position of the gaze point EFP on the image can be extracted. The distances from the camera positions before and after the movement to the gaze point EFP are measured by the laser range finder incorporated in the camera 120. Motion parameters of the visual point regarding the movement are calculated by using the actual size information. Then the three-dimensional shape of the subject is restored in 3D by using the obtained motion parameters.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、コンピュータ・グ
ラフィックス(以下、「CG」という。)において、実
在物体(被写体)の3D形状を復元した立体モデルを作
成する方法に係り、更に詳細には、被写体の実寸をデー
タとして持ち込み、被写体相互間の位置関係や大きさが
精密に復元された立体モデルの作成方法に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a method of creating a three-dimensional model of a real object (subject) in a computer graphics (hereinafter, referred to as "CG"). The present invention also relates to a method of creating a three-dimensional model in which the actual size of a subject is brought as data and the positional relationship and size between the subjects are precisely restored.

【0002】[0002]

【従来の技術】従来から、被写体の3D形状を復元する
方法としては、視差のある2枚の画像を用い、三角測量
の原理に基づいて該被写体の形状を復元するステレオ法
が知られている。
2. Description of the Related Art Conventionally, as a method of restoring the 3D shape of a subject, a stereo method of restoring the shape of the subject based on the principle of triangulation using two images having parallax has been known. .

【0003】かかるステレオ法は、粘土等を用いたクレ
イモデル等の作成を必須条件とせず優れた方法と言える
が、この方法で立体モデルを得るためには、少なくとも
2台のカメラ位置を予め精密に設定しておく必要があ
る。よって、この方法を建造物などの大きくて撮影に遠
距離を要する被写体に適用しようとすれば、カメラの精
密設置はもとより、2台のカメラの間隔を大きくとらな
ければならず、カメラ設置に手間がかかるばかりか、最
悪の場合には、カメラ同士の位置関係を決定できないと
いう問題があった。
The stereo method can be said to be an excellent method without requiring a clay model or the like using clay or the like as an essential condition. However, in order to obtain a three-dimensional model by this method, at least two camera positions must be precisely defined in advance. Must be set to Therefore, if this method is applied to a large object such as a building that requires a long distance to shoot, not only must the camera be precisely installed, but also the distance between the two cameras must be increased. However, in the worst case, the positional relationship between the cameras cannot be determined.

【0004】このような問題に対し、本発明者らは、特
開平9−81779号公報において、カメラ同士の位置
関係を精密には制御することなく、具体的には、1台の
カメラを任意に移動させ、移動前後に係るカメラの位置
関係(以下、「カメラ運動パラメータ」という。)を精
度良く推定し、このカメラ運動パラメータを用いてリア
ルな立体モデルを作成する方法(モーションステレオ
法)を提案している。そして、この方法に続いて、本発
明者らは、上述のカメラ運動パラメータの推定法を適用
し、被写体の部分立体モデルを統合して、当該被写体を
全アングル的に完全に3D復元する完全立体モデルの作
成方法も提案している(特開平9−237346号公
報)。
In response to such a problem, the present inventors disclosed in Japanese Patent Application Laid-Open No. Hei 9-81779, without precisely controlling the positional relationship between cameras, And a method of accurately estimating the positional relationship between the cameras before and after the movement (hereinafter referred to as “camera motion parameters”) and creating a realistic three-dimensional model using the camera motion parameters (motion stereo method). is suggesting. Then, following this method, the present inventors apply the above-described camera motion parameter estimation method, integrate the partial stereoscopic model of the subject, and completely reconstruct the subject in full 3D from all angles. A model creation method has also been proposed (Japanese Patent Laid-Open No. 9-237346).

【0005】[0005]

【発明が解決しようとする課題】しかしながら、本発明
者らが更にリアルなCGを実現すべく検討を加えた結
果、次のような改良の余地があることが判明した。即
ち、上述のモーションステレオ法では、被写体の寸法は
相対的に測定されるのみであり、例えば、遠くに位置す
る巨人と、近くに位置する同一形状の小人との区別がC
G上明確ではなく、また、被写体が複数個存在する場合
に、各被写体の大きさとその位置関係がCG上不明確に
なりがちであるという課題があった。
However, as a result of the present inventors' investigations for realizing a more realistic CG, it has been found that there is room for the following improvement. That is, in the above-mentioned motion stereo method, the size of the subject is only measured relatively. For example, the distinction between a giant located far away and a dwarf of the same shape located near is C.
There is a problem that the size and the positional relationship of each subject tend to be unclear on the CG when the subject is not clear on G and there are a plurality of subjects.

【0006】また、上述の完全立体モデルの作成方法で
は、複数の部分立体モデルを合成・統合するが、この
際、各部分立体モデルの大きさや位置関係が明確でない
と、その合成が困難であるという課題もあった。
Further, in the above-described method of creating a complete three-dimensional model, a plurality of partial three-dimensional models are combined and integrated. At this time, if the size and the positional relationship of each partial three-dimensional model are not clear, the combination is difficult. There was also a problem.

【0007】本発明は、このような従来技術の有する課
題に鑑みてなされたものであり、その目的とするところ
は、各被写体の大きさ及びその位置関係が精密に表現さ
れ、リアルなCGを簡易に実現し得る実寸立体モデルの
作成方法を提供することにある。
SUMMARY OF THE INVENTION The present invention has been made in view of the above-mentioned problems of the prior art. It is an object of the present invention to accurately represent the size and the positional relationship of each subject and to realize a real CG. It is an object of the present invention to provide a method for creating a real-size three-dimensional model that can be easily realized.

【0008】[0008]

【課題を解決するための手段】本発明者らは、上記目的
を達成すべく鋭意検討を重ねた結果、被写体とカメラと
の距離を簡易な手法によって実寸で持ち込むことによ
り、上記目的が達成されることを見出し、本発明を完成
するに至った。
Means for Solving the Problems The present inventors have made intensive studies to achieve the above object, and as a result, the object has been achieved by bringing the distance between the subject and the camera in an actual size by a simple method. The inventors have found that the present invention has been completed.

【0009】即ち、本発明の実寸立体モデルの作成方法
は、視点を移動させて撮影した複数枚の画像を用いて、
被写体の立体形状を3D復元した立体モデルを作成する
に当たり、上記視点の移動撮影に際し、視点の移動前及
び移動後における上記視点と上記被写体との距離を実測
し、この実寸情報を用いて上記移動に関する視点の運動
パラメータを算出し、得られた運動パラメータを用いて
上記被写体の立体形状を3D復元することを特徴とす
る。
That is, in the method for creating a full-size three-dimensional model according to the present invention, a plurality of images taken while moving the viewpoint are used.
In creating a three-dimensional model in which the three-dimensional shape of the subject is reconstructed in 3D, the distance between the viewpoint and the subject before and after the movement of the viewpoint is measured when moving the viewpoint, and the movement is performed using the actual size information. The three-dimensional reconstruction of the subject is performed using the obtained motion parameters.

【0010】また、本発明の実寸立体モデルの作成方法
の好適形態は、上記視点の移動前と移動後における当該
視点間の距離を実測し、この実寸情報を加味して上記視
点の運動パラメータを算出することを特徴とし、これに
より、視点の運動パラメータの精度を向上することがで
きる。
In a preferred embodiment of the method for creating a full-size three-dimensional model according to the present invention, a distance between the viewpoints before and after the movement of the viewpoint is actually measured, and the motion parameter of the viewpoint is taken into consideration in consideration of the actual size information. The calculation is characterized in that the accuracy of the viewpoint motion parameter can be improved.

【0011】また、本発明の実寸立体モデルの作成方法
の好適形態は、上記被写体の特徴点のうちの1点を注視
点、他の1点を参照点として選択し、上記視点の移動前
及び移動後における該視点と、上記注視点及び参照点と
の距離を実測し、この実寸情報を加味して上記視点の運
動パラメータを算出することを特徴とする。
In a preferred embodiment of the method for creating a full-size three-dimensional model according to the present invention, one of the feature points of the subject is selected as a gazing point and the other point is selected as a reference point. The method is characterized in that a distance between the viewpoint after the movement and the gazing point and the reference point is actually measured, and a motion parameter of the viewpoint is calculated in consideration of the actual size information.

【0012】更に、本発明の実寸立体モデルの作成方法
の他の好適形態は、上記被写体の特徴点のうちの任意の
1点を注視点として選択し、この注視点が上記複数枚の
画像の画像中心に常に位置するように上記視点の移動を
制御し、且つ上記視点を定義する座標のY軸が上記視点
の移動前後に亘って鉛直上向きを指すように上記視点の
移動を制御することを特徴とし、これにより、運動パラ
メータ(H,R)の自由度を低減して、視点の運動パラ
メータの精度を向上することができる。
Further, in another preferred embodiment of the method for creating a full-size three-dimensional model according to the present invention, any one of the feature points of the subject is selected as a gazing point, and the gazing point is selected from the plurality of images. Controlling the movement of the viewpoint so as to always be located at the center of the image, and controlling the movement of the viewpoint such that the Y axis of the coordinates defining the viewpoint points vertically upward before and after the movement of the viewpoint. As a feature, the degree of freedom of the motion parameters (H, R) can be reduced, and the accuracy of the motion parameters of the viewpoint can be improved.

【0013】また、本発明の実寸立体モデルの作成方法
の他の好適形態は、上記視点の移動に関し、上記視点を
定義する座標をそれぞれ移動前座標及び移動後座標と
し、この移動後座標を1自由度座標(φ)に変換するこ
とにより、上記視点の移動をφの関数とし、このφを総
当たりで探索して上記視点の運動パラメータを算出する
ことを特徴とし、これにより、運動パラメータ(H,
R)の自由度を更に低減して、視点の運動パラメータの
精度を更に向上することができる。
In another preferred embodiment of the method for producing a full-size three-dimensional model according to the present invention, regarding the movement of the viewpoint, coordinates defining the viewpoint are coordinates before movement and coordinates after movement, respectively. By converting the movement of the viewpoint into a function of φ by converting the coordinates into degrees of freedom (φ), the movement parameter of the viewpoint is calculated by searching for φ in a round robin manner. H,
The degree of freedom of R) can be further reduced, and the accuracy of the viewpoint motion parameters can be further improved.

【0014】更にまた、本発明の実寸立体モデルの作成
方法の他の好適形態は、上記視点と上記被写体との距離
及び/又は上記視点間の距離をレーザー測距計で実測す
ることを特徴とする。レーザー測距計は、簡易な操作で
実測が可能であり、3D復元の操作上大きな支障がな
い。また、レーザー測距計は安価であるため、コスト上
も有利である。
Still another preferred embodiment of the method for producing a full-sized solid model according to the present invention is characterized in that the distance between the viewpoint and the subject and / or the distance between the viewpoints is actually measured by a laser range finder. I do. The laser range finder can be actually measured with a simple operation, and there is no major trouble in the operation of the 3D reconstruction. Further, since the laser range finder is inexpensive, it is advantageous in cost.

【0015】また、本発明の実寸立体モデルの作成方法
の好適形態は、上記注視点をレーザーポインタで指示す
ることを特徴とするが、これによれば、視点の移動前後
における視点から注視点までの距離が求め易くなり、且
つ注視点が画像上で判別し易くなるので、注視点を画像
中心に位置させ易くなり、注視点制約を実行するのに有
利になる。
Further, a preferred embodiment of the method for producing a full-size solid model according to the present invention is characterized in that the point of regard is pointed by a laser pointer. Is easily obtained, and the gazing point can be easily identified on the image. Therefore, the gazing point can be easily positioned at the center of the image, which is advantageous in executing the gazing point restriction.

【0016】また、本発明の情報媒体は、上述のような
方法を行うコンピュータへの指令を記録して成ることを
特徴とする。
Further, the information medium of the present invention is characterized by recording instructions to a computer for performing the above-described method.

【0017】[0017]

【発明の実施の形態】以下、本発明の実寸立体モデルの
作成方法について詳細に説明する。本発明の説明の便宜
上、まず、本発明者らが既に提案しているモーションス
テレオ法及びカメラ運動パラメータの推定について簡単
に説明する。
BEST MODE FOR CARRYING OUT THE INVENTION Hereinafter, a method for producing a full-size solid model according to the present invention will be described in detail. For convenience of description of the present invention, first, the motion stereo method and estimation of camera motion parameters which have been already proposed by the present inventors will be briefly described.

【0018】[モーションステレオ法] (座標系)モーションステレオ法において用いる座標系
の一例を図1に示す。図1において、座標系
はカメラ移動前、座標系’−’−’はカメラ(視
点)移動後の座標系を示している。また、「特徴点」
は、被写体の形状上の特徴をなす点であって、例えば、
被写体表面の突起や角の変曲点などを示す。同図におい
て、カメラ座標系()のZ軸方向はカメラの
光軸に一致しており、軸及び軸は各々画像座標系
)と平行になっている。また、この画像座標系
の原点はカメラ座標系の原点Oから焦点距離fの位置に
ある。
[Motion Stereo Method] (Coordinate System) FIG. 1 shows an example of a coordinate system used in the motion stereo method. In Figure 1, the coordinate system X - Y - Z
Before the camera moves, the coordinate system X '- Y' - Z 'represents a coordinate system after moving the camera (viewpoint). Also, "Feature points"
Is a characteristic point of the shape of the subject, for example,
Indicates a projection or an inflection point of a corner on a subject surface. In the figure, the camera coordinate system (X - Y - Z) Z-axis direction is coincident with the optical axis of the camera, X-axis and Y-axis each image coordinate system (x - y) that is parallel . The origin of the image coordinate system is located at a focal distance f from the origin O of the camera coordinate system.

【0019】上述の条件下において、カメラの移動量
)は次式(1)で表される。 i i,(i=1,・・・,N)・・・(1) 式(1)中、並進ベクトル()、回転行列()はカ
メラ移動前座標系から見た量である。 i=( i
i i)はカメラ移動前座標系でのi番目特徴点の3
D位置ベクトルを示し、Nは特徴点数を示す。なお、ダ
ッシュが付されているのは、カメラ移動後座標系で観測
された量を示している。
Under the conditions described above, the movement amount ( H , R ) of the camera is expressed by the following equation (1). P i = H + R Pi , (i = 1,..., N) (1) In equation (1), the translation vector ( H ) and the rotation matrix ( R ) are coordinate systems before camera movement. This is the amount seen from P i = ( X i ,
Y i , Z i ) is the 3rd of the i-th feature point in the coordinate system before camera movement.
D indicates a position vector, and N indicates the number of feature points. Note that the dashes indicate the amounts observed in the coordinate system after the movement of the camera.

【0020】また、並進ベクトルは、=( X
Y Zt、回転行列は、 X Y Zで表され、
この場合、 X Y Z各軸の周りのカ
メラ回転行列を示し、tは行列の転置を示す。ここで、
Xは例えば次式(A)で表される。
The translation vector H is given by H = ( H X ,
H Y , H Z ) t , and the rotation matrix R is represented by R = R X R Y R Z ,
In this case, R X , R Y , and R Z indicate the camera rotation matrices around the X , Y , and Z axes, and t indicates the transpose of the matrices. here,
R X is represented by, for example, the following formula (A).

【0021】[0021]

【数1】 (Equation 1)

【0022】(カメラ運動パラメータの推定(相対
的)) 特徴点の画像座標(xi,yi)は3D位置ベクトルか
ら、射影変換により次式で求められる。 i =f・ i i i=f・ i i この式をPiに代入して次式(B)が得られる。
(Estimation of Camera Motion Parameters (Relative)) The image coordinates (x i , y i ) of the feature points can be obtained from the 3D position vector by projective transformation by the following equation. x i = f · X i / Z i , y i = f · Y i / Z i By substituting this equation for P i , the following equation (B) is obtained.

【0023】[0023]

【数2】 (Equation 2)

【0024】よって、式(1)は、次式(C)のように
変形される。
Therefore, the equation (1) is transformed into the following equation (C).

【0025】[0025]

【数3】 (Equation 3)

【0026】式(C)中、 i i’は、カメラ移動前
後の座標系での原点からi番目特徴点までの距離を示
し、 i i’は、各座標系での原点から特徴点への方
向を示す単位ベクトルを示す。一般に、カメラ移動前後
におけるN個の特徴点の対応付けによる運動パラメータ
)の推定は、次の式(2)に極小値を与える運
動パラメータを求める問題に帰着する。
The formula (C), r i, r i ' denotes the distance from the origin of the camera back and forth movement of the coordinate system to the i-th feature point, m i, m i' is at each coordinate system 5 shows a unit vector indicating a direction from an origin to a feature point. In general, estimating the motion parameters ( H , R ) by associating N feature points before and after the movement of the camera results in a problem of obtaining a motion parameter that gives a minimum value in the following equation (2).

【0027】[0027]

【数4】 (Equation 4)

【0028】(2)式中、| i i’|は運
動パラメータ(H,R)が真値のとき、0となるエピポ
ーラ条件である。Wiは重みを示す。
[0028] (2) where, | H, m i, R m i '| time motion parameters (H, R) is a true value, a epipolar condition becomes zero. W i represents the weight.

【0029】カメラ運動パラメータ(以下、「運動パラ
メータ」と略す)は、並進、回転を合わせて6自由度を
有する。遠くの大きい被写体に対して並進が大きい場合
と、近くの小さい被写体に対して並進が小さい場合との
区別は、画面からはつけられない。このため、視差のあ
る2枚の画像から、運動パラメータの並進ベクトル
大きさ(||)を求めることはできない。式(2)の
極小値を探索する際、||の値を仮定(例えば、|
|=1とするため、相対的な運動パラメータの自由度は
5自由度となる。
The camera motion parameters (hereinafter abbreviated as "motion parameters") have six degrees of freedom including translation and rotation. A distinction between a case where the translation is large for a large distant subject and a case where the translation is small for a small nearby subject cannot be made from the screen. Therefore, the magnitude (| H |) of the translation vector H of the motion parameter cannot be obtained from the two images having parallax. When searching for the minimum value of the equation (2), the value of | H | is assumed (for example, | H
Since | = 1, the relative motion parameters have five degrees of freedom.

【0030】本発明者らによる特開平9−81779号
公報においては、特に、被写体がカメラの移動前後で必
ず写るように撮影すること(「注視物体制約」)を利用
し、上述の5自由度を3自由度まで削減して、この3自
由度空間を総当たりで探索する方法を提案した。
In Japanese Patent Application Laid-Open No. Hei 9-81779 by the present inventors, in particular, taking advantage of the fact that the subject is always photographed before and after the movement of the camera (“gazing object restriction”), the above-described five degrees of freedom are used. Has been reduced to three degrees of freedom, and a method of searching the three degrees of freedom space by brute force has been proposed.

【0031】(運動パラメータの計算(絶対的))
大きさ(同様に、被写体の実寸情報)を得るには、撮影
現場において、カメラから被写体までの距離及び所要に
応じて基線長(カメラ同士の距離)を測定し、上述のよ
うな相対的な運動パラメータに代入して、絶対的な運動
パラメータを計算すればよい。以下に説明する本発明の
実寸立体モデルの作成方法は、このことに基づくもので
ある。
(Calculation of Motion Parameters (Absolute)) To obtain the magnitude of H (similarly, the actual size information of the subject), the distance from the camera to the subject and the base line length (camera) at the shooting site are required. The distance between them may be measured and substituted into the above-described relative motion parameters to calculate the absolute motion parameters. The method for creating a full-size three-dimensional model of the present invention described below is based on this.

【0032】[実寸立体モデルの作成方法]以下、本発
明の実寸立体モデルの作成方法における操作を詳細に説
明する。
[Method of Creating Actual Size Solid Model] The operation in the method of creating the actual size solid model of the present invention will be described in detail below.

【0033】撮影現場における作業 (注視点の指定)図2に、撮影現場における作業を示
す。被写体100上の1点を注視点(EFP:Eye
Fixation Point)、即ち特徴点のうち特
に注目している点と定め(図2中、○で示す)、マーカ
ーの一例であるレーザポインタ110で指示する。この
ようなレーザポインタの指示により、カメラ移動前後の
カメラから注視点までの距離を求め易くでき、且つ注視
点が画像上で判別し易くなるので、注視点を画像中心に
位置させ易くなり、後述する「注視点制約」を実行する
のに有利になる。
Work at the Shooting Site (Designation of Point of View) FIG. 2 shows the work at the shooting site. Look at one point on the subject 100 (EFP: Eye)
Fixation Point, that is, a point of particular interest among the feature points (indicated by a circle in FIG. 2), and is designated by a laser pointer 110 which is an example of a marker. By such an instruction of the laser pointer, the distance from the camera before and after the camera movement to the gazing point can be easily obtained, and the gazing point can be easily identified on the image. This is advantageous for executing the “gaze point constraint”.

【0034】(被写体の撮影)図2に示すカメラ移動前
後の位置において、被写体100が画角に収まるように
注視物体制約を行い、この制約下、カメラ120で被写
体100を撮影する。なお、注視点EFPは画像上のレ
ーザポインタ光により指示され、注視点EFPの画像上
での2D位置が抽出可能となる。
(Photographing of the subject) At the positions before and after the movement of the camera shown in FIG. 2, a gazing object constraint is performed so that the subject 100 falls within the angle of view, and under this constraint, the camera 120 photographs the subject 100. The point of interest EFP is indicated by the laser pointer light on the image, and the 2D position of the point of interest EFP on the image can be extracted.

【0035】(距離の測定)カメラ移動前後におけるカ
メラ位置から注視点EFPまでの距離を、カメラ120
に内蔵されているレーザ測距計で測定する。この際、カ
メラ移動前後におけるカメラ位置間の距離(基線長)も
測定しておくことが好ましい。
(Measurement of distance) The distance from the camera position before and after the movement of the camera to the gazing point EFP is determined by the camera 120.
It measures with the laser range finder built in. At this time, it is preferable to measure the distance (base line length) between the camera positions before and after the movement of the camera.

【0036】運動パラメータへの制約条件 以下のような制約を課すことにより、運動パラメータの
推定を容易、精密にすることができる。
Constraints on Motion Parameters By imposing the following constraints, the motion parameters can be easily and accurately estimated.

【0037】(注視物体制約)並進を伴わないカメラ回
転は、被写体の3D復元精度に影響を及ぼさないことが
知られている。また、あたかもカメラ回転をして画像上
の任意の点を画像原点に移動させる画像処理(標準変
換)も知られている。ここで、カメラ移動前において、
注視点を常に画像中心に持ってくるようなカメラ運動を
設定すると、並進と回転に一定の制約条件(注視点制
約)が生じる。また、標準変換を施すことにより、被写
体を注視しながら撮影した連続画像を注視点制約が利用
できるように変換可能である。
(Gaze Object Constraint) It is known that camera rotation without translation does not affect the 3D reconstruction accuracy of a subject. Image processing (standard conversion) for moving an arbitrary point on an image to the image origin by rotating the camera is also known. Here, before moving the camera,
If the camera motion is set such that the point of interest is always brought to the center of the image, a certain constraint (translation and rotation) is generated in translation and rotation. Further, by performing the standard conversion, it is possible to convert a continuous image taken while gazing at the subject so that the gazing point constraint can be used.

【0038】本発明においては、被写体上の1点(注視
点)が画面の中心になるように標準変換(’)を
用いて画像処理を行う(図3参照)。これにより、類似
的に注視点制御を行って撮影した画像に変換できる。図
3において、元の座標系と標準変換後の座標系で表され
る並進量(H)、回転量(R)等の関係は次式(D)で
表される。
In the present invention, image processing is performed using standard conversion ( S , S ') such that one point (point of interest) on the subject is at the center of the screen (see FIG. 3). As a result, it is possible to similarly convert the image into a captured image by performing gazing point control. In FIG. 3, the relationship between the translation amount (H), the rotation amount (R), and the like represented by the original coordinate system and the coordinate system after the standard conversion is represented by the following equation (D).

【0039】 H= ,R= ti i,mi’= i’・・・(D)[0039] H = S H, R = S R S 't m i = S m i, m i' = S 'm i' ··· (D)

【0040】式(D)中、’は標準変換
前の座標を用いて表現した並進ベクトル、回転行列、特
徴点への方向を示す単位ベクトルを表す。また、図3
中、X−Y−Zはカメラの光軸が注視点を向いたカメラ
移動前座標系、X’−Y’−Z’はカメラ移動後座標系
である。このようにカメラの光軸(Z,Z’軸)が注視
点を向く(注視点制約)ことから、次式(3)及び
(4)が導かれる。
In the equation (D), H , R , m , and m ′ represent a translation vector, a rotation matrix, and a unit vector indicating a direction to a feature point expressed using coordinates before standard transformation. FIG.
XYZ is a coordinate system before camera movement in which the optical axis of the camera points to the gazing point, and X'-Y'-Z 'is a coordinate system after camera movement. Since the optical axes (Z, Z 'axes) of the camera point at the gazing point (gaze point constraint), the following equations (3) and (4) are derived.

【0041】[0041]

【数5】 (Equation 5)

【0042】[0042]

【数6】 (Equation 6)

【0043】式(3)及び(4)において、Z0、Z0
は各座標系での原点から注視点までの距離を示し、
θX,θYは各々X,Y軸の周りの回転角度を示す。
In equations (3) and (4), Z 0 , Z 0
Indicates the distance from the origin to the point of interest in each coordinate system,
θ X and θ Y indicate rotation angles about the X and Y axes, respectively.

【0044】上述のような注視点制約により、運動パラ
メータが6自由度から4自由度に低減する。式(3)及
び(4)を式(2)にすると、エピポーラ関数(D)は
次式(5)で表され、4自由度であることが分かる。 D(H,R)=D(H,θZ)・・・(5) 残り4自由度のうち3自由度は並進成分(H)であり、
1自由度はカメラの光軸周りのロール各(θZ)であ
る。
The motion parameters are reduced from six degrees of freedom to four degrees of freedom due to the above-described gaze point constraint. When the equations (3) and (4) are replaced by the equation (2), the epipolar function (D) is expressed by the following equation (5), and it can be seen that the epipolar function (D) has four degrees of freedom. D (H, R) = D (H, θ Z ) (5) Of the remaining four degrees of freedom, three degrees of freedom are translational components (H),
One degree of freedom is each roll (θ Z ) around the optical axis of the camera.

【0045】(天地制約)カメラのY軸が常に天を向い
ている条件を天地制約ということにする。この条件は、
地上の被写体を撮影する場合に有効となる制約条件であ
る。測量で使用される下げ振りなどを用いることによ
り、容易に実現することができる。かかる天地制約によ
り、カメラのロール角(θZ)について次式(6)が成
立する。
(Up-down Constraint) A condition in which the Y axis of the camera always points to the upside is called up-down constraint. This condition
This is a constraint condition that is effective when shooting an object on the ground. It can be easily realized by using a down swing used in surveying. Due to such a vertical constraint, the following equation (6) is established for the roll angle (θ Z ) of the camera.

【0046】[0046]

【数7】 (Equation 7)

【0047】極座標表示を用いた3D形状推定 (極座標の導入)カメラ移動後座標系の原点は、カメラ
移動前座標系の原点を中心とする半径Hの球と、注視点
を中心とする半径Z0’の球とが交差する円上に存在す
る(図4参照)。本明細書では、この円を解探索円とい
うことにする。
3D Shape Estimation Using Polar Coordinate Display (Introduction of Polar Coordinates) The origin of the coordinate system after moving the camera is a sphere having a radius H centered on the origin of the coordinate system before moving the camera, and a radius Z centering on the gazing point. The sphere of 0 'exists on the intersecting circle (see FIG. 4). In this specification, this circle is referred to as a solution search circle.

【0048】図5は、解探索円をX軸方向から見た図で
ある。図5より、次の(7)及び(8)が成立する。 H2=R2+A2 ・・・(7) Z02=R2+(Z0−A)2・・・(8)
FIG. 5 is a view of the solution search circle viewed from the X-axis direction. From FIG. 5, the following (7) and (8) hold. H 2 = R 2 + A 2 (7) Z 02 = R 2 + (Z 0 -A) 2 (8)

【0049】次の(9)及び(10)式に示すように、
上記(7)及び(8)式から、R及びAが求められる。
As shown in the following equations (9) and (10),
R and A are obtained from the above equations (7) and (8).

【0050】[0050]

【数8】 (Equation 8)

【0051】[0051]

【数9】 (Equation 9)

【0052】図6は、解探索円をZ軸方向から見た図で
ある。図6より、次の(11)〜(13)式が成立す
る。 HX=Rcosφ・・・(11) HY=Rsinφ・・・(12) HZ=A ・・・(13)
FIG. 6 is a view of the solution search circle viewed from the Z-axis direction. From FIG. 6, the following equations (11) to (13) hold. H X = R cos φ (11) H Y = R sin φ (12) H Z = A (13)

【0053】式(11)〜(13)を式(3)、
(4)、(6)に代入すると、次の(14)〜(16)
式が成立することが分かる。
Equations (11) to (13) are replaced by equation (3),
Substituting in (4) and (6), the following (14) to (16)
It can be seen that the equation holds.

【0054】[0054]

【数10】 (Equation 10)

【0055】[0055]

【数11】 [Equation 11]

【0056】[0056]

【数12】 (Equation 12)

【0057】そして、式(11)、(12)、(13)
と式(14)、(15)とを式(2)に代入すると、エ
ピポーラ関数(D)は次式(17)で表され、2自由度
であることが分かる。 D(H,R)=D(φ,θZ)・・・(17)
Then, equations (11), (12) and (13)
When Equations (14) and (15) are substituted into Equation (2), the epipolar function (D) is expressed by the following Equation (17), and it can be seen that the epipolar function (D) has two degrees of freedom. D (H, R) = D (φ, θ Z ) (17)

【0058】(解の探索手順)上述のように、極座標表
示により2自由度まで低減された運動パラメータ空間中
の探索を考え、探索範囲はφminからφmax、式(16)
で計算されるθZを中心にθz+θzminからθz+θz
maxとすればよい。探索の間隔は各々Δφ、ΔθZとし、
総当たりで式(17)を計算し、真の値を推定してカメ
ラ運動パラメータを決定する。
(Solution Search Procedure) As described above, considering a search in the motion parameter space reduced to two degrees of freedom by the polar coordinate display, the search range is from φ min to φ max , Equation (16)
Θz + θz from θz + θz min centered on θ Z calculated by
It should be max . Distance search is respectively [Delta] [phi, and [Delta] [theta] Z,
Equation (17) is calculated by brute force and the true value is estimated to determine camera motion parameters.

【0059】本発明においては、上述のようにして決定
した運動パラメータを用い、常法に従って3D復元を行
えば、被写体の実寸を考慮した精密でリアルな立体モデ
ルを得ることができる。
In the present invention, if the 3D reconstruction is performed in accordance with the ordinary method using the motion parameters determined as described above, a precise and realistic three-dimensional model can be obtained in consideration of the actual size of the subject.

【0060】[0060]

【実施例】以下、本発明を若干の実施例により更に詳細
に説明するが、本発明はこれら実施例に限定されるもの
ではない。なお、以下の記載では、上述したモーション
ステレオ法に係る注視点法を比較例、本発明の実寸立体
モデルの作成方法に係る測距法を実施例とし、それぞれ
についてシミュレーション実験と実画像実験を行った。
EXAMPLES Hereinafter, the present invention will be described in more detail with reference to some examples, but the present invention is not limited to these examples. In the following description, a simulation experiment and a real image experiment were performed for each of the above-described gazing point method according to the motion stereo method as a comparative example, and the distance measuring method according to the method for creating a full-sized solid model of the present invention as an example. Was.

【0061】[実験条件]後述するシミュレーション実
験と実画像実験において共通する実験条件を列挙する。
[Experiment Conditions] Experimental conditions common to a simulation experiment and a real image experiment which will be described later are listed.

【0062】(被写体と各特徴量(点、辺、角度))図
7に示すように、直方体200の直交する2面を被写体
とした。同図において、「●」印は特徴点を表してお
り、それぞれ符号〜で示されている。特徴点と特徴
点とを結ぶ「辺」には、符号1〜12(大文字)が付さ
れており、辺と辺との角度は符号1〜22(小文字)で
表示されている。辺1、6、11の長さは50.0m
m、それ以外の辺の長さは40.0mmとした。また、
角度3、8、20の大きさは180.0°、それ以外の
角度は90.0°である。
(Subject and Each Feature (Point, Side, Angle)) As shown in FIG. 7, two orthogonal faces of the rectangular parallelepiped 200 were set as subjects. In the figure, "●" marks represent characteristic points, and are indicated by reference numerals "-" respectively. The “sides” connecting the feature points are denoted by reference numerals 1 to 12 (upper case), and the angles between the sides are denoted by reference numerals 1 to 22 (lower case). The length of sides 1, 6, 11 is 50.0m
m, the length of the other sides was 40.0 mm. Also,
The size of the angles 3, 8, and 20 is 180.0 °, and the other angles are 90.0 °.

【0063】(カメラ内部パラメータ)撮影に使用した
カメラのカメラ内部パラメータの測定結果を以下に示
す。 ・焦点距離(f) :25.0mm ・画素換算比(εx,εy):(81.0,80.0)(pixel/mm) ・画素中心(i0,j0) :(273,235)(pixel) 標本化は512×512画素である。
(Camera internal parameters) The measurement results of the camera internal parameters of the camera used for photographing are shown below. Focal length (f): 25.0 mm Pixel conversion ratio (ε x , ε y ): (81.0, 80.0) (pixel / mm) Pixel center (i 0 , j 0 ): (273, 235) (pixel) The sampling is 512 × 512 pixels.

【0064】(注視点の選択)注視点は、カメラ移動前
画像において最も画像中心に近い特徴点とした。図7に
おいては、特徴点が注視点である。
(Selection of Point of Gaze) The point of gaze was a feature point closest to the center of the image in the image before moving the camera. In FIG. 7, the feature point is the gazing point.

【0065】(解の探索範囲など)本発明に係る測距法
の総当たり計算の実装では、解の探索範囲をφmin、φ
maxを−90度、90度とし、θzmin、θzmaxを−3
0度、30度、探索の間隔Δφ、Δθzを0.5度とし
て解を求めた。計算処理にはワークステーションInd
yを使用し、処理プログラムはC言語で作成した。運動
パラメータ推定に要する計算時間は、注視点法(従来
法)で約7秒、測距法(本発明)で約2秒であった。
(Solution Search Range, etc.) In the implementation of the brute force calculation of the distance measurement method according to the present invention, the solution search range is set to φ min , φ
max is -90 degrees, 90 degrees, and θz min and θz max are -3.
0 degrees, 30 degrees, to determine the solution interval Δφ search, the [Delta] [theta] z as 0.5 degrees. Workstation Ind for calculation processing
Using y, the processing program was created in C language. The calculation time required for estimating the motion parameters was about 7 seconds by the fixation point method (conventional method) and about 2 seconds by the distance measurement method (the present invention).

【0066】[シミュレーション実験]図8に、シミュ
レーション実験の運動パラメータの一例を示す。X−Y
−Zはカメラ移動前座標である。(HX,HY,HZ)は
(433.0,0.0,250.0)mmであり、(θ
X,θY,θZ)は(0.0,−60.0,0.0)度で
ある。この運動パラメータの回転成分については以下に
記載するノイズを、測距については後述する誤差を加え
て、注視点法(比較例)及び測距法(実施例)を適用
し、運動パラメータ推定精度及び3D復元精度の平均、
分散を求めた。なお、ノイズと誤差は、平均(μ)、標
準偏差(σ)の正規分布関数N(μ,σ)で表現した。
[Simulation Experiment] FIG. 8 shows an example of the motion parameters of the simulation experiment. XY
−Z is the coordinates before the movement of the camera. (H X , H Y , H Z ) is (433.0, 0.0, 250.0) mm, and (θ
X , θ Y , θ Z ) are (0.0, −60.0, 0.0) degrees. For the rotational component of the motion parameter, noise described below is used, and for the distance measurement, a gazing point method (comparative example) and a distance measuring method (example) are applied by adding an error to be described later. Average 3D reconstruction accuracy,
The variance was determined. The noise and the error are represented by a normal distribution function N (μ, σ) of an average (μ) and a standard deviation (σ).

【0067】(回転成分θX,θY,θZのノイズ)θX
θYの真値は、(HX,HY,HZ)の真値から注視点制約
により求めた値を平均値(μ)とし、これに標準偏差
(σ)が1.0度の正規分布NθX(0.0,1.
0)、NθY(−60.0,1.0)をノイズとして付
加した値とした。例えば、θXに5度のノイズを加える
と、画像上の注視点が画像中心から横方向に約150画
素ずれる。ノイズが大きいと、注視点が画像中心から大
きくずれて被写体を画角に捉えることができなくなる。
また、θZの真値は、(HX,HY,HZ)の真値から天地
制約により求めた値を平均値(μ)とし、これに標準偏
差(σ)が10.0度の正規分布NθZ(0.0,1
0.0)をノイズとして付加した値とした。
(Noise of rotation components θ X , θ Y , θ Z ) θ X ,
The true value of θ Y is defined as the average value (μ) obtained from the true values of (H X , H Y , H Z ) by the gazing point constraint, and a standard deviation (σ) of 1.0 degree The distribution Nθ X (0.0, 1..
0) and Nθ Y (−60.0, 1.0) were added as noise. For example, if a noise of 5 degrees is added to θ X , the gazing point on the image is shifted by about 150 pixels from the center of the image in the horizontal direction. If the noise is large, the point of gaze shifts greatly from the center of the image, and the subject cannot be captured at the angle of view.
Also, the true value of θ Z is defined as the average value (μ) of the true value of (H X , H Y , H Z ) obtained by the vertical constraint, and the standard deviation (σ) is 10.0 degrees. Normal distribution Nθ Z (0.0, 1
0.0) was added as noise.

【0068】(測距計の距離測定誤差)測距計の距離測
定誤差は、次式で表される。 ^Z0=Z0+NZ0(0,σ)×Z0 ^Z0’=Z0’+NZ0'(0,σ)×Z0’ ^H=H+NH(0,σ)×H
(Distance Measurement Error of Rangefinder) The distance measurement error of the rangefinder is expressed by the following equation. ^ Z 0 = Z 0 + N Z0 (0, σ) × Z 0 ^ Z 0 ′ = Z 0 ′ + N Z0 ′ (0, σ) × Z 0 'H = H + N H (0, σ) × H

【0069】上式中、^Z0、^Z0’、^Hは、図8中
のZ0、Z0’、Hを距離測定誤差を持った測距計で測定
した値を示す。ここでは、Hは並進ベクトル(H)の大
きさを示している。以下、「σ」を距離測定誤差係数と
呼ぶことにする。代表的な測距計であるレーザー測距計
では、σは約0.01%、テスロン繊維などのメジャー
では、σは約0.1〜1.0%である。
In the above equation, ^ Z 0 , ^ Z 0 ′, and ^ H indicate values of Z 0 , Z 0 ′, and H in FIG. 8 measured by a distance meter having a distance measurement error. Here, H indicates the magnitude of the translation vector (H). Hereinafter, “σ” is referred to as a distance measurement error coefficient. In a typical laser range finder, a laser range finder has σ of about 0.01%, and in a measure such as Teslon fiber, σ is about 0.1 to 1.0%.

【0070】運動パラメータの推定(実施例1及び比
較例1) (比較例1)従来の注視点法を用いて運動パラメータを
推定し、その結果を表1に示す。本例では、カメラ中心
から注視点までの距離(Z0)を測距計で測定した場合
を想定した距離値(^Z0)を、代入した。
Estimation of Exercise Parameters (Example 1 and Comparative Example 1) (Comparative Example 1) Exercise parameters were estimated using the conventional gazing point method, and the results are shown in Table 1. In the present example, a distance value (^ Z 0 ) assuming the case where the distance (Z 0 ) from the camera center to the gazing point is measured by the distance meter is substituted.

【0071】[0071]

【表1】 [Table 1]

【0072】なお、表1中、δT及びδRは、それぞれ
運動の並進量(T)、回転量(R)の推定値と真値との
差の平均値及び分散値を示す。ここで、行列の差は、次
式で定義されるユークリッド距離を用いた。なお、式中
R、R0は、それぞれ基本行列の推定値と真値を示す。
In Table 1, δT and δR indicate the average value and the variance of the difference between the estimated value and the true value of the translation (T) and the rotation (R) of the movement, respectively. Here, the Euclidean distance defined by the following equation was used for the difference between the matrices. Note that R and R 0 in the expression indicate the estimated value and the true value of the basic matrix, respectively.

【0073】[0073]

【数13】 (Equation 13)

【0074】表1より、運動の並進量(T)の推定誤差
がいずれの場合も20.0mm以下であり、運動の回転
量(R)の推定誤差がいずれの場合も0.04以下であ
ることが分かる。
From Table 1, the estimated error of the translation (T) of the motion is 20.0 mm or less in any case, and the estimated error of the rotation (R) of the motion is 0.04 or less in any case. You can see that.

【0075】(実施例1)本発明に係る測距法を適用し
て運動パラメータを測定し、得られた結果を表2に示
す。
(Example 1) The motion parameters were measured by applying the distance measuring method according to the present invention, and the obtained results are shown in Table 2.

【0076】[0076]

【表2】 [Table 2]

【0077】表2より、測距法では、運動の並進量
(T)の精度は測距精度(σ)に比例しており、この手
法の並進量推定精度は測距計の精度に依存することが分
かる。また、運動の回転量(R)の誤差は、いずれの場
合も0.03以下である。なお、表1と表2を比較する
と、本発明の測距法は、運動パラメータ推定精度、特に
並進量(T)の精度が注視点法より格段に向上している
ことが明かである。
From Table 2, it can be seen that in the ranging method, the accuracy of the translation (T) of the motion is proportional to the ranging accuracy (σ), and the accuracy of the translation estimation of this method depends on the accuracy of the range finder. You can see that. Further, the error of the rotation amount (R) of the movement is 0.03 or less in each case. When Table 1 and Table 2 are compared, it is clear that the distance measurement method of the present invention significantly improves the accuracy of the motion parameter estimation, particularly the accuracy of the translation amount (T), compared to the fixation point method.

【0078】3D復元実験『特徴点の復元』(実施例
2及び比較例2) 注視点法及び測距法を適用して、図7に示した被写体の
3D復元を行い、得られた結果を図9にまとめて示す。
図9(a)〜(f)において、横軸は特徴点番号を表
し、縦軸は3D復元誤差を表している。図9(a)〜
(c)は、注視点法による結果(比較例2)であり、図
9(d)〜(f)は、測距法による結果(実施例2)で
ある。また、図9(a)及び(d)はX軸、(b)及び
(e)はY軸、(c)及び(f)は、Z軸方向での3D
復元誤差を示している。測距精度(σ)が0.0%から
1.0%までの復元誤差を比較して示すため、(a)、
(b)、(d)、(e)では各1.0mm、(c)、
(f)では約5.0mmずらして表示した。各図中の誤
差棒は10回の実験による標準偏差値である。
3D Reconstruction Experiment "Reconstruction of Feature Points" (Example 2 and Comparative Example 2) The 3D reconstruction of the object shown in FIG. 7 was performed by applying the fixation point method and the distance measurement method, and the obtained result was obtained. FIG.
9A to 9F, the horizontal axis represents a feature point number, and the vertical axis represents a 3D restoration error. FIG. 9 (a)-
FIG. 9C shows the result by the fixation point method (Comparative Example 2), and FIGS. 9D to 9F show the result by the distance measurement method (Example 2). 9A and 9D are X-axis, FIGS. 9B and 9E are Y-axis, and FIGS. 9C and 9F are 3D in the Z-axis direction.
This shows the restoration error. In order to compare and show the restoration error when the ranging accuracy (σ) is 0.0% to 1.0%, (a),
In (b), (d) and (e), each is 1.0 mm, (c),
In (f), the display is shifted by about 5.0 mm. The error bars in each figure are the standard deviation values from 10 experiments.

【0079】注視点法を適用した比較例2では、σが
0.0%から0.1%までの復元誤差は、X軸方向に±
0.27mm、Y軸方向に±0.12mm、Z軸方向に
±2.18mmの範囲にある(図9(a)〜(c)参
照)。一方、測距法に係る実施例2では、σが0.0%
から0.1%までの復元誤差は、X軸方向に±0.12
mm、Y軸方向に±0.09mmである。Z軸方向の復
元誤差は、σが0.0%、0.01%の場合、±0.2
9mmの範囲にあり、σが0.1%の場合、±0.57
mmである(図9(d)〜(f))。
In Comparative Example 2 to which the gazing point method is applied, the restoration error when σ is 0.0% to 0.1% is ±± in the X-axis direction.
0.27 mm, ± 0.12 mm in the Y-axis direction, and ± 2.18 mm in the Z-axis direction (see FIGS. 9A to 9C). On the other hand, in Example 2 according to the distance measuring method, σ is 0.0%
From 0.1% to ± 0.1% in the X-axis direction.
mm, ± 0.09 mm in the Y-axis direction. The restoration error in the Z-axis direction is ± 0.2 when σ is 0.0% and 0.01%.
± 0.57 in the range of 9 mm and σ is 0.1%
mm (FIGS. 9D to 9F).

【0080】測距法に係る実施例2では、注視点法に係
る比較例2に対して、X軸方向で2.3倍、Y軸方向で
1.3倍精度が向上している。特に、Z軸方向では、σ
が0.0%,0.01%の場合に7.5倍、σが0.1
%の場合に3.8倍の精度にも達している。このよう
に、注視点法に係る比較例2による3D復元では、奥行
き(Z軸)方向の精度が横(X,Y軸)方向の精度と比
べて悪い。復元した被写体が奥行き方向に歪む。また、
歪にばらつきがあり、歪が生じ易いという欠点があるこ
とが分かる(図9(a)〜(c)参照)。
In the second embodiment according to the distance measuring method, the accuracy is improved 2.3 times in the X-axis direction and 1.3 times in the Y-axis direction as compared with Comparative Example 2 according to the gazing point method. In particular, in the Z-axis direction, σ
Is 7.5% when σ is 0.0% and 0.01%, and σ is 0.1
In the case of%, the precision reaches 3.8 times. As described above, in the 3D restoration according to the comparative example 2 relating to the gazing point method, the accuracy in the depth (Z-axis) direction is lower than the accuracy in the horizontal (X, Y-axis) direction. The restored subject is distorted in the depth direction. Also,
It can be seen that there is a disadvantage that the distortion varies and the distortion is likely to occur (see FIGS. 9A to 9C).

【0081】これに対し、本発明に係る実施例2では、
奥行き(Z軸)方向と、横(X,Y軸)方向とを対比し
ても、σが0.0%、0.01%の場合に精度の違いは
同程度である(図9(e)〜(f)参照)。また、歪の
ばらつきが注視点法の場合より少ないことが分かる(図
9(a)〜(f))。即ち、本発明に係る測距法による
3D復元では、注視点法に係る3D復元より、歪及び歪
のばらつきが少ないことが分かる。
On the other hand, in the second embodiment according to the present invention,
Even if the depth (Z-axis) direction and the horizontal (X, Y-axis) direction are compared, the difference in accuracy is almost the same when σ is 0.0% and 0.01% (FIG. 9 (e) ) To (f)). It can also be seen that the variation in distortion is smaller than in the case of the fixation point method (FIGS. 9A to 9F). That is, it can be seen that the 3D restoration by the distance measurement method according to the present invention has less distortion and the variation of the distortion than the 3D restoration by the fixation point method.

【0082】物体形状復元実験『辺の復元』(実施例
3及び比較例3) 図10は、被写体形状の辺の長さに対する復元精度を示
すグラフであり、図10(a)は注視点法によるもの
(比較例3)、図10(b)は測距法によるもの(実施
例3)である。横軸は辺番号(図7参照)を示し、縦軸
は各辺の真値からの誤差を示している。測距精度(σ)
が0.0%から1.0%までの復元誤差を比較して示す
ため、それぞれ約2.0mmずらして表示した。また、
各図中の誤差棒は、10回の実験による標準偏差値を示
す。
Object Shape Restoration Experiment "Side Restoration" (Embodiment 3 and Comparative Example 3) FIG. 10 is a graph showing the restoration accuracy with respect to the length of the side of the object shape, and FIG. FIG. 10 (b) is based on the distance measurement method (Example 3). The horizontal axis indicates the side number (see FIG. 7), and the vertical axis indicates the error of each side from the true value. Distance measurement accuracy (σ)
Are shifted by about 2.0 mm to show the restoration errors from 0.0% to 1.0% in comparison. Also,
The error bars in each figure show the standard deviation values from ten experiments.

【0083】注視点法に係る比較例3では、σが0.0
%から1.0%の範囲で、辺の長さが±0.95mm以
内で復元されているのに対し、測距法に係る実施例3で
は、σが同範囲で、±0.30mm以内で復元されてい
る。よって、被写体の辺の長さ復元において、実施例3
は比較例3に比し3.2倍精度が良い。また、比較例3
では辺番号3、4、5の誤差が大きいが、これは、注視
点法で特徴点を3D復元した場合には、特徴点番号4、
5、6の復元誤差が大きいことによる(図9及び図10
参照)。一方、実施例3では、各辺の復元精度は辺番号
によらずほぼ一定である。
In Comparative Example 3 relating to the gazing point method, σ is 0.0
% To 1.0%, the side length is restored within ± 0.95 mm, whereas in the third embodiment according to the distance measuring method, σ is within the same range and ± 0.30 mm. Has been restored. Therefore, in the restoration of the length of the side of the subject, the third embodiment
Is 3.2 times more accurate than Comparative Example 3. Comparative Example 3
Although the errors of the side numbers 3, 4, and 5 are large, when the feature points are 3D-reconstructed by the fixation point method,
5 and 6 due to a large restoration error (FIGS. 9 and 10).
reference). On the other hand, in the third embodiment, the restoration accuracy of each side is substantially constant regardless of the side number.

【0084】物体形状復元実験『角度の復元』(実施
例4及び比較例4) 図11は、被写体形状の角度に関する復元精度を示すグ
ラフであり、図11(a)は注視点法によるもの(比較
例4)、図11(b)は測距法によるもの(実施例4)
である。横軸は角度番号(図7参照)を示し、縦軸は各
角度の真値からの誤差を示している。測距精度(σ)が
0.0%から1.0%までの復元誤差を比較して示すた
め、それぞれ約4.0度ずらして表示した。また、各図
中の誤差棒は、10回の実験による標準偏差値を示す。
Object Shape Restoration Experiment “Restoration of Angle” (Embodiment 4 and Comparative Example 4) FIG. 11 is a graph showing the restoration accuracy with respect to the angle of the object shape, and FIG. Comparative Example 4), FIG. 11B shows the result of the distance measurement method (Example 4).
It is. The horizontal axis indicates the angle number (see FIG. 7), and the vertical axis indicates the error of each angle from the true value. In order to compare and show restoration errors when the distance measurement accuracy (σ) is 0.0% to 1.0%, each is shifted by about 4.0 degrees. The error bars in each figure show the standard deviation values of 10 experiments.

【0085】注視点法に係る比較例4では、σが0.0
%から1.0%の範囲で、角度の大きさが±2.04度
以内で復元されているのに対し、測距法に係る実施例4
では、σが同範囲で、±0.53度以内で復元されてい
る。よって、被写体の角度復元において、実施例4は比
較例4に比し3.8倍精度が良い。また、比較例4では
角度番号6、11、12、13の誤差が大きいが、これ
は、注視点法で特徴点を3D復元した場合には、特徴点
番号4、5、6の復元誤差が大きいことによる(図9及
び図10参照)。一方、実施例4では、各角度の復元精
度は角度番号によらずほぼ一定である。
In Comparative Example 4 relating to the gazing point method, σ is 0.0
% In the range of 1.0% to 1.0%, the magnitude of the angle is restored within ± 2.04 degrees.
Is restored in the same range within ± 0.53 degrees. Therefore, in recovering the angle of the subject, the fourth embodiment is 3.8 times more accurate than the fourth comparative example. In Comparative Example 4, the errors of the angle numbers 6, 11, 12, and 13 are large. However, when the feature points are 3D-reconstructed by the fixation point method, the restoration errors of the feature point numbers 4, 5, and 6 are large. Due to the large size (see FIGS. 9 and 10). On the other hand, in the fourth embodiment, the restoration accuracy of each angle is substantially constant regardless of the angle number.

【0086】更に、図10及び図11より、本発明に係
る測距法による物体形状復元は、従来の注視点法による
物体形状復元と比較して、歪及び歪のばらつきが小さ
く、歪が生じ難いことが分かる。
Further, from FIGS. 10 and 11, it can be seen from FIG. 10 and FIG. 11 that the object shape restoration by the distance measuring method according to the present invention has a smaller distortion and the variation of the distortion than the conventional object shape restoration by the fixation point method. I find it difficult.

【0087】[実画像実験]図12に示すように、被写
体200(図7参照)を水平面に対して45度傾斜した
台210上に設置し、カメラ220を並進及び回転が制
御可能なマニピュレータ230上に設置した。被写体の
特徴点は、画像強調を施した画像から操作者が手作業で
抽出した。このような条件の下、上述の注視点法と測距
法を適用し、以下の運動パラメータ等の推定を行った。
[Real Image Experiment] As shown in FIG. 12, a subject 200 (see FIG. 7) is set on a table 210 inclined at 45 degrees with respect to a horizontal plane, and a manipulator 230 capable of controlling the translation and rotation of a camera 220. Installed above. The feature points of the subject were manually extracted by the operator from the image subjected to the image enhancement. Under these conditions, the following gazing parameters and the like were applied to estimate the following motion parameters and the like.

【0088】運動パラメータの推定(実施例5及び比
較例5) 注視点法(比較例5)、測距法(実施例5)を適用して
運動パラメータを推定した結果を表3に示す。
Estimation of Exercise Parameters (Embodiment 5 and Comparative Example 5) Table 3 shows the results of estimating exercise parameters by applying the fixation point method (Comparative Example 5) and the ranging method (Example 5).

【0089】[0089]

【表3】 [Table 3]

【0090】同表に示すように、並進運動パラメータ誤
差は、注視点法に係る比較例5の74.99mmに対
し、測距法に係る実施例5では17.10mmであり、
実施例5が著しく良好な精度を有することが分かる。
As shown in the table, the translational motion parameter error is 17.10 mm in Example 5 according to the distance measurement method, compared to 74.99 mm in Comparative Example 5 according to the gazing point method.
It can be seen that Example 5 has significantly better accuracy.

【0091】3D復元実験『特徴点の復元』(実施例
6及び比較例6) 図13は、X,Y,X各軸方向の特徴点の3D復元誤差
を示すグラフであり、図13(a)は注視点法によるも
の(比較例6)、図13(b)は測距法によるもの(実
施例6)である。横軸は特徴点番号(図7参照)を示
し、縦軸は3D復元誤差を示している。
3D Restoration Experiment "Reconstruction of Feature Points" (Embodiment 6 and Comparative Example 6) FIG. 13 is a graph showing 3D reconstruction errors of feature points in the X, Y, and X axis directions. ) Is based on the fixation point method (Comparative Example 6), and FIG. 13B is based on the distance measurement method (Example 6). The horizontal axis indicates the feature point number (see FIG. 7), and the vertical axis indicates the 3D restoration error.

【0092】注視点法に係る比較例6では、復元誤差
は、X軸方向に±0.79mm、Y軸方向に±1.19
mm、Z軸方向に±6.10mmの範囲にある(図13
(a)参照)。特徴点番号6を指示する際のy軸方向の
誤差が大きいため、復元誤差が大きくなっている。一
方、測距法に係る実施例6では、復元誤差は、X軸方向
に±0.79mm、Y軸方向に±1.20mm、Z軸方
向に±0.36mmの範囲にある(図13(b)参
照)。
In Comparative Example 6 relating to the gazing point method, the restoration error was ± 0.79 mm in the X-axis direction and ± 1.19 in the Y-axis direction.
mm, ± 6.10 mm in the Z-axis direction (FIG. 13
(See (a)). Since the error in the y-axis direction when indicating the feature point number 6 is large, the restoration error is large. On the other hand, in the sixth embodiment according to the distance measuring method, the restoration error is in a range of ± 0.79 mm in the X-axis direction, ± 1.20 mm in the Y-axis direction, and ± 0.36 mm in the Z-axis direction (FIG. b)).

【0093】実施例6を比較例6と比較すると、両者は
X軸方向及びY軸方向ではほぼ同精度であるが、Z軸方
向では実施例6の方が格段に精度が良い。また、比較例
6では、奥行き(Z軸)方向の精度は、横(X,Y軸)
方向の精度より不良である(図13(a)参照)。これ
に対し、実施例6では、奥行き精度と横方向の精度とは
ほぼ同じである(図13(b)参照)。従って、実施例
6の3D復元では、比較例6の3D復元より奥行き方向
の歪が少ない。このように、特徴点の3D復元におい
て、実画像実験の結果はシミュレーション実験の結果と
同じ傾向を示した。
When the embodiment 6 is compared with the comparative example 6, both have almost the same accuracy in the X-axis direction and the Y-axis direction, but the embodiment 6 has much higher accuracy in the Z-axis direction. Further, in Comparative Example 6, the accuracy in the depth (Z-axis) direction is the same as that in the horizontal (X, Y-axis).
It is worse than the direction accuracy (see FIG. 13A). On the other hand, in the sixth embodiment, the depth accuracy and the accuracy in the horizontal direction are almost the same (see FIG. 13B). Therefore, the distortion in the depth direction is smaller in the 3D restoration of the sixth embodiment than in the 3D restoration of the sixth embodiment. Thus, in the 3D restoration of the feature points, the result of the real image experiment showed the same tendency as the result of the simulation experiment.

【0094】物体形状復元実験『辺の復元』(実施例
7及び比較例7) 図14は、被写体形状の辺の長さに対する復元精度を示
すグラフであり、実線は測距法によるもの(実施例
7)、破線は注視点法によるもの(比較例7)である。
横軸は辺番号(図7参照)を示し、縦軸は各辺の真値か
らの誤差を示している。
Object Shape Restoration Experiment "Side Restoration" (Embodiment 7 and Comparative Example 7) FIG. 14 is a graph showing the restoration accuracy with respect to the length of the side of the object shape. Example 7), the dashed line is based on the fixation point method (Comparative Example 7).
The horizontal axis indicates the side number (see FIG. 7), and the vertical axis indicates the error of each side from the true value.

【0095】注視点法に係る比較例7では、辺の長さが
±2.73mm以内で復元されているのに対し、測距法
に係る実施例7では、辺の長さは±0.73mm以内で
復元されており、辺の長さの復元において、実施例7は
比較例7より3.7倍精度が良好である。また、比較例
7では、辺番号3、4、5の誤差が大きいが、これは、
注視点法で特徴点を3D復元すると、特徴点番号4、
5、6の復元誤差が大きくなることに起因する(図1
3、図14参照)。これに対し、実施例7では、各辺の
長さの復元精度は辺番号に依存せずほぼ同一である。
In Comparative Example 7 relating to the gazing point method, the length of the side is restored within ± 2.73 mm, whereas in Example 7 relating to the distance measuring method, the length of the side is ± 0. Example 7 is 3.7 times more accurate than Comparative Example 7 in the restoration of the side length within 73 mm. In Comparative Example 7, the errors of the side numbers 3, 4, and 5 are large.
When the feature points are restored in 3D by the fixation point method, the feature point number 4,
5 and 6 are caused by a large restoration error (FIG. 1
3, see FIG. 14). On the other hand, in the seventh embodiment, the restoration accuracy of the length of each side is almost the same regardless of the side number.

【0096】物体形状復元実験『角度の復元』(実施
例8及び比較例8) 図15は、被写体形状の角度に関する復元精度を示すグ
ラフであり、実線は測距法によるもの(実施例8)、破
線は注視点法によるもの(比較例8)である。横軸は角
度番号(図7参照)を示し、縦軸は各角度の真値からの
誤差を示している。
Object Shape Restoration Experiment "Restoration of Angle" (Embodiment 8 and Comparative Example 8) FIG. 15 is a graph showing the restoration accuracy relating to the angle of the object shape. The solid line is based on the distance measurement method (Eighth Embodiment). The dashed line indicates the result of the fixation point method (Comparative Example 8). The horizontal axis indicates the angle number (see FIG. 7), and the vertical axis indicates the error of each angle from the true value.

【0097】注視点法に係る比較例8では、角度の大き
さが±6.17度以内で復元されているのに対し、測距
法に係る実施例7では、角度の大きさは±1.93度以
内で復元されており、角度の復元において、実施例8は
比較例8より3.2倍精度が良好である。また、比較例
8では、角度番号6、11、12、13の誤差が大きい
が、これは、注視点法で特徴点を3D復元すると、特徴
点番号4、5、6の復元誤差が大きくなることに起因す
る(図13、図15参照)。これに対し、実施例8で
は、各角度の復元精度は角度番号に依存せずほぼ同一で
ある。
In Comparative Example 8 relating to the gazing point method, the magnitude of the angle is restored within ± 6.17 degrees, whereas in Example 7 relating to the distance measuring method, the magnitude of the angle is ± 1. Example 8 is 3.2 times more accurate than Comparative Example 8 in the angle restoration. In Comparative Example 8, the errors of the angle numbers 6, 11, 12, and 13 are large. However, when the feature points are 3D-restored by the fixation point method, the restoration errors of the feature point numbers 4, 5, and 6 become large. (See FIGS. 13 and 15). On the other hand, in the eighth embodiment, the restoration accuracy of each angle is almost the same without depending on the angle number.

【0098】以上のように、図14及び図15より、本
発明に係る測距法による物体形状復元では、注視点法に
よる物体形状復元より、歪が少ないことが明かである。
また、辺長及び角度に係る物体形状復元において、実画
像実験の結果はシミュレーション実験の結果と同じ傾向
を示した。
As described above, it is apparent from FIGS. 14 and 15 that the object shape restoration by the distance measuring method according to the present invention has less distortion than the object shape restoration by the fixation point method.
In the reconstruction of the object shape related to the side length and the angle, the result of the real image experiment showed the same tendency as the result of the simulation experiment.

【0099】[0099]

【発明の効果】以上説明しきたように、本発明によれ
ば、被写体とカメラとの距離を簡易な手法によって実寸
で持ち込むこととしたため、各被写体の大きさ及びその
位置関係が精密に表現され、リアルなCGを簡易に実現
し得る実寸立体モデルの作成方法を提供することができ
る。
As described above, according to the present invention, since the distance between the subject and the camera is brought to the actual size by a simple method, the size of each subject and the positional relationship thereof are precisely expressed. It is possible to provide a method of creating a full-size three-dimensional model capable of easily realizing a real CG.

【図面の簡単な説明】[Brief description of the drawings]

【図1】モーションステレオ法において用いる座標系の
一例を示す説明図である。
FIG. 1 is an explanatory diagram illustrating an example of a coordinate system used in a motion stereo method.

【図2】本発明の立体モデルの作成法の一例において、
撮影現場における作業を示す説明図である。
FIG. 2 shows an example of a method for creating a three-dimensional model according to the present invention.
It is explanatory drawing which shows the operation | work in a photography site.

【図3】標準変換を用いた注視点制御を示す説明図であ
る。
FIG. 3 is an explanatory diagram showing gazing point control using standard conversion.

【図4】解探索円の一例を示す説明図である。FIG. 4 is an explanatory diagram showing an example of a solution search circle.

【図5】解探索円をX軸方向から見た説明図である。FIG. 5 is an explanatory diagram of a solution search circle viewed from an X-axis direction.

【図6】解探索円をZ軸方向から見た説明図である。FIG. 6 is an explanatory diagram of a solution search circle viewed from a Z-axis direction.

【図7】被写体と各特徴量(点、辺、角度)を示す斜視
図である。
FIG. 7 is a perspective view showing a subject and respective feature amounts (points, sides, angles).

【図8】シミュレーション実験の運動パラメータの一例
を示す説明図である。
FIG. 8 is an explanatory diagram showing an example of a motion parameter of a simulation experiment.

【図9】シミュレーション実験における特徴点の3D復
元誤差を示すグラフである。
FIG. 9 is a graph showing a 3D restoration error of a feature point in a simulation experiment.

【図10】シミュレーション実験における被写体形状の
辺の長さに対する復元精度を示すグラフである。
FIG. 10 is a graph showing restoration accuracy with respect to the length of a side of a subject shape in a simulation experiment.

【図11】シミュレーション実験における被写体形状の
角度に関する復元精度を示すグラフである。
FIG. 11 is a graph showing the restoration accuracy relating to the angle of the object shape in a simulation experiment.

【図12】実画像実験の実験環境を示す斜視図である。FIG. 12 is a perspective view showing an experimental environment of a real image experiment.

【図13】実画像実験における特徴点の3D復元誤差を
示すグラフである。
FIG. 13 is a graph showing a 3D restoration error of a feature point in a real image experiment.

【図14】実画像実験における被写体形状の辺の長さに
対する復元精度を示すグラフである。
FIG. 14 is a graph showing restoration accuracy with respect to the length of a side of a subject shape in a real image experiment.

【図15】実画像実験における被写体形状の角度に関す
る復元精度を示すグラフである。
FIG. 15 is a graph showing the restoration accuracy relating to the angle of the object shape in a real image experiment.

【符号の説明】[Explanation of symbols]

100 被写体 110 レーザポインタ 120 カメラ 200 被写体 210 台 220 カメラ 230 マニピュレータ Reference Signs List 100 subject 110 laser pointer 120 camera 200 subject 210 units 220 camera 230 manipulator

───────────────────────────────────────────────────── フロントページの続き Fターム(参考) 2F065 AA04 AA06 AA53 BB05 FF05 FF09 FF11 FF23 GG04 JJ01 JJ03 PP22 QQ00 QQ03 QQ21 QQ41 QQ42 UU05 5B046 EA09 FA15 FA18 GA01 GA09 5B057 AA01 BA02 CA08 CA12 CA16 CB08 CB13 CB16 CC01 CD01 ──────────────────────────────────────────────────続 き Continued on the front page F-term (reference) 2F065 AA04 AA06 AA53 BB05 FF05 FF09 FF11 FF23 GG04 JJ01 JJ03 PP22 QQ00 QQ03 QQ21 QQ41 QQ42 UU05 5B046 EA09 FA15 FA18 GA01 GA09 5B057 AA16 CB01 CA02 CA01

Claims (9)

【特許請求の範囲】[Claims] 【請求項1】 視点を移動させて撮影した複数枚の画像
を用いて、被写体の立体形状を3D復元した立体モデル
を作成するに当たり、 上記視点の移動撮影に際し、視点の移動前及び移動後に
おける上記視点と上記被写体との距離を実測し、この実
寸情報を用いて上記移動に関する視点の運動パラメータ
を算出し、得られた運動パラメータを用いて上記被写体
の立体形状を3D復元することを特徴とする実寸立体モ
デルの作成方法。
When creating a three-dimensional model in which a three-dimensional shape of a subject is reconstructed by using a plurality of images taken while moving the viewpoint, the viewpoint before and after the movement of the viewpoint when the viewpoint is moved and photographed. The distance between the viewpoint and the subject is measured, a motion parameter of the viewpoint related to the movement is calculated using the actual size information, and the three-dimensional shape of the subject is 3D-reconstructed using the obtained motion parameter. How to create a real size solid model.
【請求項2】 上記視点の移動前と移動後における当該
視点間の距離を実測し、この実寸情報を加味して上記視
点の運動パラメータを算出することを特徴とする請求項
1記載の実寸立体モデルの作成方法。
2. The solid object according to claim 1, wherein a distance between the viewpoints before and after the movement of the viewpoint is measured, and a motion parameter of the viewpoint is calculated in consideration of the actual size information. How to create a model.
【請求項3】 上記被写体の特徴点のうちの1点を注視
点、他の1点を参照点として選択し、上記視点の移動前
及び移動後における該視点と、上記注視点及び参照点と
の距離を実測し、この実寸情報を加味して上記視点の運
動パラメータを算出することを特徴とする請求項1又は
2記載の実寸立体モデルの作成方法。
3. One of the feature points of the subject is selected as a point of interest, and the other point is selected as a reference point, and the viewpoint before and after movement of the viewpoint, the point of interest, and the reference point are selected. 3. The method according to claim 1, further comprising: actually measuring a distance of the object and calculating the motion parameter of the viewpoint in consideration of the actual size information.
【請求項4】 上記被写体の特徴点のうちの任意の1点
を注視点として選択し、この注視点が上記複数枚の画像
の画像中心に常に位置するように上記視点の移動を制御
し、且つ上記視点を定義する座標のY軸が上記視点の移
動前後に亘って鉛直上向きを指すように上記視点の移動
を制御することを特徴とする請求項1〜3のいずれか1
つの項に記載の実寸立体モデルの作成方法。
4. An arbitrary point among the feature points of the subject is selected as a gazing point, and the movement of the viewpoint is controlled such that the gazing point is always located at the image center of the plurality of images. The movement of the viewpoint is controlled so that a Y-axis of coordinates defining the viewpoint points vertically upward before and after the movement of the viewpoint.
How to create an actual size solid model described in the two sections.
【請求項5】 上記視点の移動に関し、上記視点を定義
する座標をそれぞれ移動前座標及び移動後座標とし、こ
の移動後座標を1自由度座標(φ)に変換することによ
り、上記視点の移動をφの関数とし、このφを総当たり
で探索して上記視点の運動パラメータを算出することを
特徴とする請求項1〜4のいずれか1つの項に記載の実
寸立体モデルの作成方法。
5. The movement of the viewpoint, wherein the coordinates defining the viewpoint are coordinates before movement and coordinates after movement, respectively, and the coordinates after movement are converted into one-degree-of-freedom coordinates (φ). Is a function of φ, and this φ is searched by brute force to calculate the motion parameter of the viewpoint, and the method of creating a full-size solid model according to any one of claims 1 to 4, wherein
【請求項6】 上記視点と上記被写体との距離をレーザ
ー測距計で実測することを特徴とする請求項1〜5のい
ずれか1つの項に記載の実寸立体モデルの作成方法。
6. The method according to claim 1, wherein a distance between the viewpoint and the object is measured by a laser range finder.
【請求項7】 上記視点間の距離をレーザー測距計で実
測することを特徴とする請求項2〜6のいずれか1つの
項に記載の実寸立体モデルの作成方法。
7. The method according to claim 2, wherein the distance between the viewpoints is measured with a laser range finder.
【請求項8】 上記注視点をレーザーポインタで指示す
ることを特徴とする請求項3〜7のいずれか1つの項に
記載の実寸立体モデルの作成方法。
8. The method according to claim 3, wherein the gazing point is indicated by a laser pointer.
【請求項9】 請求項1〜8のいずれか1つの項に記載
の方法を行うコンピュータへの指令を記録して成ること
を特徴とする情報媒体。
9. An information medium characterized by recording an instruction to a computer for performing the method according to claim 1. Description:
JP10229512A 1998-07-31 1998-07-31 Forming method of solid model of actual size Pending JP2000048204A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP10229512A JP2000048204A (en) 1998-07-31 1998-07-31 Forming method of solid model of actual size

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP10229512A JP2000048204A (en) 1998-07-31 1998-07-31 Forming method of solid model of actual size

Publications (1)

Publication Number Publication Date
JP2000048204A true JP2000048204A (en) 2000-02-18

Family

ID=16893344

Family Applications (1)

Application Number Title Priority Date Filing Date
JP10229512A Pending JP2000048204A (en) 1998-07-31 1998-07-31 Forming method of solid model of actual size

Country Status (1)

Country Link
JP (1) JP2000048204A (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007256029A (en) * 2006-03-23 2007-10-04 Denso It Laboratory Inc Stereo image processing device
JP2011039650A (en) * 2009-08-07 2011-02-24 Jm:Kk Indoor modification cost estimation system
CN102564311A (en) * 2012-01-13 2012-07-11 常州环视高科电子科技有限公司 Method and system for measuring size of object by using traditional camera
JP2014096761A (en) * 2012-11-12 2014-05-22 Canon Inc Image processing apparatus, and control method and control program of the same
JP2016505838A (en) * 2012-12-20 2016-02-25 ヒルティ アクチエンゲゼルシャフト Method and apparatus for determining position coordinates of a target
CN112447537A (en) * 2019-09-03 2021-03-05 德律科技股份有限公司 Detection system and detection method

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007256029A (en) * 2006-03-23 2007-10-04 Denso It Laboratory Inc Stereo image processing device
JP2011039650A (en) * 2009-08-07 2011-02-24 Jm:Kk Indoor modification cost estimation system
CN102564311A (en) * 2012-01-13 2012-07-11 常州环视高科电子科技有限公司 Method and system for measuring size of object by using traditional camera
JP2014096761A (en) * 2012-11-12 2014-05-22 Canon Inc Image processing apparatus, and control method and control program of the same
JP2016505838A (en) * 2012-12-20 2016-02-25 ヒルティ アクチエンゲゼルシャフト Method and apparatus for determining position coordinates of a target
CN112447537A (en) * 2019-09-03 2021-03-05 德律科技股份有限公司 Detection system and detection method
CN112447537B (en) * 2019-09-03 2024-04-12 德律科技股份有限公司 Detection system and detection method

Similar Documents

Publication Publication Date Title
JP4708752B2 (en) Information processing method and apparatus
US20200111250A1 (en) Method for reconstructing three-dimensional space scene based on photographing
US5699444A (en) Methods and apparatus for using image data to determine camera location and orientation
JP4002983B2 (en) Projection apparatus, projection apparatus control method, composite projection system, projection apparatus control program, and recording medium on which projection apparatus control program is recorded
JP6622503B2 (en) Camera model parameter estimation apparatus and program thereof
JP2874710B2 (en) 3D position measuring device
US8208029B2 (en) Method and system for calibrating camera with rectification homography of imaged parallelogram
CN111192235B (en) Image measurement method based on monocular vision model and perspective transformation
JP2004062758A (en) Information processor and information processing method
US11288877B2 (en) Method for matching a virtual scene of a remote scene with a real scene for augmented reality and mixed reality
WO2021138940A1 (en) Remote virtual-real high-precision matching and positioning method oriented to augmented reality and mixed reality
WO2020208686A1 (en) Camera calibration device, camera calibration method, and non-transitory computer-readable medium having program stored thereon
CN111882608A (en) Pose estimation method between augmented reality glasses tracking camera and human eyes
WO2023201578A1 (en) Extrinsic parameter calibration method and device for monocular laser speckle projection system
JP2022500793A (en) How to calibrate a multi-degree-of-freedom movable visual system
TW202006668A (en) Space coordinate converting server and method thereof
Ji et al. Self-calibration of a rotating camera with a translational offset
CN114926538A (en) External parameter calibration method and device for monocular laser speckle projection system
JPH11514434A (en) Method and apparatus for determining camera position and orientation using image data
JP2000048204A (en) Forming method of solid model of actual size
JP2011102728A (en) Optical system parameter calibration device, optical system parameter calibration method, program, and recording medium
JP2017134467A (en) Information processor, information processing method and information processing program
JP4149732B2 (en) Stereo matching method, three-dimensional measurement method, three-dimensional measurement apparatus, stereo matching method program, and three-dimensional measurement program
JP3277105B2 (en) Method and apparatus for creating partial solid model
JPWO2021111613A1 (en) 3D map creation device, 3D map creation method, and 3D map creation program