JP2003067726A - Solid model generation system and method - Google Patents
Solid model generation system and methodInfo
- Publication number
- JP2003067726A JP2003067726A JP2001255678A JP2001255678A JP2003067726A JP 2003067726 A JP2003067726 A JP 2003067726A JP 2001255678 A JP2001255678 A JP 2001255678A JP 2001255678 A JP2001255678 A JP 2001255678A JP 2003067726 A JP2003067726 A JP 2003067726A
- Authority
- JP
- Japan
- Prior art keywords
- data
- positional relationship
- generating
- dimensional
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Length Measuring Devices By Optical Means (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
Description
【0001】[0001]
【発明の属する技術分野】本発明は、実在する物体の三
次元情報を獲得する三次元モデリング装置あるいは立体
モデル生成装置、特に、対象物を配置する回転台とカメ
ラとの位置関係を求めるキャリブレーションに関する。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a three-dimensional modeling device or a three-dimensional model generation device for acquiring three-dimensional information of a real object, and more particularly to a calibration for obtaining a positional relationship between a rotary table on which an object is placed and a camera. Regarding
【0002】[0002]
【従来の技術】従来から三次元データ入力装置(三次元
スキャナ)として、
(a)レーザ光を利用するもの(光切断法)
(b)スリット光など、パタン光を利用するもの(コー
ド化光法)
(c)カメラ撮影画像を利用するもの(ステレオ法、シ
ルエット法)
などを用いた装置が存在している。2. Description of the Related Art Conventionally, as a three-dimensional data input device (three-dimensional scanner), (a) a device using laser light (light cutting method) (b) a device using pattern light such as slit light (coded light) Method) (c) There is an apparatus that uses an image captured by a camera (stereo method, silhouette method) or the like.
【0003】いずれの方式においても、対象物の全周囲
データを入力しようとした場合、対象物をコンピュータ
制御の回転テーブル上に置き、これをある角度ステップ
毎に回しながら入力作業を行うことになる。In any of these methods, when it is attempted to input all-around data of an object, the object is placed on a computer-controlled rotary table, and the input work is performed by rotating this on a certain angular step. .
【0004】例えば、(a)、(b)及び(c)のステ
レオ法の場合、各回転ステップ毎に部分的三次元データ
を得ることができるが、最終的にはこれらを統合する処
理が必要となる。これは実際にはホストコンピュータ
(パソコンまたはワークステーション)での編集ツール
を用いた人手作業となる。したがって、編集作業という
多大な時間とスキルの必要な作業が必要となるという問
題があった。For example, in the case of the stereo methods (a), (b), and (c), partial three-dimensional data can be obtained at each rotation step, but eventually a process for integrating these is required. Becomes This is actually manual work using an editing tool on the host computer (personal computer or workstation). Therefore, there is a problem that a great deal of time and skill required for editing work is required.
【0005】一方、(c)のなかのシルエット法の場
合、物体全周囲の画像を得た後、物体全周囲の三次元デ
ータを求めることになるが、この際、入力部(例えばデ
ジタルカメラ)と回転台の位置関係を正確に求めるキャ
リブレーション処理が必須になる。もちろん、(a)、
(b)及び(c)のステレオ法の場合でも、人手ではな
くキャリブレーション処理により入力部(例えばデジタ
ルカメラ)と回転台の位置関係を求めておけば統合処理
は自動化できる。On the other hand, in the case of the silhouette method in (c), an image of the entire circumference of the object is obtained, and then three-dimensional data of the entire circumference of the object is obtained. At this time, the input unit (for example, a digital camera) is used. A calibration process for accurately obtaining the positional relationship between the rotary table and the rotary table is essential. Of course, (a),
Even in the stereo methods (b) and (c), the integration process can be automated if the positional relationship between the input unit (for example, a digital camera) and the turntable is obtained by a calibration process rather than manually.
【0006】キャリブレーションとしては、具体的には
既知パタンが印刷されたパネルを回転台の上に置き、こ
れを回転させながら複数枚の画像を撮影し、ホストコン
ピュータで自動計算させることで行う。その後、パネル
を除去し、かわりに対象物を回転台の上において、三次
元データの入力を行うことになる。[0006] Specifically, the calibration is performed by placing a panel on which a known pattern is printed on a turntable, shooting a plurality of images while rotating the turntable, and having the host computer automatically calculate the images. After that, the panel is removed, and instead, the object is input on the turntable to input the three-dimensional data.
【0007】[0007]
【発明が解決しようとする課題】しかしながら、
(1)一般にキャリブレーションデータには誤差が含ま
る
(2)キャリブレーション処理と実際の物体入力の間に
パネルと物体の置き換え作業が発生し、その際、回転台
とカメラの位置関係が微妙に変わる恐れがある
(3)物体入力中に、振動などによって回転台とカメラ
の位置関係が微妙に変わる恐れがある
(4)カメラによっては撮影毎に光軸のずれが発生し、
その結果、キャリブレーションデータに大きな誤差が含
まれたり、回転台とカメラの位置関係が変わることにな
る
などの理由から、統合データ(シルエット法の場合、計
算された三次元データ)に大きな誤差が含まれてしまう
という問題があった。However, (1) the calibration data generally contains an error, and (2) the work of replacing the panel and the object occurs between the calibration process and the actual object input. , The positional relationship between the turntable and the camera may change subtly (3) The positional relationship between the turntable and the camera may change subtly due to vibration while inputting an object (4) Depending on the camera, the light may be changed after each shooting Axis misalignment occurs,
As a result, there is a large error in the integrated data (calculated three-dimensional data in the case of the silhouette method) because the calibration data contains a large error and the positional relationship between the rotating table and the camera changes. There was a problem of being included.
【0008】本発明は以上の問題点に鑑みてなされたも
のであり、キャリブレーションデータの信頼性を向上さ
せることを目的とする。The present invention has been made in view of the above problems, and an object thereof is to improve the reliability of calibration data.
【0009】[0009]
【課題を解決するための手段】上記目的を達成するため
に、本発明は、対象物の三次元データを生成する装置で
あって、回転手段により回転する対象物の画像を入力す
る手段と、前記回転手段と前記画像入力手段の位置関係
データを算出する手段と、前記位置関係データ誤差を算
出する手段と、前記位置関係データ誤差に基づいて前記
三次元データを生成する手段とを有することを特徴とす
る。In order to achieve the above object, the present invention is a device for generating three-dimensional data of an object, and means for inputting an image of the object rotated by a rotating means, And a means for calculating positional relationship data between the rotating means and the image input means, a means for calculating the positional relationship data error, and a means for generating the three-dimensional data based on the positional relationship data error. Characterize.
【0010】本装置において、前記三次元データを生成
する手段は、前記位置関係データ誤差に基づいて入力画
像を補正することにより前記三次元データを生成するこ
とが好適である。In this apparatus, it is preferable that the means for generating the three-dimensional data generate the three-dimensional data by correcting the input image based on the positional relationship data error.
【0011】また、本装置において、前記三次元データ
を生成する手段は、前記位置関係データ誤差に基づいて
前記位置関係データを補正し、補正された位置関係デー
タを用いて前記三次元データを生成することが好適であ
る。Further, in the present apparatus, the means for generating the three-dimensional data corrects the positional relational data based on the positional relational data error, and generates the three-dimensional data using the corrected positional relational data. Is preferred.
【0012】前記三次元データを生成する手段は、前記
入力画像から参照マークを抽出する手段とを有し、抽出
された前記参照マーク位置に基づいて前記位置関係デー
タ誤差を算出することができる。The means for generating the three-dimensional data has means for extracting a reference mark from the input image, and the positional relationship data error can be calculated based on the extracted reference mark position.
【0013】また、前記三次元データを生成する手段
は、前記入力画像から前記対象物のシルエット情報を抽
出する手段とを有し、前記シルエット情報の位置に基づ
いて前記位置関係データ誤差を算出することもできる。The means for generating the three-dimensional data has means for extracting the silhouette information of the object from the input image, and calculates the positional relationship data error based on the position of the silhouette information. You can also
【0014】また、前記三次元データを生成する手段
は、前記入力画像から前記対象物の第1シルエット情報
を抽出する手段と、撮影角度の異なる複数の前記入力画
像から抽出された複数の前記第1シルエット情報に基づ
いて前記対象物の三次元形状データを生成する手段と、
前記三次元形状データに基づいて第2シルエット情報を
抽出する手段とを有し、前記第1シルエット情報と第2
シルエット情報の相違に基づいて前記位置関係データ誤
差を算出することもできる。The means for generating the three-dimensional data includes means for extracting the first silhouette information of the object from the input image and a plurality of the plurality of the first images extracted from a plurality of the input images having different photographing angles. 1 means for generating three-dimensional shape data of the object based on the silhouette information,
Means for extracting second silhouette information based on the three-dimensional shape data, and the first silhouette information and the second silhouette information.
The positional relationship data error can also be calculated based on the difference in silhouette information.
【0015】また、本発明は、対象物の三次元データを
生成する方法を提供する。この方法は、対象物を回転台
の上に載置して回転させるステップと、回転する前記対
象物をカメラで撮影して画像を取得するステップと、前
記カメラと前記回転台の位置関係データを算出するステ
ップと、前記位置関係データ誤差を算出するステップ
と、前記位置関係データ誤差に基づいて前記三次元デー
タを生成するステップとを有することを特徴とする。The present invention also provides a method for generating three-dimensional data of an object. This method includes a step of placing an object on a turntable and rotating the image, a step of capturing an image of the rotating object with a camera, and an image of the positional relationship between the camera and the turntable. It is characterized by including a step of calculating, a step of calculating the positional relationship data error, and a step of generating the three-dimensional data based on the positional relationship data error.
【0016】本方法において、前記三次元データを生成
するステップでは、前記位置関係データ誤差に基づいて
入力画像を補正することが好適である。In the method, in the step of generating the three-dimensional data, it is preferable that the input image is corrected based on the positional relationship data error.
【0017】また、本方法において、前記三次元データ
を生成するステップでは、前記位置関係データ誤差に基
づいて前記位置関係データを補正し、補正された位置関
係データを用いて前記三次元データを生成することが好
適である。In the method, in the step of generating the three-dimensional data, the positional relationship data is corrected based on the positional relationship data error, and the corrected positional relationship data is used to generate the three-dimensional data. Is preferred.
【0018】前記三次元データを生成するステップで
は、前記入力画像から参照マークを抽出し、抽出された
前記参照マーク位置に基づいて前記位置関係データ誤差
を算出することができる。In the step of generating the three-dimensional data, a reference mark can be extracted from the input image, and the positional relationship data error can be calculated based on the extracted reference mark position.
【0019】また、前記三次元データを生成するステッ
プでは、前記入力画像から前記対象物のシルエット情報
を抽出し、抽出された前記シルエット情報の位置に基づ
いて前記位置関係データ誤差を算出することもできる。In the step of generating the three-dimensional data, silhouette information of the object may be extracted from the input image and the positional relationship data error may be calculated based on the position of the extracted silhouette information. it can.
【0020】また、前記三次元データを生成するステッ
プは、前記入力画像から前記対象物の第1シルエット情
報を抽出するステップと、撮影角度の異なる複数の前記
入力画像から抽出された複数の前記第1シルエット情報
に基づいて前記対象物の三次元形状データを生成するス
テップと、前記三次元形状データに基づいて第2シルエ
ット情報を抽出するステップとを有し、前記第1シルエ
ット情報と第2シルエット情報の相違に基づいて前記位
置関係データ誤差を算出することもできる。The step of generating the three-dimensional data includes the step of extracting the first silhouette information of the object from the input image and the plurality of the first images extracted from the plurality of input images having different photographing angles. The first silhouette information and the second silhouette; and a step of generating three-dimensional shape data of the object based on one silhouette information, and a step of extracting second silhouette information based on the three-dimensional shape data. The positional relationship data error can also be calculated based on the difference in information.
【0021】[0021]
【発明の実施の形態】以下、図面に基づき本発明の実施
形態について説明する。BEST MODE FOR CARRYING OUT THE INVENTION Embodiments of the present invention will be described below with reference to the drawings.
【0022】<第1実施形態>図1には、本装置の全体
構成図が示されている。本装置は、回転台、背景板、参
照マーカ及びデジタルカメラなどの画像撮影部からなる
入力部10、制御部12及びデータ処理装置14から構
成される。<First Embodiment> FIG. 1 shows an overall configuration of the present apparatus. This apparatus is composed of a rotating table, a background plate, a reference marker, an input unit 10 including an image capturing unit such as a digital camera, a control unit 12, and a data processing device 14.
【0023】制御部12は、回転台の回転制御、および
カメラの制御を行う。The control unit 12 controls the rotation of the turntable and the camera.
【0024】データ処理部14は、入力されたデータ
(例えば画像)に対して処理を施し、対象物の三次元デ
ータ(形状および色彩情報)を計算する。なお、ここで
三次元データの計算方法として、良く知られたシルエッ
ト法およびその拡張法(例えば文献“A Portable 3D D
igitizer” International Conference on Recent Adv
ances in 3-D Digital Imaging and Modeling, pp.197-
204 (1997) )を用いることを前提とする。The data processing unit 14 processes input data (for example, an image) and calculates three-dimensional data (shape and color information) of the object. In addition, here, as a calculation method of three-dimensional data, the well-known silhouette method and its extension method (for example, the document “A Portable 3D D
igitizer ”International Conference on Recent Adv
ances in 3-D Digital Imaging and Modeling, pp.197-
204 (1997)).
【0025】図1(B)には、データ処理装置14の構
成ブロック図が示されている。データ処理装置14は、
インターフェースI/F、CPU、ROM、画像メモリ
及び位置関係データメモリを有して構成される。FIG. 1B shows a block diagram of the configuration of the data processing device 14. The data processing device 14
It has an interface I / F, a CPU, a ROM, an image memory, and a positional relationship data memory.
【0026】入力部10で得られた対象物の画像デー
タ、すなわち後述する回転台の回転角度に応じて撮影角
度が異なる複数の画像データはインターフェースI/F
を介して画像メモリに記憶される。The image data of the object obtained by the input unit 10, that is, a plurality of image data having different photographing angles according to the rotation angle of the rotary table, which will be described later, is the interface I / F.
Is stored in the image memory via.
【0027】CPUは、画像メモリに記憶された画像を
読み出し、所定の三次元計算を実行する。三次元計算
は、位置関係データメモリに予め記憶されたカメラと対
象物、より具体的にはカメラと回転台との位置関係に応
じて行われる。カメラと回転台との位置関係は、後述す
るキャリブレーション処理により取得される。また、C
PUは、カメラと回転台との位置関係に誤差がある場合
には、ROMに予め記憶されたプログラムに従って誤差
を解消するように位置関係データメモリに記憶された位
置関係データを補正する。The CPU reads out the image stored in the image memory and executes a predetermined three-dimensional calculation. The three-dimensional calculation is performed according to the positional relationship between the camera and the object, which is stored in advance in the positional relationship data memory, more specifically, the positional relationship between the camera and the turntable. The positional relationship between the camera and the turntable is acquired by the calibration process described later. Also, C
When there is an error in the positional relationship between the camera and the turntable, the PU corrects the positional relationship data stored in the positional relationship data memory so as to eliminate the error according to a program stored in advance in the ROM.
【0028】なお、本実施形態ではシルエット法を用い
ているが、必ずしもこれに限定されるものではなく、ス
テレオ法など各種の三次元形状再構成アルゴリズムを適
用しても良い。Although the silhouette method is used in this embodiment, the present invention is not limited to this, and various three-dimensional shape reconstruction algorithms such as a stereo method may be applied.
【0029】以上の構成をもつ装置を用いた三次元デー
タ入力作業および三次元データ計算作業は以下のように
なる。The three-dimensional data input work and the three-dimensional data calculation work using the apparatus having the above configuration are as follows.
【0030】(1)キャリブレーション撮影および計算 (2)物体撮影 (3)シルエット抽出 (4)ボクセル生成 (5)ポリゴン生成 (6)テクスチャ獲得 以下、これらについて順次説明する。(1) Calibration photographing and calculation (2) Object shooting (3) Silhouette extraction (4) Voxel generation (5) Polygon generation (6) Texture acquisition These will be sequentially described below.
【0031】<キャリブレーション撮影および計算>キ
ャリブレーション撮影では、図2に示されるように、回
転台10eに円マークが配置されたパネル50を置く。
ここで、円マークについては予めその位置が分かってい
るとする。そして、このパネル50を回転台10e上で
一定の範囲だけ回転させながら複数の画像を撮影する。
キャリブレーション処理は、
(i)カメラ10bとパネル50の位置関係を求める
(ii)ステップ(i)の結果に基づき、カメラ10b
と回転台10eの位置関係を求めるという二つのステッ
プからなる。<Calibration Shooting and Calculation> In the calibration shooting, as shown in FIG. 2, the panel 50 on which the circle mark is arranged is placed on the rotary table 10e.
Here, it is assumed that the position of the circle mark is known in advance. Then, a plurality of images are taken while rotating the panel 50 on the turntable 10e within a certain range.
The calibration process includes (i) determining the positional relationship between the camera 10b and the panel 50 (ii) based on the result of step (i), the camera 10b
And two steps of obtaining the positional relationship between the rotary table 10e.
【0032】カメラ10bとパネル50の位置関係を簡
単に求める方法として、形状が既知の物体(参照物体)
をカメラ10bに見せ、Hough変換を用いてカメラ
10b位置を求める方法がある。パネル50を兼ねる参
照物体の表面には円マークが描かれており、それぞれの
三次元位置は既知である。As a method for easily obtaining the positional relationship between the camera 10b and the panel 50, an object whose shape is known (reference object)
Is shown to the camera 10b, and the position of the camera 10b is obtained using Hough transform. A circle mark is drawn on the surface of the reference object that also serves as the panel 50, and the three-dimensional position of each is known.
【0033】また、Hough変換とは、直観的には、
局所情報に基づいて計算した大局的パラメータ値候補を
元に、パラメータ空間への投票処理を経て、多数決原理
により対象とするパラメータを得る手法である。元々
は、エッジ画像から直線を求める問題において提案され
たものである。ここでは、エッジ画像中の各々の点につ
いて、それが、ある直線の一部と仮定した場合に、可能
性のあるすべての直線に対して直線を原点からの距離ρ
および、y軸となす角度θからなるパラメータ空間に投
票処理する。最終的にパラメータ空間においてピーク値
を呈する(ρ、θ)が求める直線となる。Intuitively, the Hough transform is
This is a method of obtaining the target parameter by the majority rule based on the voting process to the parameter space based on the global parameter value candidates calculated based on the local information. Originally, it was proposed in the problem of finding a straight line from an edge image. Here, for each point in the edge image, if it is assumed to be part of a straight line, then for every possible straight line the distance from the origin ρ
And voting processing is performed in a parameter space formed by an angle θ formed with the y axis. Finally, the peak value (ρ, θ) in the parameter space becomes a straight line to be obtained.
【0034】キャリブレーションでは、このHough
変換の考えに基づき、6変数の座標変換パラメータ(x,
y,z,α,β,γ)を求める。この座標変換パラメータは参
照物体の座標系と、各カメラの座標系の変換パラメータ
である。In calibration, this Hough
Based on the idea of conversion, coordinate conversion parameters (x,
y, z, α, β, γ) is calculated. The coordinate conversion parameters are conversion parameters of the coordinate system of the reference object and the coordinate system of each camera.
【0035】なお、ここで、焦点距離などカメラの内部
パラメータ、およびキャリブレーションの円パタン位置
は既知であることを前提としている。Hough変換に
よる座標変換パラメータ獲得の概要は以下の通りであ
る。Here, it is assumed that the internal parameters of the camera such as the focal length and the circular pattern position for calibration are known. The outline of acquisition of coordinate conversion parameters by Hough conversion is as follows.
【0036】(1)既知参照パタン(円パタン)を配置
した参照物体を撮影。(1) A reference object on which a known reference pattern (circular pattern) is arranged is photographed.
【0037】(2)画像から参照パタンを抽出する。(2) A reference pattern is extracted from the image.
【0038】(3)画像から抽出された任意の参照パタ
ン三つと、システムに予め登録されている参照パタン位
置データ三つを用いて座標変換パラメータ(平行移動成
分x,y,z,および回転成分α,β,γ)を計算する。これを
組合せ全てについて行い、六次元Hough空間に投票
する。(3) Using three arbitrary reference patterns extracted from the image and three reference pattern position data registered in advance in the system, coordinate conversion parameters (translation components x, y, z, and rotation components) are used. Calculate α, β, γ). Do this for all combinations and vote in the 6-dimensional Hough space.
【0039】(4)Hough空間からピーク値を抽出
し、座標変換パラメータを得る。以上のステップで、参
照物体座標系とカメラ座標系との変換パラメータが得ら
れる。(4) The peak value is extracted from the Hough space to obtain the coordinate conversion parameter. Through the above steps, conversion parameters for the reference object coordinate system and the camera coordinate system are obtained.
【0040】なお、上記に示した手法で求める変換パラ
メータの精度は、Hough空間解像度に依存する。一
般には、直接モデリングに適用できるほどの精度は得ら
れない。このため、上記パラメータを初期値とし、更に
非線形最小自乗法(Levenberg-Marquardt法)により最終
座標変換パラメータを得ることが好適である。The accuracy of the conversion parameter obtained by the above method depends on the Hough spatial resolution. In general, it is not accurate enough to be directly applied to modeling. Therefore, it is preferable to use the above parameters as initial values and further obtain final coordinate conversion parameters by the nonlinear least squares method (Levenberg-Marquardt method).
【0041】また、Hough変換におけるステップ3
の組合せ処理は、円マークの色分けをすることで組合せ
削減ができ、その結果、処理の高速化が可能となる。Also, step 3 in Hough transformation
The combination processing can be reduced by color-coding the circle marks, and as a result, the processing speed can be increased.
【0042】以上でカメラとパネルの位置関係が得られ
ることになる。次に、カメラと回転台の位置関係を求め
る。ここで、上記カメラからみたパネルの動き、すなわ
ち例えばパネル座標系の原点の動きを観測すると、回転
台の回転軸を中心とした円運動を行う点に着目する。つ
まり、パネルの任意の1点を選び、その運動の軌跡に対
し三次元空間上の円を当てはめる。この円の中心軸が回
転軸に相当することになる。回転台とカメラの位置関係
は、回転軸とカメラの位置関係にほかならないため、以
上のようにして回転台とカメラの位置関係が求められた
ことになる。As described above, the positional relationship between the camera and the panel can be obtained. Next, the positional relationship between the camera and the turntable is obtained. Here, when observing the movement of the panel viewed from the camera, that is, the movement of the origin of the panel coordinate system, attention is paid to the point that a circular movement about the rotation axis of the turntable is performed. That is, an arbitrary point on the panel is selected and a circle in the three-dimensional space is fitted to the locus of the movement. The center axis of this circle corresponds to the rotation axis. Since the positional relationship between the rotary base and the camera is nothing but the positional relationship between the rotary shaft and the camera, the positional relationship between the rotary base and the camera is obtained as described above.
【0043】<物体撮影>物体撮影では、キャリブレー
ション撮影において使用したパネルを回転台の上から除
去し、そのかわりに対象物を回転台に配置し、指定ステ
ップ(たとえば10度刻み)で回転台を回しつつ、物体
の全周囲画像を入力する。ここで、対象物の色彩に応
じ、適宜背景板を選択する。これは、次に述べるシルエ
ット抽出の過程で必要になる。例えば、青色が含まれて
いない対象物の場合、背景板は例えば青色の背景板を用
いることができる。続いて、三次元データ計算処理に移
る。<Object Shooting> In object shooting, the panel used in the calibration shooting is removed from the rotary table, the object is placed on the rotary table instead, and the rotary table is specified in steps (for example, every 10 degrees). While turning, input the omnidirectional image of the object. Here, the background plate is appropriately selected according to the color of the object. This is necessary in the process of silhouette extraction described below. For example, in the case of an object that does not contain blue, the background plate may be a blue background plate, for example. Then, the three-dimensional data calculation process is performed.
【0044】<シルエット抽出>シルエット抽出処理
は、例えば良く知られたクロマキー法を用いることがで
きる。これは、放送局などで良く用いられている技術
で、複数の映像を合成して新しい映像を作り出すための
手法である。<Silhouette Extraction> For the silhouette extraction processing, for example, the well-known chroma key method can be used. This is a technique often used in broadcasting stations and the like, and is a method for synthesizing a plurality of videos to create a new video.
【0045】カメラで得られた画像は、背景板と対象物
体の画像となる。青色が含まれていない対象物体の場
合、背景板は例えば青色の背景板を用いることができる
が、この場合、画像から青色部分を除去すれば、対象物
体の部分のみを切り出すことができる。The images obtained by the camera are images of the background plate and the target object. In the case of a target object that does not include blue, for example, a blue background plate can be used as the background plate. In this case, if the blue part is removed from the image, only the part of the target object can be cut out.
【0046】図3には、シルエット抽出処理が模式的に
示されている。回転台10eの上の対象物体100を撮
影して得られた画像A1には、(A)に示されるように
対象物体100と青色背景が存在する。この青色背景の
みを除去することで、(B)に示されるように対象物体
100の像のみを取り出すことができる(図において、
青色は黒、青色以外は白で表現されている)。FIG. 3 schematically shows the silhouette extraction processing. In the image A1 obtained by photographing the target object 100 on the turntable 10e, the target object 100 and the blue background are present as shown in (A). By removing only this blue background, it is possible to extract only the image of the target object 100 as shown in FIG.
Blue is black, other than blue is represented by white).
【0047】もちろん、クロマキー処理を用いてシルエ
ット抽出するのではなく、例えば特願平9−23261
7号に開示されているように、背景画像と物体画像との
差分処理によりシルエットを抽出しても良い。Of course, instead of extracting the silhouette using chroma key processing, for example, Japanese Patent Application No. 9-23261.
As disclosed in No. 7, the silhouette may be extracted by the difference processing between the background image and the object image.
【0048】<ボクセル生成>カメラの視野が予め限定
されているため、測定者が存在可能領域を予め設定する
ことが可能である。この存在可能領域をボクセル(voxe
l)空間で表現する。ここで、ボクセル空間とは、二次元
画像が面素(ピクセル)の集合で表現されるように、三
次元空間を細かい立体素(ボクセル)の集合体として表
現したものである。最も素朴には、以下のようにして三
次元形状を再構成することが出来る。すなわち、ボクセ
ル空間を構成する各ボクセルを一つのシルエット画像に
投影する。このとき、物体シルエット外に投影されれ
ば、そのボクセルは明らかに対象物体ではないと判断で
きる。<Voxel Generation> Since the field of view of the camera is limited in advance, it is possible for the measurer to set the possible area in advance. This possible area is defined as a voxel (voxe
l) Express in space. Here, the voxel space is a representation of a three-dimensional space as a collection of fine solids (voxels) so that a two-dimensional image is represented by a set of surface elements (pixels). Most simply, the three-dimensional shape can be reconstructed as follows. That is, each voxel forming the voxel space is projected onto one silhouette image. At this time, if the voxel is projected outside the object silhouette, it can be determined that the voxel is clearly not the target object.
【0049】このような処理を全てのシルエットに対し
て行い、全てのシルエット画像に対して、物体シルエッ
ト内部に投影されたボクセルのみを抽出し、これを対象
物体100と判定する。This processing is performed for all silhouettes, and for all silhouette images, only the voxels projected inside the object silhouette are extracted, and this is determined as the target object 100.
【0050】この処理は、直観的には、物体存在領域に
対応した石膏ブロック200を仮定し、シルエット領域
以外に対応する部分をどんどん切削してゆく方法と考え
ることができる。そして最終的に残った石膏部分が対象
物の三次元形状とみなされる。Intuitively, this process can be considered as a method in which the gypsum block 200 corresponding to the object existing region is assumed and the portion corresponding to other than the silhouette region is gradually cut. Then, the finally remaining plaster part is regarded as the three-dimensional shape of the object.
【0051】なお、シルエット画像にエラーが存在する
場合、上記の処理では最終結果に大きな形状誤差が発生
する。このような場合には、以下に述べる投票方式(ボ
ーティング方式)が有効である。これを概念的に示した
のが図5である。When the silhouette image has an error, a large shape error occurs in the final result in the above process. In such a case, the voting method (voting method) described below is effective. FIG. 5 conceptually shows this.
【0052】すなわち、シルエット領域外の部分を即座
に削除するのではなく、まずは、シルエット領域に対応
する空間に得点を加算してゆく。そして、最終的に得点
がある閾値以上の部分を物体部分とみなす。That is, instead of immediately deleting the portion outside the silhouette area, first, the points are added to the space corresponding to the silhouette area. Then, the part where the score finally exceeds a certain threshold value is regarded as the object part.
【0053】ボーティング処理の流れは以下の通りであ
る。なお、ここでは、前述のように、物体存在領域をボ
クセル空間として表現することを前提としている。The flow of the voting process is as follows. Note that here, as described above, it is premised that the object existing region is expressed as a voxel space.
【0054】(1)初期化:各ボクセルの得点をゼロに
設定する。(1) Initialization: The score of each voxel is set to zero.
【0055】(2)各ボクセルについて、全シルエット
画像への投影点を求め、シルエット領域に含まれている
投影点の数を得点とする。(2) For each voxel, the projection points on the entire silhouette image are obtained, and the number of projection points included in the silhouette area is used as the point.
【0056】(3)得点が一定値以上のボクセルを物体
領域と見なす。(3) Voxels whose scores are equal to or greater than a certain value are regarded as an object region.
【0057】図5には、ボーティング方式が模式的に示
されている。(A)、(B)、(C)は3方向における
シルエット領域に含まれている投影点に1を加算したも
のである。(D)はこれらの投影点を加算したものであ
り、各ボクセルの投影点の合計が数字で示されている。
投票結果は、例えば10〜16の数字で示される。対象
物体100が真に存在するボクセルの得点数は大きくな
るので、得点が一定値以上、例えば16以上のボクセル
を抽出することで、(E)に示されるようにボクセルを
抽出できる。FIG. 5 schematically shows the voting method. (A), (B), and (C) are obtained by adding 1 to the projection points included in the silhouette area in the three directions. (D) is the addition of these projection points, and the total of the projection points of each voxel is shown by a number.
The voting result is indicated by, for example, numbers 10 to 16. Since the number of voxels in which the target object 100 truly exists is large, the voxels can be extracted as shown in (E) by extracting the voxels having a certain value or more, for example, 16 or more.
【0058】なお、この処理において重要な点は、ボク
セル空間に対し、カメラの視点が何処に存在するかとい
う情報である。この情報が誤っていれば、三次元形状の
計算結果は実際とは大幅に異なるものになってしまう。
ボクセル空間は回転台の座標にしたがって定義すれば、
カメラの視点の位置情報は回転台とカメラの位置関係に
他ならない。ところで、回転台とカメラの位置関係は上
述したように固定関係にある。したがって、このデータ
は、予めデータ処理部14に登録されているキャリブレ
ーションデータを用いれば良い。An important point in this processing is information about where the viewpoint of the camera exists with respect to the voxel space. If this information is incorrect, the calculation result of the three-dimensional shape will be significantly different from the actual result.
If the voxel space is defined according to the coordinates of the turntable,
The positional information of the viewpoint of the camera is nothing but the positional relationship between the turntable and the camera. By the way, the positional relationship between the turntable and the camera is fixed as described above. Therefore, as this data, calibration data registered in the data processing unit 14 in advance may be used.
【0059】<ポリゴン生成>対象物体100の三次元
形状データは一旦ボクセルデータの集合として求められ
るが、一般の形状測定ツールでは、対象物がポリゴンデ
ータで表現されていることを前提にしているものもあ
る。この場合、図6に示されるように、ボクセルデータ
300をポリゴンデータ400に変換する必要がある。
また、計測形状を三次元的に表示ソフト(ビューワ)で
見せる必要がある場合も存在する。この場合にも、ボク
セルデータをポリゴンデータに変換することは有効であ
る。<Polygon Generation> The three-dimensional shape data of the target object 100 is once obtained as a set of voxel data, but in a general shape measurement tool, it is assumed that the target object is represented by polygon data. There is also. In this case, it is necessary to convert the voxel data 300 into polygon data 400 as shown in FIG.
There are also cases where it is necessary to show the measurement shape three-dimensionally with display software (viewer). Also in this case, it is effective to convert the voxel data into polygon data.
【0060】ここでは、表現に必要なポリゴン数を少な
く抑え、かつ、表現形状の精度を維持することが要求さ
れる。たとえば、以下に示すステップを踏むことで、好
適なポリゴン表現が可能になる。Here, it is required to keep the number of polygons required for expression small and to maintain the accuracy of the expression shape. For example, a suitable polygon expression is possible by taking the steps shown below.
【0061】(1)頂点設定
物体表面に対応するボクセルの隣接頂点を接続し、初期
ポリゴンを生成する。(1) Vertex setting Adjacent vertices of voxels corresponding to the object surface are connected to generate an initial polygon.
【0062】(2)ポリゴンリダクション
マージ前後の形状変化を評価し、変化が小さい隣接ポリ
ゴンを順にマージすることで、ポリゴン数を目標値まで
削減する。(2) The number of polygons is reduced to the target value by evaluating the shape change before and after the polygon reduction merge and merging adjacent polygons with small changes in order.
【0063】<テクスチャ生成>全周囲撮影画像に基づ
いて、全ポリゴンの色彩(テクスチャ)情報を獲得する
ステップである。具体的には各ポリゴンのテクスチャ情
報を与える入力画像(以下参照画像とよぶ)を決定した
後、ポリゴンを参照画像に投影し、その投影部分の色彩
をテクスチャ情報とする。ここで、ほとんどのポリゴン
について、その領域が可視となる入力画像が複数存在し
ていることに注意が必要である。そこで、各ポリゴンに
ついて適切な参照画像を決定する必要がある。適切な参
照画像決定において考慮するべき点は、
(1)テクスチャ情報量の多い参照画像を選択する
(2)ポリゴン境界線上での画像の連続性を良くする
である。<Texture Generation> This is a step of acquiring color (texture) information of all polygons based on the omnidirectional photographed image. Specifically, after determining an input image (hereinafter referred to as a reference image) to which texture information of each polygon is given, the polygon is projected on the reference image, and the color of the projected portion is used as the texture information. It should be noted here that, for most polygons, there are multiple input images whose regions are visible. Therefore, it is necessary to determine an appropriate reference image for each polygon. Points to be considered in determining an appropriate reference image are (1) selecting a reference image with a large amount of texture information (2) improving the continuity of the image on the polygon boundary line.
【0064】ここで、(1)の観点からは参照画像への
ポリゴン投影面積が大きい方が望ましい。一方、(2)
の観点からは隣接ポリゴンの参照画像は同じであること
が望ましく、異なる場合でも撮影角度差は小さい方が望
ましい。これらの要求点はしばしばトレードオフの関係
にあるため、各考慮点の評価関数を決定し、これらの和
関数が最大となるように参照画像を決定する。なお、こ
のような方法については、特願平9−234829号に
開示されている。以上の処理により、対象物体の三次元
データを獲得することができる。From the viewpoint of (1), it is desirable that the polygon projection area on the reference image is large. On the other hand, (2)
From the viewpoint of, it is desirable that the reference images of adjacent polygons are the same, and even if they are different, it is desirable that the shooting angle difference is small. Since these required points are often in a trade-off relationship, the evaluation function of each consideration point is determined, and the reference image is determined so that the sum function thereof becomes maximum. Incidentally, such a method is disclosed in Japanese Patent Application No. 9-234829. Through the above processing, the three-dimensional data of the target object can be acquired.
【0065】ところで、以上の処理において、キャリブ
レーション撮影の開始時点から、物体撮影が終了するま
で、回転台とカメラの位置関係は不変であるという前提
を置いた。By the way, in the above processing, it is assumed that the positional relationship between the rotary base and the camera remains unchanged from the start of the calibration photographing to the end of the object photographing.
【0066】しかしながら、実際には、キャリブレーシ
ョン処理と、実際の物体入力の間に、パネルと物体の置
き換え作業が発生し、その際、回転台とカメラの位置関
係が微妙に変わる恐れがある。また、物体入力中に、振
動などによって回転台とカメラの位置関係が微妙に変わ
る恐れがあり、さらに、カメラによっては撮影毎に光軸
のずれが発生し、その結果、キャリブレーションデータ
に大きな誤差が含まれたり、回転台とカメラの位置関係
が変わることになる、などの理由から、得られたキャリ
ブレーションデータ自身に誤差が含まれている場合があ
る。However, in reality, a panel-object replacement work occurs between the calibration process and the actual object input, and at that time, the positional relationship between the turntable and the camera may be slightly changed. Also, during input of an object, the positional relationship between the turntable and the camera may change subtly due to vibration, etc. Furthermore, some cameras may shift the optical axis at each shooting, resulting in a large error in the calibration data. May be included, or the positional relationship between the turntable and the camera may change, and thus the obtained calibration data itself may include an error.
【0067】この状態で三次元形状計算を行うと、生成
される三次元データに大きな誤差が含まれることにな
る。If the three-dimensional shape calculation is performed in this state, the generated three-dimensional data will include a large error.
【0068】一方、誤差を含んだキャリブレーションデ
ータは、真のキャリブレーションデータとの差は極めて
小さいという性質に基づき、回転台に対し、位置が固定
された参照マークを導入するとともに、データ入力時
に、対象物体と共にこの参照マークを含めた画像を撮影
するにより、補正処理が可能である。On the other hand, the calibration data containing an error has a very small difference from the true calibration data, and therefore a reference mark whose position is fixed is introduced into the rotary table, and at the time of data input. The correction processing can be performed by capturing an image including the reference mark together with the target object.
【0069】今、前提として、キャリブレーション撮影
の開始時点から、物体撮影が終了するまで、背景板と回
転台の位置関係は不変であるとする。そして、背景板上
に参照マークを配置するとする。Now, as a premise, it is assumed that the positional relationship between the background plate and the turntable remains unchanged from the start of the calibration shooting to the end of the object shooting. Then, it is assumed that the reference mark is arranged on the background plate.
【0070】図7及び図8には、参照マークが例示され
ている。図7は、参照マーク16が回転台10eと同一
の基台に取り付けられ、参照マーク16を基台から回動
させて「起こす」ことで(図中矢印)背景板10d上に
参照マークを配置する例である。また、図8は背景板1
0d自体に参照マークが形成されている例である。参照
マークは1つでもよいが、複数の方が望ましい。また、
参照マーク16は背景とは容易に区別が出来る色とし、
入力画像の端付近に配置されることが好適である。その
理由は、入力画像の中心辺りには、通常物体が存在し、
マークが隠れやすいため、中心辺りの配置は避けるべき
だからである。また、周辺に存在している場合、シルエ
ット抽出にて物体以外のシルエット部分が現れることに
なるが、一般に、上述のボクセル生成において、シルエ
ットノイズが存在していても、ノイズと物体との距離が
離れているほど悪影響が少ないためである。なお、これ
ら参照マーク位置(2次元)を取り囲むウィンドウを入
力画像に設定しておくことが望ましい。なお、上記はカ
メラと回転台が一体となっている装置について説明した
が、これらが別のものとして構成されていてもよい。Reference marks are illustrated in FIGS. 7 and 8. In FIG. 7, the reference mark 16 is attached to the same base as the turntable 10e, and the reference mark 16 is rotated and “raised” from the base (arrow in the figure) to arrange the reference mark on the background plate 10d. This is an example. Also, FIG. 8 shows the background plate 1.
In this example, the reference mark is formed on 0d itself. Although one reference mark may be provided, a plurality of reference marks are preferable. Also,
The reference mark 16 is a color that can be easily distinguished from the background,
It is suitable to be arranged near the edge of the input image. The reason is that there is usually an object around the center of the input image,
This is because it is easy to hide the mark, so you should avoid arranging around the center. In addition, when it exists in the surroundings, silhouette parts other than the object will appear in the silhouette extraction, but in general, in the voxel generation described above, even if silhouette noise exists, the distance between the noise and the object is This is because the farther away they are, the smaller the adverse effects will be. It is desirable to set a window surrounding these reference mark positions (two-dimensional) in the input image. In the above, the device in which the camera and the turntable are integrated has been described, but they may be configured separately.
【0071】次に、参照マーク16を用いたキャリブレ
ーションデータ補正処理の概要を以下に示す。なお、理
解容易のため、キャリブレーションデータ自身の補正の
他に、画像の補正(平行移動や拡大縮小)も、「キャリ
ブレーションデータ補正」として扱っている。Next, the outline of the calibration data correction process using the reference mark 16 will be described below. Note that, for easy understanding, in addition to correction of the calibration data itself, image correction (parallel movement and enlargement / reduction) is also treated as “calibration data correction”.
【0072】(1)キャリブレーション撮影
(2)物体画像入力
(3)キャリブレーション撮影画像、及び入力画像から
設定ウィンドウ内に存在する参照マークを抽出する。図
9には、入力画像内に設定されたウインドウ500及び
ウインドウ500内の参照マーク600が例示されてい
る。(1) Calibration shooting (2) Object image input (3) Calibration shooting image and reference marks existing in the setting window are extracted from the input image. FIG. 9 illustrates a window 500 set in the input image and a reference mark 600 in the window 500.
【0073】(4)ステップ(3)で得られた参照マー
クのうち、一つを「基準参照マーク」として決める。(4) One of the reference marks obtained in step (3) is determined as a "reference reference mark".
【0074】(5)ステップ(4)の「基準参照マー
ク」以外のものを「その他参照マーク」とし、これを基
準参照マークと比較し、位置の差を求める。図10に
は、基準参照マーク600とその他参照マーク610が
例示されており、2つのマークの位置の差が示されてい
る。(5) An object other than the "reference reference mark" in step (4) is set as an "other reference mark", and this is compared with the reference reference mark to find the difference in position. FIG. 10 illustrates the standard reference mark 600 and the other reference mark 610, and shows the difference between the positions of the two marks.
【0075】(6)ステップ(5)で求められた位置の
差に基づき、補正処理を行う。(6) Correction processing is performed based on the position difference obtained in step (5).
【0076】また、補正処理にも以下の2種類の方法が
考えられる。The following two types of methods can be considered for the correction processing.
【0077】(a)二次元的補正処理
(b)キャリブレーションデータ自身の補正
二次元的補正処理とは、入力画像を直接補正する処理で
ある。本来、カメラと回転台(背景板と回転台の位置関
係は不変)の位置関係が不変であれば、上記の基準参照
マーク位置、およびすべてのその他参照マーク位置は不
変であるべきである。これらが異なるということは、微
妙にカメラと回転台の位置がずれていることになる。そ
こで、見かけ上、カメラと回転台の位置関係が不変、す
なわち、基準参照マーク位置、及びすべてのその他参照
マーク位置が一致するよう画像を平行移動処理する。そ
して、平行移動処理された画像を元に、三次元データ計
算処理を行う。(A) Two-dimensional correction process (b) Correction of calibration data itself The two-dimensional correction process is a process for directly correcting the input image. Originally, if the positional relationship between the camera and the turntable (the positional relationship between the background plate and the turntable is unchanged) is unchanged, the above-mentioned standard reference mark position and all other reference mark positions should be unchanged. If they are different, the positions of the camera and the turntable are slightly deviated. Therefore, the image is translated so that the positional relationship between the camera and the turntable does not change, that is, the reference reference mark position and all other reference mark positions match. Then, three-dimensional data calculation processing is performed based on the image subjected to the parallel movement processing.
【0078】なお、その他参照マークの位置と基準参照
マークの位置の差は、必ずしもカメラの位置の平行移動
誤差が反映されているわけではなく、実際には、カメラ
の回転移動誤差が反映されていることが多い。しかし、
画像上ではその差はほとんど無視できるレベルにあるた
め、本手法では、どちらに起因する誤差も、平行移動誤
差として扱っていることになる。The difference between the position of the other reference mark and the position of the standard reference mark does not always reflect the parallel movement error of the camera position, but actually reflects the rotational movement error of the camera. Often But,
Since the difference is almost negligible on the image, in this method, the error caused by either of them is treated as a translation error.
【0079】一方、キャリブレーションデータ自身の補
正は、上記その他参照マークの位置と基準参照マークの
位置の差が、カメラの回転移動誤差に起因するとみな
し、キャリブレーションデータそのものを変更すること
である。ここでは、キャリブレーション撮影の画像に関
しては、基準参照マークとその他参照マークの位置が一
致しておく必要がある。なぜなら、計算されて求まった
キャリブレーションデータ自体が無意味となるからであ
る。この条件において、物体入力画像中のその他参照マ
ーク位置から、キャリブレーションデータの補正量を求
めてゆく。具体的には、焦点距離fを1.0に規格化し
た場合、カメラ(デジタルカメラとする)のCCD上で
の実際参照マークの位置をXs、基準参照マークの位置
をXrとすると、図11に示されるように、On the other hand, the correction of the calibration data itself is to change the calibration data itself, assuming that the difference between the position of the other reference mark and the position of the standard reference mark is caused by the rotational movement error of the camera. Here, the positions of the standard reference mark and the other reference marks need to match with each other in the image captured by the calibration. This is because the calculated calibration data itself is meaningless. Under this condition, the correction amount of the calibration data is calculated from the other reference mark positions in the object input image. Specifically, when the focal length f is standardized to 1.0, assuming that the position of the actual reference mark on the CCD of the camera (digital camera) is Xs and the position of the standard reference mark is Xr, FIG. As shown in
【数1】θ−θ’=arctan(Xr)−arcta
n(Xs)
が回転角度誤差の近似値となる。この角度分だけ、キャ
リブレーションデータを補正した後、三次元データ計算
処理を行えば良い。## EQU1 ## θ-θ '= arctan (Xr) -arcta
n (Xs) is an approximate value of the rotation angle error. After correcting the calibration data by this angle, the three-dimensional data calculation process may be performed.
【0080】さらに、参照マークを複数配置しておく
と、カメラの前後移動に起因する誤差の補正も可能であ
る。カメラの前後移動がなければ、複数参照マーク間の
距離は一定である。しかし、複数参照マーク間の距離
が、例えば大きくなった場合、これはカメラの位置が回
転台側に近づいたと判定される。この補正も、上記と同
様、 (a)画像の縮小処理により、登録キャリブレー
ションデータに適合するよう入力画像を修正する
(b)カメラの移動距離を求め、キャリブレーションデ
ータ自体を補正するという二つの方法によって、補正す
ることができる。Further, by disposing a plurality of reference marks, it is possible to correct the error caused by the forward and backward movement of the camera. If there is no forward / backward movement of the camera, the distance between the reference marks is constant. However, if the distance between the plurality of reference marks becomes large, for example, it is determined that the position of the camera is close to the turntable side. Similar to the above, this correction is also performed by (a) correcting the input image so as to match the registered calibration data by image reduction processing, and (b) obtaining the moving distance of the camera and correcting the calibration data itself. It can be corrected depending on the method.
【0081】図12には、(b)の方法が模式的に示さ
れている。カメラの位置(焦点位置)がPからP’に変
化した場合の参照マーカ16とカメラの距離をL’、参
照マーク16間の画像上の距離をW’、データ処理装置
14に登録されている基準距離をそれぞれL、Wとする
と、FIG. 12 schematically shows the method (b). The distance between the reference marker 16 and the camera when the position of the camera (focal position) changes from P to P ′ is L ′, the distance on the image between the reference marks 16 is W ′, which is registered in the data processing device 14. If the reference distances are L and W respectively,
【数2】L’=W・L/W’
で移動距離を算出でき、これを用いてキャリブレーショ
ンデータを補正することができる。## EQU00002 ## The moving distance can be calculated by L '= W.L / W', and the calibration data can be corrected using this.
【0082】なお、カメラと回転台の位置関係が微妙に
変化するように、参照マーク16と回転台の位置関係も
変化する。しかしながら、三次元計算に影響する誤差に
ついては、一般に平行移動分は極めて小さく、実際はカ
メラの回転誤差が大きく起因している。したがって、参
照マーク16の位置自体の微妙なずれはほとんど影響な
いと見なすことができる。The positional relationship between the reference mark 16 and the rotary table also changes so that the positional relationship between the camera and the rotary table changes subtly. However, with respect to the error that affects the three-dimensional calculation, generally, the parallel movement amount is extremely small, and in reality, the rotation error of the camera is large. Therefore, it can be considered that the slight deviation of the position of the reference mark 16 has almost no effect.
【0083】また、上記の参照マーク16を用いた補正
処理における実際参照マークの位置検出は全入力画像に
対して行っても良いし、特定の画像に対して行っても良
い。The position of the actual reference mark in the correction process using the reference mark 16 may be detected for all input images or for a specific image.
【0084】特に、入力作業中はカメラの位置は変化し
ないという前提を置くことができれば、特定の画像に対
してのみ実際参照マークの位置検出を行うことが、計算
時間短縮の観点から好適である。In particular, if it is possible to assume that the position of the camera does not change during the input work, it is preferable to actually detect the position of the reference mark only for a specific image from the viewpoint of shortening the calculation time. .
【0085】<第2実施形態>以上、参照マーク16を
用いることでキャリブレーションデータ補正を行う方法
について説明した。しかし、参照マーク16を用いない
でキャリブレーションデータ補正を行うこともできる。<Second Embodiment> The method for correcting the calibration data by using the reference mark 16 has been described above. However, the calibration data correction can be performed without using the reference mark 16.
【0086】今、図13に示されるように対象物体10
0を回転台10e上にのせ、一定ステップ毎に全周囲の
データを撮影することを考える。ここで、物体の特定の
点は、三次元的に円運動をする。したがって、入力画像
上では楕円軌道を描く。さらには、物体のシルエットを
抽出した後、その画像上の重心の動きは、やはり楕円軌
道を描くと考えて良い。すると、楕円の中心(Ceとす
る)は、図13(B)に示されるように回転台10eの
回転軸をカメラ画像に投影した直線Lc上にのる。Now, as shown in FIG. 13, the target object 10
It is considered that 0 is placed on the rotary table 10e and the data of the entire circumference is photographed at regular steps. Here, a specific point of the object makes a three-dimensional circular motion. Therefore, an elliptical orbit is drawn on the input image. Furthermore, after extracting the silhouette of the object, it can be considered that the movement of the center of gravity on the image also draws an elliptical orbit. Then, the center of the ellipse (denoted by Ce) lies on the straight line Lc obtained by projecting the rotation axis of the rotary table 10e on the camera image as shown in FIG. 13B.
【0087】この楕円の中心Ceは、例えば、物体のシ
ルエットの重心すべての平均の位置として求めることが
できる。The center Ce of this ellipse can be obtained, for example, as the average position of all the centroids of the silhouette of the object.
【0088】したがって、シルエット抽出処理の後、上
記のようにCeを求め、メモリに登録されたキャリブレ
ーションデータから求まる回転軸の投影直線Lcと比較
する。CeがLc上にのっていればキャリブレーション
データ補正は不要である。一方、図14に示されるよう
にCeがLc上からはずれていれば、その分だけ二次元
的補正、あるいはキャリブレーションデータ補正を行え
ば良い。Therefore, after the silhouette extraction processing, Ce is calculated as described above, and is compared with the projected straight line Lc of the rotation axis obtained from the calibration data registered in the memory. If Ce is above Lc, calibration data correction is unnecessary. On the other hand, as shown in FIG. 14, if Ce deviates from Lc, two-dimensional correction or calibration data correction may be performed accordingly.
【0089】なお、この処理は、回転台回転軸に対し垂
直方向(通常、画像では横方向)に関するカメラ回転誤
差の補正のみを行っていることになる。カメラ回転誤差
は、この他回転軸に沿った方向での誤差も存在しうる。
しかし、三次元データ計算においては、回転軸に垂直な
方向の誤差の悪影響が大きいのに対し、回転軸に沿った
方向の誤差の影響が極めて少ない。したがって、実用
上、回転軸に垂直な方向の誤差の補正のみで十分なこと
が多い。但し、この場合、キャリブレーション撮影にお
いては、カメラと回転台の位置関係は不変であるという
条件が必要となる。Note that this processing only corrects the camera rotation error in the direction perpendicular to the rotary table rotation axis (usually in the horizontal direction in the image). In addition to the camera rotation error, there may be an error in the direction along the rotation axis.
However, in the three-dimensional data calculation, the influence of the error in the direction perpendicular to the rotation axis is large, while the influence of the error in the direction along the rotation axis is extremely small. Therefore, practically, it is often sufficient to correct the error in the direction perpendicular to the rotation axis. However, in this case, the condition that the positional relationship between the camera and the turntable is unchanged in the calibration photographing is required.
【0090】なぜなら、計算されて求まったキャリブレ
ーションデータ自体が無意味となるからである。This is because the calculated calibration data itself is meaningless.
【0091】<第3実施形態>上述した第2実施形態で
は、シルエット画像の情報を用いてキャリブレーション
データ補正を行う方法であった。しかし、背景に不要な
物体が映っているなど、抽出シルエットにノイズが多い
場合、第2実施形態の方法がうまく機能しない場合もあ
り得る。この場合、ボクセル生成処理を利用したキャリ
ブレーション補正が可能である。<Third Embodiment> In the above-described second embodiment, the calibration data correction is performed by using the information of the silhouette image. However, when the extracted silhouette is noisy, such as when an unnecessary object is reflected in the background, the method of the second embodiment may not work well. In this case, calibration correction using voxel generation processing is possible.
【0092】今、回転台回転軸に垂直な方向に関する誤
差を含んだ登録キャリブレーションデータに基づいて、
ボクセル生成処理を行う場合を考える。この場合、誤差
の影響で、生成される三次元データは、実際の物体より
細い形状となる。Now, based on the registered calibration data including the error in the direction perpendicular to the rotary table rotation axis,
Consider a case where voxel generation processing is performed. In this case, due to the influence of the error, the generated three-dimensional data has a shape thinner than the actual object.
【0093】図15には、回転台10eの回転軸に垂直
な方向に関する誤差を含んでいない場合(A)と誤差を
含んでいる場合(B)の、180度対向した2つの視点
a、bから得られるシルエット画像が示されている。回
転軸に垂直な方向に誤差を含んでいる場合、視点bでは
誤差分だけ対象物体100が移動し、シルエット画像も
すれることになる。したがって、視点a、bで得られた
シルエット画像から対象物体100のボクセルを抽出す
ると、図16に示されるように回転軸の誤差分に比例し
て真の形状700よりも実際に得られる形状800が小
さくなってしまう。そこで、以下の処理を行うことで、
誤差を補正する。In FIG. 15, two viewpoints a and b which are 180 degrees opposite to each other are included in the case where the error is not included in the direction perpendicular to the rotation axis of the turntable 10e (A) and the case where the error is included (B). The silhouette image obtained from is shown. When an error is included in the direction perpendicular to the rotation axis, the target object 100 moves by the amount of the error at the viewpoint b, and the silhouette image is also blurred. Therefore, when the voxels of the target object 100 are extracted from the silhouette images obtained at the viewpoints a and b, the shape 800 actually obtained rather than the true shape 700 is proportional to the error of the rotation axis as shown in FIG. Becomes smaller. Therefore, by performing the following processing,
Correct the error.
【0094】(1)登録キャリブレーションデータに基
づき、ボクセル生成を行う。(1) Voxel generation is performed based on the registered calibration data.
【0095】(2)生成されたボクセルデータをカメラ
画像に投影したシルエット画像(再シルエット画像ある
いは第2シルエット画像と呼ぶ)を生成する。(2) A silhouette image (referred to as a re-silhouette image or a second silhouette image) is generated by projecting the generated voxel data on a camera image.
【0096】(3)図17に示されるように、シルエッ
ト抽出処理で得たシルエット画像と、(2)で得た再シ
ルエット画像(第2シルエット画像)を比較する。(3) As shown in FIG. 17, the silhouette image obtained by the silhouette extraction processing is compared with the re-silhouette image (second silhouette image) obtained in (2).
【0097】(4)ステップ(3)において、シルエッ
ト画像と再シルエット画像の差(再シルエット画像の方
が大きくなることはなく、同じかあるいは小さくなる)
を求める。(4) In step (3), the difference between the silhouette image and the re-silhouette image (the re-silhouette image does not become larger but is the same or smaller)
Ask for.
【0098】上記のステップ(4)で得た差が、キャリ
ブレーションデータの誤差に相当する。この誤差分だけ
二次元的補正、あるいはキャリブレーションデータ補正
を行えば良い。なお、この場合も、キャリブレーション
撮影においては、カメラと回転台の位置関係は不変であ
るという条件が必要となる。なぜなら、計算されて求ま
ったキャリブレーションデータ自体が無意味となるから
である。The difference obtained in step (4) above corresponds to the error in the calibration data. Two-dimensional correction or calibration data correction may be performed by the amount of this error. Also in this case, the condition that the positional relationship between the camera and the turntable is unchanged in the calibration photographing is required. This is because the calculated calibration data itself is meaningless.
【0099】以上、本発明の実施形態について説明した
が、本発明はこれに限定されるものではなく、その他の
変形も可能である。例えば、背景板10dは複数の色に
置き換えることができる。一般に、単純なシルエット法
では、背景色と同色部分を持つ物体の入力は困難であ
る。しかし、特願平11−322098号に示されるよ
うに、異なる色相を持つ複数の背景板を利用して入力す
ることにより、あらゆる色彩の物体入力が可能になる。
また、背景色として、さらに白色を付加することによ
り、
(1)形状データ作成のためのシルエット抽出は、色彩
のある(例えば青色)背景板を用いた画像に基づいて行
う
(2)テクスチャ獲得処理は、白色背景板用いた画像に
基づいて行う
というような使い分けが可能となる。Although the embodiment of the present invention has been described above, the present invention is not limited to this, and other modifications are possible. For example, the background board 10d can be replaced with a plurality of colors. Generally, with the simple silhouette method, it is difficult to input an object having the same color as the background color. However, as shown in Japanese Patent Application No. 11-322098, by inputting using a plurality of background plates having different hues, it is possible to input an object of any color.
Further, by adding white as a background color, (1) silhouette extraction for creating shape data is performed based on an image using a colored (for example, blue) background plate (2) texture acquisition processing Can be selectively used based on an image using a white background plate.
【0100】色彩のある背景板を利用した画像入力にお
いては、物体の材質によっては、物体周辺部に背景色が
映り込む場合がある。このような画像を元にテクスチャ
獲得処理を行うと、最終的に得られた三次元データのテ
クスチャ情報の品質が不十分な場合が存在する。これに
対し、白色背景の画像を元にテクスチャ獲得を行えば、
上述のような物体周辺部に背景色が映り込みの悪影響を
最小限に抑えることができる。When an image is input using a colored background plate, the background color may be reflected in the peripheral portion of the object depending on the material of the object. When texture acquisition processing is performed based on such an image, the quality of texture information of the finally obtained three-dimensional data may be insufficient. On the other hand, if texture acquisition is performed based on a white background image,
It is possible to minimize the adverse effect of the background color reflected in the peripheral portion of the object as described above.
【0101】[0101]
【発明の効果】以上説明したように、本発明によれば、
キャリブレーションデータの信頼性を向上させ、高精度
な三次元モデルを生成することができる。As described above, according to the present invention,
It is possible to improve the reliability of the calibration data and generate a highly accurate three-dimensional model.
【図1】 実施形態の全体構成図である。FIG. 1 is an overall configuration diagram of an embodiment.
【図2】 キャリブレーション説明図である。FIG. 2 is an explanatory diagram of calibration.
【図3】 シルエット抽出説明図である。FIG. 3 is an explanatory diagram of silhouette extraction.
【図4】 ボクセル生成説明図である。FIG. 4 is an explanatory diagram of voxel generation.
【図5】 投票方式の説明図である。FIG. 5 is an explanatory diagram of a voting method.
【図6】 ボクセルデータからポリゴンデータへの変換
説明図である。FIG. 6 is an explanatory diagram of conversion from voxel data to polygon data.
【図7】 参照マーク説明図である。FIG. 7 is an explanatory diagram of a reference mark.
【図8】 他の参照マーク説明図である。FIG. 8 is an explanatory diagram of another reference mark.
【図9】 参照マークを用いた場合の入力画像説明図で
ある。FIG. 9 is an explanatory diagram of an input image when a reference mark is used.
【図10】 基準マークと参照マークの位置関係説明図
である。FIG. 10 is an explanatory diagram of a positional relationship between a standard mark and a reference mark.
【図11】 デジタルカメラの回転誤差に基づくキャリ
ブレーションデータ補正説明図(その1)である。FIG. 11 is an explanatory diagram (1) of calibration data correction based on a rotation error of the digital camera.
【図12】 デジタルカメラの前後移動誤差に基づくキ
ャリブレーションデータ補正説明図である。FIG. 12 is an explanatory diagram of calibration data correction based on a front-back movement error of the digital camera.
【図13】 デジタルカメラの回転誤差に基づくキャリ
ブレーションデータ補正説明図(その2)である。FIG. 13 is an explanatory diagram (part 2) of calibration data correction based on a rotation error of the digital camera.
【図14】 図13における楕円の中心と回転台の回転
軸との関係を示す説明図である。FIG. 14 is an explanatory diagram showing the relationship between the center of the ellipse in FIG. 13 and the rotation axis of the turntable.
【図15】 ボクセル生成処理を用いたデジタルカメラ
の回転誤差に基づくキャリブレーションデータ補正説明
図(その3)である。FIG. 15 is an explanatory diagram (part 3) of calibration data correction based on rotation error of a digital camera using voxel generation processing.
【図16】 図15における真の形状と実際の形状との
相違説明図である。16 is an explanatory diagram of a difference between the true shape and the actual shape in FIG.
【図17】 シルエット画像と再シルエット画像の相違
説明図である。FIG. 17 is an explanatory diagram of a difference between a silhouette image and a re-silhouette image.
10 入力部、12 制御部、14 データ処理部。 10 input unit, 12 control unit, 14 data processing unit.
───────────────────────────────────────────────────── フロントページの続き Fターム(参考) 2F065 AA04 AA53 BB05 FF04 JJ03 JJ19 JJ26 MM04 PP13 QQ00 QQ18 QQ24 QQ27 QQ31 QQ42 5B057 AA20 BA02 BA21 DB03 DB06 DB09 DC13 DC16 ─────────────────────────────────────────────────── ─── Continued front page F term (reference) 2F065 AA04 AA53 BB05 FF04 JJ03 JJ19 JJ26 MM04 PP13 QQ00 QQ18 QQ24 QQ27 QQ31 QQ42 5B057 AA20 BA02 BA21 DB03 DB06 DB09 DC13 DC16
Claims (12)
あって、 回転手段により回転する対象物の画像を入力する手段
と、 前記回転手段と前記画像入力手段の位置関係データを算
出する手段と、 前記位置関係データ誤差を算出する手段と、 前記位置関係データ誤差に基づいて前記三次元データを
生成する手段と、 を有することを特徴とする立体モデル生成装置。1. An apparatus for generating three-dimensional data of an object, said means for inputting an image of an object rotated by a rotating means, and means for calculating positional relationship data between said rotating means and said image input means. And a means for calculating the positional relationship data error, and a means for generating the three-dimensional data based on the positional relationship data error.
タ誤差に基づいて入力画像を補正することにより前記三
次元データを生成することを特徴とする立体モデル生成
装置。2. The apparatus according to claim 1, wherein the means for generating the three-dimensional data generates the three-dimensional data by correcting an input image based on the positional relationship data error. Stereo model generator.
タ誤差に基づいて前記位置関係データを補正し、補正さ
れた位置関係データを用いて前記三次元データを生成す
ることを特徴とする立体モデル生成装置。3. The apparatus according to claim 1, wherein the means for generating the three-dimensional data corrects the positional relationship data based on the positional relationship data error, and uses the corrected positional relationship data to perform the cubic A three-dimensional model generation device characterized by generating original data.
おいて、 前記三次元データを生成する手段は、 前記入力画像から参照マークを抽出する手段と、 を有し、抽出された前記参照マーク位置に基づいて前記
位置関係データ誤差を算出することを特徴とする立体モ
デル生成装置。4. The apparatus according to claim 2, wherein the means for generating the three-dimensional data includes means for extracting a reference mark from the input image, and the extracted reference A stereo model generation device, wherein the positional relationship data error is calculated based on a mark position.
おいて、 前記三次元データを生成する手段は、 前記入力画像から前記対象物のシルエット情報を抽出す
る手段と、 を有し、前記シルエット情報の位置に基づいて前記位置
関係データ誤差を算出することを特徴とする立体モデル
生成装置。5. The apparatus according to claim 2, wherein the means for generating the three-dimensional data has a means for extracting silhouette information of the object from the input image, A stereo model generation device, characterized in that the positional relationship data error is calculated based on the position of the silhouette information.
おいて、 前記三次元データを生成する手段は、 前記入力画像から前記対象物の第1シルエット情報を抽
出する手段と、 撮影角度の異なる複数の前記入力画像から抽出された複
数の前記第1シルエット情報に基づいて前記対象物の三
次元形状データを生成する手段と、 前記三次元形状データに基づいて第2シルエット情報を
抽出する手段と、 を有し、前記第1シルエット情報と第2シルエット情報
の相違に基づいて前記位置関係データ誤差を算出するこ
とを特徴とする立体モデル生成装置。6. The apparatus according to claim 2, wherein the means for generating the three-dimensional data includes means for extracting first silhouette information of the object from the input image, Means for generating three-dimensional shape data of the object based on the plurality of first silhouette information extracted from different plurality of the input images, and means for extracting second silhouette information based on the three-dimensional shape data And the positional relationship data error is calculated based on the difference between the first silhouette information and the second silhouette information.
あって、 対象物を回転台の上に載置して回転させるステップと、 回転する前記対象物をカメラで撮影して画像を取得する
ステップと、 前記カメラと前記回転台の位置関係データを算出するス
テップと、 前記位置関係データ誤差を算出するステップと、 前記位置関係データ誤差に基づいて前記三次元データを
生成するステップと、 を有することを特徴とする立体モデル生成方法。7. A method for generating three-dimensional data of an object, comprising placing the object on a turntable and rotating the object, and capturing the image of the rotating object with a camera. A step of calculating positional relationship data between the camera and the turntable, a step of calculating the positional relationship data error, and a step of generating the three-dimensional data based on the positional relationship data error. A method for generating a stereo model, characterized by having.
元データを生成するステップでは、前記位置関係データ
誤差に基づいて入力画像を補正することを特徴とする立
体モデル生成方法。8. The stereo model generation method according to claim 7, wherein in the step of generating the three-dimensional data, the input image is corrected based on the positional relationship data error.
係データ誤差に基づいて前記位置関係データを補正し、
補正された位置関係データを用いて前記三次元データを
生成することを特徴とする立体モデル生成方法。9. The method according to claim 7, wherein the step of generating the three-dimensional data corrects the positional relationship data based on the positional relationship data error.
A three-dimensional model generation method comprising generating the three-dimensional data by using the corrected positional relationship data.
において、 前記三次元データを生成するステップでは、前記入力画
像から参照マークを抽出し、抽出された前記参照マーク
位置に基づいて前記位置関係データ誤差を算出すること
を特徴とする立体モデル生成方法。10. The method according to claim 8, wherein in the step of generating the three-dimensional data, a reference mark is extracted from the input image, and the reference mark is extracted based on the extracted reference mark position. A stereo model generation method, characterized in that a positional relationship data error is calculated.
において、 前記三次元データを生成するステップでは、前記入力画
像から前記対象物のシルエット情報を抽出し、抽出され
た前記シルエット情報の位置に基づいて前記位置関係デ
ータ誤差を算出することを特徴とする立体モデル生成方
法。11. The method according to claim 8, wherein in the step of generating the three-dimensional data, silhouette information of the object is extracted from the input image, and the silhouette information of the extracted silhouette information is extracted. A stereo model generation method comprising calculating the positional relationship data error based on a position.
において、 前記三次元データを生成するステップは、 前記入力画像から前記対象物の第1シルエット情報を抽
出するステップと、 撮影角度の異なる複数の前記入力画像から抽出された複
数の前記第1シルエット情報に基づいて前記対象物の三
次元形状データを生成するステップと、 前記三次元形状データに基づいて第2シルエット情報を
抽出するステップと、 を有し、前記第1シルエット情報と第2シルエット情報
の相違に基づいて前記位置関係データ誤差を算出するこ
とを特徴とする立体モデル生成方法。12. The method according to claim 8, wherein the step of generating the three-dimensional data includes a step of extracting first silhouette information of the object from the input image, Generating three-dimensional shape data of the object based on the plurality of first silhouette information extracted from different input images, and extracting second silhouette information based on the three-dimensional shape data And the positional relationship data error is calculated based on the difference between the first silhouette information and the second silhouette information.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2001255678A JP2003067726A (en) | 2001-08-27 | 2001-08-27 | Solid model generation system and method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2001255678A JP2003067726A (en) | 2001-08-27 | 2001-08-27 | Solid model generation system and method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2003067726A true JP2003067726A (en) | 2003-03-07 |
Family
ID=19083607
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2001255678A Pending JP2003067726A (en) | 2001-08-27 | 2001-08-27 | Solid model generation system and method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2003067726A (en) |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008170376A (en) * | 2007-01-15 | 2008-07-24 | Toyota Motor Corp | Method of calibrating shape measuring device, and scroll for calibration |
WO2008099963A1 (en) * | 2007-02-16 | 2008-08-21 | Sony Corporation | Object shape generating method, object shape generating device and program |
WO2008105548A1 (en) * | 2007-02-26 | 2008-09-04 | Sony Corporation | Information extracting method, information extracting device, program, registering device and collating device |
WO2008105545A1 (en) * | 2007-02-26 | 2008-09-04 | Sony Corporation | Information extracting method, registering device, collating device and program |
JP2008309533A (en) * | 2007-06-13 | 2008-12-25 | Ihi Corp | Method and apparatus for measuring vehicle shape |
JP2010145231A (en) * | 2008-12-18 | 2010-07-01 | Sumitomo Heavy Ind Ltd | Apparatus and method for measuring displacement of object |
JP2016213535A (en) * | 2015-04-30 | 2016-12-15 | 株式会社東芝 | Camera calibration device, method and program |
JP7491830B2 (en) | 2020-12-22 | 2024-05-28 | Kddi株式会社 | Apparatus, method and program for extracting silhouette of subject |
JP7509509B2 (en) | 2021-01-22 | 2024-07-02 | Kddi株式会社 | Apparatus, method and program for extracting silhouette of subject |
-
2001
- 2001-08-27 JP JP2001255678A patent/JP2003067726A/en active Pending
Cited By (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008170376A (en) * | 2007-01-15 | 2008-07-24 | Toyota Motor Corp | Method of calibrating shape measuring device, and scroll for calibration |
US8780116B2 (en) | 2007-02-16 | 2014-07-15 | Sony Corporation | Object-shape generation method, object-shape generation apparatus, and program |
JP2008203995A (en) * | 2007-02-16 | 2008-09-04 | Sony Corp | Object shape generation method, object shape generation device and program |
WO2008099963A1 (en) * | 2007-02-16 | 2008-08-21 | Sony Corporation | Object shape generating method, object shape generating device and program |
WO2008105548A1 (en) * | 2007-02-26 | 2008-09-04 | Sony Corporation | Information extracting method, information extracting device, program, registering device and collating device |
WO2008105545A1 (en) * | 2007-02-26 | 2008-09-04 | Sony Corporation | Information extracting method, registering device, collating device and program |
JP2008210141A (en) * | 2007-02-26 | 2008-09-11 | Sony Corp | Information extraction method, information extraction device, program, registration device, and collation device |
JP2008210140A (en) * | 2007-02-26 | 2008-09-11 | Sony Corp | Information extraction method, registration device, collation device, and program |
US9031315B2 (en) | 2007-02-26 | 2015-05-12 | Sony Corporation | Information extraction method, information extraction device, program, registration device, and verification device |
JP2008309533A (en) * | 2007-06-13 | 2008-12-25 | Ihi Corp | Method and apparatus for measuring vehicle shape |
JP2010145231A (en) * | 2008-12-18 | 2010-07-01 | Sumitomo Heavy Ind Ltd | Apparatus and method for measuring displacement of object |
JP2016213535A (en) * | 2015-04-30 | 2016-12-15 | 株式会社東芝 | Camera calibration device, method and program |
JP7491830B2 (en) | 2020-12-22 | 2024-05-28 | Kddi株式会社 | Apparatus, method and program for extracting silhouette of subject |
JP7509509B2 (en) | 2021-01-22 | 2024-07-02 | Kddi株式会社 | Apparatus, method and program for extracting silhouette of subject |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP3907702B1 (en) | Three-dimensional sensor system and three-dimensional data acquisition method | |
JP5480914B2 (en) | Point cloud data processing device, point cloud data processing method, and point cloud data processing program | |
US7271377B2 (en) | Calibration ring for developing and aligning view dependent image maps with 3-D surface data | |
EP2870428B1 (en) | System and method for 3d measurement of the surface geometry of an object | |
US7065243B2 (en) | Method and system for creating dental models from imagery | |
US7098435B2 (en) | Method and apparatus for scanning three-dimensional objects | |
US6781618B2 (en) | Hand-held 3D vision system | |
JP4226550B2 (en) | Three-dimensional measurement data automatic alignment apparatus and method using optical markers | |
WO2012053521A1 (en) | Optical information processing device, optical information processing method, optical information processing system, and optical information processing program | |
EP3382645B1 (en) | Method for generation of a 3d model based on structure from motion and photometric stereo of 2d sparse images | |
CN110827392B (en) | Monocular image three-dimensional reconstruction method, system and device | |
JP2004127239A (en) | Method and system for calibrating multiple cameras using calibration object | |
US6178392B1 (en) | Method for combining the computer models of two surfaces in 3-D space | |
JP7353757B2 (en) | Methods for measuring artifacts | |
US20190353477A1 (en) | Three-dimensional sensor system and three-dimensional data acquisition method | |
WO2018056802A1 (en) | A method for estimating three-dimensional depth value from two-dimensional images | |
TWI388797B (en) | Three - dimensional model reconstruction method and its system | |
JP2003067726A (en) | Solid model generation system and method | |
JP3696336B2 (en) | How to calibrate the camera | |
Ibrahim et al. | Projector-camera calibration on dynamic, deformable surfaces | |
JP3696335B2 (en) | Method for associating each measurement point of multiple images | |
JP3352535B2 (en) | 3D object data acquisition device | |
JP2003070021A (en) | Portable three-dimensional data input apparatus and stereoscopic model generating apparatus | |
JP4218283B2 (en) | Target projection type three-dimensional shape measuring method and apparatus | |
JPH10318732A (en) | Shape measuring device and image formation apparatus of shape measurement |