JP2003070021A - Portable three-dimensional data input apparatus and stereoscopic model generating apparatus - Google Patents
Portable three-dimensional data input apparatus and stereoscopic model generating apparatusInfo
- Publication number
- JP2003070021A JP2003070021A JP2001255675A JP2001255675A JP2003070021A JP 2003070021 A JP2003070021 A JP 2003070021A JP 2001255675 A JP2001255675 A JP 2001255675A JP 2001255675 A JP2001255675 A JP 2001255675A JP 2003070021 A JP2003070021 A JP 2003070021A
- Authority
- JP
- Japan
- Prior art keywords
- image
- data
- dimensional
- positional relationship
- silhouette
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Image Input (AREA)
- Processing Or Creating Images (AREA)
- Image Processing (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
- Editing Of Facsimile Originals (AREA)
- Studio Devices (AREA)
- Image Analysis (AREA)
Abstract
Description
【0001】[0001]
【従来の技術】従来から三次元データ入力装置(三次元
スキャナ)として、
1:レーザ光を利用するもの(光切断法)、
2:スリット光などパタン光を利用するもの(コード化
光法)、
3:カメラ撮影画像を利用するもの(ステレオ法、シル
エット法)
等を用いた装置が存在している。2. Description of the Related Art Conventionally, as a three-dimensional data input device (three-dimensional scanner), one that uses laser light (light cutting method), two that uses pattern light such as slit light (coded light method) , 3: There are devices that use a camera-captured image (stereo method, silhouette method) and the like.
【0002】しかしながら、これらは一般的に大掛かり
な装置となり、入力装置の設置場所に対象物を持ち込
み、入力処理を行うことが通常であった。いま、複数の
顧客に対し、1台の三次元データ入力装置を用いて、三
次元データ入力サービスを行う場合を考える。入力依頼
を行う顧客にとって、入力依頼するごとに対象物を三次
元データ入力サービス業者に持ち込むことは時間的かつ
金銭的に大きな損失となる。However, these are generally large-scale devices, and it has been customary to bring an object to the installation location of the input device and perform the input processing. Now, consider a case where a single three-dimensional data input device is used for a plurality of customers to provide a three-dimensional data input service. For the customer who makes the input request, bringing the object into the three-dimensional data input service company every time the input request is made causes a great loss in time and money.
【0003】また、貴重な対象物の場合、対象物を三次
元データ入力サービス業者の場所に移動させることさえ
も問題となる。Further, in the case of a valuable object, even moving the object to the location of the three-dimensional data input service provider becomes a problem.
【0004】したがって、三次元データ入力サービス業
者自身が、三次元データ入力装置を顧客側に持ち込み、
三次元データ入力を行うことが望まれる。このために
は、三次元データ入力装置は大掛かりなものであっては
ならず、ポータビリティを高める必要がある。Therefore, the 3D data input service provider himself brings in the 3D data input device to the customer side,
It is desired to input three-dimensional data. For this purpose, the three-dimensional data input device should not be a large-scale one, and it is necessary to improve portability.
【0005】以上の目的からポータビリティを高めた三
次元データ入力装置として、可搬式のレーザスキャナ
(Minolta Vivid700)や、シルエット法による入力装置
(三洋電機のRealModelist, Dimension3D社の3Dscanboo
k)などがある。For the above-mentioned purposes, a portable laser scanner (Minolta Vivid700) and a silhouette method input device (Sanyo Electric's RealModelist, 3Dscanboo 3Dscanboo) are used as a three-dimensional data input device with enhanced portability.
k) etc.
【0006】[0006]
【発明が解決しようとする課題】いずれの方式において
も、対象物の全周囲データを入力しようとした場合、対
象物をコンピュータ制御の回転テーブル上に置き、これ
をある角度ステップ毎に回しながら入力作業を行うこと
になる。In any of the methods, when it is attempted to input all-surroundings data of an object, the object is placed on a computer-controlled rotary table, and this is input while rotating it at every certain angular step. Will do the work.
【0007】前者の場合、各回転ステップ毎に得た部分
的三次元データを統合する処理が必要となり、これは実
際にはホストコンピュータ(パソコンまたはワークステ
ーション)での編集ツールを用いた人手作業となる。し
たがって、編集作業という多大な時間とスキルの必要な
作業が必要となるという問題があった。In the former case, it is necessary to integrate the partial three-dimensional data obtained at each rotation step, which is actually a manual work using an editing tool in a host computer (personal computer or workstation). Become. Therefore, there is a problem that a great deal of time and skill required for editing work is required.
【0008】一方、後者の場合、入力部(例えばデジタ
ルカメラ)と回転台の位置関係を求めるキャリブレーシ
ョン処理が必要になる。具体的には、既知パタンが印刷
されたパネルを回転台の上に置き、これを回転させなが
ら複数枚の画像を撮影し、ホストコンピュータで自動計
算させることでキャリブレーション処理を行う。しか
し、対象物入力以外にキャリブレーション処理が必要で
あるため、入力時間、処理時間の増大を招くという問題
があった。この場合、回転台自体に既知パタンを印刷し
ておき、対象物体と回転台を一緒に撮影することで、見
かけ上キャリブレーション処理を無くす方法もある。こ
の方法では、入力時間の増大はないものの、処理時間の
増大を招く上、物体自体に割り当てる画像の画素数が相
対的に減少(回転台も撮影しなければならないため)す
ることから、最終的な三次元データの品質が低下する傾
向にあるという問題があった。On the other hand, in the latter case, a calibration process for obtaining the positional relationship between the input section (for example, a digital camera) and the turntable is required. Specifically, a panel on which a known pattern is printed is placed on a turntable, a plurality of images are taken while rotating the turntable, and the calibration process is performed by automatic calculation by a host computer. However, since the calibration process is required in addition to the object input, there is a problem that the input time and the processing time increase. In this case, there is also a method in which a known pattern is printed on the turntable itself and the target object and the turntable are photographed together so that the calibration process is apparently eliminated. Although this method does not increase the input time, it causes an increase in processing time, and the number of pixels of the image allocated to the object itself is relatively decreased (because the rotating table must be also photographed). There is a problem that the quality of such three-dimensional data tends to deteriorate.
【0009】本発明は、上記従来技術の有する課題に鑑
みなされたものであり、可搬性(ポータビリティ)の高
い三次元データ入力装置を実現し、かつ、全周囲データ
入力時において、カメラと回転台の位置関係を求めるキ
ャリブレーション処理を不要あるいは軽減することを目
的とする。The present invention has been made in view of the above problems of the prior art, and realizes a three-dimensional data input device having high portability, and at the time of inputting all-around data, a camera and a turntable. The purpose of this is to eliminate or reduce the calibration process for obtaining the positional relationship of.
【0010】[0010]
【課題を解決するための手段】上記目的を達成するため
に、本発明は、対象物の三次元データを入力するポータ
ブルな装置であって、前記対象物を回転駆動する回転手
段と、回転する前記対象物を撮影する撮影手段とが所定
の位置関係で同一基台上に設けられることを特徴とす
る。In order to achieve the above object, the present invention is a portable device for inputting three-dimensional data of an object, which includes rotating means for rotating and driving the object. It is characterized in that the photographing means for photographing the object is provided on the same base in a predetermined positional relationship.
【0011】本入力装置において、前記基台上には、さ
らに、前記撮影手段と前記回転手段とを結ぶ直線上であ
って、前記撮影手段から見て前記対象物の背後に背景板
が設けられることが好適である。In the present input device, on the base, a background plate is further provided on the straight line connecting the photographing means and the rotating means and behind the object as seen from the photographing means. Is preferred.
【0012】また、本入力装置において、前記撮影手段
は、前記基台に回動自在に設けられた支柱に固定され、
使用時には前記支柱を前記基台の面に対して略鉛直に回
動でき、非使用時には前記支柱を前記基台の面に対して
略平行に回動できることが好適である。Further, in the present input device, the photographing means is fixed to a support rotatably provided on the base,
It is preferable that the pillar can be rotated substantially vertically with respect to the surface of the base when in use, and the pillar can be rotated substantially parallel to the surface of the base when not in use.
【0013】背景板を用いる場合、前記背景板は、前記
基台に回動自在に設けられ、使用時には前記背景板を前
記基台に対して略鉛直に回動でき、非使用時には前記背
景板を前記基台の面に対して略平行に回動できることが
好適である。When a background plate is used, the background plate is rotatably provided on the base, the background plate can be rotated substantially vertically with respect to the base when in use, and the background plate when not in use. It is preferable that the can be rotated substantially parallel to the surface of the base.
【0014】本入力装置において、さらに、前記撮影手
段の撮影範囲内であって、前記回転手段に対して固定さ
れた参照マーカ部とを有することが好適である。In the present input device, it is preferable that the input device further includes a reference marker portion that is within the photographing range of the photographing means and is fixed with respect to the rotating means.
【0015】また、本発明は、上記の三次元データ入力
装置を備える立体モデル生成装置を提供する。この装置
は、前記三次元データ入力装置の撮影手段で取得された
画像を処理して三次元データを生成する処理手段とを有
し、前記処理手段は、予め記憶された前記撮影手段と前
記回転手段の位置関係データに基づき前記三次元データ
を生成することを特徴とする。The present invention also provides a three-dimensional model generation device including the above three-dimensional data input device. The apparatus includes a processing unit that processes an image acquired by the image capturing unit of the three-dimensional data input device to generate three-dimensional data, and the processing unit includes the image capturing unit and the rotation unit that are stored in advance. It is characterized in that the three-dimensional data is generated based on the positional relationship data of the means.
【0016】入力装置が参照マーカ部を備える場合、前
記処理手段は、前記画像から前記参照マーカ部像を検出
する手段と、前記参照マーカ部像の位置と、前記位置関
係データに応じた理論的なマーカの基準位置との差に基
づいて前記画像を平行移動処理する手段とを有すること
が好適である。When the input device includes a reference marker portion, the processing means detects the reference marker portion image from the image, the position of the reference marker portion image, and a theoretical value corresponding to the positional relationship data. It is preferable to have means for performing parallel movement processing of the image based on the difference between the reference position of the marker and the reference position.
【0017】また、前記処理手段は、前記画像から前記
参照マーカ部像を検出する手段と、前記参照マーカ部像
の位置と、前記位置関係データに応じた理論的なマーカ
の基準位置との差に基づいて前記画像を拡大あるいは縮
小処理する手段とを有することが好適である。The processing means detects the reference marker portion image from the image, a position of the reference marker portion image, and a difference between a theoretical marker reference position according to the positional relationship data. It is preferable to have means for enlarging or reducing the image based on the above.
【0018】また、前記処理手段は、前記画像から前記
参照マーカ部像を検出する手段と、前記参照マーカ部像
の位置と、前記位置関係データに応じた理論的なマーカ
の基準位置との差に基づいて前記位置関係データを補正
する手段とを有することが好適である。Further, the processing means detects a difference between the reference marker portion image from the image, the position of the reference marker portion image, and a theoretical reference position of the marker according to the positional relationship data. And a means for correcting the positional relationship data based on the above.
【0019】一方、入力装置が参照マーカ部を備えてい
ない場合、前記処理手段は、前記画像から前記対象物の
シルエット情報を抽出する手段と、撮影角度の異なる複
数の画像から抽出された複数の前記シルエット情報の位
置に基づいて前記画像を平行移動処理する手段とを有す
ることが好適である。On the other hand, when the input device does not include the reference marker section, the processing means extracts the silhouette information of the object from the image and a plurality of images extracted from a plurality of images having different photographing angles. It is preferable to have means for performing parallel movement processing of the image based on the position of the silhouette information.
【0020】また、前記処理手段は、前記画像から前記
対象物のシルエット情報を抽出する手段と、撮影角度の
異なる複数の画像から抽出された複数の前記シルエット
情報の位置に基づいて前記位置関係データを補正する手
段とを有することが好適である。Further, the processing means extracts the silhouette information of the object from the image, and the positional relationship data based on the positions of the plurality of silhouette information extracted from a plurality of images with different photographing angles. It is preferable to have a means for correcting
【0021】また、前記処理手段は、前記画像から前記
対象物の第1シルエット情報を抽出する手段と、撮影角
度の異なる複数の画像から抽出された複数の前記第1シ
ルエット情報に基づいて前記対象物の三次元形状データ
を生成する手段と、前記三次元形状データに基づいて第
2シルエット情報を抽出する手段と、前記第1シルエッ
ト情報と第2シルエット情報の相違に基づいて前記画像
を平行移動処理する手段とを有することが好適である。Further, the processing means extracts the first silhouette information of the object from the image, and the object based on the plurality of first silhouette information extracted from a plurality of images having different photographing angles. Means for generating three-dimensional shape data of an object, means for extracting second silhouette information based on the three-dimensional shape data, and parallel movement of the image based on a difference between the first silhouette information and the second silhouette information And means for processing.
【0022】また、前記処理手段は、前記画像から前記
対象物の第1シルエット情報を抽出する手段と、撮影角
度の異なる複数の画像から抽出された複数の前記第1シ
ルエット情報に基づいて前記対象物の三次元形状データ
を生成する手段と、前記三次元形状データに基づいて第
2シルエット情報を抽出する手段と、前記第1シルエッ
ト情報と第2シルエット情報の相違に基づいて前記位置
関係データを補正する手段とを有することが好適であ
る。Further, the processing means extracts the first silhouette information of the object from the image, and the object based on the plurality of first silhouette information extracted from a plurality of images having different photographing angles. Means for generating three-dimensional shape data of the object, means for extracting second silhouette information based on the three-dimensional shape data, and the positional relationship data based on the difference between the first silhouette information and the second silhouette information. It is preferable to have a correction means.
【0023】[0023]
【発明の実施の形態】以下、図面に基づき本発明の実施
形態について説明する。BEST MODE FOR CARRYING OUT THE INVENTION Embodiments of the present invention will be described below with reference to the drawings.
【0024】<第1実施形態>図1には、本実施形態に
係る装置の全体構成図が示されている。本装置は、回転
台、背景板、参照マーカ及びデジタルカメラなどの画像
撮影部からなる入力部10、制御部12及びデータ処理
装置14から構成される。入力部10は、筐体にセット
されることで一体化されている。これについては後述す
る。<First Embodiment> FIG. 1 shows an overall configuration diagram of an apparatus according to the present embodiment. This apparatus is composed of a rotating table, a background plate, a reference marker, an input unit 10 including an image capturing unit such as a digital camera, a control unit 12, and a data processing device 14. The input unit 10 is integrated by being set in the housing. This will be described later.
【0025】制御部12は、回転台の回転制御およびデ
ジタルカメラなどの画像撮影部の入力制御を行う。The control unit 12 controls the rotation of the turntable and the input control of an image pickup unit such as a digital camera.
【0026】データ処理部14は、入力されたデータ
(例えば画像)に対し、処理を施し、対象物の三次元デ
ータ(形状および色彩情報)を計算する。なお、ここで
三次元データの計算方法として、良く知られたシルエッ
ト法およびその拡張法(例えば文献“A Portable 3D Di
gitizer” International Conference on Recent Advan
ces in 3-D Digital Imaging and Modeling, pp.197-20
4 (1997) )を用いることを前提とする。The data processing unit 14 processes the input data (for example, an image) and calculates three-dimensional data (shape and color information) of the object. In addition, here, as a calculation method of three-dimensional data, the well-known silhouette method and its extension method (for example, the document “A Portable 3D Di
gitizer ”International Conference on Recent Advan
ces in 3-D Digital Imaging and Modeling, pp.197-20
4 (1997)).
【0027】図1(B)には、データ処理装置14の構
成ブロック図が示されている。データ処理装置14は、
インターフェースI/F、CPU、ROM、画像メモリ
及び位置関係データメモリを有して構成される。FIG. 1B shows a block diagram of the configuration of the data processing device 14. The data processing device 14
It has an interface I / F, a CPU, a ROM, an image memory, and a positional relationship data memory.
【0028】入力部10で得られた対象物の画像デー
タ、すなわち後述する回転台の回転角度に応じて撮影角
度が異なる複数の画像データはインターフェースI/F
を介して画像メモリに記憶される。The image data of the object obtained by the input unit 10, that is, a plurality of image data having different photographing angles according to the rotation angle of the rotary table, which will be described later, is the interface I / F.
Is stored in the image memory via.
【0029】CPUは、画像メモリに記憶された画像を
読み出し、所定の三次元計算を実行する。三次元計算
は、位置関係データメモリに予め記憶されたカメラと対
象物、より具体的にはカメラと回転台との位置関係に応
じて行われる。予めカメラと回転台との位置関係を記憶
することで、キャリブレーション処理が不要となる。ま
た、CPUは、カメラと回転台との位置関係に誤差があ
る場合には、ROMに予め記憶されたプログラムに従っ
て誤差を解消するように画像メモリに記憶された画像を
補正し、あるいは位置関係データメモリに記憶された位
置関係データを補正する。The CPU reads out the image stored in the image memory and executes a predetermined three-dimensional calculation. The three-dimensional calculation is performed according to the positional relationship between the camera and the object, which is stored in advance in the positional relationship data memory, more specifically, the positional relationship between the camera and the turntable. By previously storing the positional relationship between the camera and the turntable, the calibration process becomes unnecessary. Further, when there is an error in the positional relationship between the camera and the turntable, the CPU corrects the image stored in the image memory so as to eliminate the error according to a program stored in advance in the ROM, or the positional relationship data. The positional relationship data stored in the memory is corrected.
【0030】なお、本実施形態では三次元計算はシルエ
ット法を用いるが、必ずしもシルエット法に限定する必
要はなく、ステレオ法など各種の三次元形状再構成アル
ゴリズムを適用しても良い。Although the silhouette method is used for the three-dimensional calculation in this embodiment, it is not necessarily limited to the silhouette method, and various three-dimensional shape reconstruction algorithms such as a stereo method may be applied.
【0031】制御部12及びデータ処理装置14は、具
体的にはコンピュータで構成することができる。The control unit 12 and the data processing device 14 can be specifically configured by a computer.
【0032】以下、入力部10について説明する。The input section 10 will be described below.
【0033】<折り畳みによるコンパクト性>入力部1
0は、上述したようにデジタルカメラ、回転台、背景
板、参照マーカが一体的に構成されているが、物体入力
時(使用時)には図2(A)に示される状態となる。筐
体(基台)10aは略長方形の形状であり、向かい合う
2つの短辺の一方にデジタルカメラ10bが立設され、
他方に背景板10dが立設される。デジタルカメラ10
bは支柱10cに固定される。支柱10cは図中矢印で
示されるように筐体10aに対して回動自在に軸支さ
れ、背景板10dも筐体10aに対して回動自在に設け
られる。<Compactness by folding> Input unit 1
The digital camera 0, the digital camera, the rotary base, the background plate, and the reference marker are integrally configured as described above, but the state is as shown in FIG. The housing (base) 10a has a substantially rectangular shape, and the digital camera 10b is erected on one of two facing short sides,
On the other hand, a background plate 10d is erected. Digital camera 10
b is fixed to the column 10c. The column 10c is rotatably supported on the housing 10a as shown by an arrow in the figure, and the background plate 10d is also rotatably provided on the housing 10a.
【0034】非使用時には、(B)に示されるように支
柱10c及び背景板10dはともに筐体10aの面内に
折り畳み可能であり、使用時には支柱10c及び背景板
10dをともに筐体10aから「起こす」ことでデジタ
ルカメラ10bと回転台10e及び背景板10dが所定
の位置関係となり、デジタルカメラ10bの撮影範囲内
に回転台10eに載置された対象物体100及び背景板
10dが存在することになる。When not in use, both the column 10c and the background plate 10d can be folded in the plane of the housing 10a as shown in FIG. 7B, and when in use, both the column 10c and the background plate 10d can be folded from the housing 10a. By "raising", the digital camera 10b and the turntable 10e and the background plate 10d have a predetermined positional relationship, and the target object 100 and the background plate 10d placed on the turntable 10e exist within the shooting range of the digital camera 10b. Become.
【0035】なお、背景板10dは、それ自体折り畳め
るようになっており、本装置の使用時には、図3に示さ
れるように折り畳み部を展開することで必要な面積まで
広げることができる。展開の態様は任意であり、図3に
はそのいくつかが例示されている。図3(A)は背景板
10dが部分10d1、10d2及び10d3から構成
され、折り畳んだ状態では部分10d2及び10d3が
部分10d1に折り重なっており、使用時には部分10
d2及び10d3を10d1から広げる態様である。図
3(B)も部分10d1、10d2、10d3が折り重
なったものであるが、部分10d1上に部分10d2が
折り重なり、さらに部分10d2上に部分10d3が折
り重なっている。展開する場合には、まず部分10d3
を展開し、さらに部分10d2を展開することで背景板
10dを所望の面積に設定できる。さらに、図3(C)
は背景板10dが部分10d1及び部分10d2からな
り、2つ折りの状態で折り畳まれ、これを展開すること
で所望の面積に設定する例である。The background plate 10d can be folded by itself, and when the apparatus is used, it can be expanded to a required area by unfolding the folding portion as shown in FIG. The manner of deployment is arbitrary, and some of them are illustrated in FIG. In FIG. 3 (A), the background plate 10d is composed of parts 10d1, 10d2 and 10d3. In the folded state, the parts 10d2 and 10d3 are folded over the part 10d1.
This is a mode in which d2 and 10d3 are expanded from 10d1. Also in FIG. 3B, the portions 10d1, 10d2, and 10d3 are folded, but the portion 10d2 is folded on the portion 10d1 and the portion 10d3 is further folded on the portion 10d2. When unfolding, first part 10d3
The background plate 10d can be set to a desired area by unfolding and the portion 10d2. Furthermore, FIG.
Is an example in which the background plate 10d is composed of a portion 10d1 and a portion 10d2, is folded in half, and is expanded to set a desired area.
【0036】このように背景板10dを折り畳み可能に
構成することで、デジタルカメラ10bの画角に対応し
た十分に広い背景領域をカバーすることができる。By making the background plate 10d foldable in this manner, it is possible to cover a sufficiently wide background area corresponding to the angle of view of the digital camera 10b.
【0037】そして、使用時には、デジタルカメラ10
bの支柱10cを筐体10aから起こして固定するの
で、筐体10aに固定された回転台10eに対してデジ
タルカメラ10bの位置が固定された状態となる。つま
り、デジタルカメラ10bと回転台10eの位置は、使
用時には常に一定となるため、データ処理部14にデジ
タルカメラ10bと回転台10eの位置関係を示すデー
タ(キャリブレーションデータ)を予め登録しておき、
このデータに基づいて実際の三次元形状計算処理を行え
ば良い。これは、デジタルカメラ10bの外部パラメー
タであり、回転行列と並進ベクトルで表現される。When in use, the digital camera 10
Since the brace 10c of b is raised from the housing 10a and fixed, the position of the digital camera 10b is fixed with respect to the rotary table 10e fixed to the housing 10a. That is, since the positions of the digital camera 10b and the rotary base 10e are always constant during use, data (calibration data) indicating the positional relationship between the digital camera 10b and the rotary base 10e is registered in the data processing unit 14 in advance. ,
The actual three-dimensional shape calculation process may be performed based on this data. This is an external parameter of the digital camera 10b and is represented by a rotation matrix and a translation vector.
【0038】すなわち、That is,
【数1】
である。但し、Pc(x、y、z)はデジタルカメラ1
0bの座標系であり、Pt(x、y、z)は回転テーブ
ル座標系である。また、T(x、y、z)が並進ベクト
ルである。[Equation 1] Is. However, Pc (x, y, z) is the digital camera 1
0b is the coordinate system, and Pt (x, y, z) is the rotary table coordinate system. Further, T (x, y, z) is a translation vector.
【0039】換言すれば、キャリブレーション処理(デ
ジタルカメラ10bと回転台10eの位置関係算出処
理)は装置製造後に1度だけ行うか、あるいは本来の設
計仕様に従うだけでよく、入力処理毎のキャリブレーシ
ョン処理は不要となる。In other words, the calibration process (the process of calculating the positional relationship between the digital camera 10b and the rotary base 10e) may be performed only once after the device is manufactured or according to the original design specifications, and the calibration for each input process may be performed. No processing is required.
【0040】以上の装置を用いた三次元データ入力処理
及び三次元データ計算処理は以下の通りである。The three-dimensional data input process and the three-dimensional data calculation process using the above apparatus are as follows.
【0041】(1)データ入力 (2)シルエット抽出 (3)ボクセル生成 (4)ポリゴン生成 (5)テクスチャ獲得 以下、これらについて順次説明する。(1) Data input (2) Silhouette extraction (3) Voxel generation (4) Polygon generation (5) Texture acquisition These will be sequentially described below.
【0042】<データ入力>データ入力のためには、ま
ず、折り畳まれた状態にある入力部10を入力現場に持
ち込み、各折り畳み部を展開し、各可動部を固定するこ
とによって、入力可能状態にする。具体的には、筐体1
0aを所定位置に配置し、筐体10aから支柱10cを
立設させてデジタルカメラ10bを固定する。そして、
背景板10dを起こして展開する。その後、対象物体1
00を回転台10eに配置し、指定ステップ(たとえば
10度刻み)で回転台10eを回しつつ、対象物体10
0の全周囲画像をデジタルカメラ10bで撮影する。<Data input> For data input, first, the input unit 10 in a folded state is brought to the input site, each folding unit is unfolded, and each movable unit is fixed, whereby the data is ready for input. To Specifically, the housing 1
0a is arranged at a predetermined position, and the support column 10c is erected from the housing 10a to fix the digital camera 10b. And
The background plate 10d is raised and unfolded. After that, the target object 1
00 is placed on the turntable 10e, and the turntable 10e is rotated at a designated step (for example, every 10 degrees) while
An all-circumference image of 0 is taken by the digital camera 10b.
【0043】ここで、対象物の色彩に応じ、適宜背景板
10dの種類を選択するのが好ましい。例えば、青色が
含まれていない対象物体100の場合、背景板10dは
例えば青色の背景板10dを用いることができる。Here, it is preferable to appropriately select the type of the background plate 10d according to the color of the object. For example, in the case of the target object 100 that does not include blue, the blue background plate 10d can be used as the background plate 10d.
【0044】続いて、三次元データ計算処理に移る。Then, the three-dimensional data calculation process is performed.
【0045】<シルエット抽出>シルエット抽出処理
は、例えば良く知られたクロマキー法を用いることがで
きる。これは、放送局などで良く用いられている技術
で、複数の映像を合成して新しい映像を作り出すための
手法である。<Silhouette Extraction> For the silhouette extraction processing, for example, the well-known chroma key method can be used. This is a technique often used in broadcasting stations and the like, and is a method for synthesizing a plurality of videos to create a new video.
【0046】デジタルカメラ10bで得られた画像は、
背景板10dと対象物体100の画像となる。青色が含
まれていない対象物体100の場合、背景板10dは例
えば青色の背景板10dを用いることができるが、この
場合、画像から青色部分を除去すれば、対象物体100
の部分のみを切り出すことができる。The image obtained by the digital camera 10b is
An image of the background plate 10d and the target object 100 is formed. In the case of the target object 100 that does not include blue, the background plate 10d can be, for example, a blue background plate 10d. In this case, if the blue portion is removed from the image, the target object 100d can be used.
Only the part of can be cut out.
【0047】図4には、シルエット抽出処理が模式的に
示されている。回転台10eの上の対象物体100を撮
影して得られた画像A1には、(A)に示されるように
対象物体100と青色背景が存在する。この青色背景の
みを除去することで、(B)に示されるように対象物体
100の像のみを取り出すことができる(図において、
青色は黒、青色以外は白で表現されている)。FIG. 4 schematically shows the silhouette extraction processing. In the image A1 obtained by photographing the target object 100 on the turntable 10e, the target object 100 and the blue background are present as shown in (A). By removing only this blue background, it is possible to extract only the image of the target object 100 as shown in FIG.
Blue is black, other than blue is represented by white).
【0048】もちろん、クロマキー処理を用いてシルエ
ット抽出するのではなく、例えば特願平9−23261
7号に開示されているように、背景画像と物体画像との
差分処理によりシルエットを抽出しても良い。Of course, instead of extracting the silhouette using chroma key processing, for example, Japanese Patent Application No. 9-23261
As disclosed in No. 7, the silhouette may be extracted by the difference processing between the background image and the object image.
【0049】<ボクセル生成>デジタルカメラ10bの
視野が予め限定されているため、測定者が存在可能領域
を予め設定することが可能である。この存在可能領域を
ボクセル(voxel)空間で表現する。ここで、ボクセル
空間とは、二次元画像が面素(ピクセル)の集合で表現
されるように、三次元空間を細かい立体素(ボクセル)
の集合体として表現したものである。最も素朴には、以
下のようにして三次元形状を再構成することが出来る。
すなわち、ボクセル空間を構成する各ボクセルを一つの
シルエット画像に投影する。このとき、物体シルエット
外に投影されれば、そのボクセルは明らかに対象物体で
はないと判断できる。<Voxel Generation> Since the field of view of the digital camera 10b is limited in advance, it is possible for the measurer to preset the possible area. This possible area is expressed in a voxel space. Here, the voxel space means that a three-dimensional space is divided into fine three-dimensional elements (voxels) so that a two-dimensional image is represented by a set of surface elements (pixels).
It is expressed as a collection of. Most simply, the three-dimensional shape can be reconstructed as follows.
That is, each voxel forming the voxel space is projected onto one silhouette image. At this time, if the voxel is projected outside the object silhouette, it can be determined that the voxel is clearly not the target object.
【0050】このような処理を全てのシルエットに対し
ておこない、全てのシルエット画像に対して、物体シル
エット内部に投影されたボクセルのみを抽出し、これを
対象物体100と判定する。By performing such processing on all silhouettes, only voxels projected inside the object silhouette are extracted from all silhouette images, and this is determined as the target object 100.
【0051】この処理は、直観的には、物体存在領域に
対応した石膏ブロック200を仮定し、シルエット領域
以外に対応する部分をどんどん切削してゆく方法と考え
ることができる。そして最終的に残った石膏部分が対象
物の三次元形状とみなされる。Intuitively, this process can be considered as a method of assuming the plaster block 200 corresponding to the object existing region and gradually cutting the portion other than the silhouette region. Then, the finally remaining plaster part is regarded as the three-dimensional shape of the object.
【0052】なお、シルエット画像にエラーが存在する
場合、上記の処理では最終結果に大きな形状誤差が発生
する。このような場合には、以下に述べる投票方式(ボ
ーティング方式)が有効である。If there is an error in the silhouette image, a large shape error will occur in the final result in the above process. In such a case, the voting method (voting method) described below is effective.
【0053】すなわち、シルエット領域外の部分を即座
に削除するのではなく、まずは、シルエット領域に対応
する空間に得点を加算してゆく。そして、最終的に得点
がある閾値以上の部分を物体部分とみなす。That is, instead of immediately deleting the portion outside the silhouette area, the points are first added to the space corresponding to the silhouette area. Then, the part where the score finally exceeds a certain threshold value is regarded as the object part.
【0054】ボーティング処理の流れは以下の通りであ
る。なお、ここでは、前述のように、物体存在領域をボ
クセル空間として表現することを前提としている。The flow of the voting process is as follows. Note that here, as described above, it is premised that the object existing region is expressed as a voxel space.
【0055】(1)初期化:各ボクセルの得点をゼロに
設定する。(1) Initialization: The score of each voxel is set to zero.
【0056】(2)各ボクセルについて、全シルエット
画像への投影点を求め、シルエット領域に含まれている
投影点の数を得点とする。(2) For each voxel, the projection points on the entire silhouette image are obtained, and the number of projection points included in the silhouette area is used as the point.
【0057】(3)得点が一定値以上のボクセルを物体
領域と見なす。(3) Voxels whose scores are equal to or higher than a certain value are regarded as an object region.
【0058】図6には、ボーティング方式が模式的に示
されている。ここで、濃い部分ほど多くの得点を得たボ
クセルであることを示している。また、図6(A)、
(B)、(C)は3方向におけるシルエット領域に含ま
れている投影点に1を加算したものである。(D)はこ
れらの投影点を加算したものであり、各ボクセルの投影
点の合計が数字で示されている。投票結果は、例えば1
0〜16の数字で示される。対象物体100が真に存在
するボクセルの得点数は大きくなるので、得点が一定値
以上、例えば16以上のボクセルを抽出することで、
(E)に示されるようにボクセルを抽出できる。FIG. 6 schematically shows the voting method. Here, it is shown that the darker the part is, the more voxels the score is. In addition, FIG.
(B) and (C) are obtained by adding 1 to the projection points included in the silhouette area in the three directions. (D) is the addition of these projection points, and the total of the projection points of each voxel is shown by a number. The voting result is, for example, 1
It is indicated by a number from 0 to 16. Since the number of voxels in which the target object 100 truly exists is large, by extracting voxels having a certain value or more, for example, 16 or more,
Voxels can be extracted as shown in (E).
【0059】なお、この処理において重要な点は、ボク
セル空間に対し、デジタルカメラ10bの視点が何処に
存在するかという情報である。この情報が誤っていれ
ば、三次元形状の計算結果は実際とは大幅に異なるもの
になってしまう。ボクセル空間は回転台10eの座標に
したがって定義すれば、デジタルカメラ10bの視点の
位置情報は回転台10eとデジタルカメラ10bの位置
関係に他ならない。ところで、回転台10eとデジタル
カメラ10bの位置関係は上述したように固定関係にあ
る。したがって、このデータは、予めデータ処理部14
に登録されているキャリブレーションデータを用いれば
良い。An important point in this processing is information about where the viewpoint of the digital camera 10b exists with respect to the voxel space. If this information is incorrect, the calculation result of the three-dimensional shape will be significantly different from the actual result. If the voxel space is defined according to the coordinates of the rotary base 10e, the position information of the viewpoint of the digital camera 10b is nothing but the positional relationship between the rotary base 10e and the digital camera 10b. By the way, the positional relationship between the rotary base 10e and the digital camera 10b is fixed as described above. Therefore, this data is previously stored in the data processing unit 14.
The calibration data registered in can be used.
【0060】<ポリゴン生成>対象物体100の三次元
形状データは一旦ボクセルデータの集合として求められ
るが、一般の形状測定ツールでは、対象物がポリゴンデ
ータで表現されていることを前提にしているものもあ
る。この場合、図7に示されるように、ボクセルデータ
300をポリゴンデータ400に変換する必要がある。
また、計測形状を三次元的に表示ソフト(ビューワ)で
見せる必要がある場合も存在する。この場合にも、ボク
セルデータをポリゴンデータに変換することは有効であ
る。<Polygon Generation> The three-dimensional shape data of the target object 100 is once obtained as a set of voxel data, but in a general shape measurement tool, it is assumed that the target object is represented by polygon data. There is also. In this case, as shown in FIG. 7, it is necessary to convert the voxel data 300 into polygon data 400.
There are also cases where it is necessary to show the measurement shape three-dimensionally with display software (viewer). Also in this case, it is effective to convert the voxel data into polygon data.
【0061】ここでは、表現に必要なポリゴン数を少な
く抑え、かつ、表現形状の精度を維持することが要求さ
れる。たとえば、以下に示すステップを踏むことで、好
適なポリゴン表現が可能になる。Here, it is required to reduce the number of polygons required for expression and to maintain the accuracy of the expression shape. For example, a suitable polygon expression is possible by taking the steps shown below.
【0062】(1)頂点設定
物体表面に対応するボクセルの隣接頂点を接続し、初期
ポリゴンを生成する。(1) Vertex setting Adjacent vertices of voxels corresponding to the object surface are connected to generate an initial polygon.
【0063】(2)ポリゴンリダクション
マージ前後の形状変化を評価し、変化が小さい隣接ポリ
ゴンを順にマージすることで、ポリゴン数を目標値まで
削減する。(2) Polygon reduction The shape change before and after merging is evaluated, and adjacent polygons with small changes are sequentially merged to reduce the number of polygons to a target value.
【0064】<テクスチャ生成>全周囲撮影画像に基づ
いて、全ポリゴンの色彩(テクスチャ)情報を獲得する
ステップである。具体的には各ポリゴンのテクスチャ情
報を与える入力画像(以下参照画像とよぶ)を決定した
後、ポリゴンを参照画像に投影し、その投影部分の色彩
をテクスチャ情報とする。ここで、ほとんどのポリゴン
について、その領域が可視となる入力画像が複数存在し
ていることに注意が必要である。そこで、各ポリゴンに
ついて適切な参照画像を決定する必要がある。適切な参
照画像決定において考慮するべき点は、
(1)テクスチャ情報量の多い参照画像を選択する
(2)ポリゴン境界線上での画像の連続性を良くする
である。<Texture Generation> In this step, color (texture) information of all polygons is acquired based on the omnidirectional photographed image. Specifically, after determining an input image (hereinafter referred to as a reference image) to which texture information of each polygon is given, the polygon is projected on the reference image, and the color of the projected portion is used as the texture information. It should be noted here that, for most polygons, there are multiple input images whose regions are visible. Therefore, it is necessary to determine an appropriate reference image for each polygon. Points to be considered in determining an appropriate reference image are (1) selecting a reference image with a large amount of texture information (2) improving the continuity of the image on the polygon boundary line.
【0065】ここで、(1)の観点からは参照画像への
ポリゴン投影面積が大きい方が望ましい。一方、(2)
の観点からは隣接ポリゴンの参照画像は同じであること
が望ましく、異なる場合でも撮影角度差は小さい方が望
ましい。これらの要求点はしばしばトレードオフの関係
にあるため、各考慮点の評価関数を決定し、これらの和
関数が最大となるように参照画像を決定する。なお、こ
のような方法については、特願平9−234829号に
開示されている。From the viewpoint of (1), it is desirable that the polygon projection area on the reference image is large. On the other hand, (2)
From the viewpoint of, it is desirable that the reference images of adjacent polygons are the same, and even if they are different, it is desirable that the shooting angle difference is small. Since these required points are often in a trade-off relationship, the evaluation function of each consideration point is determined, and the reference image is determined so that the sum function thereof becomes maximum. Incidentally, such a method is disclosed in Japanese Patent Application No. 9-234829.
【0066】以上の処理を経て、対象物体の三次元デー
タを獲得することができる。Through the above processing, three-dimensional data of the target object can be acquired.
【0067】<第2実施形態>第1実施形態では、デジ
タルカメラ10bと回転台10eの位置が既知であるこ
とを前提とした場合の処理を示した。しかしながら、実
際の装置においては、デジタルカメラ10b固定部(デ
ジタルカメラ10bと支柱10cとの接合部)の遊び、
および支柱10cと筐体10aとの接合部の遊び等によ
り、前記の登録キャリブレーションデータがそのまま使
用できない場合がある。つまり、実際の入力作業では、
登録キャリブレーションデータに対応するデジタルカメ
ラ10bと回転台10eの位置関係は異なる位置関係と
なっていることがある。この状態で三次元形状計算を行
うと、生成される三次元データに大きな誤差が含まれる
ことになる。<Second Embodiment> In the first embodiment, the processing is performed on the assumption that the positions of the digital camera 10b and the rotary base 10e are known. However, in an actual device, play of the fixed portion of the digital camera 10b (joint portion between the digital camera 10b and the support column 10c),
Also, there are cases where the registered calibration data cannot be used as it is because of play in the joint between the support column 10c and the housing 10a. In other words, in the actual input work,
The positional relationship between the digital camera 10b and the rotary base 10e corresponding to the registered calibration data may be different. If the three-dimensional shape calculation is performed in this state, a large error will be included in the generated three-dimensional data.
【0068】しかしながら、異なる位置関係ではある
が、この差は極めて小さいという性質に基づき、図8あ
るいは図9に示されるように、回転台10eに対して位
置が固定された参照マーク16を導入するとともに、デ
ータ入力時に対象物体100と共にこの参照マーク16
を含めた画像を撮影することで補正処理が可能である。
この場合、登録キャリブレーションデータに対応した、
参照マーク16の位置(二次元)データについても予め
求めておき、データ処理部14に登録しておくものとす
る。さらに、参照マーク16の位置(二次元)を取り囲
むウィンドウを設定しておき、そのウィンドウ位置デー
タもデータ処理部14に登録しておく。However, based on the property that the positional relationship is different, but the difference is extremely small, as shown in FIG. 8 or 9, the reference mark 16 whose position is fixed to the rotary table 10e is introduced. At the same time, the reference mark 16 along with the target object 100 when data is input
The correction process can be performed by capturing an image including the.
In this case, corresponding to the registered calibration data,
The position (two-dimensional) data of the reference mark 16 is also obtained in advance and registered in the data processing unit 14. Further, a window surrounding the position (two-dimensional) of the reference mark 16 is set, and the window position data is also registered in the data processing unit 14.
【0069】この参照マーク16は1つでもよいが、複
数の方が望ましい。なお、図8では参照マーク16は背
景板10dと同様に筐体10aに可動自在に取り付けら
れており、非使用時には折り畳まれ、使用時には背景板
10dと同様に起こして使用するものである。また、図
9では参照マーク16が背景板10d自体に設けられる
ものである。The reference mark 16 may be one, but a plurality of reference marks 16 are preferable. In FIG. 8, the reference mark 16 is movably attached to the housing 10a similarly to the background plate 10d, is folded when not in use, and is raised and used like the background plate 10d when in use. Further, in FIG. 9, the reference mark 16 is provided on the background plate 10d itself.
【0070】参照マーク16は背景とは容易に区別が出
来る色とし、入力画像の端付近に配置されることが好適
である。入力画像の中心辺りには、通常物体100が存
在し、参照マーク16が隠れやすいため、中心辺りの配
置は避けるべきである。一方、周辺に存在している場
合、シルエット抽出にて物体以外のシルエット部分が現
れることになるが、一般に、上述のボクセル生成におい
て、シルエットノイズが存在していても、ノイズと物体
との距離が離れているほど悪影響が少ない。また、物体
に対応しないノイズは三次元空間(ボクセル空間)内で
のボクセル生成過程における投票処理において、低得点
箇所に相当することが一般的となる。このため、ボクセ
ル生成において悪影響を与えることはほとんどない。It is preferable that the reference mark 16 has a color which can be easily distinguished from the background and is arranged near the edge of the input image. Since the object 100 normally exists near the center of the input image and the reference mark 16 is easily hidden, the arrangement around the center should be avoided. On the other hand, when it exists in the periphery, silhouette parts other than the object will appear in the silhouette extraction, but in general, in the voxel generation described above, even if silhouette noise exists, the distance between the noise and the object is The farther away it is, the less harmful it is. In addition, noise that does not correspond to an object generally corresponds to a low score point in the voting process in the voxel generation process in the three-dimensional space (voxel space). Therefore, there is almost no adverse effect on voxel generation.
【0071】補正処理の概要を以下に示す。The outline of the correction process is shown below.
【0072】(1)物体画像入力
(2)図10に示されるように、各入力画像から、登録
されたウィンドウ500内に存在する参照マーク600
を抽出する。(1) Object image input (2) As shown in FIG. 10, the reference mark 600 existing in the registered window 500 from each input image.
To extract.
【0073】(3)予め登録された参照マーク位置(こ
れを基準参照マークとする)と、上記ステップ(2)で
求められた実際の参照マーク位置(これを実際参照マー
クとする)を比較し、位置の差を求める。(3) The reference mark position registered in advance (this is used as a standard reference mark) is compared with the actual reference mark position obtained in step (2) (this is used as the actual reference mark). , Find the difference in position.
【0074】(4)上記の(3)で求められた位置の差
に基づき、補正処理を行う。(4) Correction processing is performed based on the position difference obtained in (3) above.
【0075】最後のステップ(4)における補正処理に
も以下の2種類の方法が考えられる。The following two types of methods can be considered for the correction process in the final step (4).
【0076】(a)二次元的補正処理
(b)キャリブレーションデータ補正
二次元的補正処理は、キャリブレーションデータそのも
のは補正せず、見かけ上、登録されたキャリブレーショ
ンデータに適合するよう、入力画像を補正する処理であ
る。登録されたキャリブレーションデータに適合する画
像では、実際参照マークの位置と基準参照マークの位置
が適合する。したがって、図11に示されるように、上
記実際参照マーク600の位置と基準参照マーク550
の位置の差を算出し、この差分だけ入力された画像を平
行移動処理すれば良い。そして、平行移動処理された画
像を元に、三次元データ計算処理を行えばよい。なお、
実際参照マーク600の位置と基準参照マーク550の
位置の差は、必ずしもデジタルカメラ10bの位置の平
行移動誤差が反映されているわけではなく、実際には、
デジタルカメラ10bの回転移動誤差が反映されている
ことが多い。しかし、画像上ではその差はほとんど無視
できるレベルにあるため、どちらに起因する誤差も、平
行移動誤差として扱うことができる。(A) Two-dimensional correction processing (b) Calibration data correction The two-dimensional correction processing does not correct the calibration data itself, but apparently matches the registered calibration data with the input image. Is a process for correcting. In the image that matches the registered calibration data, the position of the actual reference mark and the position of the standard reference mark match. Therefore, as shown in FIG. 11, the position of the actual reference mark 600 and the reference reference mark 550 are shown.
It is only necessary to calculate the difference between the positions and to perform the parallel movement processing on the image input by this difference. Then, the three-dimensional data calculation process may be performed based on the image subjected to the parallel movement process. In addition,
The difference between the position of the actual reference mark 600 and the position of the standard reference mark 550 does not necessarily reflect the translation error of the position of the digital camera 10b.
In many cases, the rotational movement error of the digital camera 10b is reflected. However, since the difference is almost negligible on the image, an error caused by either of them can be treated as a translation error.
【0077】一方、キャリブレーションデータ補正は、
上記の実際参照マーク600の位置と基準参照マーク5
50の位置の差が、デジタルカメラ10bの回転移動誤
差に起因するとみなし、キャリブレーションデータその
ものを変更することである。On the other hand, the calibration data correction is
The position of the actual reference mark 600 and the reference reference mark 5 described above.
The difference in the position of 50 is considered to be caused by the rotational movement error of the digital camera 10b, and the calibration data itself is changed.
【0078】具体的には、図12に示されるように、デ
ジタルカメラ10bの焦点距離fを1.0に規格化した
ときのCCD上での実際参照マーク600の位置をX
s、基準参照マーク550の位置をXrとすると、Specifically, as shown in FIG. 12, the position of the actual reference mark 600 on the CCD when the focal length f of the digital camera 10b is normalized to 1.0 is X.
s, and the position of the standard reference mark 550 is Xr,
【数2】θ−θ’=arctan(Xr)−arcta
n(Xs)
が回転角度誤差の近似値となる。この角度分だけ、キャ
リブレーションデータを補正した後、三次元データ計算
処理を行えば良い。2−θ−θ ′ = arctan (Xr) −arcta
n (Xs) is an approximate value of the rotation angle error. After correcting the calibration data by this angle, the three-dimensional data calculation process may be performed.
【0079】さらに、参照マーク16を図8あるいは図
9に示されるように複数配置しておくと、デジタルカメ
ラ10bの前後移動に起因する誤差の補正も可能であ
る。デジタルカメラ10bの前後移動がなければ、複数
参照マーク間の距離は一定である。しかし、複数参照マ
ーク間の距離が大きくなった場合、これはデジタルカメ
ラ10bの位置が回転台10e側に近づいたためと判定
できる。この補正も、上記と同様、
(a)画像の縮小処理により、登録キャリブレーション
データに適合するよう入力画像を修正する
(b)デジタルカメラ10bの移動距離を求め、キャリ
ブレーションデータ自体を補正する
という二つの方法によって補正することができる。Further, by disposing a plurality of reference marks 16 as shown in FIG. 8 or FIG. 9, it is possible to correct the error caused by the forward and backward movement of the digital camera 10b. If the digital camera 10b is not moved back and forth, the distance between the plurality of reference marks is constant. However, when the distance between the plurality of reference marks becomes large, it can be determined that this is because the position of the digital camera 10b is close to the rotary base 10e side. Similarly to the above, this correction is also performed by (a) correcting the input image so as to match the registered calibration data by image reduction processing, and (b) obtaining the moving distance of the digital camera 10b and correcting the calibration data itself. It can be corrected by two methods.
【0080】図13には、(b)の方法が模式的に示さ
れている。デジタルカメラ10bの位置(焦点位置)が
PからP’に変化した場合の参照マーク16とデジタル
カメラ10bの距離をL’、参照マーク16間の画像上
の距離をW’、データ処理装置14に登録されている基
準距離をそれぞれL、Wとすると、FIG. 13 schematically shows the method (b). When the position (focus position) of the digital camera 10b changes from P to P ', the distance between the reference mark 16 and the digital camera 10b is L', the distance on the image between the reference marks 16 is W ', If the registered reference distances are L and W respectively,
【数3】L’=W・L/W’ で移動距離を算出することができる。## EQU3 ## L '= W.L / W' The moving distance can be calculated with.
【0081】なお、デジタルカメラ10bと回転台10
eの位置関係が微妙に変化するように、参照マーク16
と回転台10eの位置関係も変化する。しかしながら、
三次元計算に影響する誤差については、一般に平行移動
分は極めて小さく、実際はデジタルカメラ10bの回転
誤差が大きく起因している。したがって、参照マーク1
6の位置自体の微妙なずれはほとんど影響ないとみなす
ことができる。The digital camera 10b and the turntable 10
The reference mark 16 is used so that the positional relationship of e changes slightly.
The positional relationship between the rotary table 10e and the rotary table 10e also changes. However,
Regarding the error that affects the three-dimensional calculation, generally, the amount of parallel movement is extremely small, and in reality, the rotation error of the digital camera 10b is largely caused. Therefore, the reference mark 1
It can be considered that the slight deviation of the position of 6 itself has almost no effect.
【0082】上記の参照マーク16を用いた補正処理に
おける実際参照マークの位置検出は全入力画像に対して
行っても良いし、特定の画像に対して行っても良い。特
に、入力作業中はカメラの位置は変化しないという前提
を置くことができれば、特定の画像に対してのみ実際参
照マークの位置検出を行うことが、計算時間短縮の観点
から好適である。The position of the actual reference mark in the correction process using the reference mark 16 may be detected for all input images or for a specific image. In particular, if it is possible to assume that the position of the camera does not change during the input work, it is preferable to actually detect the position of the reference mark only for a specific image from the viewpoint of shortening the calculation time.
【0083】<第3実施形態>上述した実施形態では、
参照マーク16を用いることでキャリブレーションデー
タ補正を行う方法について説明した。しかし、参照マー
ク16を用いることなくキャリブレーションデータ補正
を行うこともできる。<Third Embodiment> In the above-described embodiment,
The method of correcting the calibration data by using the reference mark 16 has been described. However, the calibration data correction can be performed without using the reference mark 16.
【0084】対象物体100を回転台10e上に載置
し、一定ステップ毎に全周囲のデータを撮影する場合、
物体の特定の点は三次元的に円運動をする。したがっ
て、入力画像上では楕円軌道を描く。さらには、物体の
シルエットを抽出した後、その画像上の重心の動きも図
14(B)に示されるように同様に楕円軌道を描くと考
えて良い。すると、楕円の中心(これをCeとする)
は、回転台10eの回転軸をデジタルカメラ画像に投影
した直線上にのる。この楕円の中心は、例えば、対象物
体100のシルエットの重心すべての平均の位置として
求めることができる。When the target object 100 is placed on the rotary table 10e and the data of the entire circumference is photographed at regular steps,
A specific point on the object moves circularly in three dimensions. Therefore, an elliptical orbit is drawn on the input image. Furthermore, after extracting the silhouette of the object, it can be considered that the movement of the center of gravity on the image also draws an elliptical orbit as shown in FIG. Then, the center of the ellipse (this is called Ce)
Stands on the straight line obtained by projecting the rotation axis of the turntable 10e onto the digital camera image. The center of this ellipse can be obtained, for example, as the average position of all the centers of gravity of the silhouette of the target object 100.
【0085】したがって、シルエット抽出処理の後、上
記のようにCeを求め、登録キャリブレーションデータ
から求まる回転軸の投影直線(Lc)と比較する。Ce
がLc上に存在していればキャリブレーションデータ補
正は不要である。一方、図15に示されるように、Ce
がLc上からはずれていれば、その分だけ既に第2実施
形態で述べたような二次元的補正、あるいはキャリブレ
ーションデータ補正を行えば良い。Therefore, after the silhouette extraction processing, Ce is calculated as described above and compared with the projected straight line (Lc) of the rotation axis calculated from the registered calibration data. Ce
Is present on Lc, calibration data correction is unnecessary. On the other hand, as shown in FIG.
If is out of Lc, the two-dimensional correction or the calibration data correction as already described in the second embodiment may be performed correspondingly.
【0086】なお、この処理は、回転台10eの回転軸
に対し垂直方向(通常、画像では横方向)に関するデジ
タルカメラ10bの回転誤差の補正のみを行っているこ
とになる。デジタルカメラ10bの回転誤差は、回転軸
に沿った方向での誤差も存在しうる。しかし、三次元デ
ータ計算においては、回転軸に垂直な方向の誤差の悪影
響が大きいのに対し、回転軸に沿った方向の誤差の影響
が極めて少ない。したがって、実用上、回転軸に垂直な
方向の誤差の補正のみで十分である場合が多い。Note that this processing only corrects the rotation error of the digital camera 10b in the direction perpendicular to the rotation axis of the turntable 10e (usually in the horizontal direction in the image). The rotation error of the digital camera 10b may include an error in the direction along the rotation axis. However, in the three-dimensional data calculation, the influence of the error in the direction perpendicular to the rotation axis is large, while the influence of the error in the direction along the rotation axis is extremely small. Therefore, practically, it is often sufficient to correct the error in the direction perpendicular to the rotation axis.
【0087】<第4実施形態>第3実施形態では、シル
エット画像の情報を用いてキャリブレーションデータの
補正を行う方法について説明した。しかし、背景に不要
な物体が映っているなど、抽出シルエットにノイズが多
い場合、第3実施形態の方法は必ずしも機能しない場合
があり得る。この場合、ボクセル生成処理を利用したキ
ャリブレーション補正が可能である。<Fourth Embodiment> In the third embodiment, the method of correcting the calibration data by using the information of the silhouette image has been described. However, when the extracted silhouette is noisy, such as when an unnecessary object is reflected in the background, the method of the third embodiment may not always work. In this case, calibration correction using voxel generation processing is possible.
【0088】今、回転台10eの回転軸に垂直な方向に
関する誤差を含んだ登録キャリブレーションデータに基
づいて、ボクセル生成処理を行う場合を考える。この場
合、誤差の影響で、生成される三次元データは、実際の
物体より細い形状となる。Now, consider a case where the voxel generating process is performed based on the registered calibration data including an error in the direction perpendicular to the rotation axis of the rotary table 10e. In this case, due to the influence of the error, the generated three-dimensional data has a shape thinner than the actual object.
【0089】図16には、回転台10eの回転軸に垂直
な方向に関する誤差を含んでいない場合(A)と誤差を
含んでいる場合(B)の、180度対向した2つの視点
a、bから得られるシルエット画像が示されている。回
転軸に垂直な方向に誤差を含んでいる場合、視点bでは
誤差分だけ対象物100が移動し、シルエット画像もず
れることになる。したがって、視点a、bで得られたシ
ルエット画像から対象物体100のボクセルを抽出する
と、図17に示されるように回転軸の誤差分に比例して
真の形状700よりも実際に得られる形状800が小さ
くなってしまう。そこで、以下の処理を行うことで、誤
差を補正する。In FIG. 16, two viewpoints a and b opposite to each other by 180 degrees are shown when the error is not included in the direction perpendicular to the rotation axis of the rotary base 10e (A) and when the error is included (B). The silhouette image obtained from is shown. When the error is included in the direction perpendicular to the rotation axis, the object 100 moves by the amount of the error at the viewpoint b, and the silhouette image also shifts. Therefore, when the voxels of the target object 100 are extracted from the silhouette images obtained at the viewpoints a and b, the shape 800 actually obtained rather than the true shape 700 is proportional to the error of the rotation axis as shown in FIG. Becomes smaller. Therefore, the error is corrected by performing the following processing.
【0090】(1)登録キャリブレーションデータに基
づき、ボクセル生成を行う。(1) Voxel generation is performed based on the registered calibration data.
【0091】(2)生成されたボクセルデータをデジタ
ルカメラ画像に投影したシルエット画像(再シルエット
画像あるいは第2シルエット画像と呼ぶ)を生成する。(2) A silhouette image (referred to as a re-silhouette image or a second silhouette image) is generated by projecting the generated voxel data on a digital camera image.
【0092】(3)図18に示されるように、シルエッ
ト抽出処理で得たシルエット画像800と、(2)で得
た再シルエット画像(第2シルエット画像)900を比
較する。(3) As shown in FIG. 18, the silhouette image 800 obtained by the silhouette extraction processing is compared with the re-silhouette image (second silhouette image) 900 obtained in (2).
【0093】(4)上記のステップ(3)において、シ
ルエット画像800と再シルエット画像900の差(再
シルエット画像の方が大きくなることはなく、同じかあ
るいは小さくなる)を求める。(4) In step (3) above, the difference between the silhouette image 800 and the re-silhouette image 900 (the re-silhouette image does not become larger but is the same or smaller) is obtained.
【0094】ステップ(4)で得た差が、キャリブレー
ションデータの誤差に相当する。この誤差分だけ既に第
2実施形態で述べたように、二次元的補正、あるいはキ
ャリブレーションデータ補正を行えば良い。The difference obtained in step (4) corresponds to the error of the calibration data. As described in the second embodiment, the two-dimensional correction or the calibration data correction may be performed for this error.
【0095】なお、上記の補正処理に際し、入力画像を
全て使用する必要はなく、数枚(例えば6枚)に基づい
て処理することができる。In the correction processing described above, it is not necessary to use all input images, and processing can be performed based on several sheets (for example, 6 sheets).
【0096】以上、本発明の実施形態について説明した
が、本発明はこれに限定されるものではなく、その他の
変形も可能である。例えば、背景板10dは複数の色に
置き換えることができる。一般に、単純なシルエット法
では、背景色と同色部分を持つ物体の入力は困難であ
る。しかし、特願平11−322098号に示されるよ
うに、異なる色相を持つ複数の背景板を利用して入力す
ることにより、あらゆる色彩の物体入力が可能になる。
また、背景色として、さらに白色を付加することによ
り、
(1)形状データ作成のためのシルエット抽出は、色彩
のある(例えば青色)背景板を用いた画像に基づいて行
う
(2)テクスチャ獲得処理は、白色背景板を用いた画像
に基づいて行う
というような使い分けが可能となる。Although the embodiment of the present invention has been described above, the present invention is not limited to this, and other modifications are possible. For example, the background board 10d can be replaced with a plurality of colors. Generally, with the simple silhouette method, it is difficult to input an object having the same color as the background color. However, as shown in Japanese Patent Application No. 11-322098, by inputting using a plurality of background plates having different hues, it is possible to input an object of any color.
Further, by adding white as a background color, (1) silhouette extraction for creating shape data is performed based on an image using a colored (for example, blue) background plate (2) texture acquisition processing Can be selectively used based on an image using a white background plate.
【0097】色彩のある背景板を利用した画像入力にお
いては、物体の材質によっては、物体周辺部に背景色が
映り込む場合がある。このような画像を元にテクスチャ
獲得処理を行うと、最終的に得られた三次元データのテ
クスチャ情報の品質が不十分な場合が存在する。これに
対し、白色背景の画像を元にテクスチャ獲得を行えば、
上述のような物体周辺部に背景色が映り込む悪影響を最
小限に抑えることができる。When an image is input using a colored background plate, the background color may be reflected in the peripheral portion of the object depending on the material of the object. When texture acquisition processing is performed based on such an image, the quality of texture information of the finally obtained three-dimensional data may be insufficient. On the other hand, if texture acquisition is performed based on a white background image,
It is possible to minimize the adverse effect that the background color is reflected in the peripheral portion of the object as described above.
【0098】また、図2に示された入力部10に、さら
に照明装置を付加してもよい。A lighting device may be added to the input section 10 shown in FIG.
【0099】また、図2に示されたデジタルカメラ10
bを支持する支柱10cの回動範囲に複数のラッチ位置
を設け、デジタルカメラ10bを複数の位置で固定でき
るようにしてもよい。背景板10dについても同様であ
る。Further, the digital camera 10 shown in FIG.
It is also possible to provide a plurality of latch positions in the rotation range of the column 10c that supports b so that the digital camera 10b can be fixed at a plurality of positions. The same applies to the background plate 10d.
【0100】[0100]
【発明の効果】以上説明したように、本発明によれば可
搬性(ポータビリティ)の高い三次元データ入力装置を
実現し、かつ、全周囲データ入力時において、カメラと
回転台の位置関係を求めるキャリブレーション処理を不
要あるいは軽減することができる。As described above, according to the present invention, a three-dimensional data input device having high portability can be realized, and the positional relationship between the camera and the turntable can be obtained at the time of inputting all-round data. It is possible to reduce or eliminate the calibration process.
【図1】 実施形態の装置構成図である。FIG. 1 is a configuration diagram of an apparatus according to an embodiment.
【図2】 図1における入力部の構成図である。FIG. 2 is a configuration diagram of an input unit in FIG.
【図3】 図1における背景部の展開説明図である。3 is a development explanatory diagram of a background portion in FIG. 1. FIG.
【図4】 シルエット抽出説明図である。FIG. 4 is an explanatory diagram of silhouette extraction.
【図5】 ボクセル生成説明図である。FIG. 5 is an explanatory diagram of voxel generation.
【図6】 投票方式の説明図である。FIG. 6 is an explanatory diagram of a voting method.
【図7】 ボクセルデータからポリゴンデータへの変換
説明図である。FIG. 7 is an explanatory diagram of conversion from voxel data to polygon data.
【図8】 参照マーク説明図である。FIG. 8 is an explanatory diagram of a reference mark.
【図9】 他の参照マーク説明図である。FIG. 9 is an explanatory diagram of another reference mark.
【図10】 参照マークを用いた場合の入力画像説明図
である。FIG. 10 is an explanatory diagram of an input image when a reference mark is used.
【図11】 基準マークと参照マークの位置関係説明図
である。FIG. 11 is an explanatory diagram of a positional relationship between a standard mark and a reference mark.
【図12】 デジタルカメラの回転誤差に基づくキャリ
ブレーションデータ補正説明図(その1)である。FIG. 12 is an explanatory diagram (No. 1) of calibration data correction based on a rotation error of the digital camera.
【図13】 デジタルカメラの前後移動誤差に基づくキ
ャリブレーションデータ補正説明図である。FIG. 13 is an explanatory diagram of correction of calibration data based on a front-back movement error of the digital camera.
【図14】 デジタルカメラの回転誤差に基づくキャリ
ブレーションデータ補正説明図(その2)である。FIG. 14 is an explanatory diagram (part 2) of calibration data correction based on a rotation error of the digital camera.
【図15】 図14における楕円の中心と回転台の回転
軸との関係を示す説明図である。FIG. 15 is an explanatory diagram showing the relationship between the center of the ellipse in FIG. 14 and the rotation axis of the rotary table.
【図16】 ボクセル生成処理を用いたデジタルカメラ
の回転誤差に基づくキャリブレーションデータ補正説明
図(その3)である。FIG. 16 is a calibration data correction explanatory diagram (part 3) based on the rotation error of the digital camera using the voxel generation processing.
【図17】 図16における真の形状と実際の形状との
相違説明図である。FIG. 17 is a diagram for explaining the difference between the true shape and the actual shape in FIG.
【図18】 シルエット画像と再シルエット画像の相違
説明図である。FIG. 18 is a diagram illustrating a difference between a silhouette image and a re-silhouette image.
10 入力部、12 制御部、14 データ処理部。 10 input unit, 12 control unit, 14 data processing unit.
───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) H04N 1/393 H04N 1/393 5C076 // H04N 5/225 5/225 Z Fターム(参考) 5B047 AA07 BA03 BB04 BC14 BC23 CB22 DC09 5B050 BA04 BA07 BA09 EA02 EA05 EA12 EA13 EA19 EA28 5B057 CA08 CA13 CA16 CB06 CB08 CB13 CB16 CD02 CD05 CF05 DA07 DB03 DC05 5C022 AA13 AC27 AC52 AC78 5C061 AA06 AA21 AB03 AB08 AB17 AB24 5C076 AA17 AA21 AA22 BA06 ─────────────────────────────────────────────────── ─── Continuation of front page (51) Int.Cl. 7 Identification code FI theme code (reference) H04N 1/393 H04N 1/393 5C076 // H04N 5/225 5/225 Z F term (reference) 5B047 AA07 BA03 BB04 BC14 BC23 CB22 DC09 5B050 BA04 BA07 BA09 EA02 EA05 EA12 EA13 EA19 EA28 5B057 CA08 CA13 CA16 CB06 CB08 CB13 CB16 CD02 CD05 CF05 DA07 DB03 DC05 5C022 AA13 A27 A17 A17 A17 AB17 A17 AB17 A17 AB17 A17 AB17 A17 AB17 AB17 AB17 AB17 AB17 AB17 AB23 AB17 AB03
Claims (14)
あって、 前記対象物を回転駆動する回転手段と、 回転する前記対象物を撮影する撮影手段と、 が所定の位置関係で同一基台上に設けられることを特徴
とするポータブル三次元データ入力装置。1. A device for inputting three-dimensional data of an object, wherein a rotating means for rotationally driving the object and a photographing means for photographing the rotating object have the same positional relationship with each other. A portable three-dimensional data input device, which is provided on a table.
上には、さらに、 前記撮影手段と前記回転手段とを結ぶ直線上であって、
前記撮影手段から見て前記対象物の背後に背景板が設け
られることを特徴とするポータブル三次元データ入力装
置。2. The apparatus according to claim 1, further comprising: on the base, a straight line connecting the photographing means and the rotating means,
A portable three-dimensional data input device, characterized in that a background plate is provided behind the object viewed from the photographing means.
おいて、 前記撮影手段は、前記基台に回動自在に設けられた支柱
に固定され、 使用時には前記支柱を前記基台の面に対して略鉛直に回
動でき、非使用時には前記支柱を前記基台の面に対して
略平行に回動できることを特徴とするポータブル三次元
データ入力装置。3. The apparatus according to claim 1, wherein the photographing means is fixed to a support rotatably provided on the base, and the support supports the support at the surface of the base. The portable three-dimensional data input device is characterized in that it can be rotated substantially vertically, and the column can be rotated substantially parallel to the surface of the base when not in use.
おいて、 前記背景板は、前記基台に回動自在に設けられ、 使用時には前記背景板を前記基台に対して略鉛直に回動
でき、非使用時には前記背景板を前記基台の面に対して
略平行に回動できることを特徴とするポータブル三次元
データ入力装置。4. The apparatus according to claim 2, wherein the background plate is rotatably provided on the base, and when used, the background plate is substantially vertical to the base. A portable three-dimensional data input device, wherein the background plate can be rotated, and when not in use, the background plate can be rotated substantially parallel to the surface of the base.
おいて、さらに、 前記撮影手段の撮影範囲内であって、前記回転手段に対
して固定された参照マーカ部と、 を有することを特徴とするポータブル三次元データ入力
装置。5. The apparatus according to claim 1, further comprising: a reference marker unit that is within an image capturing range of the image capturing unit and is fixed with respect to the rotating unit. Characteristic portable 3D data input device.
データ入力装置を備える立体モデル生成装置であって、 前記三次元データ入力装置の撮影手段で取得された画像
を処理して三次元データを生成する処理手段と、 を有し、前記処理手段は、予め記憶された前記撮影手段
と前記回転手段の位置関係データに基づき前記三次元デ
ータを生成することを特徴とする立体モデル生成装置。6. A three-dimensional model generation device comprising the three-dimensional data input device according to claim 1, wherein an image acquired by a photographing means of the three-dimensional data input device is processed to obtain a cubic image. And a processing unit for generating original data, wherein the processing unit generates the three-dimensional data based on pre-stored positional relationship data of the photographing unit and the rotating unit. apparatus.
備える立体モデル生成装置であって、 前記三次元データ入力装置の撮影手段で取得された画像
を処理して三次元データを生成する処理手段と、 を有し、前記処理手段は、前記撮影手段と前記回転手段
の位置関係データを記憶することを特徴とする立体モデ
ル生成装置。7. A three-dimensional model input device comprising the three-dimensional data input device according to claim 5, wherein the image acquired by the photographing means of the three-dimensional data input device is processed to generate three-dimensional data. Means for storing the positional relationship data of the photographing means and the rotating means.
じた理論的なマーカの基準位置との差に基づいて前記画
像を平行移動処理する手段と、 を有することを特徴とする立体モデル生成装置。8. The apparatus according to claim 7, wherein the processing unit is a unit that detects the reference marker portion image from the image, a position of the reference marker portion image, and a theoretical value corresponding to the positional relationship data. A means for performing parallel movement processing of the image based on a difference between the reference position of the marker and the reference position, and a stereo model generation device.
じた理論的なマーカの基準位置との差に基づいて前記画
像を拡大あるいは縮小処理する手段と、 を有することを特徴とする立体モデル生成装置。9. The apparatus according to claim 7, wherein the processing means detects the reference marker part image from the image, the position of the reference marker part image, and a theoretical value corresponding to the positional relationship data. A means for enlarging or reducing the image based on the difference between the marker and the reference position, and a stereo model generation device.
じた理論的なマーカの基準位置との差に基づいて前記位
置関係データを補正する手段と、 を有することを特徴とする立体モデル生成装置。10. The apparatus according to claim 7, wherein the processing means detects the reference marker portion image from the image, a position of the reference marker portion image, and a theoretical value corresponding to the positional relationship data. A means for correcting the positional relationship data based on a difference between the marker and the reference position, and a stereo model generation device.
段と、 撮影角度の異なる複数の画像から抽出された複数の前記
シルエット情報の位置に基づいて前記画像を平行移動処
理する手段と、 を有することを特徴とする立体モデル生成装置。11. The apparatus according to claim 6, wherein the processing means includes means for extracting silhouette information of the object from the image, and a plurality of silhouette information pieces extracted from a plurality of images having different photographing angles. Means for performing parallel movement processing of the image based on a position, and a three-dimensional model generation device.
段と、 撮影角度の異なる複数の画像から抽出された複数の前記
シルエット情報の位置に基づいて前記位置関係データを
補正する手段と、 を有することを特徴とする立体モデル生成装置。12. The apparatus according to claim 6, wherein the processing unit includes means for extracting silhouette information of the object from the image, and a plurality of pieces of silhouette information extracted from a plurality of images having different shooting angles. A means for correcting the positional relationship data based on the position, and a stereo model generation device.
る手段と、 撮影角度の異なる複数の画像から抽出された複数の前記
第1シルエット情報に基づいて前記対象物の三次元形状
データを生成する手段と、 前記三次元形状データに基づいて第2シルエット情報を
抽出する手段と、 前記第1シルエット情報と第2シルエット情報の相違に
基づいて前記画像を平行移動処理する手段と、 を有することを特徴とする立体モデル生成装置。13. The apparatus according to claim 6, wherein the processing unit extracts the first silhouette information of the object from the image, and the plurality of the plurality of images extracted from a plurality of images with different photographing angles. 1 means for generating three-dimensional shape data of the object based on the silhouette information, a means for extracting second silhouette information based on the three-dimensional shape data, a difference between the first silhouette information and the second silhouette information Means for performing parallel translation processing of the image based on the above.
る手段と、 撮影角度の異なる複数の画像から抽出された複数の前記
第1シルエット情報に基づいて前記対象物の三次元形状
データを生成する手段と、 前記三次元形状データに基づいて第2シルエット情報を
抽出する手段と、 前記第1シルエット情報と第2シルエット情報の相違に
基づいて前記位置関係データを補正する手段と、 を有することを特徴とする立体モデル生成装置。14. The apparatus according to claim 6, wherein the processing unit extracts the first silhouette information of the object from the image, and the plurality of first images extracted from a plurality of images with different photographing angles. 1 means for generating three-dimensional shape data of the object based on the silhouette information, a means for extracting second silhouette information based on the three-dimensional shape data, a difference between the first silhouette information and the second silhouette information And a means for correcting the positional relationship data based on the above.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2001255675A JP2003070021A (en) | 2001-08-27 | 2001-08-27 | Portable three-dimensional data input apparatus and stereoscopic model generating apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2001255675A JP2003070021A (en) | 2001-08-27 | 2001-08-27 | Portable three-dimensional data input apparatus and stereoscopic model generating apparatus |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2003070021A true JP2003070021A (en) | 2003-03-07 |
Family
ID=19083604
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2001255675A Pending JP2003070021A (en) | 2001-08-27 | 2001-08-27 | Portable three-dimensional data input apparatus and stereoscopic model generating apparatus |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2003070021A (en) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004318791A (en) * | 2003-04-16 | 2004-11-11 | Ryuichi Yokota | Electronic commerce support system and method |
JP2008210140A (en) * | 2007-02-26 | 2008-09-11 | Sony Corp | Information extraction method, registration device, collation device, and program |
JP2008210141A (en) * | 2007-02-26 | 2008-09-11 | Sony Corp | Information extraction method, information extraction device, program, registration device, and collation device |
JP2011086111A (en) * | 2009-10-15 | 2011-04-28 | Mitsubishi Electric Corp | Imaging apparatus calibration method and image synthesis device |
JP2013219636A (en) * | 2012-04-10 | 2013-10-24 | Ntt Docomo Inc | Mobile station and information providing server |
EP2680594A1 (en) * | 2011-02-24 | 2014-01-01 | Kyocera Corporation | Electronic apparatus, image display method and image display program |
JP2016103789A (en) * | 2014-11-28 | 2016-06-02 | 株式会社Pfu | Captured image data disclosure system |
EP3192237A4 (en) * | 2014-09-10 | 2018-07-25 | Hasbro, Inc. | Toy system with manually operated scanner |
-
2001
- 2001-08-27 JP JP2001255675A patent/JP2003070021A/en active Pending
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004318791A (en) * | 2003-04-16 | 2004-11-11 | Ryuichi Yokota | Electronic commerce support system and method |
JP2008210140A (en) * | 2007-02-26 | 2008-09-11 | Sony Corp | Information extraction method, registration device, collation device, and program |
JP2008210141A (en) * | 2007-02-26 | 2008-09-11 | Sony Corp | Information extraction method, information extraction device, program, registration device, and collation device |
US9031315B2 (en) | 2007-02-26 | 2015-05-12 | Sony Corporation | Information extraction method, information extraction device, program, registration device, and verification device |
JP2011086111A (en) * | 2009-10-15 | 2011-04-28 | Mitsubishi Electric Corp | Imaging apparatus calibration method and image synthesis device |
EP2680594A1 (en) * | 2011-02-24 | 2014-01-01 | Kyocera Corporation | Electronic apparatus, image display method and image display program |
EP2680594A4 (en) * | 2011-02-24 | 2014-07-09 | Kyocera Corp | Electronic apparatus, image display method and image display program |
US9432661B2 (en) | 2011-02-24 | 2016-08-30 | Kyocera Corporation | Electronic device, image display method, and image display program |
JP2013219636A (en) * | 2012-04-10 | 2013-10-24 | Ntt Docomo Inc | Mobile station and information providing server |
EP3192237A4 (en) * | 2014-09-10 | 2018-07-25 | Hasbro, Inc. | Toy system with manually operated scanner |
US10252178B2 (en) | 2014-09-10 | 2019-04-09 | Hasbro, Inc. | Toy system with manually operated scanner |
JP2016103789A (en) * | 2014-11-28 | 2016-06-02 | 株式会社Pfu | Captured image data disclosure system |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10916033B2 (en) | System and method for determining a camera pose | |
JP5580164B2 (en) | Optical information processing apparatus, optical information processing method, optical information processing system, and optical information processing program | |
US6954212B2 (en) | Three-dimensional computer modelling | |
JP6764533B2 (en) | Calibration device, chart for calibration, chart pattern generator, and calibration method | |
US7103211B1 (en) | Method and apparatus for generating 3D face models from one camera | |
EP2328125B1 (en) | Image splicing method and device | |
Barazzetti et al. | 3D modelling with the Samsung Gear 360 | |
US20150358612A1 (en) | System and method for real-time depth modification of stereo images of a virtual reality environment | |
JP5620200B2 (en) | Point cloud position data processing device, point cloud position data processing method, point cloud position data processing system, and point cloud position data processing program | |
JP5593177B2 (en) | Point cloud position data processing device, point cloud position data processing method, point cloud position data processing system, and point cloud position data processing program | |
JP6344050B2 (en) | Image processing system, image processing apparatus, and program | |
US20150325044A1 (en) | Systems and methods for three-dimensional model texturing | |
JP4010754B2 (en) | Image processing apparatus, image processing method, and computer-readable recording medium | |
Georgel et al. | An industrial augmented reality solution for discrepancy check | |
JP2010287174A (en) | Furniture simulation method, device, program, recording medium | |
JP2012522231A (en) | Method for determining the relative position of a first image device and a second image device and these devices | |
CN109717966B (en) | Image simulation method and image simulation device for tooth shaping | |
WO2020075252A1 (en) | Information processing device, program, and information processing method | |
WO2009120073A2 (en) | A dynamically calibrated self referenced three dimensional structured light scanner | |
US20060008268A1 (en) | Three-dimensional image processing apparatus, optical axis adjusting method, and optical axis adjustment supporting method | |
WO2018056802A1 (en) | A method for estimating three-dimensional depth value from two-dimensional images | |
CN111340959B (en) | Three-dimensional model seamless texture mapping method based on histogram matching | |
JP2010186265A (en) | Camera calibration device, camera calibration method, camera calibration program, and recording medium with the program recorded threin | |
JP2007264592A (en) | Automatic three-dimensional image forming device and method | |
JP2003070021A (en) | Portable three-dimensional data input apparatus and stereoscopic model generating apparatus |