JP2003216970A - Device, system, method and program for three-dimensional image processing - Google Patents

Device, system, method and program for three-dimensional image processing

Info

Publication number
JP2003216970A
JP2003216970A JP2002014107A JP2002014107A JP2003216970A JP 2003216970 A JP2003216970 A JP 2003216970A JP 2002014107 A JP2002014107 A JP 2002014107A JP 2002014107 A JP2002014107 A JP 2002014107A JP 2003216970 A JP2003216970 A JP 2003216970A
Authority
JP
Japan
Prior art keywords
data
dimensional
real object
surface attribute
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2002014107A
Other languages
Japanese (ja)
Other versions
JP2003216970A5 (en
Inventor
Shinya Urisaka
真也 瓜阪
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2002014107A priority Critical patent/JP2003216970A/en
Priority to US10/303,791 priority patent/US7034820B2/en
Publication of JP2003216970A publication Critical patent/JP2003216970A/en
Publication of JP2003216970A5 publication Critical patent/JP2003216970A5/ja
Priority to US11/260,455 priority patent/US7239312B2/en
Pending legal-status Critical Current

Links

Abstract

<P>PROBLEM TO BE SOLVED: To solve a problem of a conventional three-dimensional image processing device that reproduction of the texture or glossiness of an object has not been taken into consideration. <P>SOLUTION: The three-dimensional data 3 of a real object and the surface attribute data 1 of the real object are obtained, and the three-dimensional data and the surface attribute data are integrated to prepare the three-dimensional integrated data 5. More specifically, in obtaining the surface attribute data, the surface attribute (such as the color and the reflection characteristic of the object) of the real object are estimated based on the actual data obtained from the taken image of the real object and the surface attribute data are prepared based on the estimation. <P>COPYRIGHT: (C)2003,JPO

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は、対象となる実物体
の形状、色、質感などをよりリアルに再現した三次元画
像を生成するための三次元画像処理装置、方法およびプ
ログラムに関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a three-dimensional image processing apparatus, method and program for generating a three-dimensional image in which the shape, color, texture and the like of a target real object are reproduced more realistically. .

【0002】[0002]

【従来の技術】従来、実在する物体の三次元情報(形
状、表面属性)を入力する画像処理装置として、接触型
の位置センサを利用した方法が知られている。この方法
は、探針を物体の各点に接触させ、探針の三次元位置座
標を位置センサにより検出し、物体の各点の三次元位置
情報を入力する方法である。
2. Description of the Related Art Conventionally, as an image processing apparatus for inputting three-dimensional information (shape, surface attribute) of a real object, a method using a contact type position sensor is known. In this method, the probe is brought into contact with each point of the object, the three-dimensional position coordinates of the probe are detected by a position sensor, and the three-dimensional position information of each point of the object is input.

【0003】但し、この接触型の位置センサを用いる方
法では、探針を物体の各点に接触させる必要があるた
め、対象となる物体としてはある程度の強度を持つ物体
に限られ、また計測にある程度の時間を要する等の制限
がある。
However, in the method using the contact-type position sensor, the probe has to be brought into contact with each point of the object. Therefore, the object to be measured is limited to an object having a certain strength, and is used for measurement. There are restrictions such as requiring a certain amount of time.

【0004】また、非接触型の三次元計測装置も知られ
ている。この非接触型の三次元計測装置は、接触型に比
べて高速の計測が可能であることから、CGシステムや
CADシステムへのデータ入力、身体計測、ロボットの
視覚認識などに利用されている。
A non-contact type three-dimensional measuring device is also known. Since this non-contact type three-dimensional measuring device is capable of higher-speed measurement than the contact type, it is used for data input to a CG system or CAD system, body measurement, and visual recognition of a robot.

【0005】非接触の三次元計測の方法としては、スリ
ット光投影法(光切断法ともいう)やパターン投影法が
知られている。これらの方法は、特定の参照光(検出光
ともいう)を計測対象に照射し、三角測定の原理で距離
画像(三次元画像、三次元データまたは三次元形状デー
タともいう)を得る能動的計測方法の一種である。
As a non-contact three-dimensional measurement method, a slit light projection method (also called a light section method) and a pattern projection method are known. These methods are active measurement in which a specific reference light (also referred to as detection light) is applied to a measurement target to obtain a distance image (also referred to as three-dimensional image, three-dimensional data, or three-dimensional shape data) based on the principle of triangulation measurement. It is a kind of method.

【0006】スリット光投影法では、スリット光を照射
しかつ偏向することによって計測対象を走査する。ま
た、パターン投影法では、複数の2次元パターン光を順
次照射する。得られた距離画像は、計測対象上の複数部
位の三次元位置を示す画素の集合である。
In the slit light projection method, a measuring object is scanned by irradiating and deflecting slit light. Moreover, in the pattern projection method, a plurality of two-dimensional pattern lights are sequentially irradiated. The obtained distance image is a set of pixels indicating the three-dimensional positions of a plurality of parts on the measurement target.

【0007】このような三次元計測装置には、計測対象
物体の距離画像を得るための距離計測光学系と、対象物
体表面のテクスチャ情報を取得するためのカラー光学系
(モニタ光学系ともいう)とが設けられる。
In such a three-dimensional measuring apparatus, a distance measuring optical system for obtaining a distance image of the object to be measured and a color optical system (also called a monitor optical system) for acquiring texture information on the surface of the object. And are provided.

【0008】距離計測光学系には、計測対象物体に参照
光を照射する投光部、参照光の計測対象物体による反射
光を受光する受光センサなどが含まれる。受光センサか
らの出力などに基づいて、三次元形状データが演算によ
り求められる。
The distance measuring optical system includes a light projecting unit for irradiating the measurement target object with the reference light, a light receiving sensor for receiving the reflected light of the reference light by the measurement target object, and the like. Three-dimensional shape data is calculated based on the output from the light receiving sensor.

【0009】カラー光学系には、同じ計測対象物体のカ
ラー画像(モニタ画像、2次元画像、2次元データ、ま
たは2次元画像データともいう)を撮像する撮像センサ
などが含まれる。カラー光学系により得られるカラー画
像は、対象物体表面のテクスチャ情報を取得するために
用いられるほか、距離計測光学系による計測を開始する
際に、距離計測により得られる距離画像の範囲を予め確
認するために用いられる。さらには、得られた距離画像
を修正する際に、その修正箇所の特定のためにも用いら
れる。
The color optical system includes an image sensor for picking up a color image (also referred to as a monitor image, two-dimensional image, two-dimensional data, or two-dimensional image data) of the same object to be measured. The color image obtained by the color optical system is used to acquire the texture information of the surface of the target object, and the range of the distance image obtained by the distance measurement is confirmed in advance when the measurement by the distance measuring optical system is started. Used for. Further, when the obtained distance image is corrected, it is also used for specifying the corrected portion.

【0010】[0010]

【発明が解決しようとする課題】しかしながら、従来の
三次元画像処理装置においては、対象物体の質感や光沢
感を再現することは考慮されていない。しかも、撮影環
境と再現環境とで照明光源の形状、位置、色が異なった
場合などにおいて、対象物体における鏡面反射の状態が
変化してしまい、見た目にも大きく変わってしまうた
め、従来の三次元画像処理装置を用いた場合では、対象
物体の質感や光沢感までを正確に伝えることは困難であ
る。
However, in the conventional three-dimensional image processing apparatus, reproduction of the texture and glossiness of the target object is not considered. Moreover, when the shape, position, and color of the illumination light source differ between the shooting environment and the reproduction environment, the state of specular reflection on the target object changes, which greatly changes the appearance. When the image processing device is used, it is difficult to accurately convey the texture and glossiness of the target object.

【0011】そこで、実物体の質感、光沢感、立体感な
どをよりリアルに再現した三次元画像を生成することを
可能とする三次元画像処理装置、方法およびプログラム
を提供することを目的としている。
Therefore, it is an object of the present invention to provide a three-dimensional image processing apparatus, method and program capable of generating a three-dimensional image that more realistically reproduces the texture, glossiness, stereoscopic effect, etc. of an actual object. .

【0012】[0012]

【課題を解決するための手段】上記の目的を達成するた
めに、本発明では、実物体の三次元形状データを得ると
ともに、実物体の表面属性データを得て、これら三次元
形状データと表面属性データとを統合して三次元統合デ
ータを生成する。
In order to achieve the above object, the present invention obtains three-dimensional shape data of a real object and surface attribute data of the real object to obtain the three-dimensional shape data and the surface. Three-dimensional integrated data is generated by integrating the attribute data.

【0013】より具体的には、表面属性データの取得に
おいて、例えば、実物体の撮影画像から得られる実測デ
ータに基づいて実物体の表面属性(物体の色や反射特
性)を推定させ、これにより表面属性データを生成させ
るようにする。
More specifically, in the acquisition of the surface attribute data, for example, the surface attributes (color and reflection characteristics of the object) of the real object are estimated based on actual measurement data obtained from a photographed image of the real object. Generate surface attribute data.

【0014】このように実物体の表面属性データを含む
三次元統合データを生成することにより、実物体の形状
・テクスチャ・色だけでなく、実物体の質感、光沢感、
立体感などをよりリアルに再現した三次元画像を作成す
ることが可能となる。
By thus generating the three-dimensional integrated data including the surface attribute data of the real object, not only the shape / texture / color of the real object, but also the texture, gloss feeling of the real object,
It is possible to create a three-dimensional image that more realistically reproduces a three-dimensional effect.

【0015】また、本発明では、実物体から取得された
三次元形状データおよび表面属性データの統合データと
画像観察者の操作に応じて設定された三次元画像の観察
環境(照明光源の位置・色・形状・方向、観察者の位置
・方向等)のデータとに基づいて、設定された観察環境
下での実物体の三次元画像を生成するようにしている。
Further, in the present invention, the integrated data of the three-dimensional shape data and the surface attribute data acquired from the real object and the observation environment of the three-dimensional image set according to the operation of the image observer (position of the illumination light source, A three-dimensional image of a real object under a set observation environment is generated based on data such as color, shape, direction, and observer position and direction.

【0016】これにより、観察環境を反映したかたちで
実物体の質感、光沢感、立体感などをよりリアルに再現
した三次元画像を作成することが可能となる。
This makes it possible to create a three-dimensional image that more realistically reproduces the texture, glossiness, stereoscopic effect, etc. of the real object in a manner that reflects the observation environment.

【0017】[0017]

【発明の実施の形態】(第1実施形態)図1には、本発
明の第1実施形態である三次元画像処理システムの構成
を示している。本実施形態の三次元画像処理システム
は、画像として取り込まれた対象物体(実物体)を再現
する際に、観察に用いる照明環境を任意に設定し、かつ
対象物体の位置および向きを観察空間内で自由に変更す
ることで、所望の観察環境下での対象物体の三次元画像
を表示および印刷出力する。
BEST MODE FOR CARRYING OUT THE INVENTION (First Embodiment) FIG. 1 shows the configuration of a three-dimensional image processing system according to the first embodiment of the present invention. The three-dimensional image processing system of this embodiment sets an illumination environment used for observation arbitrarily when reproducing a target object (real object) captured as an image, and sets the position and orientation of the target object in the observation space. By freely changing with, the three-dimensional image of the target object under the desired observation environment is displayed and printed out.

【0018】この三次元画像処理システムは、対象物体
の三次元形状データを取得する三次元形状取得部3、対
象物体の色・光沢・質感などの表面属性データを取得す
る表面属性取得部1およびこれらの三次元データを統合
する三次元データ統合部5を有する三次元画像処理装置
10と、再現時の観察環境を設定する操作部9を備え、
再現時の観察環境に基づいて対象物体の三次元画像を構
築する任意環境画像生成装置7と、三次元画像を表示お
よび印刷出力する画像出力装置11とで構成されてい
る。
This three-dimensional image processing system includes a three-dimensional shape acquisition unit 3 for acquiring three-dimensional shape data of a target object, a surface attribute acquisition unit 1 for acquiring surface attribute data such as color, gloss, and texture of the target object. A three-dimensional image processing apparatus 10 having a three-dimensional data integration unit 5 that integrates these three-dimensional data, and an operation unit 9 that sets an observation environment during reproduction are provided.
It is composed of an arbitrary environment image generation device 7 that constructs a three-dimensional image of the target object based on the observation environment at the time of reproduction, and an image output device 11 that displays and prints out the three-dimensional image.

【0019】三次元形状取得部3は、レーザレーダ法、
スリット光投影法、パターン投影法などを用いた三次元
計測装置から得られる実測データから、三次元立体形状
モデルデータを生成する。ここで、三次元立体形状モデ
ルデータとしては、たとえばポリゴンによる表面モデ
ル、あるいは異なる形状の表面形状要素の集合として表
現することができる。
The three-dimensional shape acquisition unit 3 uses a laser radar method,
Three-dimensional solid shape model data is generated from actual measurement data obtained from a three-dimensional measuring device using a slit light projection method, a pattern projection method, or the like. Here, the three-dimensional solid shape model data can be expressed as, for example, a surface model using polygons or a set of surface shape elements having different shapes.

【0020】表面属性取得部1は、光像を画像データに
光電変換して入力する、ディジタルスチルカメラ、ビデ
オカメラ、マルチスペクトルカメラなどの画像入力装置
から得られる画像データおよび三次元形状取得部3によ
り得られた三次元形状モデルデータを用いて、対象物体
の色・光沢・質感にかかわる表面属性パラメータを推定
し、表面属性データを生成する。
The surface attribute acquisition unit 1 obtains image data obtained from an image input device such as a digital still camera, a video camera, a multi-spectral camera, etc., which photoelectrically converts an optical image into image data and inputs the image data and the three-dimensional shape acquisition unit 3. Using the three-dimensional shape model data obtained by, the surface attribute parameters related to the color, gloss, and texture of the target object are estimated, and the surface attribute data is generated.

【0021】表面属性データにより、再現時の対象物体
・照明光源・視点の位置関係や照明光源の色・輝度・形
状といった観察環境に応じて、再現画像における鏡面反
射の位置・広がり・形状・強度などを変化させることが
可能となり、対象物体の質感、光沢感、立体感などをよ
りリアルに表現することができるようになる。
From the surface attribute data, the position / spreading / shape / intensity of the specular reflection in the reproduced image according to the observing environment such as the positional relationship among the target object / illumination light source / viewpoint at the time of reproduction and the color / brightness / shape of the illumination light source. Etc. can be changed, and the texture, glossiness, stereoscopic effect, etc. of the target object can be expressed in a more realistic manner.

【0022】なお、三次元形状モデルデータ生成のため
の三次元計測装置と、表面属性データ生成のための画像
入力装置は、別個であっても一体のものであっても構わ
ない。
The three-dimensional measuring device for generating the three-dimensional shape model data and the image input device for generating the surface attribute data may be separate or integrated.

【0023】三次元データ統合部5は、三次元形状取得
部3により得られた三次元形状モデルデータと、表面属
性取得部1により得られた表面属性データとを統合し、
対象物体の三次元統合データを作成する。
The three-dimensional data integration unit 5 integrates the three-dimensional shape model data obtained by the three-dimensional shape acquisition unit 3 and the surface attribute data obtained by the surface attribute acquisition unit 1,
Create three-dimensional integrated data of the target object.

【0024】また、観察者は、操作部9により所望の照
明条件・対象物体の位置や向きなどの観察環境の設定を
行う。
The observer also sets the observation environment such as desired illumination conditions and the position and orientation of the target object using the operation unit 9.

【0025】任意環境画像生成装置7は、操作部9によ
り設定された観察環境データに従い、観察者所望の観察
環境下での対象物体の三次元画像を構築する。
The arbitrary environment image generation device 7 constructs a three-dimensional image of the target object in the observation environment desired by the observer according to the observation environment data set by the operation unit 9.

【0026】画像出力装置11は、TVモニタやプリン
タなどからなり、任意環境画像生成装置7により構築さ
れた三次元画像の表示や印刷出力を行う。
The image output device 11 is composed of a TV monitor, a printer and the like, and displays and prints out the three-dimensional image constructed by the arbitrary environment image generation device 7.

【0027】図2は、本実施形態の三次元形状取得およ
び表面属性取得を行う装置の概略図である。対象物体2
1は、回転可能なステージ25の上に配置され、回転軸
26を中心として回転する。測定環境における回転軸2
6の位置およびその回転角度は既知とする。
FIG. 2 is a schematic view of an apparatus for acquiring a three-dimensional shape and a surface attribute according to this embodiment. Target object 2
1 is placed on a rotatable stage 25 and rotates about a rotation shaft 26. Rotation axis 2 in measurement environment
The position of 6 and its rotation angle are known.

【0028】照明光源27は、表面属性取得の際に使用
する照明であり、照明光スペクトル、光の強度、照明光
形状、個数、測定環境における位置は既知とする。
The illumination light source 27 is an illumination used for obtaining the surface attribute, and the illumination light spectrum, the light intensity, the illumination light shape, the number, and the position in the measurement environment are known.

【0029】三次元計測装置22および画像入力装置2
3は、対象物体21から離れた位置に配置され、対象物
体21を回転軸26を中心として回転させ、一定角度ご
とに三次元形状計測および画像入力(撮影)を行う。な
お、三次元計測装置22と画像入力装置23は一体の構
成であっても構わない。
Three-dimensional measuring device 22 and image input device 2
3 is arranged at a position distant from the target object 21, rotates the target object 21 about the rotation axis 26, and performs three-dimensional shape measurement and image input (imaging) at constant angles. The three-dimensional measuring device 22 and the image input device 23 may be integrated.

【0030】図3は、三次元データ統合部5によって作
成される三次元統合データの一例を示す図である。三次
元統合データは、対象物体の1つの頂点の三次元座標お
よび物体色情報や反射特性情報などの表面属性パラメー
タを格納したデータ構造を1データ要素とし、このデー
タ要素を対象物体上に設定した頂点の数分だけ用意した
構造となっている。
FIG. 3 is a diagram showing an example of the three-dimensional integrated data created by the three-dimensional data integrating section 5. The three-dimensional integrated data has a data structure in which three-dimensional coordinates of one vertex of the target object and surface attribute parameters such as object color information and reflection characteristic information are stored as one data element, and this data element is set on the target object. The structure is prepared only for the number of vertices.

【0031】三次元統合データの要素として新たな頂点
に対応するデータ要素が生成、追加されるたびに、三次
元統合データの要素数は拡大されていく。
Each time a data element corresponding to a new vertex is generated and added as an element of the three-dimensional integrated data, the number of elements of the three-dimensional integrated data is expanded.

【0032】この三次元統合データは、三次元形状取得
および表面属性取得の実行中は、装置10のメモリ(図
示せず)上に置かれ、三次元形状取得および表面属性取
得が終了するとハードディスクなどの記憶媒体(図示せ
ず)に保存される。
This three-dimensional integrated data is placed in the memory (not shown) of the apparatus 10 during the acquisition of the three-dimensional shape and the acquisition of the surface attributes, and when the acquisition of the three-dimensional shape and the acquisition of the surface attributes is completed, a hard disk or the like is obtained. Stored in a storage medium (not shown).

【0033】次に、本実施形態の表面属性取得部1にお
いて行われる表面属性の推定処理について、図4のフロ
ーチャートを参照しながら説明する。ここでは、物体表
面における反射光は、拡散反射成分と鏡面反射成分の2
つに分けられるという2色性反射モデルの特徴を利用す
る。これにより、複数の環境下で実測した実測データに
おける各頂点の対応点の輝度・色の変化を解析すること
で、それぞれの頂点における表面属性を推定することが
できる。
Next, the surface attribute estimation processing performed in the surface attribute acquisition unit 1 of this embodiment will be described with reference to the flowchart of FIG. Here, the reflected light on the surface of the object is 2
The characteristic of the dichroic reflection model that it can be divided into two is used. Thus, the surface attribute at each vertex can be estimated by analyzing the change in the brightness / color of the corresponding point of each vertex in the measured data measured under a plurality of environments.

【0034】表面属性の推定処理が開始されると(ステ
ップ〈図ではSと略す〉1)、表面属性取得部1は、ま
ず対象物体の表面上の各頂点に関して、三次元計測装置
22および画像入力装置23から入力された実測データ
(S3)のうち、ノイズ、陰影、オクルージョン、混色
などの影響により、情報が欠如したり誤差を大きく含ん
だりするデータを除去し、実測データの取捨選択を行う
(S5)。
When the surface attribute estimation process is started (step <abbreviated as S in the figure> 1), the surface attribute acquisition unit 1 firstly determines the three-dimensional measuring device 22 and the image for each vertex on the surface of the target object. Of the actual measurement data (S3) input from the input device 23, data that lacks information or contains a large error due to the effects of noise, shadow, occlusion, color mixture, etc. is removed, and the actual measurement data is selected. (S5).

【0035】続いて、選別された実測データのみを用い
て、拡散反射成分のみのデータを抽出する(S7)。そ
して抽出されたデータから、表面属性パラメータのうち
物体色に対応するパラメータの推定を行う(S9)。
Then, only the selected actual measurement data is used to extract the data of only the diffuse reflection component (S7). Then, of the surface attribute parameters, parameters corresponding to the object color are estimated from the extracted data (S9).

【0036】次に、鏡面反射成分を含んだデータから鏡
面反射成分を分離し(S11)、表面属性パラメータの
うち反射特性に対応するパラメータの推定を行う(S1
3)。
Next, the specular reflection component is separated from the data including the specular reflection component (S11), and the parameter corresponding to the reflection characteristic of the surface attribute parameters is estimated (S1).
3).

【0037】以上の処理を頂点ごとに行うことで、各頂
点における表面属性パラメータを推定し、対象物体の表
面全体の推定が終了すると(S15)、表面属性推定処
理を終了する(S17)。
By performing the above process for each vertex, the surface attribute parameter at each vertex is estimated, and when the estimation of the entire surface of the target object is finished (S15), the surface attribute estimation process is finished (S17).

【0038】次に、本実施形態において、観察者所望の
観察環境下での対象物体の三次元画像を構築するため
の、任意環境画像生成装置7での処理について、図5を
参照しながら説明する。
Next, in the present embodiment, the processing in the arbitrary environment image generating device 7 for constructing the three-dimensional image of the target object under the observation environment desired by the observer will be described with reference to FIG. To do.

【0039】観察者は、操作部9に設けられた(表示さ
れた)照明光設定部37において、対象物体に照射する
照明光源(仮想光源)の位置、輝度、形状(点光源、線
光源、面光源、平行光など)および色を設定する。ここ
では、複数の照明光源を設定することもできるようにな
っている。これにより、観察空間において任意の輝度、
形状および色を持つ、1つまたは複数の照明光源を符号
33で示すように任意の位置に配置することができる。
The observer uses the illumination light setting unit 37 (displayed) provided in the operation unit 9 to determine the position, brightness and shape (point light source, line light source, illumination light source) of the illumination light source (virtual light source) that illuminates the target object. Surface light source, parallel light, etc.) and color. Here, it is also possible to set a plurality of illumination light sources. As a result, an arbitrary brightness in the observation space,
One or more illumination sources of different shapes and colors can be placed at any location, as shown at 33.

【0040】さらに、観察者は、操作部9に設けられた
(表示された)対象物体配置設定部35において、対象
物体に対して上下、左右、手前奥の三次元的な移動およ
び任意の軸を中心とした回転角度を設定する。これによ
り、観察空間において、対象物体を符号31に示すよう
に任意の方向に移動、回転させることができ、対象物体
を所望の方向から観察することができる。
Further, the observer uses the target object arrangement setting unit 35 (displayed) provided in the operation unit 9 to move the target object up and down, left and right, front and back in three dimensions and to set an arbitrary axis. Set the rotation angle around. As a result, in the observation space, the target object can be moved and rotated in any direction as indicated by reference numeral 31, and the target object can be observed from the desired direction.

【0041】任意環境画像生成装置7は、操作部9の照
明光設定部37および対象物体配置設定部35にて設定
された観察環境データに従い、観察者所望の観察環境下
での対象物体の画像を構築し、画像出力装置11に出力
する。これにより、観察者が設定する対象物体・照明光
源・視点の位置関係や照明光源の色・輝度・形状といっ
た観察環境に応じて、再現画像における鏡面反射の位置
・広がり・形状・強度などを変化させることができ、対
象物体の質感、光沢感、立体感などをよりリアルに表現
した三次元画像を得ることができる。
The arbitrary environment image generation device 7 is an image of the target object under the observation environment desired by the observer according to the observation environment data set by the illumination light setting unit 37 and the target object arrangement setting unit 35 of the operation unit 9. Is constructed and output to the image output device 11. As a result, the position, spread, shape, intensity, etc. of specular reflection in the reproduced image can be changed according to the observation environment such as the target object, illumination light source, viewpoint positional relationship set by the observer, and the color, brightness, and shape of the illumination light source. It is possible to obtain a three-dimensional image that more realistically expresses the texture, glossiness, and stereoscopic effect of the target object.

【0042】以上説明したように、本実施形態では、対
象物体の実測データから三次元形状データおよび表面属
性データを取得し、三次元統合データとして統合し、さ
らに観察者が設定した観察環境下での対象物体の画像を
構築するので、対象物体の質感、光沢感、立体感などを
よりリアルに再現した三次元画像を観察者に観察させる
ことができる。
As described above, in the present embodiment, the three-dimensional shape data and the surface attribute data are acquired from the measured data of the target object, integrated as the three-dimensional integrated data, and further under the observation environment set by the observer. Since the image of the target object is constructed, the observer can observe a three-dimensional image that more realistically reproduces the texture, glossiness, and stereoscopic effect of the target object.

【0043】また、表面属性取得部1において、入力さ
れた実測データの取捨選択処理を行うことで、表面属性
推定の精度を向上させることができ、よりリアリティの
高い三次元画像を作成することができる。
In addition, the surface attribute acquisition unit 1 can improve the accuracy of the surface attribute estimation by performing the selection process of the input measured data, and can create a more realistic three-dimensional image. it can.

【0044】(第2実施形態)本実施形態では、上記第
1実施形態にて説明した三次元形状データおよび表面属
性データ取得のためのシステム構成を以下のように置き
換える。
(Second Embodiment) In this embodiment, the system configuration for acquiring the three-dimensional shape data and surface attribute data described in the first embodiment is replaced as follows.

【0045】図6には、本実施形態の三次元画像処理シ
ステムの概略構成を示している。対象物体51は、コン
ピュータ制御可能な回転ステージ55の上に配置され、
コンピュータ59から指令された角度で連続的に回転軸
56を中心として回転する。測定環境における回転軸5
6の位置は既知とする。
FIG. 6 shows a schematic configuration of the three-dimensional image processing system of this embodiment. The target object 51 is placed on a computer controllable rotary stage 55,
It continuously rotates about the rotary shaft 56 at an angle instructed by the computer 59. Rotating axis 5 in measurement environment
The position of 6 is known.

【0046】照明光源57は、表面属性取得の際に使用
する照明であり、1つもしくは複数配置され、コンピュ
ータ59からの指令により、照明光スペクトル、光の強
度、照明光形状、個数、測定環境における位置の制御が
可能になっている。
The illumination light source 57 is an illumination used when acquiring the surface attribute, and one or a plurality of illumination light sources are arranged, and according to a command from the computer 59, the illumination light spectrum, the light intensity, the illumination light shape, the number, the measurement environment. It is possible to control the position at.

【0047】三次元計測装置52および画像入力装置5
3は、対象物体51から離れた位置に配置され、コンピ
ュータ59からの指令により、測定空間内の任意の位置
に移動し、データ入力を行うことができる。
Three-dimensional measuring device 52 and image input device 5
3 is arranged at a position distant from the target object 51, and can move to an arbitrary position in the measurement space and input data by a command from the computer 59.

【0048】コンピュータ59は、回転ステージ55、
照明光源57に対して指令を送り、測定環境を確定した
後に、三次元計測装置52および画像入力装置53に対
して指令を送り、三次元形状計測および画像入力(撮
影)を行わせる。ここで、三次元計測装置52と画像入
力装置53は一体の構成であっても構わない。
The computer 59 includes a rotary stage 55,
After the command is sent to the illumination light source 57 to determine the measurement environment, the command is sent to the three-dimensional measuring device 52 and the image input device 53 to perform three-dimensional shape measurement and image input (imaging). Here, the three-dimensional measuring device 52 and the image input device 53 may be integrated.

【0049】さらに、この実測データから三次元形状デ
ータおよび表面属性データの取得を行い、三次元統合デ
ータを作成する。
Further, three-dimensional shape data and surface attribute data are acquired from this measured data to create three-dimensional integrated data.

【0050】三次元形状計測および表面属性推定の精度
を向上させるためには、対象物体の形状の複雑さやオク
ルージョンの程度に応じて、対象物体と三次元計測装置
52および画像入力装置53との位置関係や回転ステー
ジ55の回転角ピッチを最適な値に設定し、また、照明
光源57の色と対象物体51の色との類似性、対象物体
51からの反射光における拡散反射成分と鏡面反射成分
の割合、鏡面反射成分ピーク値の状態、対応点の色分布
の一様性などに応じて、対象物体51と画像入力装置5
3と照明光源57との位置関係や照明光の色・強度・形
状・光源個数を最適な値に設定する必要がある。
In order to improve the accuracy of the three-dimensional shape measurement and the surface attribute estimation, the positions of the target object and the three-dimensional measuring device 52 and the image input device 53 depending on the complexity of the shape of the target object and the degree of occlusion. The relationship and the rotation angle pitch of the rotary stage 55 are set to optimal values, the similarity between the color of the illumination light source 57 and the color of the target object 51, the diffuse reflection component and the specular reflection component of the reflected light from the target object 51. , The state of peak value of specular reflection component, the uniformity of color distribution of corresponding points, etc.
It is necessary to set the positional relationship between the No. 3 and the illumination light source 57, the color / intensity / shape of the illumination light, and the number of light sources to optimal values.

【0051】本実施形態では、コンピュータ制御を行う
ことで、対象物体51の形状や表面属性に適した対象物
体51・画像入力装置53・照明光源57の配置および
照明光源57の特性の設定を実現することができ、三次
元形状計測および表面属性推定の精度を向上させること
ができる。
In the present embodiment, by performing computer control, the arrangement of the target object 51, the image input device 53, the illumination light source 57 and the setting of the characteristics of the illumination light source 57 suitable for the shape and surface attribute of the target object 51 are realized. It is possible to improve the accuracy of three-dimensional shape measurement and surface attribute estimation.

【0052】なお、表面属性推定処理、任意環境画像の
作成・出力に関する処理は、第1実施形態における処理
と同様である。
The surface attribute estimation processing and the processing relating to the creation / output of the arbitrary environment image are the same as those in the first embodiment.

【0053】以上説明したように、本実施形態によれ
ば、照明光源57の位置、色、輝度、形状、個数を任意
に変えることのできる制御部としてのコンピュータ59
を備えることで、ノイズ、陰影、オクルージョン、混色
などの影響を受けにくい、より有用な実測データを入力
することができ、三次元形状計測および表面属性推定の
精度を向上させることができる。したがって、よりリア
リティの高い三次元画像の作成が可能となる。また、コ
ンピュータ59により回転ステージ55、照明光源5
7、三次元計測装置52および画像入力装置53を一括
制御することで、三次元形状および表面属性の取得を効
率的かつ精度良く行うことができる。
As described above, according to the present embodiment, the computer 59 as a control unit that can arbitrarily change the position, color, brightness, shape, and number of the illumination light sources 57.
By including, it is possible to input more useful actual measurement data that is less susceptible to noise, shading, occlusion, color mixture, etc., and improve the accuracy of three-dimensional shape measurement and surface attribute estimation. Therefore, it is possible to create a more realistic three-dimensional image. Further, the computer 59 drives the rotary stage 55 and the illumination light source 5
7. By collectively controlling the three-dimensional measuring device 52 and the image input device 53, the three-dimensional shape and the surface attribute can be acquired efficiently and accurately.

【0054】(第3実施形態)本実施形態では、上記第
1実施形態にて説明した三次元形状データおよび表面属
性データ取得のためのシステム構成を以下のように置き
換える。
(Third Embodiment) In this embodiment, the system configuration for acquiring the three-dimensional shape data and surface attribute data described in the first embodiment is replaced as follows.

【0055】本実施形態における三次元統合データは、
第1実施形態にて図3を用いて説明したものと同様であ
るが、各データ要素の構成単位を第1実施形態の頂点単
位から微小面単位へと拡張している。すなわち、三次元
統合データは、微小面の三次元位置データおよび表面属
性データを格納するデータ構造を1データ要素とし、こ
のデータ要素を微小面の数分だけ用意した構造となって
いる。
The three-dimensional integrated data in this embodiment is
Although it is similar to that described with reference to FIG. 3 in the first embodiment, the constituent unit of each data element is expanded from the vertex unit of the first embodiment to the microfacet unit. That is, the three-dimensional integrated data has a structure in which one data element has a data structure for storing three-dimensional position data and surface attribute data of a minute surface, and the data elements are prepared by the number of minute surfaces.

【0056】データ要素となる微小面は、近傍の頂点あ
るいは微小面のうち、表面属性データが類似しているも
のを統合していくことで生成される。また、微小面の三
次元位置データは、例えば三角形の3つの頂点の座標お
よび法線ベクトルで表現される。
The minute surface which becomes the data element is generated by integrating the neighboring vertices or minute surfaces having similar surface attribute data. Further, the three-dimensional position data of the minute surface is represented by, for example, the coordinates of the three vertices of a triangle and the normal vector.

【0057】微小面の表面属性データは、物体色情報お
よび反射特性情報から構成されており、パラメータ形式
あるいは微小面に対応する画像形式で表現される。三次
元統合データの構成要素として新たな微小面が生成、追
加されるたびに、三次元統合データの要素数は拡大され
ていく。
The surface attribute data of the minute surface is composed of object color information and reflection characteristic information, and is expressed in a parameter format or an image format corresponding to the minute surface. The number of elements of the three-dimensional integrated data is expanded each time a new minute surface is created and added as a component of the three-dimensional integrated data.

【0058】この三次元統合データは、三次元形状取得
および表面属性取得の実行中は、装置のメモリ(図示せ
ず)上に置かれ、三次元形状取得および表面属性取得が
終了すると、ハードディスクなどの記憶媒体(図示せ
ず)に保存される。
This three-dimensional integrated data is placed on the memory (not shown) of the apparatus during the acquisition of the three-dimensional shape and the surface attribute, and when the three-dimensional shape acquisition and the surface attribute acquisition are completed, the hard disk, etc. Stored in a storage medium (not shown).

【0059】以上説明したように、本実施形態では、三
次元統合データとして、表面属性データが類似している
複数の領域を部分統合して1つの構成要素として表現す
ることで、データ容量を減らすことができ、ハードディ
スクなどの記憶媒体に保存したり、後述する実施形態の
ようにネットワークを介して離れた画像再現場所に送っ
たりする際に非常に有効である。
As described above, in the present embodiment, as the three-dimensional integrated data, a plurality of regions having similar surface attribute data are partially integrated and expressed as one component, thereby reducing the data capacity. Therefore, it is very effective when it is stored in a storage medium such as a hard disk or when it is sent to a remote image reproduction place via a network as in the embodiment described later.

【0060】本実施形態では、第1実施形態における三
次元画像処理システムの構成を以下のように置き換え
る。
In this embodiment, the configuration of the three-dimensional image processing system in the first embodiment is replaced as follows.

【0061】図7は、本実施形態のシステム構成を示す
概略図である。本実施形態の三次元画像処理システムに
おける画像を再現する場所は、対象物体のデータを取り
込む場所に対して遠隔地にあり、ネットワークによるデ
ータ伝送を用いて画像を再現する。
FIG. 7 is a schematic diagram showing the system configuration of this embodiment. The place where the image is reproduced in the three-dimensional image processing system of the present embodiment is remote from the place where the data of the target object is taken in, and the image is reproduced using data transmission by the network.

【0062】本実施形態のシステムは、対象物体の三次
元形状データを取得する三次元形状取得部63、対象物
体の色・光沢・質感などの表面属性データを取得する表
面属性取得部61およびこれらの三次元データを統合し
て図3に示したものと同様な三次元統合データ66を作
成する三次元データ統合部65を有する三次元画像処理
装置100と、この三次元画像処理装置100とネット
ワークを介して接続され、画像再現時の観察環境を設定
する操作部69を含み、ネットワークを通じて伝送され
てきた三次元統合データ66を受けて、画像再現時の観
察環境に基づいて対象物体の三次元画像を構築する任意
環境画像生成装置67と、三次元画像を表示および印刷
出力する画像出力装置71とから構成されている。
The system of this embodiment includes a three-dimensional shape acquisition unit 63 for acquiring three-dimensional shape data of a target object, a surface attribute acquisition unit 61 for acquiring surface attribute data such as color, gloss, and texture of the target object, and these. 3D image processing apparatus 100 having a 3D data integration unit 65 that integrates the 3D data of 3 to create 3D integrated data 66 similar to that shown in FIG. 3, and the 3D image processing apparatus 100 and the network. 3D integrated data 66 transmitted through the network, including an operation unit 69 for setting an observation environment at the time of image reproduction, connected to the three-dimensional target object based on the observation environment at the time of image reproduction. An arbitrary environment image generation device 67 for constructing an image and an image output device 71 for displaying and printing out a three-dimensional image.

【0063】三次元形状取得部63は、レーザレーダ
法、スリット光投影法、パターン投影法などを用いた三
次元計測装置から得られるデータから、三次元立体形状
モデルデータを生成する。ここで、三次元立体形状モデ
ルデータとしては、たとえばポリゴンによる表面モデ
ル、あるいは異なる形状の表面形状要素の集合として表
現することができる。
The three-dimensional shape acquisition unit 63 generates three-dimensional solid shape model data from data obtained from a three-dimensional measuring device using a laser radar method, a slit light projection method, a pattern projection method, or the like. Here, the three-dimensional solid shape model data can be expressed as, for example, a surface model using polygons or a set of surface shape elements having different shapes.

【0064】表面属性取得部61は、光像を画像データ
に光電変換して入力する、ディジタルスチルカメラ、ビ
デオカメラ、マルチスペクトルカメラなどの画像入力装
置から得られる画像データおよび三次元形状取得部63
により得られた三次元立体形状モデルデータを用いて、
対象物体の色・光沢・質感にかかわる表面属性パラメー
タを推定し、表面属性データを生成する。
The surface attribute acquisition unit 61 photoelectrically converts an optical image into image data and inputs the image data, which is obtained from an image input device such as a digital still camera, a video camera, or a multispectral camera, and a three-dimensional shape acquisition unit 63.
Using the 3D solid shape model data obtained by
Surface attribute parameters relating to the color, gloss, and texture of the target object are estimated and surface attribute data is generated.

【0065】表面属性データにより、画像再現時の対象
物体・照明光源・視点の位置関係や照明光源の色・輝度
・形状といった観察環境に応じて、再現画像における鏡
面反射の位置・広がり・形状・強度などを変化させるこ
とが可能となり、対象物体の質感、光沢感、立体感など
をよりリアルに表現することができるようになる。
The surface attribute data allows the position, spread, and shape of the specular reflection in the reproduced image to be reproduced in accordance with the observation environment such as the positional relationship among the target object, the illumination light source, and the viewpoint when reproducing the image, and the color, brightness, and shape of the illumination light source. It is possible to change the strength and the like, and it is possible to more realistically express the texture, glossiness, and stereoscopic effect of the target object.

【0066】なお、三次元立体形状モデル生成のための
三次元計測装置と、表面属性データ生成のための画像入
力装置は別個であっても一体のものであっても構わな
い。
The three-dimensional measuring device for generating the three-dimensional solid model and the image input device for generating the surface attribute data may be separate or integrated.

【0067】三次元データ統合部65は、三次元形状取
得部63により得られた三次元立体形状モデルデータ
と、表面属性取得部61により得られた表面属性データ
とを統合し、対象物体の三次元統合データ66を作成す
る。さらに、作成した三次元統合データ66をネットワ
ークを通じて伝送する。
The three-dimensional data integration unit 65 integrates the three-dimensional solid shape model data obtained by the three-dimensional shape acquisition unit 63 and the surface attribute data obtained by the surface attribute acquisition unit 61, and the third order of the target object is obtained. The original integrated data 66 is created. Further, the created three-dimensional integrated data 66 is transmitted through the network.

【0068】観察者は、操作部69により所望の照明条
件・対象物体の位置や向きなどの観察環境の設定を行
う。そして、任意環境画像生成部67は、ネットワーク
を通じて伝送されてきた三次元統合データ66を受け
て、操作部69により設定された観察環境データに従
い、観察者所望の観察環境下での対象物体の画像を構築
する。
The observer sets a desired illumination condition and the observation environment such as the position and orientation of the target object using the operation unit 69. Then, the arbitrary environment image generation unit 67 receives the three-dimensional integrated data 66 transmitted through the network, and according to the observation environment data set by the operation unit 69, an image of the target object under the observation environment desired by the observer. To build.

【0069】画像出力装置71は、TVモニタやプリン
タなどからなり、任意環境画像生成部67により構築さ
れた画像の表示や印刷出力を行う。
The image output device 71 is composed of a TV monitor, a printer and the like, and displays and prints out the image constructed by the arbitrary environment image generation unit 67.

【0070】以上説明したように、本実施形態によれ
ば、三次元統合データをネットワークを介して送受信で
きるようにすることで、対象物体のデータを取り込む場
所と画像を再現する場所とが遠隔地にあるような場合に
でも、観察者所望の観察環境下での対象物体の三次元画
像を再現することができる。しかも、再現された画像
は、対象物体の質感、光沢感、立体感などをよりリアル
に再現したものとすることができる。
As described above, according to the present embodiment, by transmitting and receiving the three-dimensional integrated data via the network, the place where the data of the target object is taken in and the place where the image is reproduced are at remote locations. Even in such a case, it is possible to reproduce the three-dimensional image of the target object under the observation environment desired by the observer. Moreover, the reproduced image can be a more realistic reproduction of the texture, glossiness, and stereoscopic effect of the target object.

【0071】[0071]

【発明の効果】以上説明したように、本発明によれば、
実物体の表面属性データを含む三次元統合データを生成
するようにしているので、実物体の形状・テクスチャ・
色だけでなく、実物体の質感、光沢感、立体感などをよ
りリアルに再現した三次元画像を作成することができ
る。
As described above, according to the present invention,
Since the 3D integrated data including the surface attribute data of the real object is generated, the shape, texture,
It is possible to create a three-dimensional image that more realistically reproduces not only the color but also the texture, glossiness, and stereoscopic effect of the real object.

【0072】また、本発明では、三次元形状データおよ
び表面属性データの統合データと画像観察者の操作に応
じて設定された三次元画像の観察環境のデータとに基づ
いて、設定された観察環境下での実物体の三次元画像を
生成するようにしているので、観察環境を反映したかた
ちで実物体の質感、光沢感、立体感などをよりリアルに
再現した三次元画像を作成することができる。
Further, in the present invention, the observation environment set based on the integrated data of the three-dimensional shape data and the surface attribute data and the observation environment data of the three-dimensional image set according to the operation of the image observer. Since the 3D image of the real object below is generated, it is possible to create a 3D image that more realistically reproduces the texture, glossiness, and stereoscopic effect of the real object in a form that reflects the observation environment. it can.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の第1実施形態である三次元画像処理シ
ステムの構成を示す概略図である。
FIG. 1 is a schematic diagram showing a configuration of a three-dimensional image processing system that is a first embodiment of the present invention.

【図2】上記三次元画像処理システムにおける三次元形
状データおよび表面属性データの取得のための構成を示
す概略図である。
FIG. 2 is a schematic diagram showing a configuration for acquiring three-dimensional shape data and surface attribute data in the three-dimensional image processing system.

【図3】上記三次元画像処理システムにおいて生成され
る三次元統合データの一例を示す図である。
FIG. 3 is a diagram showing an example of 3D integrated data generated in the 3D image processing system.

【図4】上記三次元画像処理システムにおける表面属性
推定処理を示すフローチャートである。
FIG. 4 is a flowchart showing surface attribute estimation processing in the three-dimensional image processing system.

【図5】上記三次元画像処理システムにおける任意環境
画像生成装置および操作部を示す図である。
FIG. 5 is a diagram showing an arbitrary environment image generation device and an operation unit in the three-dimensional image processing system.

【図6】本発明の第2実施形態である三次元画像処理シ
ステムにおける三次元形状データおよび表面属性データ
の取得のための構成を示す概略図である。
FIG. 6 is a schematic diagram showing a configuration for acquiring three-dimensional shape data and surface attribute data in the three-dimensional image processing system according to the second embodiment of the present invention.

【図7】本発明の第4実施形態である三次元画像処理シ
ステムの構成を示す概略構成図である。
FIG. 7 is a schematic configuration diagram showing a configuration of a three-dimensional image processing system which is a fourth embodiment of the present invention.

【符号の説明】[Explanation of symbols]

1 表面属性取得部 3 三次元形状取得部 5 三次元データ統合部 7 任意環境画像生成部 9 操作部 11 画像出力装置 21 対象物体 22 三次元計測装置 23 画像入力装置 25 回転ステージ 26 回転軸 27 照明光源 31 対象物体 33 照明光源 35 対象物体配置設定部 37 照明光源設定部 51 対象物体 52 三次元計測装置 53 画像入力装置 55 回転ステージ 56 回転軸 57 照明光源 59 コンピュータ 61 表面属性取得部 63 三次元形状取得部 65 三次元データ統合部 66 三次元統合データ 67 任意環境画像生成部 69 操作部 71 画像出力装置 1 Surface attribute acquisition section 3 3D shape acquisition unit 5 3D data integration section 7 Optional environment image generator 9 Operation part 11 Image output device 21 target object 22 Three-dimensional measuring device 23 Image input device 25 rotation stage 26 rotation axis 27 Illumination light source 31 target object 33 Illumination light source 35 Target Object Placement Setting Section 37 Illumination light source setting section 51 target object 52 Three-dimensional measuring device 53 Image input device 55 rotation stage 56 rotation axis 57 Illumination light source 59 Computer 61 Surface attribute acquisition unit 63 Three-dimensional shape acquisition unit 65 3D Data Integration Department 66 three-dimensional integrated data 67 Arbitrary environment image generation unit 69 Operation part 71 Image output device

───────────────────────────────────────────────────── フロントページの続き Fターム(参考) 5B050 BA09 BA13 CA07 DA02 DA04 DA07 EA06 EA07 EA27 EA28 FA02 FA05 FA13 5B057 BA02 CA01 CA08 CA13 CA16 CB01 CB08 CB13 CB17 CD20 CE08 CE15 CH08 DA07 DA08 DA12 DA13 DA16 DB03 DB06 DB09 DC03 DC09 DC32 5B080 BA04 FA02 FA09 GA15 GA22 GA25    ─────────────────────────────────────────────────── ─── Continued front page    F-term (reference) 5B050 BA09 BA13 CA07 DA02 DA04                       DA07 EA06 EA07 EA27 EA28                       FA02 FA05 FA13                 5B057 BA02 CA01 CA08 CA13 CA16                       CB01 CB08 CB13 CB17 CD20                       CE08 CE15 CH08 DA07 DA08                       DA12 DA13 DA16 DB03 DB06                       DB09 DC03 DC09 DC32                 5B080 BA04 FA02 FA09 GA15 GA22                       GA25

Claims (27)

【特許請求の範囲】[Claims] 【請求項1】 実物体からこの実物体の三次元画像を作
成するためのデータを得る三次元画像処理装置であっ
て、 前記実物体の三次元形状データを得る三次元形状取得部
と、 前記実物体の表面属性データを得る表面属性取得部と、 前記三次元形状取得部にて得られた三次元形状データと
前記表面属性取得部にて得られた表面属性データとを統
合して三次元統合データを生成する三次元データ統合部
とを有することを特徴とする三次元画像処理装置。
1. A three-dimensional image processing apparatus for obtaining data for creating a three-dimensional image of a real object from a real object, comprising: a three-dimensional shape acquisition unit for obtaining three-dimensional shape data of the real object; A surface attribute acquisition unit that obtains the surface attribute data of the real object, a three-dimensional shape by integrating the three-dimensional shape data obtained by the three-dimensional shape acquisition unit and the surface attribute data obtained by the surface attribute acquisition unit. A three-dimensional image processing device, comprising: a three-dimensional data integration unit that generates integrated data.
【請求項2】 前記表面属性取得部は、前記実物体の撮
影画像から得られる実測データに基づいて前記実物体の
表面属性を推定することにより表面属性データを生成す
ることを特徴とする請求項1に記載の三次元画像処理装
置。
2. The surface attribute acquisition unit generates surface attribute data by estimating a surface attribute of the real object based on actual measurement data obtained from a captured image of the real object. The three-dimensional image processing device according to 1.
【請求項3】 前記表面属性取得部は、 前記実物体の撮影画像から得られた実測データから拡散
反射成分データおよび鏡面反射成分データをそれぞれ得
て、これら反射成分データに基づいて前記実物体の表面
属性のうち反射特性を推定することを特徴とする請求項
2に記載の三次元画像処理装置。
3. The surface attribute acquisition unit obtains diffuse reflection component data and specular reflection component data respectively from actual measurement data obtained from a photographed image of the real object, and based on these reflection component data, the real object of the real object is obtained. The three-dimensional image processing apparatus according to claim 2, wherein the reflection characteristic of the surface attributes is estimated.
【請求項4】 前記表面属性取得部は、前記実物体の撮
影画像から得られた実測データから表面属性を推定する
ために用いる実測データを選択することを特徴とする請
求項2に記載の三次元画像処理装置。
4. The tertiary according to claim 2, wherein the surface attribute acquisition unit selects actual measurement data used for estimating a surface attribute from actual measurement data obtained from a captured image of the real object. Original image processing device.
【請求項5】 画像観察者の操作に応じて前記実物体の
撮影環境を変化させる制御部を有することを特徴とする
請求項2に記載の三次元画像処理装置。
5. The three-dimensional image processing apparatus according to claim 2, further comprising a control unit that changes a shooting environment of the real object according to an operation of an image observer.
【請求項6】 前記制御部は、前記撮影環境としての光
源の位置、色、形状のうち少なくとも1つを変化させる
ことを特徴とする請求項5に記載の三次元画像処理装
置。
6. The three-dimensional image processing apparatus according to claim 5, wherein the control unit changes at least one of a position, a color, and a shape of the light source as the photographing environment.
【請求項7】 実物体からこの実物体の三次元形状デー
タおよび表面属性データを得る三次元画像処理装置と、 この三次元画像処理装置により得られた三次元形状デー
タおよび表面属性データの統合データと画像観察者の操
作に応じて設定された三次元画像の観察環境のデータと
に基づいて、設定された観察環境下での前記実物体の三
次元画像を生成する画像生成装置とを有することを特徴
とする三次元画像処理システム。
7. A three-dimensional image processing device for obtaining three-dimensional shape data and surface attribute data of the real object from a real object, and integrated data of the three-dimensional shape data and surface attribute data obtained by the three-dimensional image processing device. And an image generation device for generating a three-dimensional image of the real object under the set observation environment based on the observation environment data of the three-dimensional image set according to the operation of the image observer. A three-dimensional image processing system characterized by.
【請求項8】 前記三次元統合データは、三次元形状デ
ータおよび表面属性データを取得した前記実物体上の各
部位の三次元形状データおよび表面属性データを統合し
たものを構成要素とすることを特徴とする請求項7に記
載の三次元画像処理システム。
8. The three-dimensional integrated data is configured by integrating three-dimensional shape data and surface attribute data of each part on the real object from which the three-dimensional shape data and surface attribute data are acquired. The three-dimensional image processing system according to claim 7, which is characterized in that.
【請求項9】 前記三次元統合データは、三次元形状デ
ータおよび表面属性データを取得した前記実物体上の各
部位のうち表面属性データが類似している複数の部位の
三次元形状データおよび表面属性データを統合したもの
を構成要素とすることを特徴とする請求項7に記載の三
次元画像処理システム。
9. The three-dimensional integrated data includes three-dimensional shape data and surfaces of a plurality of parts having similar surface attribute data among the parts on the real object from which the three-dimensional shape data and surface attribute data are acquired. The three-dimensional image processing system according to claim 7, characterized in that a combination of attribute data is used as a constituent element.
【請求項10】 実物体からこの実物体の三次元画像を
作成するためのデータを得る三次元画像処理方法であっ
て、 前記実物体の三次元形状データを得る形状データ取得ス
テップと、 前記実物体の表面属性データを得る表面属性データ取得
ステップと、 前記形状データ取得ステップおよび前記表面属性データ
取得ステップにてそれぞれ得られたデータを統合して三
次元統合データを生成する三次元データ統合ステップと
を有することを特徴とする三次元画像処理方法。
10. A three-dimensional image processing method for obtaining data for creating a three-dimensional image of a real object from a real object, comprising: a shape data acquisition step for obtaining three-dimensional shape data of the real object; A surface attribute data acquisition step of obtaining surface attribute data of the body; and a three-dimensional data integration step of integrating data obtained in the shape data acquisition step and the surface attribute data acquisition step to generate three-dimensional integrated data, A three-dimensional image processing method comprising:
【請求項11】 前記表面属性データ取得ステップにお
いて、前記実物体の撮影画像から得られる実測データに
基づいて前記実物体の表面属性を推定することにより表
面属性データを生成することを特徴とする請求項10に
記載の三次元画像処理方法。
11. The surface attribute data is generated by estimating the surface attribute of the real object based on actual measurement data obtained from a photographed image of the real object in the surface attribute data acquisition step. Item 3. The three-dimensional image processing method according to Item 10.
【請求項12】 前記表面属性データ取得ステップにお
いて、 前記実物体の撮影画像から得られた実測データから拡散
反射成分データおよび鏡面反射成分データをそれぞれ得
て、これら反射成分データに基づいて前記実物体の表面
属性のうち反射特性を推定することを特徴とする請求項
10に記載の三次元画像処理方法。
12. In the surface attribute data acquisition step, diffuse reflection component data and specular reflection component data are respectively obtained from actual measurement data obtained from a photographed image of the real object, and the real object is obtained based on these reflection component data. The three-dimensional image processing method according to claim 10, wherein the reflection characteristic is estimated from among the surface attributes of.
【請求項13】 前記表面属性データ取得ステップにお
いて、前記実物体の撮影画像から得られた実測データか
ら表面属性を推定するために用いる実測データを選択す
ることを特徴とする請求項11に記載の三次元画像処理
方法。
13. The actual measurement data used for estimating the surface attribute from the actual measurement data obtained from the photographed image of the real object in the surface attribute data acquisition step, wherein the actual measurement data is selected. Three-dimensional image processing method.
【請求項14】 画像観察者の操作に応じて前記実物体
の撮影環境を変化させる撮影環境設定ステップを含むこ
とを特徴とする請求項11に記載の三次元画像処理方
法。
14. The three-dimensional image processing method according to claim 11, further comprising a shooting environment setting step of changing a shooting environment of the real object according to an operation of an image observer.
【請求項15】 前記撮影環境設定ステップにおいて、
前記撮影環境としての光源の位置、色、形状のうち少な
くとも1つを変化させることを特徴とする請求項14に
記載の三次元画像処理方法。
15. In the photographing environment setting step,
15. The three-dimensional image processing method according to claim 14, wherein at least one of a position, a color, and a shape of the light source as the shooting environment is changed.
【請求項16】 実物体からこの実物体の三次元形状デ
ータおよび表面属性データを得るデータ取得ステップ
と、 このデータ取得ステップにより得られた前記三次元形状
データおよび表面属性データの統合データと画像観察者
の操作に応じて設定された三次元画像の観察環境を示す
データとに基づいて、設定された観察環境下での前記実
物体の三次元画像を生成する画像生成ステップとを有す
ることを特徴とする三次元画像処理方法。
16. A data acquisition step of obtaining three-dimensional shape data and surface attribute data of this real object from a real object, integrated data of the three-dimensional shape data and surface attribute data obtained by this data acquisition step, and image observation. An image generation step of generating a three-dimensional image of the real object under the set observation environment based on the data indicating the observation environment of the three-dimensional image set according to the operation of the user. And a three-dimensional image processing method.
【請求項17】 前記三次元統合データは、三次元形状
データおよび表面属性データを取得した前記実物体上の
各部位の三次元形状データおよび表面属性データを統合
したものを構成要素とすることを特徴とする請求項16
に記載の三次元画像処理方法。
17. The three-dimensional integrated data is configured by integrating three-dimensional shape data and surface attribute data of each part on the real object from which three-dimensional shape data and surface attribute data are acquired. 16. The method according to claim 16,
The three-dimensional image processing method described in.
【請求項18】 前記三次元統合データは、三次元形状
データおよび表面属性データを取得した前記実物体上の
各部位のうち表面属性データが類似している複数の部位
の三次元形状データおよび表面属性データを統合したも
のを構成要素とすることを特徴とする請求項16に記載
の三次元画像処理方法。
18. The three-dimensional integrated data includes three-dimensional shape data and surfaces of a plurality of parts having similar surface attribute data among the parts on the real object from which the three-dimensional shape data and the surface attribute data are acquired. The three-dimensional image processing method according to claim 16, characterized in that the attribute data is integrated.
【請求項19】 コンピュータを動作させて実物体から
この実物体の三次元画像を作成するためのデータを得る
三次元画像処理プログラムであって、 前記実物体の三次元形状データを得る形状データ取得ス
テップと、 前記実物体の表面属性データを得る表面属性データ取得
ステップと、 前記形状データ取得ステップおよび前記表面属性データ
取得ステップにてそれぞれ得られたデータを統合して三
次元統合データを生成する三次元データ統合ステップと
を有することを特徴とする三次元画像処理プログラム。
19. A three-dimensional image processing program for operating a computer to obtain data for creating a three-dimensional image of a real object from the real object, wherein shape data acquisition for obtaining three-dimensional shape data of the real object. A step, a surface attribute data acquisition step for obtaining the surface attribute data of the real object, a third step for generating three-dimensional integrated data by integrating the data respectively obtained in the shape data acquisition step and the surface attribute data acquisition step A three-dimensional image processing program having an original data integration step.
【請求項20】 前記表面属性取得ステップにおいて、
前記実物体の撮影画像から得られる実測データに基づい
て前記実物体の表面属性を推定することにより表面属性
データを生成することを特徴とする請求項19に記載の
三次元画像処理プログラム。
20. In the surface attribute acquisition step,
20. The three-dimensional image processing program according to claim 19, wherein the surface attribute data is generated by estimating a surface attribute of the real object based on actual measurement data obtained from a captured image of the real object.
【請求項21】 前記表面属性取得ステップにおいて、
前記実物体の撮影画像から得られた実測データから拡散
反射成分データおよび鏡面反射成分データをそれぞれ得
て、これら反射成分データに基づいて前記実物体の表面
属性のうち反射特性を推定することを特徴とする請求項
20に記載の三次元画像処理プログラム。
21. In the surface attribute acquisition step,
Diffuse reflection component data and specular reflection component data are respectively obtained from the actual measurement data obtained from the photographed image of the real object, and the reflection characteristics of the surface attributes of the real object are estimated based on these reflection component data. The three-dimensional image processing program according to claim 20.
【請求項22】 前記表面属性取得ステップにおいて、
撮影画像から得られた実測データから表面属性を推定す
るために用いる実測データを選択することを特徴とする
請求項20に記載の三次元画像処理プログラム。
22. In the surface attribute acquisition step,
The three-dimensional image processing program according to claim 20, wherein actual measurement data used for estimating a surface attribute is selected from actual measurement data obtained from a captured image.
【請求項23】 画像観察者の操作に応じて前記実物体
の撮影環境を変化させるステップを含むことを特徴とす
る請求項20に記載の三次元画像処理プログラム。
23. The three-dimensional image processing program according to claim 20, further comprising a step of changing a shooting environment of the real object according to an operation of an image observer.
【請求項24】 前記表面属性データ取得ステップにお
いて、前記撮影環境として光源の位置、色、形状のうち
少なくとも1つの変更が可能であることを特徴とする請
求項23に記載の三次元画像処理プログラム。
24. The three-dimensional image processing program according to claim 23, wherein in the surface attribute data acquisition step, at least one of a position, a color and a shape of a light source can be changed as the photographing environment. .
【請求項25】 コンピュータを動作させる三次元画像
処理プログラムであって、 実物体から三次元形状データおよび表面属性データを得
るデータ取得ステップと、 このデータ取得ステップにより得られた前記三次元形状
データおよび表面属性データの統合データと画像観察者
の操作に応じて設定された三次元画像の観察環境を示す
データとに基づいて、設定された観察環境下での前記実
物体の三次元画像を生成する画像生成ステップとを有す
ることを特徴とする三次元画像処理プログラム。
25. A three-dimensional image processing program for operating a computer, comprising: a data obtaining step of obtaining three-dimensional shape data and surface attribute data from a real object; and the three-dimensional shape data obtained by the data obtaining step, and A three-dimensional image of the real object under the set observation environment is generated based on the integrated data of the surface attribute data and the data indicating the observation environment of the three-dimensional image set according to the operation of the image observer. A three-dimensional image processing program, comprising: an image generating step.
【請求項26】 前記三次元統合データは、三次元形状
データおよび表面属性データを取得した前記実物体上の
各部位の三次元形状データおよび表面属性データを統合
したものを構成要素とすることを特徴とする請求項25
に記載の三次元画像処理プログラム。
26. The three-dimensional integrated data is configured by integrating three-dimensional shape data and surface attribute data of each part on the real object for which three-dimensional shape data and surface attribute data are acquired. 26. The method according to claim 25
The three-dimensional image processing program described in.
【請求項27】 前記三次元統合データは、三次元形状
データおよび表面属性データを取得した前記実物体上の
各部位のうち表面属性データが類似している複数の部位
の三次元形状データおよび表面属性データを統合したも
のを構成要素とすることを特徴とする請求項25に記載
の三次元画像処理プログラム。
27. The three-dimensional integrated data includes three-dimensional shape data and surfaces of a plurality of parts having similar surface attribute data among respective parts on the real object from which the three-dimensional shape data and the surface attribute data are acquired. 26. The three-dimensional image processing program according to claim 25, wherein the attribute data is integrated to be a constituent element.
JP2002014107A 2001-12-03 2002-01-23 Device, system, method and program for three-dimensional image processing Pending JP2003216970A (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2002014107A JP2003216970A (en) 2002-01-23 2002-01-23 Device, system, method and program for three-dimensional image processing
US10/303,791 US7034820B2 (en) 2001-12-03 2002-11-26 Method, apparatus and program for processing a three-dimensional image
US11/260,455 US7239312B2 (en) 2001-12-03 2005-10-28 Method, apparatus and program for processing a three-dimensional image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002014107A JP2003216970A (en) 2002-01-23 2002-01-23 Device, system, method and program for three-dimensional image processing

Publications (2)

Publication Number Publication Date
JP2003216970A true JP2003216970A (en) 2003-07-31
JP2003216970A5 JP2003216970A5 (en) 2005-06-23

Family

ID=27650879

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002014107A Pending JP2003216970A (en) 2001-12-03 2002-01-23 Device, system, method and program for three-dimensional image processing

Country Status (1)

Country Link
JP (1) JP2003216970A (en)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005115645A (en) * 2003-10-07 2005-04-28 Digital Fashion Ltd Shading information acquisition device and image processor
WO2006051841A1 (en) * 2004-11-15 2006-05-18 Mitsubishi Heavy Industries, Ltd. Texture reproducing system
JP2013526097A (en) * 2010-03-03 2013-06-20 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Apparatus and method for defining a color regime
JP2017001224A (en) * 2015-06-08 2017-01-05 キヤノン株式会社 Configuration data generation apparatus and configuration data generation method
US9754629B2 (en) 2010-03-03 2017-09-05 Koninklijke Philips N.V. Methods and apparatuses for processing or defining luminance/color regimes
JP2019003694A (en) * 2018-09-28 2019-01-10 キヤノン株式会社 Image processing apparatus, control method of the same, and program
JP2019160255A (en) * 2018-03-16 2019-09-19 株式会社リコー Information processing device, information processing method, program and three-dimensional molding system
JP2021508520A (en) * 2017-12-22 2021-03-11 株式会社ソニー・インタラクティブエンタテインメント Dynamic camera positioning using mobile robots, spatial capture by lighting, modeling, and texture reconstruction
JP7406348B2 (en) 2019-11-14 2023-12-27 キヤノン株式会社 Image processing device, image processing method, and program

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005115645A (en) * 2003-10-07 2005-04-28 Digital Fashion Ltd Shading information acquisition device and image processor
WO2006051841A1 (en) * 2004-11-15 2006-05-18 Mitsubishi Heavy Industries, Ltd. Texture reproducing system
US10134443B2 (en) 2010-03-03 2018-11-20 Koninklijke Philips N.V. Methods and apparatuses for processing or defining luminance/color regimes
JP2013526097A (en) * 2010-03-03 2013-06-20 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Apparatus and method for defining a color regime
US9595297B2 (en) 2010-03-03 2017-03-14 Koninklijke Philips N.V. Apparatuses and methods for defining color regimes
US9754629B2 (en) 2010-03-03 2017-09-05 Koninklijke Philips N.V. Methods and apparatuses for processing or defining luminance/color regimes
US10134444B2 (en) 2010-03-03 2018-11-20 Koninklijke Philips N.V. Methods and apparatuses for processing or defining luminance/color regimes
JP2017001224A (en) * 2015-06-08 2017-01-05 キヤノン株式会社 Configuration data generation apparatus and configuration data generation method
JP2021508520A (en) * 2017-12-22 2021-03-11 株式会社ソニー・インタラクティブエンタテインメント Dynamic camera positioning using mobile robots, spatial capture by lighting, modeling, and texture reconstruction
JP7184901B2 (en) 2017-12-22 2022-12-06 株式会社ソニー・インタラクティブエンタテインメント Spatial Capture, Modeling, and Texture Reconstruction with Dynamic Camera Positioning and Lighting Using Mobile Robots
JP2019160255A (en) * 2018-03-16 2019-09-19 株式会社リコー Information processing device, information processing method, program and three-dimensional molding system
JP2019003694A (en) * 2018-09-28 2019-01-10 キヤノン株式会社 Image processing apparatus, control method of the same, and program
JP7406348B2 (en) 2019-11-14 2023-12-27 キヤノン株式会社 Image processing device, image processing method, and program

Similar Documents

Publication Publication Date Title
Rivers et al. Sculpting by numbers
JP3962588B2 (en) 3D image processing method, 3D image processing apparatus, 3D image processing system, and 3D image processing program
JP5093053B2 (en) Electronic camera
JP3954211B2 (en) Method and apparatus for restoring shape and pattern in 3D scene
US6999073B1 (en) Method and system for generating fully-textured 3D
EP1883052A2 (en) Generating images combining real and virtual images
Brostow et al. Video normals from colored lights
JP2004157968A (en) Three-dimensional computer modeling
CN106256122A (en) Image processing equipment and image processing method
EP3382645B1 (en) Method for generation of a 3d model based on structure from motion and photometric stereo of 2d sparse images
JP2003202216A (en) Method, device, system and program for three-dimensional image processing
JP2003216970A (en) Device, system, method and program for three-dimensional image processing
JP2004280776A (en) Method for determining shape of object in image
JP2003216973A (en) Method, program, device and system for processing three- dimensional image
JP2004220312A (en) Multi-viewpoint camera system
JP2003302211A (en) Three-dimensional image processing unit and method
JP2005063041A (en) Three-dimensional modeling apparatus, method, and program
KR102571744B1 (en) Method and apparatus for generating three dimension contents
JP2002083286A (en) Method and device for generating avatar, and recording medium recorded with program therefor
JP2001118074A (en) Method and device for producing three-dimensional image and program recording medium
JP2005092549A (en) Three-dimensional image processing method and device
Pomaska Monitoring the deterioration of stone at Mindener Museum's Lapidarium
JP2004013869A (en) Apparatus for generating three-dimensional shape, method therefor, and its program
JP2003168129A (en) Method, program, apparatus and system for three- dimensional image processing
JP2002135807A (en) Method and device for calibration for three-dimensional entry

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20040927

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20040927

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20061212

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070209

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20070306