JP2001291116A - Device and method for generating three-dimensional image and program providing medium - Google Patents

Device and method for generating three-dimensional image and program providing medium

Info

Publication number
JP2001291116A
JP2001291116A JP2000109090A JP2000109090A JP2001291116A JP 2001291116 A JP2001291116 A JP 2001291116A JP 2000109090 A JP2000109090 A JP 2000109090A JP 2000109090 A JP2000109090 A JP 2000109090A JP 2001291116 A JP2001291116 A JP 2001291116A
Authority
JP
Japan
Prior art keywords
image
viewpoint
texture
images
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2000109090A
Other languages
Japanese (ja)
Other versions
JP4370672B2 (en
Inventor
Ikoku Go
偉国 呉
Atsushi Yokoyama
敦 横山
Hiroyuki Sato
寛幸 佐藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2000109090A priority Critical patent/JP4370672B2/en
Publication of JP2001291116A publication Critical patent/JP2001291116A/en
Application granted granted Critical
Publication of JP4370672B2 publication Critical patent/JP4370672B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To provide a texture mapping technique capable of generating a high quality three-dimensional image. SOLUTION: Two camera photographing viewpoint images adjacent to a virtual viewpoint are selected, weighting is performed about a parameter the two images have, e.g. RGB values based on an angle formed between a virtual viewpoint vector and a photographing viewpoint vector, and the texture image of the virtual viewpoint is generated based on the two camera photographing viewpoint images. When the angle formed between the vector V1 of a photographing viewpoint 1 and the vector E of the virtual viewpoint is defined as θ1 and an angle formed between the vector V2 of a photographing viewpoint 2 and the virtual viewpoint, image synthesis is calculated as α=θ1/(θ1+θ2), and RGB values at the virtual viewpoint is a sum of RGB values at the viewpoint 1×(1-α)+RGB values of the viewpoint 2×α.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、三次元形状モデル
に対するテクスチャ画像の貼り込み技術に関する三次元
画像生成装置および三次元画像生成方法、並びにプログ
ラム提供媒体に関する。さらに詳細には、仮想視点のテ
クスチャ画像の貼り付け処理を改良することにより、不
自然さの少ないリアルな三次元画像を生成することを可
能とした三次元画像生成装置および三次元画像生成方法
に関する。
[0001] 1. Field of the Invention [0002] The present invention relates to a three-dimensional image generating apparatus, a three-dimensional image generating method, and a program providing medium, which relate to a technique for pasting a texture image into a three-dimensional shape model. More specifically, the present invention relates to a three-dimensional image generating apparatus and a three-dimensional image generating method capable of generating a realistic three-dimensional image with less unnaturalness by improving a pasting process of a texture image of a virtual viewpoint. .

【0002】[0002]

【従来の技術】物体の三次元形状は、例えば、測定対象
に光を投射して、その光が反射して帰ってくるまでの時
間を測定したり、測定対象にスリット状のパターン光を
あてて測定対象に投影されたパターン光の形状を調べた
り、あるいは、2台以上のカメラを使って、その画像間
の対応点を見つけることで視差を求め、距離を計測する
ステレオ画像法等がよく知られている。
2. Description of the Related Art The three-dimensional shape of an object is measured, for example, by projecting light onto an object to be measured, measuring the time until the light is reflected and returning, or applying a slit-shaped pattern light to the object to be measured. A stereo image method is often used to examine the shape of the pattern light projected on the measurement object, or to use two or more cameras to find the corresponding points between the images to determine parallax and measure the distance, etc. Are known.

【0003】このような様々な手法で測定された測定対
象の距離データとしての三次元モデルに、測定対象の実
際の色彩を反映した画像を貼り付けることで、リアルな
3次元画像が生成される。測定対象の実画像をテクスチ
ャ画像と呼び、テクスチャ画像を3次元データに貼り付
けることをテクスチャマッピングと呼ぶ。
A realistic three-dimensional image is generated by pasting an image reflecting the actual color of the measurement target to a three-dimensional model as distance data of the measurement target measured by such various methods. . The actual image to be measured is called a texture image, and attaching the texture image to three-dimensional data is called texture mapping.

【0004】一般に三次元モデルの表面に貼り付ける画
像は、2次元のビットマップ画像やイメージファイル画
像である。3Dグラフィックス技術において作成した3
D形状モデルや3D形状計測装置で得られた物体の三次
元形状の表面に2次元のビットマップ画像やイメージフ
ァイル画像からなるテクスチャ画像を貼り合わせること
により、物体の三次元表示がなされる。例えば、レンガ
などの画像を貼ることにより自然な三次元の壁が表現で
きたり、球体に世界地図の絵を貼り付けることにより、
立体的な地球が表現されるようになる。
Generally, an image to be pasted on the surface of a three-dimensional model is a two-dimensional bitmap image or an image file image. 3 created in 3D graphics technology
By attaching a texture image composed of a two-dimensional bitmap image or an image file image to the surface of the three-dimensional shape of the object obtained by the D-shape model or the 3D shape measuring device, the object is displayed three-dimensionally. For example, a natural three-dimensional wall can be expressed by attaching an image such as a brick, or by attaching a picture of the world map to a sphere,
A three-dimensional earth comes to be expressed.

【0005】図1は、一般的なテクスチャマッピングの
手法を説明する図である。図1に示す三次元形状モデル
101は、例えば上述のステレオ画像法等によって取得
された距離データに基づく三次元形状モデル101であ
り、二次元画像(テクスチャ)102は、ある視点から
撮影した視覚的な色データ等を反映した実画像としての
二次元画像(テクスチャ)102である。テクスチャマ
ッピングは、三次元形状モデル101に、二次元画像
(テクスチャ)102を貼り付けて行われ、このテクス
チャマッピングにより、リアルな三次元表現が可能とな
る。なお、図に示すワイヤフレーム表示は、三次元形状
モデル101から得られるテクスチャを貼り付ける平面
領域を示すものである。
FIG. 1 is a diagram for explaining a general texture mapping technique. A three-dimensional shape model 101 shown in FIG. 1 is a three-dimensional shape model 101 based on distance data acquired by, for example, the above-described stereo image method, and a two-dimensional image (texture) 102 is a visual image captured from a certain viewpoint. A two-dimensional image (texture) 102 as an actual image reflecting various color data and the like. Texture mapping is performed by attaching a two-dimensional image (texture) 102 to a three-dimensional shape model 101, and a realistic three-dimensional expression is possible by this texture mapping. Note that the wire frame display shown in the figure shows a plane area where a texture obtained from the three-dimensional shape model 101 is to be pasted.

【0006】これまで、ステレオ画像法や、レーザ光の
投光などを併用した3D計測装置で得られた物体の3D
形状にテクスチャ画像を貼り合わせる技術について様々
な検討がなされている。複数の視点からのテクスチャ画
像を測定対象のそれぞれの領域に貼り付ける場合、複数
のテクスチャ画像が異なる光源状況で撮影されている
と、個々のテクスチャ画像の撮影時の光源状況の差によ
り、画像間の色調に差が生じテクスチャ画像の貼り付け
処理のみでは生成された画像に不自然な色合いが生じる
ことがある。このような状況を解消するために、テクス
チャ画像の撮影時の光源状況を推定し、その推定に基づ
いて画像間の色調の差異を補正することにより高画質な
テクスチャマッピングを行なう手法が開発されている
(例えば、佐藤いまり、佐藤洋一、池内克史:全方位ス
テレオによる実光源環境の計測とそれに基づく仮想物体
の実画像への重ね込み、電子情報通信学会論文誌 D−
II、Vol.J81−D−II,No.5,pp86
1−871,1998)。
Until now, the 3D measurement of an object obtained by a 3D measuring apparatus using a stereo image method, laser beam projection, etc.
Various studies have been made on a technique of attaching a texture image to a shape. When pasting texture images from multiple viewpoints to respective areas of the measurement target, if multiple texture images are captured under different light source conditions, the difference between the light source conditions at the time of shooting of each texture image may cause a difference between the images. And the generated image may have an unnatural hue if only the paste processing of the texture image is performed. In order to solve such a situation, a technique has been developed for performing high-quality texture mapping by estimating a light source situation at the time of capturing a texture image and correcting a color tone difference between the images based on the estimation. (For example, Imari Sato, Yoichi Sato, Katsushi Ikeuchi: Measurement of real light source environment by omnidirectional stereo and superimposition of virtual object on real image based on it, IEICE Transactions D-
II, Vol. J81-D-II, No. 5, pp86
1-871, 1998).

【0007】[0007]

【発明が解決しようとする課題】しかしながら、一般に
デジタルカメラやDVカム等を用いて野外の風景や建物
などを撮影する場合、照明光の光源推定は容易ではな
く、撮影した複数の画像(テクスチャ画像)を用いて高
画質のテクスチャマッピングを実行することは困難であ
る。複数の画像を用いることによる不自然さを避けるた
め、例えば図2に示すように1枚のテクスチャ画像のみ
を用いてテクスチャマッピングを行なう方法もある。図
2は、三次元形状モデル201のワイヤフレームに1枚
の二次元画像(テクスチャ画像)202の対応領域の画
像を貼りつけることにより、テクスチャマッピングを実
行する構成を示している。
However, in general, when photographing an outdoor scenery or a building using a digital camera, a DV cam, or the like, it is not easy to estimate the light source of the illumination light. ) Is difficult to perform high quality texture mapping. In order to avoid the unnaturalness caused by using a plurality of images, there is a method of performing texture mapping using only one texture image as shown in FIG. 2, for example. FIG. 2 shows a configuration in which texture mapping is performed by attaching an image of a corresponding area of one two-dimensional image (texture image) 202 to a wire frame of a three-dimensional shape model 201.

【0008】しかし、このような1枚の画像を用いる手
法では、視点の変更により、テクスチャの画質が低下す
るという問題が発生する。例えば図2に示すカップの正
面203の画像と端部204の画像をともに1枚の二次
元画像(テクスチャ)202から取得すると、カップの
正面の画質と端部の画質に差が発生し、画質の低下が発
生する。
However, in such a method using one image, there is a problem that the image quality of the texture is deteriorated due to the change of the viewpoint. For example, when the image of the front surface 203 and the image of the end portion 204 of the cup shown in FIG. 2 are both acquired from one two-dimensional image (texture) 202, a difference occurs between the image quality of the front surface of the cup and the image quality of the end portion. Is reduced.

【0009】このような画質低下を解消する手法とし
て、仮想視点に最も近い撮影視点のテクスチャ画像を選
択して三次元形状モデルに貼り付ける手法がある。この
手法を図3を用いて説明する。図3において、測定対象
301のテクスチャ画像の撮影を複数の視点(撮影視点
1〜n)によって撮り込み、仮想視点が設定されると、
その仮想視点に最も近い撮影視点を選択してそのテクス
チャ画像を測定対象301の三次元形状モデルに貼り付
ける。図3に示す例では、例えば仮想視点のRGB値を
撮影視点1あるいは撮影視点2のいずれかとするが、撮
影視点1と仮想視点間の角度をθ1とし、撮影視点2と
仮想視点間の角度をθ2として、θ1<θ2であれば撮
影視点1のRGB値を選択し、θ1>θ2であれば撮影
視点2のRGB値を選択する。このような方法によれ
ば、画質の向上が図られる。しかし、この手法において
は、画像間の濃淡連続性の保持が困難となり、視点の変
化による画像の不自然さが発生する。
[0009] As a method of solving such a decrease in image quality, there is a method of selecting a texture image of a shooting viewpoint closest to a virtual viewpoint and pasting the texture image on a three-dimensional shape model. This method will be described with reference to FIG. In FIG. 3, when a texture image of the measurement target 301 is captured from a plurality of viewpoints (imaging viewpoints 1 to n) and a virtual viewpoint is set,
The photographing viewpoint closest to the virtual viewpoint is selected, and the texture image is attached to the three-dimensional shape model of the measurement target 301. In the example shown in FIG. 3, for example, the RGB value of the virtual viewpoint is either the shooting viewpoint 1 or the shooting viewpoint 2, but the angle between the shooting viewpoint 1 and the virtual viewpoint is θ1, and the angle between the shooting viewpoint 2 and the virtual viewpoint is As θ2, if θ1 <θ2, the RGB value of the imaging viewpoint 1 is selected, and if θ1> θ2, the RGB value of the imaging viewpoint 2 is selected. According to such a method, the image quality is improved. However, in this method, it is difficult to maintain the continuity of light and shade between images, and the image becomes unnatural due to a change in viewpoint.

【0010】1つの面に対して複数枚のテクスチャ画像
の利用が可能である場合、視点の移動に伴うテクスチャ
画像の選択合成処理により、リアルな三次元物体を表現
するVDTM(View−dependent tex
ture mapping)という手法が開発されてい
る(Paul E.Debevec,Camillo J.Taylor and Jitendra
Malik:"Modeling and Rendering Architecture from Ph
otographs:A hybrid geometry-and image-based approa
ch,"ACM SHINNRAPH '96 Proceedings, pp.11-20,199
6.)。この手法は、1枚のテクスチャ画像を用いてテク
スチャマッピングを行なう従来のCG手法とは異なり、
三次元形状として再現できていない部分の視点移動によ
る見え方の変化を再現可能である。しかし、この手法で
は、画質を高めるために保持する画像データの量が膨大
になるという問題があり、また、複数のテクスチャ画像
の光源条件が一定でなければならないという制限があ
る。
[0010] When a plurality of texture images can be used for one surface, VDTM (View-dependent text) representing a realistic three-dimensional object is obtained by selectively synthesizing the texture images as the viewpoint moves.
A method called "true mapping" has been developed (Paul E. Debevec, Camillo J. Taylor and Jitendra).
Malik: "Modeling and Rendering Architecture from Ph
otographs: A hybrid geometry-and image-based approa
ch, "ACM SHINNRAPH '96 Proceedings, pp.11-20,199
6.) This method is different from the conventional CG method that performs texture mapping using one texture image.
It is possible to reproduce the change in appearance due to the movement of the viewpoint of a part that cannot be reproduced as a three-dimensional shape. However, this method has a problem that the amount of image data to be held to increase the image quality is enormous, and also has a limitation that the light source conditions of a plurality of texture images must be constant.

【0011】画像データ量を削減するために、視点が変
化する毎に見えている部分のテクスチャデータだけを伝
送してマッピングする手法(S. Horbelt, F.Jordan T.E
brahimi:"View-Dependent Texture Coding for Transmi
ssion of Virtual Environment."Proceedings of the 1
998 IEEE International Symposium on Circuits andSy
stems. Vol.5, No.6,pp.498-501,1998.)が開発されて
いる。しかし、この手法ではユーザ側で視点変更が行な
われる度にデータの伝送が実行されることになるので、
データアクセスの効率が悪いという欠点がある。
In order to reduce the amount of image data, a method of transmitting and mapping only the texture data of the visible portion every time the viewpoint changes (S. Horbelt, F. Jordan TE
brahimi: "View-Dependent Texture Coding for Transmi
ssion of Virtual Environment. "Proceedings of the 1
998 IEEE International Symposium on Circuits andSy
stems. Vol. 5, No. 6, pp. 498-501, 1998.). However, in this method, data transmission is performed every time the viewpoint is changed on the user side.
There is a disadvantage that data access efficiency is low.

【0012】また、三次元形状の再構成時に撮られた画
像間の対応を用いて画像間の内挿を行なう(Shenchang
Eric Chen, Lance Williams: "View Interpolation for
Image Synthesis,"ACM SHIGGRAPH '93 Proceedings.p
p..279-288,1993.、SStevenM. Seitz and Charles R.
Dyer: "View Morphing,"ACM SHIGGRAPH '96 Proceeding
s, pp.21-30,1996.)方法により、画像データ量を少な
くする方法も提案されている。しかし、この手法では、
撮影時の画像の撮り込み方により、画質の劣化や不自然
さの問題がある。
Further, interpolation between images is performed using correspondence between images taken at the time of reconstruction of a three-dimensional shape (Shenchang
Eric Chen, Lance Williams: "View Interpolation for
Image Synthesis, "ACM SHIGGRAPH '93 Proceedings.p
p. 279-288, 1993., SSteven M. Seitz and Charles R.
Dyer: "View Morphing," ACM SHIGGRAPH '96 Proceeding
s, pp. 21-30, 1996.), a method for reducing the amount of image data has been proposed. However, with this approach,
There is a problem of deterioration of image quality and unnaturalness depending on how to take an image at the time of shooting.

【0013】一方、テクスチャ画像の撮影時の光源状況
を推定する方法(佐藤いまり,佐藤洋一,池内克史:”
実物体のソフトシャドウにもとづく実照明環境の推
定,:情報処理学会研究報告,98−CVIM−11
0,1998)により、画像間の色調の違いを補正する
方法が検討されているが、補正処理のために画像中にあ
る決まった物体が移っていなければならないという制限
があり、この手法では、例えば野外で撮影した画像の光
源推定を行なうことはできない。
On the other hand, a method of estimating the light source condition at the time of capturing a texture image (Imari Sato, Yoichi Sato, Katsushi Ikeuchi: "
Estimation of Real Illumination Environment Based on Soft Shadow of Real Object, IPSJ Research Report, 98-CVIM-11
0, 1998), a method of correcting a color difference between images has been studied. However, there is a restriction that a certain object in the image must be moved for the correction process. For example, it is not possible to estimate the light source of an image taken outdoors.

【0014】本発明の三次元画像生成装置および三次元
画像生成方法は、上述の各種従来技術の欠点に鑑みてな
されたものであり、光源推定等の手法を用いることな
く、画像の輝度平均値と分散を用いる濃淡値補正手法に
より、仮想視点に最も近い視点で撮影した2枚の画像を
用いてその仮想視点のテクスチャ画像を作成して、不自
然さのないリアルな三次元画像の生成を可能とすること
を目的とする。
The three-dimensional image generating apparatus and the three-dimensional image generating method of the present invention have been made in view of the above-mentioned drawbacks of the various prior arts. By using two images taken from the viewpoint closest to the virtual viewpoint, a texture image of the virtual viewpoint is created using a gray value correction method using variance and variance to generate a realistic three-dimensional image without unnaturalness. The purpose is to make it possible.

【0015】[0015]

【課題を解決するための手段】本発明は、上記課題を参
酌してなされたものであり、その第1の側面は、三次元
形状モデルにテクスチャ画像を貼り付けることにより三
次元画像を生成する三次元画像生成装置において、複数
のカメラ撮影視点画像から、三次元画像に対する仮想視
点に最も近い撮影視点方向を有する2つのカメラ撮影テ
クスチャ画像を選択し、前記仮想視点方向と、前記2つ
のカメラ撮影テクスチャ画像の2つの撮影視点方向各々
とのなす角度に基づいて、前記2つのカメラ撮影テクス
チャ画像の持つ画像パラメータの重み付けによる両画像
の合成処理を実行して前記仮想視点における画像パラメ
ータを算出し、該パラメータに基づいてテクスチャマッ
ピングを実行する構成を有することを特徴とする三次元
画像生成装置にある。
SUMMARY OF THE INVENTION The present invention has been made in consideration of the above problems, and a first aspect of the present invention is to generate a three-dimensional image by pasting a texture image on a three-dimensional shape model. In the three-dimensional image generation device, two camera-captured texture images having the closest viewpoint to the virtual viewpoint for the three-dimensional image are selected from the plurality of camera-capture viewpoint images, and the virtual viewpoint direction and the two camera-captured images are selected. Based on the angle between each of the two photographing viewpoint directions of the texture image, a process of synthesizing the two images by weighting the image parameters of the two camera photographed texture images is performed to calculate image parameters at the virtual viewpoint. A three-dimensional image generating apparatus having a configuration for executing texture mapping based on the parameters; .

【0016】さらに、本発明の三次元画像生成装置の一
実施態様において、前記仮想視点における画像のパラメ
ータの算出処理は、前記仮想視点に最も近い撮影視点方
向を有する2つのカメラ撮影テクスチャ画像の撮影視点
を撮影視点1、撮影視点2としたとき、撮影視点1のベ
クトルV1と仮想視点のベクトルEとのなす角をθ1と
し、撮影視点2のベクトルV2と仮想視点のなすベクト
ルEとのなす角をθ2として、α=θ1/(θ1+θ
2)を求め、仮想視点における画像パラメータ=撮影視
点1の画像パラメータ×(1−α)+撮影視点2の画像
パラメータ×αとして求める構成であることを特徴とす
る。
Further, in one embodiment of the three-dimensional image generating apparatus according to the present invention, the processing of calculating the parameters of the image at the virtual viewpoint is performed by photographing two camera photographed texture images having the photographing viewpoint directions closest to the virtual viewpoint. When the viewpoints are imaging viewpoint 1 and imaging viewpoint 2, the angle between the vector V1 of the imaging viewpoint 1 and the vector E of the virtual viewpoint is θ1, and the angle between the vector V2 of the imaging viewpoint 2 and the vector E of the virtual viewpoint is Is defined as θ2, α = θ1 / (θ1 + θ
2) is obtained, and the image parameter at the virtual viewpoint = the image parameter of the photographing viewpoint 1 × (1−α) + the image parameter of the photographing viewpoint 2 × α.

【0017】さらに、本発明の三次元画像生成装置の一
実施態様において、前記画像パラメータはRGB値また
は濃淡値のいずれかを含むことを特徴とする。
Further, in one embodiment of the three-dimensional image generating apparatus according to the present invention, the image parameters include one of an RGB value and a gray value.

【0018】さらに、本発明の三次元画像生成装置の一
実施態様において、前記複数のカメラ撮影視点画像にお
けるテクスチャ画像として使用する画像領域について、
画像の濃淡平均値と分散値の正規化処理を実行し、正規
化処理後の画像について、画像パラメータの重み付けに
よる両画像の合成処理を実行して前記仮想視点における
画像パラメータの算出処理を実行する構成であることを
特徴とする。
Further, in one embodiment of the three-dimensional image generating apparatus of the present invention, an image area used as a texture image in the plurality of camera viewpoint images is
A normalization process of the gray-scale average value and the variance value of the image is executed, and the image after the normalization process is subjected to a synthesis process of the two images by weighting the image parameters to execute a calculation process of the image parameter at the virtual viewpoint. It is characterized by having a configuration.

【0019】さらに、本発明の第2の側面は、三次元形
状モデルにテクスチャ画像を貼り付けることにより三次
元画像を生成する三次元画像生成方法において、複数の
カメラ撮影視点画像から、三次元画像に対する仮想視点
に最も近い撮影視点方向を有する2つのカメラ撮影テク
スチャ画像を選択する画像選択ステップと、前記仮想視
点方向と、前記2つのカメラ撮影テクスチャ画像の2つ
の撮影視点方向各々とのなす角度に基づいて、前記2つ
のカメラ撮影テクスチャ画像の持つ画像パラメータの重
み付けによる両画像の合成処理を実行する合成処理ステ
ップと、前記仮想視点における画像パラメータを算出
し、該パラメータに基づいてテクスチャマッピングを実
行するテクスチャマッピングステップと、を有すること
を特徴とする三次元画像生成方法にある。
According to a second aspect of the present invention, there is provided a three-dimensional image generating method for generating a three-dimensional image by pasting a texture image on a three-dimensional shape model. An image selecting step of selecting two camera-photographed texture images having the closest photographing viewpoint directions to the virtual viewpoint with respect to the angle between the virtual viewpoint direction and each of the two photographing viewpoint directions of the two camera-photographed texture images. A combining process step of performing a combining process of the two images by weighting the image parameters of the two camera-photographed texture images, and calculating image parameters at the virtual viewpoint, and performing texture mapping based on the parameters. Texture mapping step; and In the image generation process.

【0020】さらに、本発明の三次元画像生成方法の一
実施態様において、前記仮想視点における画像のパラメ
ータの算出処理は、前記仮想視点に最も近い撮影視点方
向を有する2つのカメラ撮影テクスチャ画像の撮影視点
を撮影視点1、撮影視点2としたとき、撮影視点1のベ
クトルV1と仮想視点のベクトルEとのなす角をθ1と
し、撮影視点2のベクトルV2と仮想視点のなすベクト
ルEとのなす角をθ2として、α=θ1/(θ1+θ
2)を求め、仮想視点における画像パラメータ=撮影視
点1の画像パラメータ×(1−α)+撮影視点2の画像
パラメータ×αとして求めることを特徴とする。
Further, in one embodiment of the three-dimensional image generation method of the present invention, the processing of calculating the parameters of the image at the virtual viewpoint is performed by photographing two camera photographed texture images having the photographing viewpoint directions closest to the virtual viewpoint. When the viewpoints are imaging viewpoint 1 and imaging viewpoint 2, the angle between the vector V1 of the imaging viewpoint 1 and the vector E of the virtual viewpoint is θ1, and the angle between the vector V2 of the imaging viewpoint 2 and the vector E of the virtual viewpoint is Is defined as θ2, α = θ1 / (θ1 + θ
2) is obtained, and the image parameter at the virtual viewpoint = the image parameter of the imaging viewpoint 1 × (1−α) + the image parameter of the imaging viewpoint 2 × α.

【0021】さらに、本発明の三次元画像生成方法の一
実施態様において、前記画像パラメータはRGB値また
は濃淡値のいずれかを含むことを特徴とする。
Further, in one embodiment of the three-dimensional image generating method according to the present invention, the image parameters include one of an RGB value and a gray value.

【0022】さらに、本発明の三次元画像生成方法の一
実施態様において、前記複数のカメラ撮影視点画像にお
けるテクスチャ画像として使用する画像領域について、
画像の濃淡平均値と分散値の正規化処理を実行する正規
化処理ステップを有し、前記合成処理ステップは、前記
正規化処理後の画像について、画像パラメータの重み付
けによる両画像の合成処理を実行することを特徴とす
る。
Further, in one embodiment of the three-dimensional image generating method of the present invention, the image area used as a texture image in the plurality of camera viewpoint images is
The image processing apparatus further includes a normalization processing step of performing a normalization processing of an average value and a variance value of the image, and the synthesis processing step executes synthesis processing of the two images by weighting image parameters on the image after the normalization processing. It is characterized by doing.

【0023】さらに、本発明の第3の側面は、三次元形
状モデルにテクスチャ画像を貼り付けることにより三次
元画像を生成する三次元画像生成処理をコンピュータ・
システム上で実行せしめるコンピュータ・プログラムを
有形的に提供するプログラム提供媒体であって、前記コ
ンピュータ・プログラムは、複数のカメラ撮影視点画像
から、三次元画像に対する仮想視点に最も近い撮影視点
方向を有する2つのカメラ撮影テクスチャ画像を選択す
る画像選択ステップと、前記仮想視点方向と、前記2つ
のカメラ撮影テクスチャ画像の2つの撮影視点方向各々
とのなす角度に基づいて、前記2つのカメラ撮影テクス
チャ画像の持つ画像パラメータの重み付けによる両画像
の合成処理を実行する合成処理ステップと、前記仮想視
点における画像パラメータを算出し、該パラメータに基
づいてテクスチャマッピングを実行するテクスチャマッ
ピングステップと、を有することを特徴とするプログラ
ム提供媒体にある。
Furthermore, a third aspect of the present invention is a computer-based three-dimensional image generation process for generating a three-dimensional image by pasting a texture image on a three-dimensional model.
A program providing medium tangibly providing a computer program to be executed on a system, wherein the computer program has a shooting viewpoint direction closest to a virtual viewpoint for a three-dimensional image from a plurality of camera shooting viewpoint images. An image selection step of selecting two camera-photographed texture images; and an angle between the virtual viewpoint direction and each of the two camera-view texture directions of the two camera-photographed texture images. A combination processing step of performing a combination processing of the two images by weighting the image parameters; and a texture mapping step of calculating an image parameter in the virtual viewpoint and performing a texture mapping based on the parameter. On the program distribution medium

【0024】本発明の第3の側面に係るプログラム提供
媒体は、例えば、様々なプログラム・コードを実行可能
な汎用コンピュータ・システムに対して、コンピュータ
・プログラムをコンピュータ可読な形式で提供する媒体
である。媒体は、CDやFD、MOなどの記憶媒体、あ
るいは、ネットワークなどの伝送媒体など、その形態は
特に限定されない。
The program providing medium according to the third aspect of the present invention is, for example, a medium for providing a computer program in a computer-readable format to a general-purpose computer system capable of executing various program codes. . The form of the medium is not particularly limited, such as a storage medium such as a CD, an FD, and an MO, and a transmission medium such as a network.

【0025】このようなプログラム提供媒体は、コンピ
ュータ・システム上で所定のコンピュータ・プログラム
の機能を実現するための、コンピュータ・プログラムと
提供媒体との構造上又は機能上の協働的関係を定義した
ものである。換言すれば、該提供媒体を介してコンピュ
ータ・プログラムをコンピュータ・システムにインスト
ールすることによって、コンピュータ・システム上では
協働的作用が発揮され、本発明の他の側面と同様の作用
効果を得ることができるのである。
Such a program providing medium defines a structural or functional cooperative relationship between the computer program and the providing medium for realizing a predetermined computer program function on a computer system. Things. In other words, by installing the computer program into the computer system via the providing medium, a cooperative operation is exerted on the computer system, and the same operation and effect as the other aspects of the present invention can be obtained. You can do it.

【0026】本発明のさらに他の目的、特徴や利点は、
後述する本発明の実施例や添付する図面に基づくより詳
細な説明によって明らかになるであろう。
Still other objects, features and advantages of the present invention are:
It will become apparent from the following more detailed description based on the embodiments of the present invention and the accompanying drawings.

【0027】[0027]

【発明の実施の形態】本発明の三次元画像生成装置およ
び三次元画像生成方法について、以下詳細に説明する。
まず、図4を用いて、本発明の三次元画像生成装置にお
いて実行されるテクスチャ画像マッピングの概要を説明
する。
DESCRIPTION OF THE PREFERRED EMBODIMENTS A three-dimensional image generating apparatus and a three-dimensional image generating method according to the present invention will be described in detail below.
First, the outline of the texture image mapping executed in the three-dimensional image generation device of the present invention will be described with reference to FIG.

【0028】本発明の三次元画像生成装置において実行
されるテクスチャ画像マッピングには、測定対象401
に対して視点の異なる複数枚のテクスチャ画像を用い、
仮想視点に最も近い2枚の画像を選択して、選択した2
枚の画像に基づいて、仮想視点と実際の撮影視点との角
度を重みとした合成処理により得られる新しいテクスチ
ャ画像を用いてテクスチャマッピングを行なう。
In the texture image mapping executed in the three-dimensional image generating apparatus of the present invention, the object 401 to be measured is used.
Using multiple texture images with different viewpoints for
The two images closest to the virtual viewpoint are selected, and the selected two
Based on the images, texture mapping is performed using a new texture image obtained by a synthesis process in which the angle between the virtual viewpoint and the actual shooting viewpoint is weighted.

【0029】例えば画像表示を画像のカラー値を決定す
るパラメータとしてRGB値を用いて実行する場合につ
いて想定する。仮想視点が撮影視点1と撮影視点2間に
位置する場合、仮想視点におけるRGB値は次式によっ
て算出される。下記式において、αは撮影視点1のベク
トルV1と仮想視点のベクトルEとのなす角をθ1と
し、撮影視点2のベクトルV2と仮想視点のなすベクト
ルEとのなす角をθ2としたとき、α=θ1/(θ1+
θ2)として定義される。
For example, it is assumed that image display is executed using RGB values as parameters for determining the color value of an image. When the virtual viewpoint is located between the shooting viewpoint 1 and the shooting viewpoint 2, the RGB values at the virtual viewpoint are calculated by the following equations. In the following equation, α is α1, where θ1 is the angle between the vector V1 of the shooting viewpoint 1 and the vector E of the virtual viewpoint, and θ2 is the angle between the vector V2 of the shooting viewpoint 2 and the vector E of the virtual viewpoint. = Θ1 / (θ1 +
θ2).

【0030】[0030]

【数1】仮想視点におけるRGB値 =撮影視点1のRGB値×(1−α) +撮影視点2のRGB値×α………(式1)## EQU1 ## RGB value at virtual viewpoint = RGB value of photographing viewpoint 1 × (1−α) + RGB value of photographing viewpoint 2 × α (Equation 1)

【0031】上記式から理解されるように、仮想視点の
テクスチャ画像の画像パラメータであるRGB値は、仮
想視点に近接する2枚の撮影視点からの画像の合成処理
によって求められる。なお、仮想視点方向が1つの撮影
視点方向と一致する場合は、仮想視点の画像は、その一
致する撮影視点の画像として定義し、2つの画像の合成
処理は行なわない。
As can be understood from the above equation, the RGB values, which are the image parameters of the texture image of the virtual viewpoint, are obtained by synthesizing images from two photographing viewpoints close to the virtual viewpoint. When the virtual viewpoint direction matches one shooting viewpoint direction, the image of the virtual viewpoint is defined as the image of the matching shooting viewpoint, and the combining processing of the two images is not performed.

【0032】上記式により求める仮想視点のテクスチャ
画像は、撮影視点の画像を用いた合成処理により生成さ
れることになるので、視点1〜nで撮影したn枚の画像
の照明条件の違いが吸収でき、画像間の連続性が保持さ
れる。その結果、高解像度のテクスチャ画像マッピング
が可能となり、また、三次元形状として再現できていな
い部分に対しても、視点変更による見え方の変化を再現
でき、よりリアルな三次元表示が可能となる。
Since the texture image of the virtual viewpoint obtained by the above equation is generated by a synthesis process using the image of the photographing viewpoint, the difference in the illumination conditions of the n images photographed at the viewpoints 1 to n is absorbed. And continuity between images is maintained. As a result, high-resolution texture image mapping becomes possible, and even for a part that cannot be reproduced as a three-dimensional shape, a change in appearance due to a viewpoint change can be reproduced, and a more realistic three-dimensional display becomes possible. .

【0033】特に、視点を変化させた場合の画像変化が
なめらかになるという効果がある。すなわち、カメラ視
点画像がn枚あり、これらをV1〜Vnとしたとき、例
えばある仮想視点画像はカメラ撮影視点画像V1,V2
によって合成され、視点を移すと、カメラ撮影視点画像
V2,V3による合成画像に切り換えられ、さらにV3
とV4の合成画像、V4とV5の合成画像と切り換わる
ことになる。このように、視点を連続的に変更すると、
対応するテクスチャ画像は、連続的に前のテクスチャ画
像に使用されていた画像が引き続き使用され、その使用
割合も視点の移動に伴って連続的に変化することになる
ので、画像間の不連続性が減少し、観察者に違和感を生
じさせない。
In particular, there is an effect that an image change when the viewpoint is changed becomes smooth. That is, when there are n camera viewpoint images and these are V1 to Vn, for example, a certain virtual viewpoint image is a camera photographing viewpoint image V1, V2.
When the viewpoint is shifted, the image is switched to the synthesized image based on the camera photographing viewpoint images V2 and V3.
And the combined image of V4 and the combined image of V4 and V5. Thus, if you change the viewpoint continuously,
As the corresponding texture image, the image that was continuously used for the previous texture image is continuously used, and the usage ratio also changes continuously as the viewpoint moves, so discontinuity between images Is reduced, and the observer does not feel discomfort.

【0034】次に、図5を用いて本発明の三次元画像生
成装置における複数の撮影視点画像を用いた合成処理に
より、テクスチャマッピングを行ない三次元画像を生成
する処理について説明する。
Next, a process of generating a three-dimensional image by performing texture mapping by a synthesizing process using a plurality of photographing viewpoint images in the three-dimensional image generating apparatus of the present invention will be described with reference to FIG.

【0035】ステップS501は、撮影視点画像の画像
枚数の設定を行なう初期化ステップである。ステップS
501は撮影視点画像枚数=nであることを示す。ステ
ップS502において、仮想視点ベクトルEの変化の有
無を判定する。仮想視点ベクトルEが変化したと判定さ
れると、ステップS503〜ステップS506におい
て、カメラ視点i=1〜nに基づくカメラ撮影視点ベク
トルV1〜Vnと、仮想視点ベクトルEとのベクトル比
較を実行し、仮想視点ベクトルEに最も近接する撮影視
点ベクトルを選択する。具体的には各カメラ撮影視点ベ
クトルViと仮想視点ベクトルEとの内積を計算して、
その値を相互に比較する処理を行なう。
Step S501 is an initialization step for setting the number of images of the photographing viewpoint images. Step S
Numeral 501 indicates that the number of photographing viewpoint images = n. In step S502, it is determined whether or not the virtual viewpoint vector E has changed. When it is determined that the virtual viewpoint vector E has changed, in steps S503 to S506, a vector comparison is performed between the camera photographing viewpoint vectors V1 to Vn based on the camera viewpoints i = 1 to n and the virtual viewpoint vector E, The photographing viewpoint vector closest to the virtual viewpoint vector E is selected. Specifically, the inner product of each camera shooting viewpoint vector Vi and the virtual viewpoint vector E is calculated,
The values are compared with each other.

【0036】仮想視点に最も近い2つの撮影視点ベクト
ルが選択されると、次のステップS507において、三
次元画像における画像間の濃淡分布のばらつきを抑える
ために、画像の濃淡分布の平均値と分散値の正規化処理
を実行する。この処理フローを図6に示す。
When the two photographing viewpoint vectors closest to the virtual viewpoint are selected, in the next step S507, the average value and the variance of the image gradation distribution are reduced in order to suppress the dispersion of the gradation distribution between images in the three-dimensional image. Perform value normalization. FIG. 6 shows this processing flow.

【0037】図6のステップS601では、テクスチャ
マッピング用画像の入力を行なう。すなわちカメラ視点
1〜nのテクスチャ画像を入力する。ステップS602
では画像1〜nに対して、テクスチャとして用いる部分
画像領域を切出す。この部分領域は、例えば前述の図5
に示すステップS503〜S606において仮想視点を
合成するために使用される画像として選択された領域の
画像を含む画像である。
In step S601 in FIG. 6, a texture mapping image is input. That is, texture images of camera viewpoints 1 to n are input. Step S602
Then, a partial image region to be used as a texture is cut out for images 1 to n. This partial area corresponds to, for example, FIG.
Are images including the image of the area selected as the image used for synthesizing the virtual viewpoint in steps S503 to S606 shown in FIG.

【0038】次に、ステップS603において、ステッ
プS602で切出された部分画像領域の濃淡平均値と分
散を算出する。次に、ステップS604において、各部
分画像領域の濃淡平均値と分散値の正規化処理を実行し
てテクスチャマッピング処理に使用する画像を補正す
る。なお、部分画像領域の濃淡平均値と分散の算出に基
づく正規化処理は、例えば、各カメラ視点画像に濃淡の
ばらつきがほとんどないと判断される場合等には、必ず
しも実行することを必要としない。
Next, in step S603, the average value and the variance of the gray level of the partial image area extracted in step S602 are calculated. Next, in step S604, normalization processing of the grayscale average value and variance value of each partial image area is executed to correct the image used for the texture mapping processing. Note that the normalization processing based on the calculation of the grayscale average value and the variance of the partial image area does not necessarily need to be performed, for example, when it is determined that there is almost no grayscale variation in each camera viewpoint image. .

【0039】その後、仮想視点におけるテクスチャ画像
を、ステップS505で選択した2つのカメラ視点画像
からの合成処理によりステップS508において生成す
る。画像の合成方法は、先に説明した(式1)の重み付
けにより実行する。このようにして仮想視点のテクスチ
ャ画像を生成してマッピングを行ない三次元画像を生成
する。ステップS508で合成処理を実行する2つのカ
メラ視点画像は、ステップS507において濃淡平均値
と分散値の正規化処理を行なった各カメラ視点画像であ
り、三次元画像における画像間の濃淡分布のばらつきが
抑えられたものとなる。なお、仮想視点と1つの撮影視
点が一致した場合は、1つの撮影視点画像のみを採用す
ることになり、2つの画像からの合成処理は実行しな
い。
Thereafter, a texture image at the virtual viewpoint is generated in step S508 by a synthesis process from the two camera viewpoint images selected in step S505. The method of synthesizing the image is executed by the weighting of (Equation 1) described above. In this way, a texture image of the virtual viewpoint is generated and mapped to generate a three-dimensional image. The two camera viewpoint images for which the synthesizing process is performed in step S508 are the camera viewpoint images that have been subjected to the normalization processing of the grayscale average value and the variance value in step S507. It will be suppressed. When the virtual viewpoint and one photographing viewpoint match, only one photographing viewpoint image is used, and the combining process from the two images is not executed.

【0040】なお、上述の画像合成処理では、2つの画
像がカラー画像でありRGB値を持つ画像の例としての
合成処理を説明したが、白黒画像であっても、またRG
B以外のパラメータであっても、その上記式1と同様の
方法により、仮想視点画像の画像パラメータを2つの最
近接カメラ視点画像のパラメータの重み付け処理により
実行することが可能である。これらのパラメータの重み
づけは、仮想視点のベクトルEと2つの最近接カメラ視
点画像のカメラ視点ベクトルとのなす角度に基づいて実
行される。
In the above-described image synthesizing process, the synthesizing process has been described as an example in which two images are color images and images having RGB values.
Even for parameters other than B, it is possible to execute the image parameters of the virtual viewpoint image by weighting the parameters of the two closest camera viewpoint images in the same manner as in the above equation 1. The weighting of these parameters is executed based on the angle between the virtual viewpoint vector E and the camera viewpoint vectors of the two closest camera viewpoint images.

【0041】上述した画像処理により、より現実感のあ
るリアルな三次元画像が生成される。なお、テクスチャ
マッピングでは、例えば前述の図1で示したワイヤフレ
ーム領域ごとに上述の合成画像を生成して、これをワイ
ヤフレーム領域毎に貼り付ける処理を実行することによ
って三次元画像を生成する。複数のワイヤフレーム領域
にはりつけるテクスチャ画像間の整合性の調整は、例え
ば因子分解法によって実現される。これは、図7に示す
ように、撮影対象であるオブジェクトに対して複数枚の
異なる視点からのカメラ視点画像(t=1〜n)を撮影
し、さらに、1つのカメラ視点画像、例えばt=1のカ
メラ視点画像に基づいて特徴点をいくつか取得する。さ
らに取得した特徴点に対応する位置を各カメラ視点画像
において判別して、計測マトリックス(Measurement Ma
trix)を算出し、UΣV’の因子分解を行ない、カメラ
の動きMに合わせた形状Sの生成処理を実行する。
By the above-described image processing, a realistic three-dimensional image having a more realistic feeling is generated. In the texture mapping, for example, a three-dimensional image is generated by generating the above-described composite image for each wire frame region shown in FIG. 1 and executing a process of pasting the composite image for each wire frame region. Adjustment of the consistency between the texture images attached to the plurality of wire frame regions is realized by, for example, a factor decomposition method. In this method, as shown in FIG. 7, camera viewpoint images (t = 1 to n) are photographed from a plurality of different viewpoints for an object to be photographed, and one camera viewpoint image, for example, t = Some feature points are acquired based on one camera viewpoint image. Further, the position corresponding to the acquired feature point is determined in each camera viewpoint image, and a measurement matrix (Measurement Matrix) is determined.
trix) is calculated, UΣV 'is factorized, and a process of generating a shape S according to the movement M of the camera is executed.

【0042】図7は、異なる視点で撮影した複数枚の画
像を用いて対象の三次元形状とカメラの動きを復元する
方法、及び手順を示すものである。
FIG. 7 shows a method and procedure for restoring the three-dimensional shape of an object and the movement of a camera using a plurality of images taken from different viewpoints.

【0043】まず、カメラの視点を変えながら、対象を
撮影する。撮影したF枚の画像を{ft(x,y)|t
=1,....,F}と記し、その一枚目の画像f1
(x,y)からP個の特徴点をウィンドウ内の分散評価
値などによって抽出し、F枚の画像にわたって追跡す
る。特徴点追跡によって得られた各フレーム上の特徴点
座標(Xfp,Yfp)を行列W(ここで計測行列と呼
ぶ)で表現することができる。そして、線形的な射影モ
デルを適用し、特異値分解法(SVD)によって計測行
列Wを2つの直行行列U,V’と対角行列Σに分解する
ことができる。そこで、直行行列U,V’では、それぞ
れカメラの動き情報Mと対象の三次元情報Sが含まれて
いる。また、カメラの姿勢を表現する単位ベクトル
(i,j,k)の拘束条件を用いると、MとSを一意に
決めるための行列Aが求められる。従って、カメラ動き
Mと対象の三次元形状Sが一意に決まることになる。
First, an object is photographed while changing the viewpoint of the camera. F ft (x, y) | t
= 1,. . . . , F} and the first image f1
P feature points are extracted from (x, y) by the variance evaluation value in the window and the like, and are traced over F images. The feature point coordinates (Xfp, Yfp) on each frame obtained by the feature point tracking can be represented by a matrix W (herein referred to as a measurement matrix). Then, by applying a linear projection model, the measurement matrix W can be decomposed into two orthogonal matrices U and V ′ and a diagonal matrix に よ っ て by singular value decomposition (SVD). Therefore, the orthogonal matrices U and V ′ include the camera motion information M and the target three-dimensional information S, respectively. Further, by using the constraint condition of the unit vector (i, j, k) representing the posture of the camera, a matrix A for uniquely determining M and S is obtained. Therefore, the camera movement M and the three-dimensional shape S of the object are uniquely determined.

【0044】なお、上述の因子分解法を用いる対象の三
次元形状とカメラ動きの復元法に関する詳細は、例えば
金出らの論文「因子分解法による物体形状とカメラ運動
の復元」電子情報通信学会論文誌D−II、Vol.J
76−D−II,No.8,pp.1497−1505
(1993.8)を参照されたい。
For details on the method of restoring the three-dimensional shape of an object and camera motion using the above-described factorization method, see, for example, a paper by Kanade et al. Transaction D-II, Vol. J
76-D-II, no. 8, pp. 1497-1505
(1993.3).

【0045】図8は、本発明の三次元画像生成装置にお
いて、仮想視点に近接する2つのカメラ視点画像による
合成処理を用いてテクスチャマッピングを行なった例を
示したものである。この例では16枚のカメラ視点画像
を用い、各仮想視点に対して上述した手法により、仮想
視点ベクトルと2つの最近接カメラ視点ベクトるとのな
す角度を重みとした合成処理により、仮想視点における
画像パラメータ、例えばRGB値を算出してマッピング
を行なったものである。本方法により、いずれの視点に
おいても、高画質のテクスチャ画像がマッピングされた
FIG. 8 shows an example in which texture mapping is performed in the three-dimensional image generating apparatus of the present invention by using a synthesizing process using two camera viewpoint images close to a virtual viewpoint. In this example, 16 camera viewpoint images are used, and by the above-described method for each virtual viewpoint, a combining process is performed by weighting the angle between the virtual viewpoint vector and the two closest camera viewpoint vectors, thereby obtaining a virtual viewpoint. The mapping is performed by calculating image parameters, for example, RGB values. With this method, high-quality texture images were mapped at any viewpoint.

【0046】図9は、本発明の三次元画像生成処理によ
る三次元画像(c)と、従来の手法によって得られる三
次元画像(a)、(b)との比較処理を行なったもので
ある。従来の手法(a)は1枚のテクスチャ画像によっ
てテクスチャマッピングを行なって得られる三次元画像
である。この例は、図8(a)に示すフレーム1の画像
を用いて三次元画像にマッピングし、その結果をある視
点から見たときの表示結果である。この(a)の態様
は、視点を変更しても、テクスチャが変更されないの
で、視点を変えた場合のテクスチャに不自然さが発生
し、特に窓部分のテクスチャ画質の低下が目立つ。
FIG. 9 shows a comparison between the three-dimensional image (c) obtained by the three-dimensional image generation processing of the present invention and the three-dimensional images (a) and (b) obtained by the conventional method. . The conventional method (a) is a three-dimensional image obtained by performing texture mapping using one texture image. This example is a display result when mapping to a three-dimensional image using the image of frame 1 shown in FIG. 8A and viewing the result from a certain viewpoint. In the mode (a), even if the viewpoint is changed, the texture is not changed. Therefore, the texture when the viewpoint is changed causes unnaturalness, and the quality of the texture of the window is particularly deteriorated.

【0047】図9(b)は、図8(a)に示す16枚の
異なる視点からのテクスチャ画像を用いて仮想視点にも
っとも近い撮影視点の画像を選択するいわゆるマッピン
グ法によってある視点からの視点画像を表示したもので
ある。この(b)の例では、視点の変更に伴い、テクス
チャも変更されるが、テクスチャ変更時の画像間の濃淡
値に急激な変化が発生することがあり、観察者に違和感
を発生させる。これは、各カメラ撮影視点の画像撮影時
の照明条件の差異によるものであり、また、(a)と同
様、特に窓部分においてテクスチャ画質の劣化が目立
つ。
FIG. 9B shows a view from a certain viewpoint by a so-called mapping method in which an image of a shooting viewpoint closest to the virtual viewpoint is selected using texture images from 16 different viewpoints shown in FIG. An image is displayed. In the example of (b), the texture is also changed in accordance with the change of the viewpoint, but a sharp change may occur in the grayscale value between the images when the texture is changed, which causes a sense of discomfort to the observer. This is due to the difference in lighting conditions at the time of photographing the image from each camera photographing viewpoint, and similarly to FIG.

【0048】図9(c)は、本発明の三次元画像生成方
法によって生成した画像であり、視点に近接する2つの
撮影画像の合成処理により視点画像を生成したものであ
る。視点が変わることにより、テクスチャ画像も変化す
るが、その際の画像は、例えばカメラ視点画像をV1〜
Vnとしたとき、ある仮想視点画像はカメラ撮影視点画
像V1,V2によって合成され、視点を移すと、カメラ
撮影視点画像V2,V3によって合成された画像とな
り、さらにV3とV4の合成画像、V4とV5の合成画
像と続くことになる。このように、視点を連続的に変更
すると、対応するテクスチャ画像は、連続的に前のテク
スチャ画像に使用されていた画像が引き続き使用される
ことになるので、画像間の不連続性が減少し、観察者に
違和感を生じさせない。さらに、先に図6を用いて説明
した濃淡平均値と分散値の正規化処理を実行すれば、さ
らに画像間の差異が解消される。
FIG. 9C shows an image generated by the three-dimensional image generation method of the present invention, in which a viewpoint image is generated by synthesizing two photographed images close to the viewpoint. As the viewpoint changes, the texture image also changes, and the image at that time is, for example, a camera viewpoint image V1 to V1.
When Vn is set, a certain virtual viewpoint image is synthesized by the camera shooting viewpoint images V1 and V2. When the viewpoint is shifted, an image synthesized by the camera shooting viewpoint images V2 and V3, and further, a synthesized image of V3 and V4, V4 and This follows the composite image of V5. As described above, when the viewpoint is continuously changed, the discontinuity between images is reduced because the corresponding texture image is continuously used as the image used for the previous texture image. It does not cause any discomfort to the observer. Further, if the normalization processing of the grayscale average value and the variance value described above with reference to FIG. 6 is executed, the difference between the images is further eliminated.

【0049】上述のように、本発明の三次元画像生成装
置および三次元画像生成方法によれば、より高画質で、
かつ視点移動時の画像の連続性が向上した三次元画像が
得られる。本発明の三次元画像生成手法を例えばVRM
L(Virtual Reality Modeling Language)に適用する
ことにより、ブラウザ上でのより現実感のある三次元画
像の表示が可能となる。
As described above, according to the three-dimensional image generating apparatus and the three-dimensional image generating method of the present invention, higher image quality can be obtained.
In addition, a three-dimensional image in which the continuity of the image when the viewpoint moves is improved. The three-dimensional image generation method of the present invention is applied to, for example,
By applying to L (Virtual Reality Modeling Language), a more realistic three-dimensional image can be displayed on a browser.

【0050】以上、特定の実施例を参照しながら、本発
明について詳解してきた。しかしながら、本発明の要旨
を逸脱しない範囲で当業者が該実施例の修正や代用を成
し得ることは自明である。すなわち、例示という形態で
本発明を開示してきたのであり、限定的に解釈されるべ
きではない。本発明の要旨を判断するためには、冒頭に
記載した特許請求の範囲の欄を参酌すべきである。
The present invention has been described in detail with reference to the specific embodiments. However, it is obvious that those skilled in the art can modify or substitute the embodiment without departing from the spirit of the present invention. That is, the present invention has been disclosed by way of example, and should not be construed as limiting. In order to determine the gist of the present invention, the claims described at the beginning should be considered.

【0051】[0051]

【発明の効果】以上、説明してきたように、本発明の三
次元画像生成装置および三次元画像生成方法によれば仮
想視点に近接する2つのカメラ視点画像による合成処理
を用いてテクスチャマッピングを行なう構成としたの
で、高画質で、かつ視点移動時の画像の連続性が向上し
た三次元画像を生成することが可能となる。
As described above, according to the three-dimensional image generation apparatus and the three-dimensional image generation method of the present invention, texture mapping is performed using a synthesis process using two camera viewpoint images close to a virtual viewpoint. With this configuration, it is possible to generate a three-dimensional image with high image quality and improved continuity of images when moving the viewpoint.

【図面の簡単な説明】[Brief description of the drawings]

【図1】一般的なテクスチャマッピングの手法について
説明する図である。
FIG. 1 is a diagram illustrating a general texture mapping technique.

【図2】従来の1枚の画像を用いたテクスチャマッピン
グ手法を説明する図である。
FIG. 2 is a diagram illustrating a conventional texture mapping method using one image.

【図3】従来の複数枚画像を用いたテクスチャ画像選択
によるマッピング手法を説明する図である。
FIG. 3 is a diagram illustrating a conventional mapping method based on texture image selection using a plurality of images.

【図4】本発明の三次元画像生成装置において適用する
2枚の画像を用いたテクスチャマッピング手法を説明す
る図である。
FIG. 4 is a diagram illustrating a texture mapping method using two images applied in the three-dimensional image generation device of the present invention.

【図5】本発明の三次元画像生成装置において適用する
2枚の画像を用いたテクスチャマッピング手法の処理フ
ローを説明する図である。
FIG. 5 is a diagram illustrating a processing flow of a texture mapping method using two images applied in the three-dimensional image generation device of the present invention.

【図6】本発明の三次元画像生成装置において適用する
2枚の画像を用いたテクスチャマッピングにおける画像
の濃淡平均値、分散値の正規化処理フローを説明する図
である。
FIG. 6 is a diagram illustrating a normalization processing flow of an average value and a variance value of an image in texture mapping using two images applied in the three-dimensional image generation device of the present invention.

【図7】本発明の三次元形状計測装置における形状復元
手法について説明する図である。
FIG. 7 is a diagram for explaining a shape restoring method in the three-dimensional shape measuring apparatus of the present invention.

【図8】本発明の三次元形状計測装置において生成され
る三次元画像の処理例について説明する図である。
FIG. 8 is a diagram illustrating a processing example of a three-dimensional image generated by the three-dimensional shape measuring apparatus of the present invention.

【図9】本発明の三次元形状計測装置において生成され
る三次元画像と従来手法によって生成された三次元画像
を比較した図である。
FIG. 9 is a diagram comparing a three-dimensional image generated by the three-dimensional shape measuring apparatus of the present invention with a three-dimensional image generated by a conventional method.

【符号の説明】[Explanation of symbols]

101 三次元形状モデル 102 二次元画像(テクスチャ) 201 三次元形状モデル 202 二次元画像(テクスチャ) 301 測定対象 401 測定対象 Reference Signs List 101 3D shape model 102 2D image (texture) 201 3D shape model 202 2D image (texture) 301 Measurement target 401 Measurement target

───────────────────────────────────────────────────── フロントページの続き (72)発明者 佐藤 寛幸 山形県米沢市本町3丁目1番17号 本町ハ イツ201号室 Fターム(参考) 5B050 BA09 DA04 DA07 EA13 EA19 EA26 5B080 GA22  ────────────────────────────────────────────────── ─── Continuing on the front page (72) Inventor Hiroyuki Sato 3-1-1, Honcho, Yonezawa-shi, Yamagata Fukushima, Room 201 F-term (reference) 5B050 BA09 DA04 DA07 EA13 EA19 EA26 5B080 GA22

Claims (9)

【特許請求の範囲】[Claims] 【請求項1】三次元形状モデルにテクスチャ画像を貼り
付けることにより三次元画像を生成する三次元画像生成
装置において、 複数のカメラ撮影視点画像から、三次元画像に対する仮
想視点に最も近い撮影視点方向を有する2つのカメラ撮
影テクスチャ画像を選択し、 前記仮想視点方向と、前記2つのカメラ撮影テクスチャ
画像の2つの撮影視点方向各々とのなす角度に基づい
て、前記2つのカメラ撮影テクスチャ画像の持つ画像パ
ラメータの重み付けによる両画像の合成処理を実行して
前記仮想視点における画像パラメータを算出し、該パラ
メータに基づいてテクスチャマッピングを実行する構成
を有することを特徴とする三次元画像生成装置。
1. A three-dimensional image generating apparatus for generating a three-dimensional image by pasting a texture image to a three-dimensional shape model, comprising: a camera viewpoint direction closest to a virtual viewpoint for the three-dimensional image from a plurality of camera viewpoint images; The two camera-captured texture images are selected based on an angle between the virtual viewpoint direction and each of the two camera-captured texture images. A three-dimensional image generation apparatus, comprising: a configuration for executing image synthesis processing of both images by weighting parameters to calculate image parameters at the virtual viewpoint, and executing texture mapping based on the parameters.
【請求項2】前記仮想視点における画像のパラメータの
算出処理は、 前記仮想視点に最も近い撮影視点方向を有する2つのカ
メラ撮影テクスチャ画像の撮影視点を撮影視点1、撮影
視点2としたとき、撮影視点1のベクトルV1と仮想視
点のベクトルEとのなす角をθ1とし、撮影視点2のベ
クトルV2と仮想視点のなすベクトルEとのなす角をθ
2として、α=θ1/(θ1+θ2)を求め、仮想視点
における画像パラメータ=撮影視点1の画像パラメータ
×(1−α)+撮影視点2の画像パラメータ×αとして
求める構成であることを特徴とする請求項1に記載の三
次元画像生成装置。
2. A process for calculating parameters of an image at a virtual viewpoint, comprising: setting a shooting viewpoint 1 and a shooting viewpoint 2 of two camera shooting texture images having a shooting viewpoint direction closest to the virtual viewpoint; The angle between the vector V1 of the viewpoint 1 and the vector E of the virtual viewpoint is θ1, and the angle between the vector V2 of the imaging viewpoint 2 and the vector E of the virtual viewpoint is θ.
2, the configuration is such that α = θ1 / (θ1 + θ2) is obtained, and the image parameter at the virtual viewpoint = the image parameter of the imaging viewpoint 1 × (1−α) + the image parameter of the imaging viewpoint 2 × α. The three-dimensional image generation device according to claim 1.
【請求項3】前記画像パラメータはRGB値または濃淡
値のいずれかを含むことを特徴とする請求項1に記載の
三次元画像生成装置。
3. The three-dimensional image generating apparatus according to claim 1, wherein said image parameter includes one of an RGB value and a gray value.
【請求項4】三次元画像生成装置は、 前記複数のカメラ撮影視点画像におけるテクスチャ画像
として使用する画像領域について、画像の濃淡平均値と
分散値の正規化処理を実行し、正規化処理後の画像につ
いて、画像パラメータの重み付けによる両画像の合成処
理を実行して前記仮想視点における画像パラメータの算
出処理を実行する構成であることを特徴とする請求項1
に記載の三次元画像生成装置。
4. A three-dimensional image generating apparatus, comprising: executing a normalization process of an average value and a variance value of an image with respect to an image region used as a texture image in the plurality of camera viewpoint images; 2. The image processing apparatus according to claim 1, wherein a combination of the two images is performed by weighting the image parameters, and a calculation process of the image parameters at the virtual viewpoint is performed.
3. The three-dimensional image generation device according to 1.
【請求項5】三次元形状モデルにテクスチャ画像を貼り
付けることにより三次元画像を生成する三次元画像生成
方法において、 複数のカメラ撮影視点画像から、三次元画像に対する仮
想視点に最も近い撮影視点方向を有する2つのカメラ撮
影テクスチャ画像を選択する画像選択ステップと、 前記仮想視点方向と、前記2つのカメラ撮影テクスチャ
画像の2つの撮影視点方向各々とのなす角度に基づい
て、前記2つのカメラ撮影テクスチャ画像の持つ画像パ
ラメータの重み付けによる両画像の合成処理を実行する
合成処理ステップと、 前記仮想視点における画像パラメータを算出し、該パラ
メータに基づいてテクスチャマッピングを実行するテク
スチャマッピングステップと、 を有することを特徴とする三次元画像生成方法。
5. A three-dimensional image generating method for generating a three-dimensional image by pasting a texture image on a three-dimensional shape model, comprising: a plurality of camera viewpoint images; An image selecting step of selecting two camera-photographed texture images having: a virtual viewpoint direction; and an angle between each of the two camera-viewpoint directions of the two camera-photographed texture images. A combination processing step of performing a combination processing of both images by weighting image parameters possessed by the image, and a texture mapping step of calculating an image parameter in the virtual viewpoint and performing a texture mapping based on the parameter. Characteristic three-dimensional image generation method.
【請求項6】前記仮想視点における画像のパラメータの
算出処理は、 前記仮想視点に最も近い撮影視点方向を有する2つのカ
メラ撮影テクスチャ画像の撮影視点を撮影視点1、撮影
視点2としたとき、撮影視点1のベクトルV1と仮想視
点のベクトルEとのなす角をθ1とし、撮影視点2のベ
クトルV2と仮想視点のなすベクトルEとのなす角をθ
2として、α=θ1/(θ1+θ2)を求め、仮想視点
における画像パラメータ=撮影視点1の画像パラメータ
×(1−α)+撮影視点2の画像パラメータ×αとして
求めることを特徴とする請求項5に記載の三次元画像生
成方法。
6. A process for calculating parameters of an image at the virtual viewpoint, wherein the photographing viewpoints of two camera photographing texture images having the photographing viewpoint directions closest to the virtual viewpoint are photographing viewpoint 1 and photographing viewpoint 2. The angle between the vector V1 of the viewpoint 1 and the vector E of the virtual viewpoint is θ1, and the angle between the vector V2 of the imaging viewpoint 2 and the vector E of the virtual viewpoint is θ.
6. A value of α = θ1 / (θ1 + θ2) is calculated as 2, and an image parameter at the virtual viewpoint = image parameter of shooting viewpoint 1 × (1−α) + image parameter of shooting viewpoint 2 × α. 3. The method for generating a three-dimensional image according to item 1.
【請求項7】前記画像パラメータはRGB値または濃淡
値のいずれかを含むことを特徴とする請求項5に記載の
三次元画像生成方法。
7. The method according to claim 5, wherein the image parameters include one of an RGB value and a gray value.
【請求項8】三次元画像生成方法において、さらに、 前記複数のカメラ撮影視点画像におけるテクスチャ画像
として使用する画像領域について、画像の濃淡平均値と
分散値の正規化処理を実行する正規化処理ステップを有
し、 前記合成処理ステップは、 前記正規化処理後の画像について、画像パラメータの重
み付けによる両画像の合成処理を実行することを特徴と
する請求項5に記載の三次元画像生成方法。
8. A three-dimensional image generation method, further comprising: a normalization processing step of executing a normalization process of an average value and a variance value of an image for an image area used as a texture image in the plurality of camera viewpoint images. The three-dimensional image generation method according to claim 5, further comprising: performing a synthesis process on the image after the normalization process by weighting image parameters.
【請求項9】三次元形状モデルにテクスチャ画像を貼り
付けることにより三次元画像を生成する三次元画像生成
処理をコンピュータ・システム上で実行せしめるコンピ
ュータ・プログラムを有形的に提供するプログラム提供
媒体であって、前記コンピュータ・プログラムは、 複数のカメラ撮影視点画像から、三次元画像に対する仮
想視点に最も近い撮影視点方向を有する2つのカメラ撮
影テクスチャ画像を選択する画像選択ステップと、 前記仮想視点方向と、前記2つのカメラ撮影テクスチャ
画像の2つの撮影視点方向各々とのなす角度に基づい
て、前記2つのカメラ撮影テクスチャ画像の持つ画像パ
ラメータの重み付けによる両画像の合成処理を実行する
合成処理ステップと、 前記仮想視点における画像パラメータを算出し、該パラ
メータに基づいてテクスチャマッピングを実行するテク
スチャマッピングステップと、 を有することを特徴とするプログラム提供媒体。
9. A program providing medium tangibly providing a computer program for causing a computer system to execute a three-dimensional image generation process of generating a three-dimensional image by pasting a texture image on a three-dimensional shape model. An image selection step of selecting, from a plurality of camera shooting viewpoint images, two camera shot texture images having shooting viewpoint directions closest to a virtual viewpoint for a three-dimensional image; and the virtual viewpoint direction; A combining process step of performing a combining process of the two camera captured texture images by weighting image parameters of the two camera captured texture images based on an angle formed between each of the two captured captured image directions and the two capturing viewpoint directions; Calculate the image parameters at the virtual viewpoint, and Program providing medium characterized by having a texture mapping step of performing a texture mapping based on.
JP2000109090A 2000-04-11 2000-04-11 3D image generating apparatus, 3D image generating method, and program providing medium Expired - Fee Related JP4370672B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000109090A JP4370672B2 (en) 2000-04-11 2000-04-11 3D image generating apparatus, 3D image generating method, and program providing medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000109090A JP4370672B2 (en) 2000-04-11 2000-04-11 3D image generating apparatus, 3D image generating method, and program providing medium

Publications (2)

Publication Number Publication Date
JP2001291116A true JP2001291116A (en) 2001-10-19
JP4370672B2 JP4370672B2 (en) 2009-11-25

Family

ID=18621833

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000109090A Expired - Fee Related JP4370672B2 (en) 2000-04-11 2000-04-11 3D image generating apparatus, 3D image generating method, and program providing medium

Country Status (1)

Country Link
JP (1) JP4370672B2 (en)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002157603A (en) * 2000-11-21 2002-05-31 Mixed Reality Systems Laboratory Inc Device and method for image processing, and storage medium
WO2003075224A1 (en) * 2002-03-04 2003-09-12 Matsushita Electric Industrial Co., Ltd. Image combination/conversion apparatus
WO2004040521A1 (en) * 2002-10-30 2004-05-13 Digital Fashion Ltd. Image processing device, image processing program, recording medium recording the program, image processing method, and shading information acquisition device
WO2004114224A1 (en) * 2003-06-20 2004-12-29 Nippon Telegraph And Telephone Corporation Virtual visual point image generating method and 3-d image display method and device
JP2009025225A (en) * 2007-07-23 2009-02-05 Fujifilm Corp Three-dimensional imaging apparatus and control method for the same, and program
KR100965809B1 (en) 2002-03-19 2010-06-24 샤단호우진 니혼츄우코가타조우센코우교우카이 Sell plating developing method, shell plating manufacturing method, computer program for teaching the methods, and image recording medium for teaching the methods
JP2010267231A (en) * 2009-05-18 2010-11-25 Canon Inc Device and method for estimating positional orientation
JP2010267232A (en) * 2009-05-18 2010-11-25 Canon Inc Method and device for estimating positional orientation
KR101098830B1 (en) 2008-12-01 2011-12-26 한국전자통신연구원 Surface texture mapping apparatus and its method
KR101824818B1 (en) * 2016-11-28 2018-03-14 서울과학기술대학교 산학협력단 Method and apparatus for stiching 360 degree image
WO2023276261A1 (en) * 2021-07-02 2023-01-05 ソニーグループ株式会社 Information processing device, information processing method, and program

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002157603A (en) * 2000-11-21 2002-05-31 Mixed Reality Systems Laboratory Inc Device and method for image processing, and storage medium
US7538798B2 (en) 2002-03-04 2009-05-26 Panasonic Corporation Image combination/conversion apparatus
WO2003075224A1 (en) * 2002-03-04 2003-09-12 Matsushita Electric Industrial Co., Ltd. Image combination/conversion apparatus
KR100965809B1 (en) 2002-03-19 2010-06-24 샤단호우진 니혼츄우코가타조우센코우교우카이 Sell plating developing method, shell plating manufacturing method, computer program for teaching the methods, and image recording medium for teaching the methods
JP2004152015A (en) * 2002-10-30 2004-05-27 Digital Fashion Ltd Image processor, image processing program, recording medium with the program recorded thereon, image processing method, shading information acquisition device, and data structure
WO2004040521A1 (en) * 2002-10-30 2004-05-13 Digital Fashion Ltd. Image processing device, image processing program, recording medium recording the program, image processing method, and shading information acquisition device
KR100779634B1 (en) * 2003-06-20 2007-11-26 니폰 덴신 덴와 가부시끼가이샤 Virtual visual point image generating method and 3-d image display method and device
US7538774B2 (en) 2003-06-20 2009-05-26 Nippon Telegraph And Telephone Corporation Virtual visual point image generating method and 3-d image display method and device
WO2004114224A1 (en) * 2003-06-20 2004-12-29 Nippon Telegraph And Telephone Corporation Virtual visual point image generating method and 3-d image display method and device
JP2009025225A (en) * 2007-07-23 2009-02-05 Fujifilm Corp Three-dimensional imaging apparatus and control method for the same, and program
KR101098830B1 (en) 2008-12-01 2011-12-26 한국전자통신연구원 Surface texture mapping apparatus and its method
JP2010267231A (en) * 2009-05-18 2010-11-25 Canon Inc Device and method for estimating positional orientation
JP2010267232A (en) * 2009-05-18 2010-11-25 Canon Inc Method and device for estimating positional orientation
KR101824818B1 (en) * 2016-11-28 2018-03-14 서울과학기술대학교 산학협력단 Method and apparatus for stiching 360 degree image
WO2023276261A1 (en) * 2021-07-02 2023-01-05 ソニーグループ株式会社 Information processing device, information processing method, and program

Also Published As

Publication number Publication date
JP4370672B2 (en) 2009-11-25

Similar Documents

Publication Publication Date Title
US11210838B2 (en) Fusing, texturing, and rendering views of dynamic three-dimensional models
JP4679033B2 (en) System and method for median fusion of depth maps
JP4474743B2 (en) 3D image generating apparatus, 3D image generating method, and program recording medium
US6078334A (en) 3-D texture mapping processor and 3-D image rendering system using the same
US6268846B1 (en) 3D graphics based on images and morphing
JP5011168B2 (en) Virtual viewpoint image generation method, virtual viewpoint image generation apparatus, virtual viewpoint image generation program, and computer-readable recording medium recording the program
JP4828506B2 (en) Virtual viewpoint image generation device, program, and recording medium
CN109325990B (en) Image processing method, image processing apparatus, and storage medium
JP4370672B2 (en) 3D image generating apparatus, 3D image generating method, and program providing medium
Starck et al. Virtual view synthesis of people from multiple view video sequences
JP3538263B2 (en) Image generation method
KR20000051217A (en) Three-dimensional face synthesis method using facial texture image from several views
JP2001202532A (en) Method for generating stereoscopic picture by using z buffer
JP2001243497A (en) Three-dimensional image processing method, three- dimensional modeling method, and recording medium with recorded three-dimensional image processing program
JP6679966B2 (en) Three-dimensional virtual space presentation system, three-dimensional virtual space presentation method and program
Yamanaka et al. Adaptive image projection onto non-planar screen using projector-camera systems
JP3850080B2 (en) Image generation and display device
Borshukov New algorithms for modeling and rendering architecture from photographs
JP3648099B2 (en) Image composition display method and apparatus, and recording medium on which image composition display program is recorded
KR100512567B1 (en) Displaced Subdivision Mesh restoration method for face animation
JP2000057372A (en) Image processor, image processing method and storage medium
KR20050080334A (en) Method of synthesizing a multitexture and recording medium thereof
Okuya et al. Reproduction of perspective in cel animation 2D composition for real-time 3D rendering
JP2023153534A (en) Image processing apparatus, image processing method, and program
JP2003216968A (en) Method, program and device for producing three- dimensional image

Legal Events

Date Code Title Description
A621 Written request for application examination

Effective date: 20070130

Free format text: JAPANESE INTERMEDIATE CODE: A621

A977 Report on retrieval

Effective date: 20090427

Free format text: JAPANESE INTERMEDIATE CODE: A971007

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090512

A521 Written amendment

Effective date: 20090710

Free format text: JAPANESE INTERMEDIATE CODE: A523

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090811

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Effective date: 20090824

Free format text: JAPANESE INTERMEDIATE CODE: A61

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120911

Year of fee payment: 3

FPAY Renewal fee payment (prs date is renewal date of database)

Year of fee payment: 3

Free format text: PAYMENT UNTIL: 20120911

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120911

Year of fee payment: 3

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130911

Year of fee payment: 4

LAPS Cancellation because of no payment of annual fees