JP2003337953A - Apparatus and method for image processing, and computer program - Google Patents

Apparatus and method for image processing, and computer program

Info

Publication number
JP2003337953A
JP2003337953A JP2002144127A JP2002144127A JP2003337953A JP 2003337953 A JP2003337953 A JP 2003337953A JP 2002144127 A JP2002144127 A JP 2002144127A JP 2002144127 A JP2002144127 A JP 2002144127A JP 2003337953 A JP2003337953 A JP 2003337953A
Authority
JP
Japan
Prior art keywords
image
pixel value
patch
texture
images
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2002144127A
Other languages
Japanese (ja)
Inventor
Ikoku Go
偉国 呉
Atsushi Yokoyama
敦 横山
Hiroyuki Sato
寛幸 佐藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2002144127A priority Critical patent/JP2003337953A/en
Publication of JP2003337953A publication Critical patent/JP2003337953A/en
Pending legal-status Critical Current

Links

Landscapes

  • Image Processing (AREA)
  • Image Generation (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an apparatus and a method capable of generating a three- dimensional image of high picture quality according to image data from a plurality of viewpoint positions. <P>SOLUTION: Texture images are selected by patch planes on the basis of a picture quality evaluated value to which data on distances between the patch planes and respective viewpoints and data on directions of the viewpoints to the patch planes are applied and matching processing by end-point movement is performed based upon data on pixel value errors between the texture images at path boundary parts; and pixel values of a texture image in a viewpoint direction wherein it faces a patch plane among adjacent texture images is heavily weighted and pixel values at the patch boundary part are calculated. Further, pixel values in the patch plane are calculated based upon the pixel values of a batch border line by applying a weight coefficient which is in inversely proportional to the distance from the patch boundary line. <P>COPYRIGHT: (C)2004,JPO

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は、三次元形状モデル
に対するテクスチャ画像の貼り込み(テクスチャ・マッ
ピング)技術に関する画像処理装置および画像処理方
法、並びにコンピュータ・プログラムに関する。さらに
詳細には、三次元形状モデルにおけるテクスチャ画像貼
り付け面としてのパッチ面と、テクスチャ画像間の写像
関係の誤差を補正したテクスチャ画像貼り付け処理によ
り、不自然さの少ないリアルな三次元画像を生成するこ
とを可能とした画像処理装置および画像処理方法に関す
る。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image processing apparatus, an image processing method, and a computer program relating to a texture image pasting (texture mapping) technique for a three-dimensional shape model. More specifically, the patch surface as the texture image pasting surface in the three-dimensional shape model and the texture image pasting process that corrects the error in the mapping relationship between the texture images produce a realistic three-dimensional image with less unnaturalness. The present invention relates to an image processing device and an image processing method capable of generating the image.

【0002】[0002]

【従来の技術】計算機空間での三次元形状の利用が急増
している。このため、高品質の三次元形状を計算機へ効
率的に取り込むことが一つの課題となっている。実物体
の三次元形状を計算機内へ取り込む場合、現在最も広く
用いられているのは、光切断法やモアレ法、コード化ス
リット法といった能動的手法で三次元形状を計測する非
接触型三次元デジタイザ(例えば、文献[1]渡辺一
正, 「立体を写し撮る 非接触型3次元デジタイザとイ
メージベースドモデラーの最新動向」,NIKKEI COMPUTER
GRAPHICS, pp.46-65, Aug. 1999.)である。
BACKGROUND OF THE INVENTION The use of three-dimensional shapes in computer space is increasing rapidly. Therefore, one problem is to efficiently import high-quality three-dimensional shapes into a computer. When capturing the 3D shape of a real object in a computer, the most widely used at present is a non-contact 3D that measures the 3D shape by an active method such as the optical cutting method, the moire method, or the coded slit method. Digitizers (eg Ref. [1] Kazumasa Watanabe, “The latest trends of non-contact 3D digitizers and image-based modelers for capturing solid images”, NIKKEI COMPUTER
GRAPHICS, pp.46-65, Aug. 1999.).

【0003】例えば、カメラを固定し、計測対象物を回
転テーブルへ載せ、対象物を回転させながら部分的な形
状を計測し、最終的に得られた三次元形状を統合する。
三次元形状と同時にカラー画像を撮影できる製品もあ
り、この撮影カラー画像をテクスチャ画像として生成し
た三次元形状面上へ貼り付けることで、テクスチャマッ
ピングが実行できる。
For example, a camera is fixed, an object to be measured is placed on a rotary table, a partial shape is measured while rotating the object, and the finally obtained three-dimensional shape is integrated.
Some products can capture a color image at the same time as a three-dimensional shape, and texture mapping can be performed by pasting this captured color image onto a three-dimensional shape surface generated as a texture image.

【0004】この時、複数の方向から撮影された画像の
中から、三次元形状の各パッチ面に対して最もそのパッ
チ面を良く捕らえている画像、すなわち、パッチ面に対
して最も正対しているカメラによって撮影された画像を
選択することによって、最終的なマッピング結果の品質
を高めることができる。パッチ面に正対したカメラによ
る撮影画像選択については、例えば、文献[2]“ Hir
oyuki Sato, MasaharuShimanuki, Takao Akatsuka, "Te
xture Mapped 3D Face Modeling Method on Network us
ing Java,・Proceedings of SPIE, vol.3460, pp.609-6
17, 1998.”に記載されている。
At this time, among the images picked up from a plurality of directions, the image that best captures the patch surface of each three-dimensionally shaped patch surface, that is, the image that faces the patch surface most directly. The quality of the final mapping result can be enhanced by selecting the image taken by the existing camera. Regarding selection of a captured image by a camera directly facing the patch surface, for example, see [2] “Hir
oyuki Sato, MasaharuShimanuki, Takao Akatsuka, "Te
xture Mapped 3D Face Modeling Method on Network us
ing Java, ・ Proceedings of SPIE, vol.3460, pp.609-6
17, 1998. ”.

【0005】一方、得られる三次元形状データの精度は
低いが、特別な装置を必要とせず、複数枚の静止画像や
ビデオ画像を用意するだけで、対象物の三次元形状を復
元することができるイメージベースのアプローチが最近
種々な用途に注目されている。その中で、時系列画像か
ら三次元形状とカメラ運動を同時に復元する手法に、T
omasi−Kanadeらによって導入された因子分
解法がある。
On the other hand, although the accuracy of the obtained three-dimensional shape data is low, a special device is not required, and the three-dimensional shape of the object can be restored simply by preparing a plurality of still images and video images. Possible image-based approaches have recently received attention for various applications. Among them, the method of simultaneously recovering the three-dimensional shape and the camera motion from the time series image is described in T
There is a factorization method introduced by Omasi-Kanade et al.

【0006】因子分解法については、例えば、文献
[3]“ Conrad J. Poelman, Takeo Kanade, “ Parap
erspective Factorization Method for Shape and Moti
on Recovery”,Technical Report CMU-CS-93-219, 199
3.”、または文献[4]“金出武雄, 森田俊彦, コンラ
ッド・ポールマン, 「因子分解法による物体形状とカメ
ラ運動の復元」,電子情報通信学会論文誌, vol.J76-D-I
I, no.8, pp.1497-1505, 1993.”に記載されている。
The factorization method is described in, for example, reference [3] "Conrad J. Poelman, Takeo Kanade," Parap.
erspective Factorization Method for Shape and Moti
on Recovery ”, Technical Report CMU-CS-93-219, 199
3. ”or Reference [4]“ Takeo Kanade, Toshihiko Morita, Conrad Paulman, “Reconstruction of Object Shape and Camera Motion by Factorization Method”, IEICE Transactions, vol.J76-DI
I, no.8, pp.1497-1505, 1993. ”.

【0007】この因子分解法は、物体の角などの特徴点
を順次追跡した上で、行列の因子分解を利用してカメラ
の運動と対象物の三次元形状を復元する方法である。こ
の手法では、対象物とカメラの間に相対的な運動が生じ
るようにして撮影した多視点画像系列を用いているが、
このような条件で撮影された画像をマッピングする場
合、前述のような画像選択手法を用いると問題が生じ
る。
This factorization method is a method of sequentially tracking feature points such as the corners of an object and then using factorization of a matrix to restore the motion of a camera and the three-dimensional shape of an object. In this method, a multi-viewpoint image sequence is used in which a relative motion is generated between the object and the camera,
When mapping an image taken under such conditions, a problem arises when the image selection method described above is used.

【0008】すなわち、パッチ面に近い距離から撮影し
た画像があるにも関わらず、僅かにカメラ方向がパッチ
面に対して正対していないために、遠くから撮影した画
像が選択される場合が生じてしまう。また、三次元形状
面と画像の写像関係(テクスチャ座標)として用いる特
徴点の追跡結果に誤差が含まれていたり、画像間の照明
条件が一定でない場合には、異なる画像をマッピングし
たパッチ面の間に不連続性が生じ、最終的に得られる3
D−CGの品質が低下することになる。
That is, although there is an image taken from a distance close to the patch surface, the image taken from a long distance may be selected because the camera direction is slightly not directly facing the patch surface. Will end up. Also, when the tracking result of the feature points used as the mapping relationship (texture coordinates) between the three-dimensional shape surface and the image contains an error or the illumination condition between the images is not constant, the patch surface of the different image is mapped. There is a discontinuity between them, and finally 3
The quality of D-CG will deteriorate.

【0009】図1に示すように、対象物101の三次元
画像を生成しようとする場合、例えば、対象物101を
回転テーブル102に載せて、カメラ103と対象物1
01の間の距離Dを固定し、対象物101を回転させて
撮影する。
As shown in FIG. 1, when a three-dimensional image of the object 101 is to be generated, for example, the object 101 is placed on a turntable 102 and the camera 103 and the object 1 are placed.
The distance D between 01 is fixed, and the object 101 is rotated and imaged.

【0010】この撮影処理の場合、パッチ面に最も正対
しているカメラで撮影した画像が、最もその面上のテク
スチャを良く撮らえていると言える。すなわちテクスチ
ャマッピング(テクスチャ貼り付け)のための画像選択
の際には、パッチ面の法線ベクトルの方向とカメラの撮
影方向を単純に比較すれば良い。
In the case of this photographing processing, it can be said that the image photographed by the camera most directly facing the patch surface captures the texture on that surface most. That is, when selecting an image for texture mapping (texturing), the direction of the normal vector of the patch surface and the shooting direction of the camera may be simply compared.

【0011】しかし、ここで仮定している撮影条件で
は、計測対象物とカメラの間の距離は任意に変化し、同
時にカメラの姿勢も任意に回転する。そのため、カメラ
の撮影方向だけでは最適な画像を判断できない場合があ
る。
However, under the imaging conditions assumed here, the distance between the object to be measured and the camera changes arbitrarily, and at the same time, the attitude of the camera also rotates arbitrarily. Therefore, the optimum image may not be determined only by the shooting direction of the camera.

【0012】図2に示すように、重心204を持つ注目
パッチ面P,203に最も正対しているが、距離が離れ
ている撮影視点1からのカメラ1,201の撮影画像
を、三次元形状データに貼り付ける画像、すなわちテク
スチャマッピング画像として選択するべきか、あるい
は、撮影視点1よりも撮影方向がわずかにパッチ面P,
203に対して正対していないが、パッチ面P,203
までの距離が近い撮影視点2からのカメラ2,202の
撮影画像を、テクスチャマッピング画像として選択する
べきか、判断することは容易でない。
As shown in FIG. 2, the photographed images of the cameras 1 and 201 from the photographing viewpoint 1 which is the most confronting to the patch surface P 203 of interest having the center of gravity 204 but is far away are three-dimensionally shaped. Should be selected as an image to be attached to the data, that is, as a texture mapping image, or if the shooting direction is slightly smaller than the shooting viewpoint 1, the patch plane P,
Although not directly facing 203, the patch surfaces P, 203
It is not easy to determine whether the photographed images of the cameras 2 and 202 from the photographing viewpoint 2 having a short distance to should be selected as the texture mapping image.

【0013】また、各画像の間で照明条件が一定でない
場合、複数の画像からテクスチャを切り出すと、異なる
画像がマッピングされたパッチ面の間に不自然な継ぎ目
が生じ、最終的に得られる三次元画像データ(三次元C
G)の品質が落ちてしまう。
Further, when the illumination conditions are not constant among the images, when textures are cut out from a plurality of images, an unnatural seam is generated between patch surfaces on which different images are mapped, and the finally obtained cubic is obtained. Original image data (3D C
The quality of G) deteriorates.

【0014】このような、品質低下を防止する方法とし
ては、表示したいシーン全体の形状・テクスチャ・光学
特性をモデル化し、これらの画像を補正することが考え
られる。この手法は、例えば、文献[5]“ Yizhou Y
u, Paul Debevec, Jitendra Malik, Tim Hawkins, “In
verse Global Illumination: Recovering ReflectanceM
odels of Real Scenes form Photographs”,ACM SIGGRA
PH・9 Proceedings, pp.215-224, 1999.”、文献[6]
“Paul Debevec, “Rendering Synthetic Objects into
Real Scenes: Bridging Traditional and Image-based
Graphics withGlobal Illumination and High Dynamic
Range Photography”,ACM SIGGRAPH・8 Proceedings,
pp.189-198, 1998.”、さらに、文献[7]“佐藤いま
り, 佐藤洋一, 池内克史, 「光学的整合性を考慮した実
画像への仮想物体の重ね込み」,第3回 知能メディアシ
ンポジウム, pp.23-32, 1997.”に記述されている。
As a method of preventing such quality deterioration, it is possible to model the shape, texture, and optical characteristics of the entire scene to be displayed and correct these images. This method is described in, for example, reference [5] “Yizhou Y
u, Paul Debevec, Jitendra Malik, Tim Hawkins, “In
verse Global Illumination: Recovering ReflectanceM
odels of Real Scenes form Photographs ”, ACM SIGGRA
PH ・ 9 Proceedings, pp.215-224, 1999. ”, Ref. [6]
“Paul Debevec,“ Rendering Synthetic Objects into
Real Scenes: Bridging Traditional and Image-based
Graphics withGlobal Illumination and High Dynamic
Range Photography ”, ACM SIGGRAPH / 8 Proceedings,
pp.189-198, 1998. ”and reference [7]“ Imari Sato, Yoichi Sato, Katsushi Ikeuchi, “Superimposing virtual objects on real images considering optical consistency”, 3rd Intelligence Media Symposium, pp.23-32, 1997. ”.

【0015】しかし、野外での撮影を考えた場合には、
シーン全体をモデル化することは不可能といえる。複数
の実画像を用いるテクスチャマッピング手法として、こ
れまで提案されてきたものには、例えば、文献[8]
“ Paul Debevec, Camillo Taylor, Jitendra Malik,
“Modeling and Rendering Architecture from Photogr
aphs: A hybrid geometry- and image-based approac
h”,ACM SIGGRAPH・6 Proceedings, pp.11-20, 199
6.”、あるいは、文献[9]“Paul Debevec, Yizhou Y
u, George Borshukov, “Efficient View-Dependent Im
age-Based Rendering with Projective Texture-Mappin
g”,9th Eurographics workshop on rendering, pp.105
-116, 1998.”がある。
However, when considering shooting outdoors,
It can be said that it is impossible to model the entire scene. A texture mapping method using a plurality of real images has been proposed so far, for example, in a document [8].
“Paul Debevec, Camillo Taylor, Jitendra Malik,
“Modeling and Rendering Architecture from Photogr
aphs: A hybrid geometry- and image-based approac
h ”, ACM SIGGRAPH ・ 6 Proceedings, pp.11-20, 199
6. ”, or reference [9]“ Paul Debevec, Yizhou Y
u, George Borshukov, “Efficient View-Dependent Im
age-Based Rendering with Projective Texture-Mappin
g ”, 9th Eurographics workshop on rendering, pp.105
-116, 1998. ”

【0016】これらは、照明と対象の関係は固定(照明
条件の一致)、画像の解像度は同一、正確なカメラキャ
リブレーションを行う、という条件で対象を撮影するこ
とによって、上記問題点を回避している。
The above problems are avoided by photographing the object under the conditions that the relationship between the illumination and the object is fixed (the illumination conditions match), the image resolution is the same, and accurate camera calibration is performed. ing.

【0017】[0017]

【発明が解決しようとする課題】しかしながら、一般に
デジタルカメラやDVカム等を用いて野外の風景や建物
などを撮影する場合、照明条件の一致はほぼ不可能であ
り、撮影した複数の画像(テクスチャ画像)を用いて高
画質のテクスチャマッピングを実行することは困難とな
る。
However, in general, when photographing an outdoor landscape or a building using a digital camera, a DV cam, or the like, it is almost impossible to match the lighting conditions, and a plurality of photographed images (textures) are used. It is difficult to perform high quality texture mapping using images.

【0018】本発明は、このような現状における問題点
をふまえ、対象物とカメラ間の距離とカメラ方向とが任
意に変化する場合のマッピング最適画像選択基準の設定
法、パッチ面の共有稜線上の画素値の分布に注目したテ
クスチャ座標の補正手法、異なる位置・照明条件で撮影
された画像がマッピングされたパッチ面の画素間の画素
値(濃度)補正手法を持つ画像処理装置および方法を提
供するものである。
In view of the above problems in the present situation, the present invention sets a mapping optimum image selection reference when the distance between the object and the camera and the camera direction change arbitrarily, and on the shared ridge line of the patch surface. An image processing apparatus and method having a texture coordinate correction method that pays attention to the distribution of pixel values of pixels, and a pixel value (density) correction method between pixels on a patch surface onto which images captured under different positions and lighting conditions are mapped. To do.

【0019】本発明の画像処理装置および画像処理方法
は、カメラによって撮影される三次元画像生成対象物と
カメラ間の距離とカメラ方向とが任意に変化する場合
の、テクスチャマッピング画像の最適な画像選択基準の
設定、パッチ面の共有稜線上の画素値の分布に注目した
テクスチャ座標の補正処理、異なる位置・照明条件で撮
影された画像がマッピングされたパッチ面の間の画素値
補正処理に基づいて、光源条件の不一致による画像間の
差分を目立たなくし、より高画質な三次元画像データの
生成を可能する画像処理装置および画像処理方法を提供
することを目的とする。
The image processing apparatus and the image processing method of the present invention are optimal images of texture mapping images when the distance between the camera and the three-dimensional image generation target imaged by the camera and the camera direction change arbitrarily. Based on selection criteria setting, texture coordinate correction processing that focuses on the distribution of pixel values on shared ridges of patch surfaces, and pixel value correction processing between patch surfaces on which images captured at different positions and lighting conditions are mapped Therefore, it is an object of the present invention to provide an image processing apparatus and an image processing method that can make a difference between images due to a mismatch of light source conditions inconspicuous and generate higher quality three-dimensional image data.

【0020】[0020]

【課題を解決するための手段】本発明は、上記課題を参
酌してなされたものであり、その第1の側面は、三次元
形状モデルにテクスチャ画像を貼り付けることにより三
次元画像を生成する画像処理装置において、三次元画像
生成対象物に対する複数視点の撮影画像から、三次元形
状モデルを構成するパッチ面毎に、パッチ面と各視点間
の距離データ、および各視点のパッチ面に対する方向デ
ータとを適用した画質評価値に基づいて最適テクスチャ
画像の選択処理を実行するテクスチャ画像選択処理手段
を有することを特徴とする画像処理装置にある。
The present invention has been made in consideration of the above problems, and the first aspect thereof is to generate a three-dimensional image by pasting a texture image on a three-dimensional shape model. In the image processing device, from the captured images of a plurality of viewpoints with respect to a three-dimensional image generation target, for each patch surface forming a three-dimensional shape model, distance data between the patch surface and each viewpoint, and direction data with respect to the patch surface of each viewpoint. An image processing apparatus characterized by having a texture image selection processing means for executing selection processing of an optimum texture image based on an image quality evaluation value to which is applied.

【0021】さらに、本発明の画像処理装置の一実施態
様において、前記テクスチャ画像選択処理手段は、三次
元形状モデルを構成するパッチ面に最も正対する1つの
視点画像を選択し、該選択画像の視点から前記パッチ面
の重心に向かう方向ベクトル:Vと、前記パッチ面の法
線ベクトル:nとのなす角度をθとして、前記重心を中
心としてθ±Δθの領域内の視点からの撮影画像を、前
記パッチ面に対するテクスチャ画像の候補画像とし、該
候補画像の中から、前記画質評価値に基づく最適テクス
チャ画像の選択処理を実行する構成であることを特徴と
する。
Further, in one embodiment of the image processing apparatus of the present invention, the texture image selection processing means selects one viewpoint image that most directly faces the patch surface forming the three-dimensional shape model, and the selected image is selected. Letting θ be an angle formed by a directional vector V from the viewpoint to the center of gravity of the patch surface and a normal vector n of the patch surface, a captured image from the viewpoint within a region of θ ± Δθ with the center of gravity as the center. A texture image candidate image for the patch surface is selected, and an optimum texture image selection process based on the image quality evaluation value is executed from the candidate images.

【0022】さらに、本発明の画像処理装置の一実施態
様において、前記評価値は、パッチ面と視点間の距離を
Dとし、視点から前記パッチ面の重心に向かう方向ベク
トル:Vと、前記パッチ面の法線ベクトル:nとのなす
角度:θを適用した演算式によって算出される値である
ことを特徴とする。
Further, in one embodiment of the image processing apparatus of the present invention, the evaluation value is a distance vector between the patch surface and the viewpoint, and a direction vector from the viewpoint to the center of gravity of the patch surface: V, and the patch. It is characterized in that it is a value calculated by an arithmetic expression to which an angle θ formed by a surface normal vector: n is applied.

【0023】さらに、本発明の画像処理装置の一実施態
様において、前記演算式は、以下に示す評価値:Vの算
出式、
Further, in one embodiment of the image processing apparatus of the present invention, the arithmetic expression is a calculation expression of the evaluation value: V shown below,

【数7】 ただし、Dはパッチ面重心と評価対象となる画像を撮影
したカメラの距離、Dmaxは候補画像となる複数のD
の最大距離の値、θは、評価対象となる画像を撮影した
カメラの方向ベクトル:Vと、注目パッチ面Pの法線ベ
クトル:nのなす角:θ、wDは、距離:Dに対する画
質劣化評価値:Eの変化率:|dE/dD|、wθは、
角度:θに対する画質劣化評価値:Eの変化率:|dE
/dθ|である、であることを特徴とする。
[Equation 7] However, D is the distance between the center of gravity of the patch surface and the camera that has captured the image to be evaluated, and Dmax is a plurality of Ds that are candidate images.
Is the maximum distance value of θ, θ is the direction vector of the camera that has captured the image to be evaluated: V, and the normal vector n of the patch surface P of interest is the angle: θ, w D is the image quality for distance: D Degradation evaluation value: change rate of E: | dE / dD |, w θ is
Change rate of image quality deterioration evaluation value: E with respect to angle: θ: | dE
It is characterized in that / dθ |.

【0024】さらに、本発明の第2の側面は、三次元形
状モデルにテクスチャ画像を貼り付けることにより三次
元画像を生成する画像処理装置において、異なる視点か
らの画像をテクスチャ画像としてつなぎ合わせたパッチ
境界部における画素値のマッチング処理を実行するマッ
チング処理手段を有し、前記マッチング処理手段は、三
次元画像の構成データ中、異なる視点からのテクスチャ
画像を隣接テクスチャ画像として有するパッチ境界部に
おけるテクスチャ画像間の画素値誤差データを算出し、
算出した画素値誤差データ中、最大の画素値誤差データ
を有するパッチ境界部を選択する選択処理、および選択
パッチ境界部に対応するテクスチャ画像の端点移動によ
るマッチング処理を実行し、前記画素値誤差データが予
め定めた閾値以下となるまで、前記選択処理およびマッ
チング処理を繰り返し実行する構成であることを特徴と
する画像処理装置にある。
Further, a second aspect of the present invention is that in an image processing apparatus for generating a three-dimensional image by pasting a texture image on a three-dimensional shape model, a patch in which images from different viewpoints are connected as a texture image. There is a matching processing means for executing a matching process of pixel values at the boundary portion, and the matching processing means has texture images at patch boundary portions having texture images from different viewpoints as adjacent texture images in the constituent data of the three-dimensional image. Pixel value error data between
Among the calculated pixel value error data, a selection process of selecting a patch boundary part having the maximum pixel value error data, and a matching process by moving an end point of a texture image corresponding to the selected patch boundary part are executed to obtain the pixel value error data. In the image processing apparatus, the selection process and the matching process are repeatedly executed until is less than or equal to a predetermined threshold.

【0025】さらに、本発明の第3の側面は、三次元形
状モデルにテクスチャ画像を貼り付けることにより三次
元画像を生成する画像処理装置において、異なる視点か
らの画像をテクスチャ画像としてつなぎ合わせたパッチ
境界部における画素値補正処理を実行する画素値補正処
理手段を有し、前記画素値補正処理手段は、パッチ境界
部における隣接テクスチャ画像中、パッチ面に対して、
正対した視点方向にあるテクスチャ画像の画素値に大き
な重み付けを行ない、前記隣接テクスチャ画像の各画素
値に基づいて、前記パッチ境界部における画素値を算出
する構成を有することを特徴とする画像処理装置にあ
る。
Furthermore, a third aspect of the present invention is a patch in which images from different viewpoints are connected as texture images in an image processing apparatus for generating a three-dimensional image by pasting a texture image on a three-dimensional shape model. There is a pixel value correction processing means for executing a pixel value correction processing at the boundary portion, and the pixel value correction processing means, in the adjacent texture image at the patch boundary portion, for the patch surface,
Image processing characterized in that the pixel value of the texture image in the front facing direction is heavily weighted, and the pixel value at the patch boundary portion is calculated based on each pixel value of the adjacent texture image. On the device.

【0026】さらに、本発明の画像処理装置の一実施態
様において、前記画素値補正処理手段は、以下に示す補
正画素値:Pi-new算出式、
Further, in one embodiment of the image processing apparatus of the present invention, the pixel value correction processing means is a correction pixel value: P i -new calculation formula shown below,

【数8】 ただし、 λ=(cosθn)/(cosθn+cosθm) であり、θnとθmはそれぞれ画像ImagenとIm
agemを撮影したカメラの方向ベクトル:Vと、注目
パッチ面Pの法線ベクトル:nのなす角である、に従っ
て、前記パッチ境界部における画素値を算出する構成を
有することを特徴とする。
[Equation 8] However, λ = (cos θn) / (cos θn + cos θm), and θn and θm are images Image n and Im, respectively.
The pixel value at the patch boundary portion is calculated according to the angle formed by the direction vector V of the camera capturing the image m and the normal vector n of the patch surface P of interest.

【0027】さらに、本発明の画像処理装置の一実施態
様において、前記画素値補正処理手段は、さらに、異な
る視点からの画像をテクスチャ画像としてつなぎ合わせ
たパッチ境界を有するパッチ面内の画素値補正処理を実
行する構成であり、パッチ面内の点:Qの画素値を、パ
ッチ境界線の画素値に対して、前記点:Qからの距離:
dnに反比例した重み係数を適用して、パッチ境界線の
画素値に基づいて算出する処理を実行する構成であるこ
とを特徴とする。
Further, in one embodiment of the image processing apparatus of the present invention, the pixel value correction processing means further corrects pixel values in a patch plane having a patch boundary obtained by connecting images from different viewpoints as a texture image. The pixel value of the point: Q in the patch surface is the distance from the point: Q with respect to the pixel value of the patch boundary line.
It is characterized in that a weighting coefficient inversely proportional to dn is applied and a process of calculating based on the pixel value of the patch boundary line is executed.

【0028】さらに、本発明の画像処理装置の一実施態
様において、前記画素値補正処理手段は、さらに、異な
る視点からの画像をテクスチャ画像としてつなぎ合わせ
たパッチ境界を有するパッチ面内の画素値補正処理を実
行する構成であり、前記画素値補正処理手段は、3つの
共有稜線:Li,Lj,Lkに囲まれた三角領域からなる
パッチ面内の点:Qの画素値を、以下に示す補正画素
値:Qnew算出式、
Further, in one embodiment of the image processing apparatus of the present invention, the pixel value correction processing means further corrects pixel values in a patch plane having a patch boundary obtained by joining images from different viewpoints as a texture image. The pixel value correction processing means is configured to execute processing, and the pixel value of a point: Q in a patch plane formed by a triangular region surrounded by three shared ridge lines: L i , L j , and L k is Corrected pixel value shown in: Q new calculation formula,

【数9】 ただし、Qoldは、点:Qの補正前の画素値、Qnewは、
点:Qの補正後の画素値であり、 Pi-old、Pi-new:共有線Li上の補正前および補正後
の画素値 Pj-old、Pj-new:共有線Lj上の補正前および補正後
の画素値 Pk-old、Pk-new:共有線Lk上の補正前および補正後
の画素値であり、 wi,wj,wk:パッチ内の点Qと、各稜線Li,Lj
k上の点Pi,Pj,Pkとの距離di,dj,dkに反比
例する重み係数 I,J,K:各稜線Li,Lj,Lk上の画素数である、 に従って、前記パッチ面内の点:Qの画素値を算出する
構成であることを特徴とする。
[Equation 9] However, Q old is a pixel value before correction of point: Q, and Q new is
Point: Pixel value after correction of Q, P i-old , P i-new : Pixel value before and after correction on shared line L i P j-old , P j-new : shared line L j Above uncorrected and corrected pixel values P k-old , P k-new : uncorrected and corrected pixel values on the shared line L k , and w i , w j , w k : points in the patch Q and each ridge line L i , L j ,
L k on points P i, P j, the distance d i between the P k, d j, the weighting factor is inversely proportional to d k I, J, K: the ridge line L i, L j, the number of pixels on the L k According to a certain feature, the pixel value of the point: Q in the patch plane is calculated.

【0029】さらに、本発明の第4の側面は、三次元形
状モデルにテクスチャ画像を貼り付けることにより三次
元画像を生成する画像処理装置において、三次元画像生
成対象物に対する複数視点の撮影画像から、三次元形状
モデルを構成するパッチ面毎に、パッチ面と各視点間の
距離データ、および各視点のパッチ面に対する方向デー
タとを適用した画質評価値に基づいて最適テクスチャ画
像の選択処理を実行するテクスチャ画像選択処理手段
と、三次元画像の構成データ中、異なる視点からのテク
スチャ画像を隣接テクスチャ画像として有するパッチ境
界部におけるテクスチャ画像間の画素値誤差データを算
出し、算出した画素値誤差データ中、最大の画素値誤差
データを有するパッチ境界部を選択する選択処理、およ
び選択パッチ境界部に対応するテクスチャ画像の端点移
動によるマッチング処理を実行し、前記画素値誤差デー
タが予め定めた閾値以下となるまで、前記選択処理およ
びマッチング処理を繰り返し実行するマッチング処理手
段と、パッチ境界部における隣接テクスチャ画像中、パ
ッチ面に対して、正対した視点方向にあるテクスチャ画
像の画素値に大きな重み付けを行ない、前記隣接テクス
チャ画像の各画素値に基づいて、前記パッチ境界部にお
ける画素値を算出するとともに、パッチ面内の点:Qの
画素値を、パッチ境界線の画素値に対して、前記点:Q
からの距離:dnに反比例した重み係数を適用して、パ
ッチ境界線の画素値に基づいて算出する処理を実行する
画素値補正処理手段と、を有することを特徴とする画像
処理装置にある。
Further, a fourth aspect of the present invention is, in an image processing apparatus for generating a three-dimensional image by pasting a texture image on a three-dimensional shape model, from a plurality of viewpoint photographed images of a three-dimensional image generation object. , The selection process of the optimal texture image is performed based on the image quality evaluation value to which the distance data between the patch surface and each viewpoint and the direction data with respect to the patch surface of each viewpoint are applied for each patch surface forming the three-dimensional shape model. And the pixel value error data between the texture images at the patch boundary portion having the texture images from different viewpoints as the adjacent texture images in the constituent data of the three-dimensional image. Selection process for selecting the patch boundary part having the largest pixel value error data in the middle, and the selected patch boundary part Matching processing means for executing matching processing by moving the end points of the corresponding texture image and repeatedly executing the selection processing and the matching processing until the pixel value error data becomes equal to or less than a predetermined threshold value, and an adjacent texture at the patch boundary portion. In the image, with respect to the patch surface, the pixel value of the texture image in the facing viewpoint direction is heavily weighted, and the pixel value at the patch boundary portion is calculated based on each pixel value of the adjacent texture image. , The point in the patch plane: Q, and the pixel value of the patch boundary line
Distance: dn, a pixel value correction processing unit that applies a weighting coefficient that is inversely proportional to dn, and performs a process of calculating based on the pixel value of the patch boundary line.

【0030】さらに、本発明の第5の側面は、三次元形
状モデルにテクスチャ画像を貼り付けることにより三次
元画像を生成する画像処理方法において、三次元画像生
成対象物に対する複数視点の撮影画像から、三次元形状
モデルを構成するパッチ面毎に、パッチ面と各視点間の
距離データ、および各視点のパッチ面に対する方向デー
タとを適用した画質評価値に基づいて最適テクスチャ画
像の選択処理を実行するテクスチャ画像選択処理ステッ
プを有することを特徴とする画像処理方法にある。
Further, a fifth aspect of the present invention is an image processing method for generating a three-dimensional image by pasting a texture image on a three-dimensional shape model, in which images taken from a plurality of viewpoints with respect to a three-dimensional image generation object are taken. , The selection process of the optimal texture image is performed based on the image quality evaluation value to which the distance data between the patch surface and each viewpoint and the direction data with respect to the patch surface of each viewpoint are applied for each patch surface forming the three-dimensional shape model. The image processing method is characterized by including a texture image selection processing step.

【0031】さらに、本発明の画像処理方法の一実施態
様において、前記テクスチャ画像選択処理ステップは、
三次元形状モデルを構成するパッチ面に最も正対する1
つの視点画像を選択し、該選択画像の視点から前記パッ
チ面の重心に向かう方向ベクトル:Vと、前記パッチ面
の法線ベクトル:nとのなす角度をθとして、前記重心
を中心としてθ±Δθの領域内の視点からの撮影画像
を、前記パッチ面に対するテクスチャ画像の候補画像と
し、該候補画像の中から、前記画質評価値に基づく最適
テクスチャ画像の選択処理を実行するステップを含むこ
とを特徴とする。
Further, in one embodiment of the image processing method of the present invention, the texture image selection processing step comprises:
Most directly facing the patch surface that makes up the three-dimensional shape model 1
One viewpoint image is selected, and an angle between a direction vector: V from the viewpoint of the selected image toward the center of gravity of the patch surface and a normal vector: n of the patch surface is θ, and θ ± is centered on the center of gravity. A captured image from a viewpoint within the region of Δθ is set as a candidate image of a texture image for the patch surface, and a step of performing a selection process of an optimal texture image based on the image quality evaluation value from the candidate image is included. Characterize.

【0032】さらに、本発明の画像処理方法の一実施態
様において、前記評価値は、パッチ面と視点間の距離を
Dとし、視点から前記パッチ面の重心に向かう方向ベク
トル:Vと、前記パッチ面の法線ベクトル:nとのなす
角度:θを適用した演算式によって算出される値である
ことを特徴とする。
Furthermore, in one embodiment of the image processing method of the present invention, the evaluation value is a distance vector between the patch surface and the viewpoint, and a direction vector from the viewpoint to the center of gravity of the patch surface: V and the patch. It is characterized in that it is a value calculated by an arithmetic expression to which an angle θ formed by a surface normal vector: n is applied.

【0033】さらに、本発明の画像処理方法の一実施態
様において、前記演算式は、以下に示す評価値:Vの算
出式、
Further, in one embodiment of the image processing method of the present invention, the arithmetic expression is a calculation expression of the evaluation value: V shown below,

【数10】 ただし、Dはパッチ面重心と評価対象となる画像を撮影
したカメラの距離、Dmaxは候補画像となる複数のD
の最大距離の値、θは、評価対象となる画像を撮影した
カメラの方向ベクトル:Vと、注目パッチ面Pの法線ベ
クトル:nのなす角:θ、wDは、距離:Dに対する画
質劣化評価値:Eの変化率:|dE/dD|、wθは、
角度:θに対する画質劣化評価値:Eの変化率:|dE
/dθ|、であることを特徴とする。
[Equation 10] However, D is the distance between the center of gravity of the patch surface and the camera that has captured the image to be evaluated, and Dmax is a plurality of Ds that are candidate images.
Is the maximum distance value of θ, θ is the direction vector of the camera that has captured the image to be evaluated: V, and the normal vector n of the patch surface P of interest is the angle: θ, w D is the image quality for distance: D Degradation evaluation value: change rate of E: | dE / dD |, w θ is
Change rate of image quality deterioration evaluation value: E with respect to angle: θ: | dE
/ Dθ |, where

【0034】さらに、本発明の第6の側面は、三次元形
状モデルにテクスチャ画像を貼り付けることにより三次
元画像を生成する画像処理方法において、異なる視点か
らの画像をテクスチャ画像としてつなぎ合わせたパッチ
境界部における画素値のマッチング処理を実行するマッ
チング処理ステップを有し、前記マッチング処理ステッ
プは、三次元画像の構成データ中、異なる視点からのテ
クスチャ画像を隣接テクスチャ画像として有するパッチ
境界部におけるテクスチャ画像間の画素値誤差データを
算出し、算出した画素値誤差データ中、最大の画素値誤
差データを有するパッチ境界部を選択する選択処理、お
よび選択パッチ境界部に対応するテクスチャ画像の端点
移動によるマッチング処理を実行し、前記画素値誤差デ
ータが予め定めた閾値以下となるまで、前記選択処理お
よびマッチング処理を繰り返し実行するステップを含む
ことを特徴とする画像処理方法にある。
Further, the sixth aspect of the present invention is an image processing method for generating a three-dimensional image by pasting a texture image on a three-dimensional shape model, which is a patch in which images from different viewpoints are connected as a texture image. There is a matching processing step for executing the matching processing of the pixel value at the boundary portion, and the matching processing step has a texture image at the patch boundary portion having texture images from different viewpoints as adjacent texture images in the constituent data of the three-dimensional image. Selection processing of calculating pixel value error data between the selected pixel value error data and selecting a patch boundary portion having the largest pixel value error data among the calculated pixel value error data, and matching by moving the end points of the texture image corresponding to the selected patch boundary portion Processing is performed, and the pixel value error data is determined in advance. Until a value below in the image processing method characterized by comprising the step of repeatedly executing the selection process and the matching process.

【0035】さらに、本発明の第7の側面は、三次元形
状モデルにテクスチャ画像を貼り付けることにより三次
元画像を生成する画像処理方法において、異なる視点か
らの画像をテクスチャ画像としてつなぎ合わせたパッチ
境界部における画素値補正処理を実行する画素値補正処
理ステップを有し、前記画素値補正処理ステップは、パ
ッチ境界部における隣接テクスチャ画像中、パッチ面に
対して、正対した視点方向にあるテクスチャ画像の画素
値に大きな重み付けを行ない、前記隣接テクスチャ画像
の各画素値に基づいて、前記パッチ境界部における画素
値を算出するステップであることを特徴とする画像処理
方法にある。
Further, a seventh aspect of the present invention is a patch in which images from different viewpoints are connected as texture images in an image processing method for generating a three-dimensional image by pasting a texture image on a three-dimensional shape model. There is a pixel value correction processing step for performing a pixel value correction processing at the boundary portion, and the pixel value correction processing step is performed in the adjacent texture image at the patch boundary portion, and the texture in the viewpoint direction facing directly the patch surface. In the image processing method, a step of heavily weighting the pixel value of the image and calculating the pixel value at the patch boundary portion based on each pixel value of the adjacent texture image.

【0036】さらに、本発明の画像処理方法の一実施態
様において、前記画素値補正処理ステップは、以下に示
す補正画素値:Pi-new算出式、
Further, in one embodiment of the image processing method of the present invention, the pixel value correction processing step includes the following corrected pixel value: P i -new calculation formula,

【数11】 ただし、 λ=(cosθn)/(cosθn+cosθm) であり、θnとθmはそれぞれ画像ImagenとIm
agemを撮影したカメラの方向ベクトル:Vと、注目
パッチ面Pの法線ベクトル:nのなす角である、に従っ
て、前記パッチ境界部における画素値を算出することを
特徴とする。
[Equation 11] However, λ = (cos θn) / (cos θn + cos θm), and θn and θm are images Image n and Im, respectively.
The pixel value at the patch boundary portion is calculated according to the angle formed by the direction vector V of the camera capturing the image m and the normal vector n of the patch surface P of interest.

【0037】さらに、本発明の画像処理方法の一実施態
様において、前記画素値補正処理ステップは、さらに、
異なる視点からの画像をテクスチャ画像としてつなぎ合
わせたパッチ境界を有するパッチ面内の画素値補正処理
を実行するステップを含み、パッチ面内の点:Qの画素
値を、パッチ境界線の画素値に対して、前記点:Qから
の距離:dnに反比例した重み係数を適用して、パッチ
境界線の画素値に基づいて算出する処理を実行すること
を特徴とする。
Further, in one embodiment of the image processing method of the present invention, the pixel value correction processing step further comprises:
Including a step of performing a pixel value correction process in a patch plane having a patch boundary obtained by joining images from different viewpoints as a texture image, the pixel value of the point: Q in the patch plane is set to the pixel value of the patch boundary line. On the other hand, it is characterized in that a weighting coefficient inversely proportional to the distance from the point: Q: dn is applied to perform the calculation based on the pixel value of the patch boundary line.

【0038】さらに、本発明の画像処理方法の一実施態
様において、前記画素値補正処理ステップは、さらに、
異なる視点からの画像をテクスチャ画像としてつなぎ合
わせたパッチ境界を有するパッチ面内の画素値補正処理
を実行するステップを含み、3つの共有稜線:Li
j,Lkに囲まれた三角領域からなるパッチ面内の点:
Qの画素値を、以下に示す補正画素値:Qnew算出式、
Further, in an embodiment of the image processing method of the present invention, the pixel value correction processing step further comprises:
Three shared edges: L i , including a step of performing pixel value correction processing within a patch plane having patch boundaries obtained by joining images from different viewpoints as texture images
Points in the patch plane consisting of a triangular area surrounded by L j and L k :
The pixel value of Q is the following corrected pixel value: Q new calculation formula,

【数12】 ただし、Qoldは、点:Qの補正前の画素値、Qnewは、
点:Qの補正後の画素値であり、 Pi-old、Pi-new:共有線Li上の補正前および補正後
の画素値 Pj-old、Pj-new:共有線Lj上の補正前および補正後
の画素値 Pk-old、Pk-new:共有線Lk上の補正前および補正後
の画素値であり、 wi,wj,wk:パッチ内の点Qと、各稜線Li,Lj
k上の点Pi,Pj,Pkとの距離di,dj,dkに反比
例する重み係数 I,J,K:各稜線Li,Lj,Lk上の画素数である、 に従って、前記パッチ面内の点:Qの画素値を算出する
ことを特徴とする。
[Equation 12] However, Q old is a pixel value before correction of point: Q, and Q new is
Point: Pixel value after correction of Q, P i-old , P i-new : Pixel value before and after correction on shared line L i P j-old , P j-new : shared line L j Above uncorrected and corrected pixel values P k-old , P k-new : uncorrected and corrected pixel values on the shared line L k , and w i , w j , w k : points in the patch Q and each ridge line L i , L j ,
L k on points P i, P j, the distance d i between the P k, d j, the weighting factor is inversely proportional to d k I, J, K: the ridge line L i, L j, the number of pixels on the L k The pixel value of the point: Q in the patch plane is calculated according to

【0039】さらに、本発明の第8の側面は、三次元形
状モデルにテクスチャ画像を貼り付けることにより三次
元画像を生成する画像処理方法において、三次元画像生
成対象物に対する複数視点の撮影画像から、三次元形状
モデルを構成するパッチ面毎に、パッチ面と各視点間の
距離データ、および各視点のパッチ面に対する方向デー
タとを適用した画質評価値に基づいて最適テクスチャ画
像の選択処理を実行するテクスチャ画像選択処理ステッ
プと、三次元画像の構成データ中、異なる視点からのテ
クスチャ画像を隣接テクスチャ画像として有するパッチ
境界部におけるテクスチャ画像間の画素値誤差データを
算出し、算出した画素値誤差データ中、最大の画素値誤
差データを有するパッチ境界部を選択する選択処理、お
よび選択パッチ境界部に対応するテクスチャ画像の端点
移動によるマッチング処理を実行し、前記画素値誤差デ
ータが予め定めた閾値以下となるまで、前記選択処理お
よびマッチング処理を繰り返し実行するマッチング処理
ステップと、パッチ境界部における隣接テクスチャ画像
中、パッチ面に対して、正対した視点方向にあるテクス
チャ画像の画素値に大きな重み付けを行ない、前記隣接
テクスチャ画像の各画素値に基づいて、前記パッチ境界
部における画素値を算出するとともに、パッチ面内の
点:Qの画素値を、パッチ境界線の画素値に対して、前
記点:Qからの距離:dnに反比例した重み係数を適用
して、パッチ境界線の画素値に基づいて算出する処理を
実行する画素値補正処理ステップと、を有することを特
徴とする画像処理方法にある。
Further, an eighth aspect of the present invention is, in an image processing method for generating a three-dimensional image by pasting a texture image on a three-dimensional shape model, from a plurality of viewpoint photographed images of a three-dimensional image generation object. , The selection process of the optimal texture image is performed based on the image quality evaluation value to which the distance data between the patch surface and each viewpoint and the direction data with respect to the patch surface of each viewpoint are applied for each patch surface forming the three-dimensional shape model. Texture image selection processing step, and pixel value error data between the texture images at the patch boundary portion having texture images from different viewpoints as adjacent texture images in the three-dimensional image configuration data, and the calculated pixel value error data Selection processing for selecting the patch boundary portion having the largest pixel value error data in the middle, and the selected patch boundary A matching process step of executing the matching process by moving the end points of the texture image corresponding to the part and repeatedly executing the selection process and the matching process until the pixel value error data becomes equal to or less than a predetermined threshold value; In the adjacent texture image, the patch surface is heavily weighted to the pixel value of the texture image in the facing viewpoint direction with respect to the patch surface, and the pixel value at the patch boundary portion is calculated based on each pixel value of the adjacent texture image. In addition, the pixel value of the point: Q in the patch plane is applied to the pixel value of the patch boundary line by applying a weighting coefficient inversely proportional to the distance from the point: Q: dn to obtain the pixel value of the patch boundary line. And a pixel value correction processing step for performing a calculation based on the image processing method.

【0040】さらに、本発明の第9の側面は、三次元形
状モデルにテクスチャ画像を貼り付けることにより三次
元画像を生成する画像処理を実行するコンピュータ・プ
ログラムであって、三次元画像生成対象物に対する複数
視点の撮影画像から、三次元形状モデルを構成するパッ
チ面毎に、パッチ面と各視点間の距離データ、および各
視点のパッチ面に対する方向データとを適用した画質評
価値に基づいて最適テクスチャ画像の選択処理を実行す
るテクスチャ画像選択処理ステップと、三次元画像の構
成データ中、異なる視点からのテクスチャ画像を隣接テ
クスチャ画像として有するパッチ境界部におけるテクス
チャ画像間の画素値誤差データを算出し、算出した画素
値誤差データ中、最大の画素値誤差データを有するパッ
チ境界部を選択する選択処理、および選択パッチ境界部
に対応するテクスチャ画像の端点移動によるマッチング
処理を実行し、前記画素値誤差データが予め定めた閾値
以下となるまで、前記選択処理およびマッチング処理を
繰り返し実行するマッチング処理ステップと、パッチ境
界部における隣接テクスチャ画像中、パッチ面に対し
て、正対した視点方向にあるテクスチャ画像の画素値に
大きな重み付けを行ない、前記隣接テクスチャ画像の各
画素値に基づいて、前記パッチ境界部における画素値を
算出するとともに、パッチ面内の点:Qの画素値を、パ
ッチ境界線の画素値に対して、前記点:Qからの距離:
dnに反比例した重み係数を適用して、パッチ境界線の
画素値に基づいて算出する処理を実行する画素値補正処
理ステップと、を具備することを特徴とするコンピュー
タ・プログラムにある。
Further, a ninth aspect of the present invention is a computer program for executing image processing for generating a three-dimensional image by pasting a texture image on a three-dimensional shape model, which is a three-dimensional image generation object. Optimum based on the image quality evaluation value obtained by applying the distance data between the patch surface and each viewpoint and the direction data to the patch surface of each viewpoint from the captured images of multiple viewpoints for each patch surface forming the three-dimensional shape model A texture image selection processing step for executing texture image selection processing and calculating pixel value error data between texture images at a patch boundary having texture images from different viewpoints as adjacent texture images in the three-dimensional image constituent data. , Of the calculated pixel value error data, select the patch boundary having the maximum pixel value error data A matching process that executes the selection process and the matching process by moving the end points of the texture image corresponding to the selected patch boundary, and repeatedly executes the selection process and the matching process until the pixel value error data becomes equal to or less than a predetermined threshold value. Step, in the adjacent texture image in the patch boundary portion, with respect to the patch surface, a large weight is given to the pixel value of the texture image in the facing viewpoint direction, and the patch is calculated based on each pixel value of the adjacent texture image. The pixel value at the boundary is calculated, and the pixel value at the point: Q in the patch plane is calculated from the point: Q with respect to the pixel value at the patch boundary line:
A pixel value correction processing step of applying a weighting coefficient that is inversely proportional to dn and performing a processing of calculating based on the pixel value of the patch boundary line.

【0041】[0041]

【作用】本発明の画像処理装置および方法においては、
三次元画像生成対象物に対する複数視点の撮影画像か
ら、三次元形状モデルを構成するパッチ面毎に、パッチ
面と各視点間の距離データ、および各視点のパッチ面に
対する方向データとを適用した画質評価値に基づいて最
適テクスチャ画像の選択処理を実行する構成であり、パ
ッチ面毎に最も画質の劣化程度の低い最適な画像を容易
に選択することが可能であり、高画質の三次元画像デー
タの生成が実現される。
In the image processing apparatus and method of the present invention,
Image quality obtained by applying the distance data between the patch surface and each viewpoint and the direction data to the patch surface of each viewpoint from the captured images of the three-dimensional image generation target from multiple viewpoints for each patch surface forming the three-dimensional shape model It is a configuration that executes the selection process of the optimum texture image based on the evaluation value, it is possible to easily select the optimum image with the least deterioration of image quality for each patch surface, and high-quality 3D image data Is realized.

【0042】また、本発明の画像処理装置および方法に
おいては、三次元画像の構成データ中、異なる視点から
のテクスチャ画像を隣接テクスチャ画像として有するパ
ッチ境界部におけるテクスチャ画像間の画素値誤差デー
タを算出し、算出した画素値誤差データ中、最大の画素
値誤差データを有するパッチ境界部を選択する選択処
理、および選択パッチ境界部に対応するテクスチャ画像
の端点移動によるマッチング処理を実行し、前記画素値
誤差データが予め定めた閾値以下となるまで、前記選択
処理およびマッチング処理を繰り返し実行するマッチン
グ処理を実行する構成であるので、異なる視点からの画
像をテクスチャ画像として貼り付けたパッチ面境界にお
いても、画像のずれが発生せず、高画質の三次元画像デ
ータの生成が実現される。
Further, in the image processing apparatus and method of the present invention, pixel value error data between texture images at a patch boundary having texture images from different viewpoints as adjacent texture images in the three-dimensional image constituent data is calculated. Then, among the calculated pixel value error data, a selection process of selecting a patch boundary part having the maximum pixel value error data, and a matching process by moving the end points of the texture image corresponding to the selected patch boundary part are executed to obtain the pixel value. Until the error data becomes less than or equal to a predetermined threshold value, the selection process and the matching process are configured to execute the matching process repeatedly, so even at the patch surface boundary where images from different viewpoints are pasted as texture images, It is possible to generate high-quality 3D image data without image displacement. That.

【0043】また、本発明の画像処理装置および方法に
おいては、パッチ境界部における隣接テクスチャ画像
中、パッチ面に対して、正対した視点方向にあるテクス
チャ画像の画素値に大きな重み付けを行ない、前記隣接
テクスチャ画像の各画素値に基づいて、前記パッチ境界
部における画素値を算出するとともに、パッチ面内の
点:Qの画素値を、パッチ境界線の画素値に対して、前
記点:Qからの距離:dnに反比例した重み係数を適用
して、パッチ境界線の画素値に基づいて算出する処理を
実行する画素値補正処理を実行する構成であるので、異
なる撮影条件のもとで撮影された異なる視点からの画像
を隣接するパッチ面のテクスチャ画像として貼り付けた
構成においても、パッチ面間の画像が滑らかに補正さ
れ、違和感のない高画質の三次元画像データの生成が実
現される。
Further, in the image processing apparatus and method of the present invention, in the adjacent texture images at the patch boundary portion, the pixel values of the texture image in the viewpoint direction directly facing the patch surface are heavily weighted, The pixel value at the patch boundary portion is calculated based on each pixel value of the adjacent texture images, and the pixel value of the point: Q in the patch plane is calculated from the point: Q with respect to the pixel value of the patch boundary line. Distance: dn, a weighting factor inversely proportional to the applied value is applied, and a pixel value correction process is performed to perform a process of calculating based on the pixel value of the patch boundary line. Therefore, images are taken under different shooting conditions. Even in a configuration in which images from different viewpoints are pasted as texture images of adjacent patch surfaces, the images between the patch surfaces are smoothly corrected, and high image quality without discomfort Generating three-dimensional image data is realized.

【0044】なお、本発明のコンピュータ・プログラム
は、例えば、様々なプログラム・コードを実行可能な汎
用コンピュータ・システムに対して、コンピュータ可読
な形式で提供する記憶媒体、通信媒体、例えば、CDや
FD、MOなどの記憶媒体、あるいは、ネットワークな
どの通信媒体によって提供可能なコンピュータ・プログ
ラムである。このようなプログラムをコンピュータ可読
な形式で提供することにより、コンピュータ・システム
上でプログラムに応じた処理が実現される。
The computer program of the present invention is, for example, a storage medium or communication medium provided in a computer-readable format for a general-purpose computer system capable of executing various program codes, such as a CD or FD. , MO, etc., or a computer program that can be provided by a communication medium such as a network. By providing such a program in a computer-readable format, processing according to the program is realized on the computer system.

【0045】本発明のさらに他の目的、特徴や利点は、
後述する本発明の実施例や添付する図面に基づく、より
詳細な説明によって明らかになるであろう。なお、本明
細書においてシステムとは、複数の装置の論理的集合構
成であり、各構成の装置が同一筐体内にあるものには限
らない。
Further objects, features and advantages of the present invention are as follows.
A more detailed description will be made clear based on embodiments of the present invention described below and the accompanying drawings. In this specification, the system is a logical set configuration of a plurality of devices, and is not limited to a device in which each configuration is provided in the same housing.

【0046】[0046]

【発明の実施の形態】以下、図面を参照しながら、本発
明の画像処理装置および画像処理方法について、詳細に
説明する。
BEST MODE FOR CARRYING OUT THE INVENTION An image processing apparatus and an image processing method according to the present invention will be described below in detail with reference to the drawings.

【0047】本発明の画像処理装置および画像処理方法
は、カメラによって撮影される三次元画像生成対象物と
カメラ間の距離とカメラ方向とが任意に変化する場合
の、テクスチャマッピング画像の最適な画像選択基準の
設定、パッチ面の共有稜線上の画素値の分布に注目した
テクスチャ座標の補正、異なる位置・照明条件で撮影さ
れた画像がマッピングされたパッチ面の間の濃度補正、
これらの各処理を含むものである。
The image processing apparatus and the image processing method of the present invention are optimum images of texture mapping images when the distance between the camera and the three-dimensional image generation target imaged by the camera and the camera direction change arbitrarily. Setting of selection criteria, correction of texture coordinates paying attention to the distribution of pixel values on the shared ridges of the patch surface, density correction between patch surfaces on which images photographed at different positions and lighting conditions are mapped,
It includes each of these processes.

【0048】なお、本発明のテクスチャマッピング手法
は、例えば文献[3]“ Conrad J.Poelman, Takeo Kan
ade, “ Paraperspective Factorization Method for S
hape and Motion Recovery”,Technical Report CMU-CS
-93-219, 1993.”あるいは、文献[4]“ 金出武雄,
森田俊彦, コンラッド・ポールマン, 「因子分解法によ
る物体形状とカメラ運動の復元」,電子情報通信学会論
文誌, vol.J76-D-II,no.8, pp.1497-1505, 1993.”に記
載された因子分解法が仮定しているような、カメラ姿勢
と距離が任意に変化する自由なカメラワークによって撮
影された画像系列を用いる構成に対して適用可能であ
り、以下、実施例として、このようなカメラ姿勢と距離
が任意に変化する自由なカメラワークによって撮影され
た画像系列を用いる構成説明するが、本発明は、その
他、任意の様々な視点で撮影された複数枚画像から得ら
れた3D対象に関しても、適用可能である。
The texture mapping method of the present invention is described in, for example, document [3] "Conrad J. Poelman, Takeo Kan.
ade, “Paraperspective Factorization Method for S
hape and Motion Recovery ”, Technical Report CMU-CS
-93-219, 1993. ”or Reference [4]“ Takeo Kanade,
Toshihiko Morita, Conrad Paulman, “Reconstruction of Object Shape and Camera Motion by Factorization Method”, IEICE Transactions, vol.J76-D-II, no.8, pp.1497-1505, 1993. ” The present invention is applicable to a configuration using an image sequence photographed by a free camera work in which the camera pose and the distance are arbitrarily changed, as assumed by the factorization method described in A description will be given of a configuration using an image sequence photographed by such a free camerawork in which the camera posture and the distance are arbitrarily changed. However, the present invention is obtained from a plurality of images photographed from various arbitrary viewpoints. It is also applicable to the created 3D object.

【0049】[(1)最適テクスチャ画像選択処理]ま
ず、三次元画像を生成しようとする計測対象物とカメラ
の間の距離が変化し、同時にカメラの姿勢も任意に回転
する場合の最適テクスチャマッピング画像選択処理につ
いて、説明する。従来技術の欄で説明したように、計測
対象物とカメラの間の距離が変化し、同時にカメラの姿
勢も任意に回転する場合、最適なテクスチャマッピング
画像を選択することは困難である。
[(1) Optimal Texture Image Selection Processing] First, the optimal texture mapping is performed when the distance between the camera to be measured for which a three-dimensional image is to be generated and the camera changes, and at the same time the orientation of the camera also rotates arbitrarily. The image selection process will be described. As described in the section of the related art, when the distance between the measurement object and the camera changes and the posture of the camera also rotates at the same time, it is difficult to select the optimum texture mapping image.

【0050】図3を参照して、撮影視点の計測対象物と
の距離:Dと、計測対象物に対する角度:θについて説
明する。
With reference to FIG. 3, the distance D from the photographing viewpoint to the measurement object and the angle θ with respect to the measurement object will be described.

【0051】図3に示すように、三次元画像の生成対象
物のある注目パッチ面P,303に対する撮影視点が複
数あるとき、カメラ1,301(撮影視点1)と、計測
対象物との距離をD1とし、カメラ2,302(撮影視
点2)と計測対象物との距離をD2とする。
As shown in FIG. 3, when there are a plurality of photographing viewpoints with respect to the patch surface P, 303 of interest where the three-dimensional image generation target is present, the distance between the cameras 1, 301 (photographing viewpoint 1) and the measurement target. Is D1, and the distance between the cameras 2 and 302 (imaging viewpoint 2) and the measurement target is D2.

【0052】また、注目パッチ面P,303の法線ベク
トル:nとし、カメラ1,301(撮影視点1)から注
目パッチ面P,303の重心g,304に向かうベクト
ルをV1、カメラ2,302(撮影視点2)から注目パ
ッチ面P,303の重心g304に向かうベクトルをV
2としたとき、法線ベクトル:nとベクトルV1とのな
す角度θ1についてのcosθ1は、cosθ1=(V
1・n)/|V1||n|であり、法線ベクトル:nと
ベクトルV2とのなす角度θ2についてのcosθ2
は、cosθ2=(V2・n)/|V2||n|とな
る。
Further, assuming that the normal vector of the patch surface P, 303 of interest is n, the vector from the camera 1, 301 (photographing viewpoint 1) to the center of gravity g, 304 of the patch surface of interest P, 303 is V1, and the camera 2, 302 is A vector from (shooting viewpoint 2) toward the center of gravity g304 of the patch surface P, 303 of interest is V
When 2, the cos θ1 for the angle θ1 formed by the normal vector n and the vector V1 is cos θ1 = (V
1 · n) / | V1 || n | and cos θ2 about the angle θ2 formed by the normal vector: n and the vector V2
Is cos θ2 = (V2 · n) / | V2 || n |.

【0053】図3に示す例では、θ1<θ2であるの
で、V1・n>V2・nであり、単にパッチ面に正対し
ている画像を選択するのであれば、カメラ1,301
(撮影視点1)の画像となる。しかし、一方、カメラ
1,301(撮影視点1)と、計測対象物との距離をD
1とし、カメラ2,302(撮影視点2)と計測対象物
との距離をD2との比較では、D1>D2であり、距離
の近いものを選択しようとすれば、カメラ2,302
(撮影視点2)の画像となる。
In the example shown in FIG. 3, since θ1 <θ2, V1 · n> V2 · n, and if only the image directly facing the patch surface is selected, the cameras 1,301
It becomes an image of (shooting viewpoint 1). However, on the other hand, the distance between the cameras 1 and 301 (shooting viewpoint 1) and the measurement target is D
1, the distance between the camera 2, 302 (shooting viewpoint 2) and the object to be measured is D2, D1> D2, and if a camera with a short distance is selected, the camera 2,302
The image is (photographing viewpoint 2).

【0054】このように、3次元形状データに貼り付け
る画像、すなわちテクスチャマッピング画像として選択
する画像を、最も正対しているが距離が離れている撮影
視点1からのカメラ1,301の撮影画像とするか、あ
るいは、撮影視点1よりもパッチ面P,303に対して
正対していないが、パッチ面P,303までの距離が近
い撮影視点2からのカメラ3,202の撮影画像を選択
するかの判断は困難となる。
In this way, the image to be attached to the three-dimensional shape data, that is, the image to be selected as the texture mapping image is taken by the cameras 1 and 301 from the photographing viewpoint 1 that is most facing but is far away. Or, whether to select the captured image of the camera 3,202 from the shooting viewpoint 2 that is not directly facing the patch surfaces P and 303 from the shooting viewpoint 1 but is closer to the patch surfaces P and 303 Is difficult to judge.

【0055】図4に、パッチ面と撮影視点間の距離:D
と、パッチ面の法線方向ベクトルと撮影視点からパッチ
面の重心に向かうベクトルとのなす角:θ、各値の変化
に対応する撮影画像の劣化度としての画質劣化評価値:
Eとの対応図を示した。画質劣化評価値:Eは、E=0
がエラー率が最小、E=1.0がエラー率が高いことを
示す。ここで、画質の劣化度は、視距離についての初期
値=D1、画像回転角θ=0[deg]の時のマッピン
グ結果を基準として算出し、以下に示す(式1)に示す
ように、各画素毎の違いを尺度にした平均二乗誤差を用
いて算出した値E(D,θ)である。
In FIG. 4, the distance between the patch surface and the photographing viewpoint: D
And the angle between the normal vector of the patch surface and the vector from the shooting point of view to the center of gravity of the patch surface: θ, the image quality degradation evaluation value as the degradation level of the captured image corresponding to each value change:
The correspondence diagram with E is shown. Image quality deterioration evaluation value: E is E = 0
Indicates that the error rate is minimum, and E = 1.0 indicates that the error rate is high. Here, the deterioration degree of the image quality is calculated based on the mapping result when the initial value of the visual distance = D1 and the image rotation angle θ = 0 [deg], and as shown in (Equation 1) below, It is a value E (D, θ) calculated using the mean square error with the difference for each pixel as a scale.

【0056】[0056]

【数13】 …(式1)[Equation 13] … (Equation 1)

【0057】上記(式1)において、Ibase(i、j)
は視距離が初期値=D1、画像回転角θ=0[deg]
の時の基準画像であり、Itarget(i、j)は基準画像
を基に、視距離:Dを初期値:D1から初期値:D1の
5倍の距離:D5まで変化させ、同時に縦軸を中心とし
てθ=0〜85[deg]まで回転させた投影画像を作
成し、これらの画像を基準画像と同じ大きさの平面へマ
ッピングしたものである。
In the above (formula 1), I base (i, j)
Is the initial value = D1, the image rotation angle θ = 0 [deg]
I target (i, j) is based on the reference image, and I target (i, j) changes the visual distance: D from the initial value: D1 to a distance 5 times the initial value: D1: D5, and at the same time, the vertical axis. This is a projection image that is rotated about θ = 0 to 85 [deg] about the center and maps these images to a plane of the same size as the reference image.

【0058】また、ここで用いた画像(N画素×M画
素)はカラー画像であるが、検討を簡単化するために輝
度値のみを用いて劣化度:Eを計算した。テクスチャを
平面へマッピングする際の内挿法としては、拡大・縮小
共に双一次内挿法を用いた。そこで、θが一定の時、D
の増加に対してE(D、θ)は線形に増加し、また、D
が一定の時、θが増加するとE(D、θ)は指数関数的
に増加することが見られた。図4の指示部401に示す
ように、θを一定とした場合、距離(Distanc
e)の増加に伴い画質劣化評価値:Eは、線形増加を示
し、図4の指示部402に示すように、Dが一定の時、
θが増加するとE(D、θ)は指数関数的に増加する。
Although the image (N pixels × M pixels) used here is a color image, the deterioration degree: E was calculated using only the luminance value in order to simplify the examination. As the interpolation method for mapping the texture onto the plane, the bilinear interpolation method was used for both expansion and contraction. Therefore, when θ is constant, D
E (D, θ) increases linearly with the increase of
It was found that when θ was constant, E (D, θ) increased exponentially as θ increased. As shown in the instruction unit 401 of FIG. 4, when θ is constant, the distance (Distance
The image quality deterioration evaluation value: E shows a linear increase with an increase in e), and when D is constant as shown in the instruction unit 402 of FIG.
When θ increases, E (D, θ) increases exponentially.

【0059】次に、このようにして算出した評価値E
(D、θ)を用いて、最適な画像選択基準を導入する。
Next, the evaluation value E calculated in this way
Use (D, θ) to introduce the optimal image selection criteria.

【0060】まず、図5に示すように、三次元画像の生
成対象物501における注目パッチ面P,502に最も
正対しているカメラ503の方向ベクトル、図5に示す
ベクトル:Vと、注目しているパッチ面P,502の法
線ベクトル:nのなす角がθである時、θを中心にθ±
Δθの範囲にある他のカメラ504が取得した撮影画像
を選択し、注目パッチ面P,502に最も正対している
カメラ503の撮影画像を含め、これらをテクスチャ候
補画像として設定する。
First, as shown in FIG. 5, the direction vector of the camera 503 most directly facing the patch planes P, 502 of interest on the three-dimensional image generation object 501, the vector V shown in FIG. When the angle formed by the normal vector n of the patch planes P, 502 that are present is n, then θ ±
A captured image acquired by another camera 504 within the range of Δθ is selected, and these captured images including the captured image of the camera 503 most directly facing the patch surface P, 502 are set as texture candidate images.

【0061】この時、Δθの値は、θの変化に対するE
(D、θ)の変化の大きさ|dE(D、θ)/dθ|に
基づいて決定する。まず、先に図4を参照して説明した
画質劣化評価値に基づいて、画質劣化評価値:Eの角
度:θに対する変化率を見る。
At this time, the value of Δθ is E with respect to the change of θ.
It is determined based on the magnitude of change in (D, θ) | dE (D, θ) / dθ |. First, based on the image quality deterioration evaluation value described above with reference to FIG. 4, the change rate of the image quality deterioration evaluation value: E with respect to the angle: θ is checked.

【0062】三次元画像の生成対象物501における注
目パッチ面P,502に最も正対しているカメラ503
の方向ベクトル:Vと、注目パッチ面P,502の法線
ベクトル:nのなす角:θが大きい場合、この場合は、
パッチ面P,502をθの大きい斜め方向から撮影した
画像のみを保持していることになる。図4のデータから
明らかなように、θが大の領域では、角度:θの変化に
対する画質劣化評価値:Eの変化率、すなわち、|dE
(D、θ)/dθ|の値が大きくなる。
The camera 503 which is most directly facing the target patch plane P, 502 in the object 501 for generating a three-dimensional image.
Direction vector: V and the normal vector: n of the patch surface P, 502 of interest have a large angle θ, in this case,
Only the images of the patch surfaces P and 502 taken from an oblique direction with a large θ are held. As is clear from the data of FIG. 4, in the region where θ is large, the rate of change of the image quality deterioration evaluation value: E with respect to the change of the angle: θ, that is, | dE
The value of (D, θ) / dθ | becomes large.

【0063】従って、θが大の領域では、たとえ距離:
Dが近くても、θ±Δθの範囲にある視点からの画像
は、パッチ面に対する正対方向からのずれが大きく、さ
らに角度がずれることにより画質劣化の度合いが急激に
上昇することになる。従って、カメラの方向を重視し候
補を少なく絞る必要がある。すなわち、Δθを小さく設
定する必要がある。
Therefore, in the region where θ is large, the distance:
Even if D is close, the image from the viewpoint within the range of θ ± Δθ has a large deviation from the front facing direction with respect to the patch surface, and further the angle deviation causes a sharp increase in the degree of image quality deterioration. Therefore, it is necessary to focus on the direction of the camera and narrow down the candidates. That is, it is necessary to set Δθ small.

【0064】また、三次元画像の生成対象物501にお
ける注目パッチ面P,502に最も正対しているカメラ
503の方向ベクトル:Vと、注目パッチ面P,502
の法線ベクトル:nのなす角:θが小さい場合、この場
合は、パッチ面P,502をθの小さい正面付近から撮
影した画像を保持していることになる。図4のデータか
ら明らかなように、θが小の領域では、角度:θの変化
に対する画質劣化評価値:Eの変化率、すなわち、|d
E(D、θ)/dθ|の値が小さい。
Further, the direction vector V of the camera 503 most directly facing the target patch plane P, 502 in the three-dimensional image generation target 501 and the target patch plane P, 502.
When the angle formed by the normal vector: n is θ is small, in this case, an image of the patch surfaces P and 502 taken from the front side where θ is small is held. As is clear from the data in FIG. 4, in the region where θ is small, the change rate of the image quality deterioration evaluation value: E with respect to the change of the angle: θ, that is, | d
The value of E (D, θ) / dθ | is small.

【0065】このように、θが小の領域では、θ±Δθ
の範囲にある視点からの画像は、パッチ面に対する正対
方向からのずれが小さく、角度がずれた場合でも画質劣
化の度合いが小さい。従って、カメラ距離と方向とを同
時に考慮する必要がある。
Thus, in the region where θ is small, θ ± Δθ
The image from the viewpoint within the range of (3) has a small deviation from the front facing direction with respect to the patch surface, and the degree of image quality deterioration is small even when the angle is deviated. Therefore, it is necessary to consider the camera distance and the direction at the same time.

【0066】このように、三次元画像の生成対象物50
1における注目パッチ面P,502に最も正対している
カメラ503の方向ベクトル:Vと、注目パッチ面P,
502の法線ベクトル:nのなす角:θの値に応じて最
適なΔθの値を設定することが必要であり、次式(式
2)によってΔθの値を決定する。
As described above, the three-dimensional image generation target object 50
1, the direction vector of the camera 503 most directly facing the target patch surface P, 502: V, the target patch surface P,
It is necessary to set the optimum value of Δθ according to the value of the angle formed by the normal vector 502 of n: n: θ, and the value of Δθ is determined by the following equation (equation 2).

【0067】[0067]

【数14】 …(式2)[Equation 14] … (Equation 2)

【0068】上式において、|dE(D、θ)/dθ|
θは、三次元画像の生成対象物501における注目パッ
チ面P,502に最も正対しているカメラ503の方向
ベクトル:Vと、注目パッチ面P,502の法線ベクト
ル:nのなす角:θにおける、画質劣化評価値:Eのθ
に対する変化率である。|dE(D、θ)/dθ|ma
xと、|dE(D、θ)/dθ|minは、様々なθ値
に対する画質劣化評価値:Eの変化率の最大値、最小値
であり、例えばシミュレーション結果より得られる値を
適用することができる。また、上記式中、Δθmax
は、カメラの設定条件に応じて定めた設定値を適用す
る。例えばΔθmaxの値として、E(D、θ)の値が
急激に増加し始める角度である45[deg]を採用す
る。
In the above equation, | dE (D, θ) / dθ |
θ is an angle formed by the direction vector: V of the camera 503 most directly facing the target patch plane P, 502 in the three-dimensional image generation target 501 and the normal vector: n of the target patch plane P, 502: θ Image deterioration evaluation value: θ of E
Is the rate of change with respect to. | DE (D, θ) / dθ | ma
x and | dE (D, θ) / dθ | min are the maximum and minimum values of the change rate of the image quality deterioration evaluation value: E for various θ values, and for example, values obtained from simulation results should be applied. You can In the above equation, Δθmax
Applies the setting value determined according to the setting condition of the camera. For example, as the value of Δθmax, 45 [deg], which is the angle at which the value of E (D, θ) starts to rapidly increase, is adopted.

【0069】上記(式2)において、Δθの値を設定
し、例えば、図5に示す撮影環境において、三次元画像
の生成対象物501における注目パッチ面P,502に
最も正対しているカメラ503の撮影画像と、上記(式
2)において設定されたΔθの値に基づいて決められた
領域であるθ±Δθの範囲にある視点からの撮影画像、
これら複数の視点からの撮影画像を、注目パッチ面P,
502に対するテクスチャマッビング用の候補画像とす
る。
In the above (formula 2), the value of Δθ is set, and for example, in the photographing environment shown in FIG. 5, the camera 503 which is most directly facing the target patch plane P, 502 in the three-dimensional image generation target 501. And a captured image from a viewpoint within a range of θ ± Δθ, which is a region determined based on the value of Δθ set in the above (Formula 2),
The captured images from these multiple viewpoints are used as the patch surface P of interest,
Let 502 be a candidate image for texture mapping.

【0070】次に、これらの候補画像から、最適なテク
スチャマッビング用画像を選択する。候補画像中からの
最適画像の選択は、以下に示す(式3)によって算出す
る評価値:Vに基づいて決定する。評価値:Vが最大と
なる画像を注目パッチ面P,502に対する最適テクス
チャ画像とする。
Next, the optimum texture mapping image is selected from these candidate images. The selection of the optimum image from the candidate images is determined based on the evaluation value: V calculated by the following (formula 3). The image having the maximum evaluation value V is set as the optimum texture image for the patch surfaces P and 502 of interest.

【0071】[0071]

【数15】 …(式3)[Equation 15] … (Equation 3)

【0072】上記(式3)を適用して、先に示した(式
2)によって求められるΔθによって定義される領域に
あるカメラによって特定される視点位置毎に評価値:V
を求める。例えば、図5に示す撮影環境において、三次
元画像の生成対象物501における注目パッチ面P,5
02に最も正対しているカメラ503の撮影画像と、上
記(式2)において設定されたΔθの値に基づいて決め
られた領域であるθ±Δθの範囲にある複数のカメラ5
04の撮影画像、全てについて、その評価値を算出す
る。
Applying the above (formula 3), the evaluation value: V for each viewpoint position specified by the camera in the area defined by Δθ obtained by the above (formula 2)
Ask for. For example, in the shooting environment shown in FIG. 5, the patch planes P, 5 of interest in the three-dimensional image generation object 501 are selected.
02, the plurality of cameras 5 within the range of θ ± Δθ, which is the region determined based on the captured image of the camera 503 that is most directly facing 02 and the value of Δθ set in (Equation 2).
The evaluation values of all the captured images of 04 are calculated.

【0073】式3において、Dはパッチ面重心と評価対
象となる画像を撮影したカメラの距離、Dmaxは候補
画像となる複数のDの最大距離の値である。なお、図4
の画質劣化評価値データを参照して説明したように、視
距離Dの増加に対しE(D、θ)は線形に増加するとい
う結果が得られているので、上記(式3)中のDとDm
axは0と1の間に正規化した値を用いることができ
る。式3において、cosθのθは、評価対象となる画
像を撮影したカメラの方向ベクトル:Vと、注目パッチ
面Pの法線ベクトル:nのなす角:θである。
In Equation 3, D is the distance between the center of gravity of the patch surface and the camera that has photographed the image to be evaluated, and Dmax is the maximum distance value of the plurality of D images that are candidate images. Note that FIG.
As described with reference to the image quality deterioration evaluation value data of E, since the result that E (D, θ) linearly increases with the increase of the viewing distance D, D in the above (Formula 3) is obtained. And Dm
As ax, a value normalized between 0 and 1 can be used. In Expression 3, θ of cos θ is an angle θ formed by the direction vector V of the camera that has captured the image to be evaluated and the normal vector n of the patch surface P of interest.

【0074】また、上記(式3)中のwDとwθは、候
補画像、各画像中の距離:Dおよび角度:θに対応す
る、距離:Dに対する画質劣化評価値:Eの変化率:|
dE/dD|と、角度:θに対する画質劣化評価値:E
の変化率:|dE/dθ|である。
Further, w D and w θ in the above (formula 3) are the change rates of the image quality deterioration evaluation value: E with respect to the distance: D, which correspond to the distance: D and the angle: θ in the candidate image and each image. : |
dE / dD | and the image quality deterioration evaluation value: E for the angle: θ
Change rate of | dE / dθ |.

【0075】図4に示したグラフと上記(式3)から理
解されるように、角度:θが大きければ角度変化の重み
が大きくなり、カメラ方向を重視した評価値が計算さ
れ、θが小さければ距離変化の重みが大きくなり、カメ
ラの距離を重視した評価値が計算されることになる。
As can be understood from the graph shown in FIG. 4 and the above (formula 3), the larger the angle: θ, the greater the weight of the angle change, and the evaluation value that emphasizes the camera direction is calculated. In this case, the weight of the distance change becomes large, and the evaluation value that emphasizes the distance of the camera is calculated.

【0076】例えば、図5に示すように、三次元画像の
生成対象物501における注目パッチ面P,502に最
も正対しているカメラ503の撮影画像と、上記(式
2)において設定されたΔθの値に基づいて決められた
領域であるθ±Δθの範囲にある3台のカメラ504の
撮影画像がある場合、上記(式3)に基づいて、各カメ
ラの距離:D、角度:θに基づいて、4つの評価値V1
〜V4が算出され、これら評価値V1〜V4から最大の
評価値となったVxに対応するカメラの画像を注目パッ
チ面P,502に対応する最適なテクスチャ画像として
選択する。
For example, as shown in FIG. 5, a photographed image of the camera 503 which directly faces the target patch planes P and 502 of the three-dimensional image generation target 501 and Δθ set in the above (formula 2). When there are images captured by the three cameras 504 in the range of θ ± Δθ, which is a region determined based on the value of, the distance: D, the angle: θ of each camera are calculated based on (Equation 3) above. Based on the four evaluation values V1
To V4 are calculated, and the image of the camera corresponding to Vx that has the maximum evaluation value from these evaluation values V1 to V4 is selected as the optimum texture image corresponding to the patch surface P, 502 of interest.

【0077】上述したテクスチャ画像選択法を用いるこ
とで、三次元画像生成対象物における各パッチ面毎の最
適画像を、複数の撮影画像から容易に選択することが可
能となる。
By using the texture image selection method described above, it is possible to easily select the optimum image for each patch surface in the three-dimensional image generation object from a plurality of photographed images.

【0078】なお、パッチ面の作成、テクスチャ画像の
マッピング手順としては、まず、上述した複数カメラに
よる撮影画像、すなわち、多視点画像系列の各フレーム
画像における特徴点の追跡によって画像間の対応付けデ
ータを求めて、これらの対応付けデータに基づいて対象
物の三次元形状を構成してパッチ面の作成を行なう。次
に、各パッチ面に対して、各フレームにおける特徴点の
追跡結果をテクスチャマッピング時のテクスチャ座標と
して用いたマッピングを行なう。これらの処理によっ
て、上述したテクスチャ画像選択法によって選択したテ
クスチャ画像の各パッチ面に対するマッピングが可能と
なる。
As a procedure for creating a patch surface and mapping a texture image, first, associating data between images by tracing the feature points in each frame image of the multi-viewpoint image series, that is, images captured by a plurality of cameras described above. Then, the three-dimensional shape of the object is constructed based on these correspondence data to create the patch surface. Next, mapping is performed on each patch surface using the tracking result of the feature points in each frame as texture coordinates at the time of texture mapping. By these processes, the texture image selected by the above-described texture image selection method can be mapped to each patch surface.

【0079】[(2)隣接パッチの共有境界線における
補正処理]しかし、多視点画像系列の各フレーム画像に
おける特徴点の追跡結果には誤差が含まれ、マッピング
の精度に影響を及ぼす場合がある。そこで、テクスチャ
座標のずれに起因する稜線上での不連続性、すなわち各
パッチ面の境界線における画像のずれを解消するため
に、共有している稜線にのみ注目し、その稜線上の画素
値のマッチングをとることによって位置合わせを行う処
理につていて、以下、説明する。
[(2) Correction Processing at Shared Boundary Line of Adjacent Patches] However, the tracking result of the feature points in each frame image of the multi-view image series contains an error, which may affect the accuracy of mapping. . Therefore, in order to eliminate the discontinuity on the ridge line due to the texture coordinate shift, that is, the image shift at the boundary line of each patch surface, pay attention only to the shared ridge line and the pixel value on that ridge line. The process of performing the alignment by performing the matching will be described below.

【0080】図6を参照して、隣接パッチの共有境界線
上の特徴点位置ずれが生じた場合の補正処理例について
説明する。図6(a)に示すように、隣接するパッチ面
551、552に対する貼り付け画像、すなわちテクス
チャ画像を、異なる撮影画像Imagen561,Im
agen562を適用しようとすると、隣接するパッチ
面551、552における境界線、すなわち、共有稜線
上の濃淡分布に差が発生する。例えば図6(b)に示す
ように、撮影画像Imagen561,Imagen56
2の濃淡分布にずれが発生する。図6(b)に示すグラ
フは、画像Imagen561,Imagen562の共
有稜線上の端点からi番目の画素のもつ輝度値I(n、
i)とI(m、i)を示した図である。
With reference to FIG. 6, an example of the correction processing when the feature point position shift on the shared boundary line of adjacent patches occurs will be described. As shown in FIG. 6A, the pasted images, that is, the texture images for the adjacent patch surfaces 551 and 552 are different captured images Image n 561 and Im.
When trying to apply age n 562, a difference occurs in the grayscale distribution on the boundary line between the adjacent patch surfaces 551 and 552, that is, the shared edge line. For example, as shown in FIG. 6B, captured images Image n 561 and Image n 56
A shift occurs in the grayscale distribution of 2. The graph shown in FIG. 6B shows that the luminance value I (n, n of the i-th pixel from the end point on the shared edge of the images Image n 561 and Image n 562 has
It is the figure which showed i) and I (m, i).

【0081】この共有稜線上の画素値のずれを修正する
ため、下式(式4)の誤差値:Eが最小となるように隣
接パッチの端点(特徴点)位置を相対的に動かす。ここ
で用いる誤差値:Eとしては、RGB成分から得られる
輝度値の誤差の二乗和を用いる。
In order to correct the deviation of the pixel value on the shared edge line, the end point (feature point) position of the adjacent patch is relatively moved so that the error value E of the following equation (Equation 4) is minimized. As the error value E used here, the sum of squares of the errors of the brightness values obtained from the RGB components is used.

【0082】[0082]

【数16】 …(式4)[Equation 16] … (Equation 4)

【0083】ここで、I(n、i)とI(m、i)はそ
れぞれ共有稜線上の画像Image n、Imagemの端
点からi番目の画素のもつ輝度値であり、Lは注目して
いる稜線の長さである。隣接パッチの端点(特徴点)位
置を相対的に動かして、上記(式4)によって算出され
る誤差値:Eが最小となる相対位置を設定する。
Here, I (n, i) and I (m, i) are
Image on each shared edge Image n, ImagemEdge of
It is the brightness value of the i-th pixel from the point, and pay attention to L.
It is the length of the ridgeline. End point (feature point) position of adjacent patch
Calculated by the above (Equation 4)
Error value: The relative position at which E is minimized is set.

【0084】しかし、上述の方法で、ある一つの共有稜
線を補正すると、その端点につながる他の共有稜線上の
画素値も変化する。従って、多数のパッチ面によって構
成される三次元画像データ全体についての処理として実
行する場合は、ある一つの共有稜線に注目した局所的な
濃度誤差の最小化と、局所的な補正に伴う全体的な濃度
誤差変化の最小化を同時に行う必要がある。
However, when a certain shared edge line is corrected by the above method, the pixel values on other shared edge lines connected to the end point also change. Therefore, when it is executed as a process for the entire three-dimensional image data composed of a large number of patch planes, the local density error is minimized by focusing on a certain shared ridge line, and the overall density associated with the local correction is reduced. It is necessary to minimize changes in various density errors at the same time.

【0085】そこで、ある三次元画像を構成するすべて
のパッチ境界線上での誤差を最小化するため、エネルギ
ー最小化問題として解く。具体的には、全境界線におけ
る誤差値の最大値のみに注目し、これを最小化する処理
を行う。
Therefore, in order to minimize the error on all patch boundary lines forming a certain three-dimensional image, the problem is solved as an energy minimization problem. Specifically, attention is paid only to the maximum value of the error values on all the boundary lines, and processing for minimizing this is performed.

【0086】以下、この補正処理の手順について説明す
る。図7に三次元画像を構成するすべてのパッチ境界線
における誤差値の最大値に注目し、これを最小化する処
理による補正処理手順を説明するフローを示す。
The procedure of this correction processing will be described below. FIG. 7 shows a flow for explaining the correction processing procedure by the processing of paying attention to the maximum value of the error values at all the patch boundary lines forming the three-dimensional image and minimizing it.

【0087】図7に示すパッチ面共有稜線補正処理の各
ステップについて説明する。まず、ステップS101に
おいて初期設定を実行する。初期設定は、 t=1、 Max{E(x,t−1)}=0 の設定とする。
Each step of the patch surface shared ridge line correction processing shown in FIG. 7 will be described. First, initial setting is executed in step S101. The initial settings are t = 1 and Max {E (x, t-1)} = 0.

【0088】「t」は、本フローにおける誤差値:Eの
算出処理回数を示す数値であり、初期値=1とする。
「MAX{E(x,t−1)}」は、補正対象となる三
次元画像を構成するすべてのパッチ境界線中の、異なる
画像が選択されているパッチ面間にある稜線の数を
「x」としたとき、これらのx本の稜線について、前述
の(式4)を用いて算出した誤差値:Eの中での最大値
を示す。(t−1)は、(t−1)回目の算出処理であ
ることを示す。「MAX{E(x,t−1)}」の初期
値は0とする。
“T” is a numerical value indicating the number of times the error value E is calculated in this flow, and the initial value is 1.
“MAX {E (x, t−1)}” is the number of ridge lines between patch surfaces in which different images are selected among all patch boundary lines forming the three-dimensional image to be corrected. x ”indicates the maximum value among the error values: E calculated using the above (Equation 4) for these x ridge lines. (T-1) indicates that it is the (t-1) th calculation process. The initial value of “MAX {E (x, t−1)}” is 0.

【0089】ステップS102では、補正対象となる三
次元画像を構成するすべてのパッチ境界線中の、異なる
画像が選択されているパッチ面間のすべての境界線上の
誤差値{E(x,t)|x:稜線数}を計算する。
In step S102, an error value {E (x, t) on all boundary lines between patch planes for which different images are selected among all patch boundary lines forming the three-dimensional image to be corrected. | X: the number of edges}.

【0090】ステップS103では、ステップS102
で算出した、誤差値{E(x,t)|x:稜線数}か
ら、最大誤差値:Max{E(x,t)}を選択し、前
回(t−1)回目の最大誤差値算出処理において、取得
した前回の最大誤差値:Max{E(x,t−1)}と
の差分:DEを下式に従って算出する。 DE=Max{E(x,t)}−Max{E(x,t−
1)} を算出する。
In step S103, step S102
The maximum error value: Max {E (x, t)} is selected from the error value {E (x, t) | x: the number of edges} calculated in step 1, and the maximum error value for the previous (t−1) th time is calculated. In the process, a difference: D E from the acquired previous maximum error value: Max {E (x, t−1)} is calculated according to the following formula. D E = Max {E (x, t)}-Max {E (x, t-
1)} is calculated.

【0091】ステップS104では、ステップS103
で算出した差分:DEが予め定めた閾値より小であるか
否かを判定する。Yesである場合は、処理を終了し、
この時点での端点補正処理を最終的な補正結果とする。
E<閾値となったことは、最大誤差値:Max{E
(x,t)}が収束していることを示し、新たな端点補
正を行なっても、大きな変化は発生しないことを示して
いる。
In step S104, step S103
It is determined whether or not the difference calculated in step D: D E is smaller than a predetermined threshold value. If Yes, end the process,
The end point correction process at this point is the final correction result.
D E <threshold value means that maximum error value: Max {E
It shows that (x, t)} has converged, and that a large change does not occur even if a new end point correction is performed.

【0092】ステップS104で、DE<閾値となって
いない場合は、以下のステップで、端点補正を実行す
る。まず、ステップS105において、前回(t−1)
回目の最大誤差値算出処理において、取得した前回の最
大誤差値:Max{E(x,t−1)}を、今回(t)
回目の最大誤差値算出処理において取得した最大誤差
値:Max{E(x,t)}に更新し、また、t=t+
1の更新を実行する。
If D E <threshold value is not satisfied in step S104, end point correction is executed in the following steps. First, in step S105, the previous time (t-1)
In the maximum error value calculation process of the second time, the acquired previous maximum error value: Max {E (x, t-1)} is changed to this time (t).
The maximum error value acquired in the maximum error value calculation process for the second time is updated to Max {E (x, t)}, and t = t +
Perform update of 1.

【0093】さらに、今回ステップS102において取
得した、補正対象となる三次元画像を構成するすべての
パッチ境界線中の、異なる画像が選択されているパッチ
面間のすべての境界線上の誤差値{E(x,t)|x:
稜線数}を誤差値が大となるものから順に並べ替え(ソ
ート)て、最大誤差を持つ共有稜線LE-MAXを決定す
る。
Further, among all the patch boundary lines forming the three-dimensional image to be corrected acquired in step S102 this time, the error value {E on all the boundary lines between the patch surfaces for which different images are selected {E (X, t) | x:
The number of edges} is rearranged (sorted) in descending order of the error value, and the shared edge L E-MAX having the maximum error is determined.

【0094】次に、ステップS106において、最大誤
差を持つ共有稜線LE-MAXについて、端点の移動によ
り、前述の(式4)に基づいて算出される誤差値:Eを
最小とするよう端点補正を実行する。
Next, in step S106, with respect to the shared edge L E-MAX having the maximum error, the end point is corrected so that the error value E calculated based on the above (Equation 4) is minimized by moving the end point. To execute.

【0095】さらに、ステップS102に戻り、更新さ
れたtに基づいて、補正後の三次元画像データについ
て、ステップS102以下の処理を繰り返し実行する。
Further, the process returns to step S102, and the process of step S102 and subsequent steps is repeatedly executed on the corrected three-dimensional image data based on the updated t.

【0096】これらの処理を繰り返し実行して、ステッ
プS104の判定、すなわち、DE<閾値がYesとな
った時点で、処理を終了し、この時点での端点補正処理
を最終的な補正結果とする。DE<閾値は、前述したよ
うに、最大誤差値:Max{E(x,t)}が収束した
ことを示し、新たな端点補正を行なっても、大きな変化
は発生しないことを示している。
By repeating these processes, the process is terminated when the determination in step S104, that is, when D E <threshold becomes Yes, and the end point correction process at this time is regarded as the final correction result. To do. As described above, D E <threshold indicates that the maximum error value: Max {E (x, t)} has converged, and that a large change does not occur even if a new end point correction is performed. .

【0097】上述したように、誤差の最大値が収束した
時点で処理を終了する。この端点補正処理により、テク
スチャマッピングにおいて、パッチ間のずれが補正さ
れ、三次元画像データの画質を高めることが出来る。
As described above, the process ends when the maximum error value converges. By this end point correction processing, the shift between patches is corrected in texture mapping, and the image quality of three-dimensional image data can be improved.

【0098】[(3)共有境界線(共有稜線)上および
パッチ面内の画素値補正処理]しかし、上述の端点補正
を行っても隣接するパッチ間の画像に照明条件の差があ
る場合には、隣接するパッチ間に全体的な濃度値の不連
続性が生じる。この不連続性をなくすために、共有境界
線とパッチ面内の濃度値を補正することが必要となる。
以下、共有境界線とパッチ面内の濃度値を補正する処理
について、説明する。
[(3) Pixel Value Correction Processing on Shared Boundary Line (Shared Edge) and in Patch Surface] However, even if the above-mentioned end point correction is performed, if there is a difference in illumination condition between images of adjacent patches. Causes an overall discontinuity in density values between adjacent patches. In order to eliminate this discontinuity, it is necessary to correct the common boundary line and the density value in the patch plane.
The process of correcting the shared boundary line and the density value in the patch plane will be described below.

【0099】まず、共有稜線上の画素値は、カメラ方向
とパッチ面の法線ベクトルのなす角のコサインを重みと
した画素値の平均値で置き換える。図8において、異な
る画像Imagen611、Imagem612が隣接す
るパッチ面621,622に対する貼り付け画像とされ
たとき、共有稜線上の点Piの補正後の画素値P
i-newを、2つの異なる画像の対応点の画素値、すなわ
ち、画像Imagen611に基づく画素値:Pi、およ
び、画像Imagem612に基づく画素値:Pi’を用
いて次式(式5)で求める。
First, the pixel value on the shared ridge line is replaced with the average value of the pixel values weighted by the cosine of the angle formed by the camera direction and the normal vector of the patch surface. In FIG. 8, when different images Image n 611 and Image m 612 are pasted images for the adjacent patch surfaces 621 and 622, the pixel value P after correction of the point P i on the shared ridge line
i-new is expressed by the following equation (P i ), using pixel values of corresponding points of two different images, that is, a pixel value based on the image Image n 611: P i , and a pixel value based on the image Image m 612: P i ′. It is calculated by Equation 5).

【0100】[0100]

【数17】 …(式5)[Equation 17] … (Equation 5)

【0101】ただし、 λ=(cosθn)/(cosθn+cosθm) である。However, λ = (cos θn) / (cos θn + cos θm) Is.

【0102】θnとθmはそれぞれ画像Imagen
Imagemを撮影した時のカメラ方向ベクトルとパッ
チ面の法線ベクトルトのなす角である。
Θn and θm are angles formed by the camera direction vector when the images Image n and Image m are taken and the normal vector g of the patch surface, respectively.

【0103】上述した隣接パッチの共有境界線における
補正処理の後、パッチ面内の画素値補正処理を実行す
る。パッチ面内の画素値補正処理は、稜線上の元の画素
値と、補正後の画素値の差dPi=Pi-new−P
i-oldを、稜線からの距離を重みとしてパッチ面内へ伝
播させる方法を適用したパッチ面内の濃度補正として実
行する。
After the correction processing on the shared boundary line of the adjacent patches described above, the pixel value correction processing in the patch plane is executed. The pixel value correction processing within the patch plane is performed by the difference between the original pixel value on the ridge and the corrected pixel value dP i = P i-new −P
i-old is executed as density correction in the patch plane to which the method of propagating in the patch plane with the distance from the edge line as the weight is applied.

【0104】三角領域として設定されるパッチ面では、
図9に示すように、1つのパッチ面651に対して3つ
の隣接パッチ面652,653,654を有する。従っ
て、パッチ面651ないの点:Qの画素値補正は、隣接す
る3つのパッチ面652,653,654に基づいて決
定することが必要となる。
On the patch surface set as the triangular area,
As shown in FIG. 9, one patch surface 651 has three adjacent patch surfaces 652, 653, 654. Therefore, it is necessary to determine the pixel value correction of the point without the patch surface 651: Q based on the three adjacent patch surfaces 652, 653, 654.

【0105】図9において、パッチ面内部の点Qにおけ
る補正画素値Qnewは次式(式6)で設定される。
In FIG. 9, the correction pixel value Qnew at the point Q inside the patch surface is set by the following equation (Equation 6).

【0106】[0106]

【数18】 …(式6)[Equation 18] … (Equation 6)

【0107】ただし、Qoldは、点:Qの補正前の画素
値、Qnewは、点:Qの補正後の画素値であり、 Pi-old、Pi-new:共有線Li上の補正前および補正後
の画素値 Pj-old、Pj-new:共有線Lj上の補正前および補正後
の画素値 Pk-old、Pk-new:共有線Lk上の補正前および補正後
の画素値 であり、 wi,wj,wk:パッチ内の点Qと、各稜線Li,Lj
k上の点Pi,Pj,P kとの距離di,dj,dkに反比
例する重み係数 I,J,K:各稜線Li,Lj,Lk上の画素数 である。
However, QoldIs a point: pixel before correction of Q
Value, QnewIs the pixel value after correction of the point: Q, Pi-old, Pi-new: Shared line LiBefore correction and after correction
Pixel value of Pj-old, Pj-new: Shared line LjBefore correction and after correction
Pixel value of Pk-old, Pk-new: Shared line LkBefore correction and after correction
Pixel value of And wi, Wj, Wk: Point Q in the patch and each ridge line Li, Lj
LkUpper point Pi, Pj, P kDistance di, Dj, DkContrary to
Example weighting factor I, J, K: Each ridge line Li, Lj, LkNumber of pixels above Is.

【0108】上述の(式6)に従った画素値補正を、三
次元画像データを構成するすべてのパッチ面の共有稜線
に注目して行う。上述の(式6)に従って、各パッチ面
の補正画素値を求め、補正画素値を新たな画素値として
設定することで、隣接パッチ面との画素値の不自然な差
異を解消することが可能となり、撮影時の照明条件が未
知の場合でもパッチ面間に生じる不連続性をなくすこと
ができ、自然なテクスチャのマッピング結果を生成する
ことができる。
The pixel value correction according to the above (formula 6) is performed by paying attention to the shared ridge lines of all patch surfaces forming the three-dimensional image data. By obtaining the correction pixel value of each patch surface according to the above (formula 6) and setting the correction pixel value as a new pixel value, it is possible to eliminate the unnatural difference in the pixel value from the adjacent patch surface. Therefore, even when the illumination condition at the time of shooting is unknown, the discontinuity that occurs between patch surfaces can be eliminated, and a natural texture mapping result can be generated.

【0109】図10に上述した共有境界線とパッチ面内
の画素値補正処理の手順を説明するフローチャートを示
す。各ステップについて説明する。
FIG. 10 shows a flowchart for explaining the procedure of the pixel value correction processing on the shared boundary line and the patch surface described above. Each step will be described.

【0110】ステップS201において、まず、隣接パ
ッチに異なる視点画像を持つ共有稜線を選択し、選択し
た共有稜線について、前術した(式5)を適用して異な
る画像から取得した隣接パッチ面の境界線(共有稜線)
上の画素値補正を実行する。すなわち、共有稜線上の点
iの補正後の画素値Pi-newを、2つの異なる画像の対
応点の画素値、すなわち、画像Imagenに基づく画
素値:Pi、および、画像Imagemに基づく画素値:
i’を用いて式5を適用して求める。
In step S201, first, a shared ridge line having different viewpoint images is selected for the adjacent patch, and the boundary of the adjacent patch surfaces obtained from the different images by applying the previous formula (Equation 5) to the selected shared ridge line. Line (shared ridge)
Perform the upper pixel value correction. That is, the corrected pixel value P i-new of the point P i on the shared ridge line is set to the pixel value of the corresponding point of two different images, that is, the pixel value based on the image Image n : P i , and the image Image m. Pixel value based on:
Equation 5 is applied using P i ′.

【0111】ステップS202において、隣接パッチに
異なる視点画像を持つ全ての共有稜線についての画素値
補正が完了したか否かを判定する。し、完了していない
場合は、ステップS201を続けて実行する。
In step S202, it is determined whether the pixel value correction has been completed for all shared ridge lines having different viewpoint images in adjacent patches. If not completed, step S201 is continuously executed.

【0112】隣接パッチ面の境界線(共有稜線)上の画
素値補正をすべて終了したら、次にステップS202に
おいて、前述した(式6)を適用して、隣接する3つの
パッチ面との3つの共有稜線:Li,Lj,Lk上の補正
前および補正後の画素値:Pi -old、Pi-new
j-old、Pj-new、Pk-old、Pk-newに基づいて、パッ
チ内の画素値Qnewを算出する。
When all the pixel value corrections on the boundary line (shared ridge line) of the adjacent patch surfaces are completed, then in step S202, the above-mentioned (formula 6) is applied to apply three pixel values to three adjacent patch surfaces. Shared edge lines : pixel values before and after correction on L i , L j , and L k : P i -old , P i-new ,
The pixel value Q new in the patch is calculated based on P j-old , P j-new , P k-old , and P k-new .

【0113】ステップS204において、全てのパッチ
内の画素値補正が完了したか否かを判定する。し、完了
していない場合は、ステップS203を続けて実行す
る。全てのパッチ内の画素値補正が完了したら、処理終
了とする。
In step S204, it is determined whether the pixel value correction in all patches has been completed. If not completed, step S203 is continuously executed. When the pixel value correction in all patches is completed, the processing ends.

【0114】このように、異なる視点からの画像をパッ
チ面を単位としてつなぎ合わせて三次元画像を生成する
テクスチャマッピング処理において、パッチの境界線
(共有稜線)上での画素値補正を(式5)に基づいて実
行し、さらに、(式6)に基づいてパッチ内の画素値補
正を実行することで、隣接パッチ面との画素値の不自然
な差異を解消することが可能となり、撮影時の照明条件
が未知の場合でもパッチ面間に生じる不連続性をなくす
ことができ、自然なテクスチャのマッピング結果を生成
することができる。
As described above, in the texture mapping process for joining images from different viewpoints in units of patch planes to generate a three-dimensional image, pixel value correction on the boundary line (shared ridgeline) of the patch (Equation 5) is performed. ) And the pixel value correction in the patch based on (Equation 6), it is possible to eliminate the unnatural difference in pixel value between the adjacent patch surface and Even when the illumination condition of is unknown, the discontinuity that occurs between patch surfaces can be eliminated, and a natural texture mapping result can be generated.

【0115】(1)計測対象物とカメラの間の距離が変
化し、同時にカメラの姿勢も任意に回転する場合の最適
テクスチャマッピング画像選択処理、 (2)隣接パッチの共有境界線における補正処理 (3)共有境界線(共有稜線)上およびパッチ面内の画
素値補正処理 について、説明した。次に、上述した本発明に従った処
理の効果について、実例を示して説明する。
(1) Optimal texture mapping image selection processing in the case where the distance between the measurement object and the camera changes and at the same time the orientation of the camera also arbitrarily rotates, (2) correction processing in the shared boundary line of adjacent patches ( 3) The pixel value correction processing on the shared boundary line (shared edge) and in the patch plane has been described. Next, the effects of the above-described processing according to the present invention will be described with reference to actual examples.

【0116】まず、(1)計測対象物とカメラの間の距
離が変化し、同時にカメラの姿勢も任意に回転する場合
の最適テクスチャマッピング画像選択処理の効果につい
て、図11、図12を参照して説明する。
First, referring to FIGS. 11 and 12, (1) the effect of the optimum texture mapping image selection processing when the distance between the object to be measured and the camera changes, and at the same time the orientation of the camera also rotates arbitrarily. Explain.

【0117】テクスチャマッピングによる三次元画像デ
ータの生成対象モデル、すなわち、撮影対象として、4
枚の三角パッチ面からなる屏風型の三次元形状にVis
ion Textureデータベース中の基準画像をそ
れぞれの面へ正面からテクスチャマッピングしたものを
利用した。
A model for generating three-dimensional image data by texture mapping, that is, 4 as a photographing target.
Vis in a folding screen type three-dimensional shape consisting of three triangular patch surfaces
The reference images in the Ion Texture database were texture-mapped from the front to each surface and used.

【0118】この三次元物体をカメラ方向と位置を同時
に変化させながら計算機内でシミュレーション画像系
列、計100枚を生成し、生成したシミュレーション画
像系列からそれぞれのパッチ面に対して最適な画像を選
択し、新たにテクスチャマッピング処理を実行した。
Simultaneously changing the camera direction and the position of this three-dimensional object, a simulation image series, 100 sheets in total, are generated in the computer, and the optimum image is selected for each patch surface from the generated simulation image series. , A new texture mapping process was executed.

【0119】シミュレーション画像系列を構成する画像
の撮影カメラ位置、方向と、撮影対象のパッチ面の法線
方向との関係を図11に示す。図11に示すカメラ1〜
カメラ5は、シミュレーション画像系列を構成する画像
の撮影カメラ位置、方向の一部を示すものである。シミ
ュレーション画像系列は、図11のカメラ1〜カメラ5
に示すように、撮影対象に対して異なる距離:Dおよび
角度:θの設定を持ち、(D,θ)の異なる複数の画像
データがシミュレーション画像系列として取得される。
FIG. 11 shows the relationship between the shooting camera position and direction of the images forming the simulation image series and the normal direction of the patch surface of the shooting target. Cameras 1 to 1 shown in FIG.
The camera 5 shows a part of the shooting camera position and direction of the images forming the simulation image sequence. The simulation image series is camera 1 to camera 5 in FIG.
As shown in, a plurality of image data having different distances: D and angles: θ with respect to the imaging target and different (D, θ) are acquired as a simulation image series.

【0120】これらの画像系列から、各パッチ面に最適
な画像を選択する処理を実行する。図12(a)には、
パッチ面の法線ベクトル方向とカメラ方向の比較のみで
最適テクスチャ画像を選択しし、選択したテクスチャ画
像に基づいてテクスチャマッピングを実行した結果の画
像を示す。
From these image series, the process of selecting the optimum image for each patch surface is executed. In FIG. 12 (a),
An image obtained as a result of selecting an optimum texture image only by comparing the normal vector direction of the patch surface and the camera direction and executing texture mapping based on the selected texture image is shown.

【0121】図12(b)は、前述した(1)最適テク
スチャマッピング画像選択処理に従った画像選択処理、
すなわち、パッチ面に最も正対する画像から±θの画像
をテクスチャ画像の候補画像として選択し、各候補画像
について、前述の(式3)に基づいて、距離:D、角
度:θの双方を考慮した評価値:Vを算出し、候補画像
中から最も評価値:Vが大きくなる画像をテクスチャ画
像として選択する処理を実行して生成したテクスチャマ
ッピング画像をに示す。
FIG. 12B shows an image selection process according to the above-mentioned (1) optimal texture mapping image selection process,
That is, an image of ± θ is selected as a texture image candidate image from the image most directly facing the patch surface, and both distance: D and angle: θ are considered for each candidate image based on (Equation 3) described above. The texture mapping image generated by calculating the evaluated value: V and executing the process of selecting the image having the largest evaluated value: V from the candidate images as the texture image is shown in.

【0122】パッチ面の法線ベクトル方向とカメラ方向
の比較のみに基づいて最適テクスチャ画像を選択した図
12(a)に示す画像の場合、カメラ方向が最もパッチ
面に対して正対している遠くから撮影された画像が選択
されてしまい、向って右側のパッチ面に対するマッピン
グ結果701がぼやけてしまっているのが分かる。これ
に対し、本手法による画像選択を行った場合には、それ
ぞれの面に視距離と方向との間のトレード・オフを考慮
した適切な画像が選択され、ぼけと歪の少ないマッピン
グ結果702が得られていることが分かる。
In the case of the image shown in FIG. 12A in which the optimum texture image is selected only based on the comparison between the normal vector direction of the patch plane and the camera direction, the camera direction is farthest directly facing the patch plane. It can be seen that the image picked up from is selected, and the mapping result 701 for the patch surface on the right side is blurred toward it. On the other hand, when the image selection by this method is performed, an appropriate image considering the trade-off between the viewing distance and the direction is selected for each surface, and the mapping result 702 with less blurring and distortion is obtained. You can see that it has been obtained.

【0123】次に、上述した(2)隣接パッチの共有境
界線における補正処理、および(3)共有境界線(共有
稜線)上およびパッチ面内の画素値補正処理の各処理の
効果について実例を示して説明する。
Next, an example of the effect of each of the above-described processing of (2) correction processing on the shared boundary line of adjacent patches and (3) pixel value correction processing on the shared boundary line (shared ridge line) and in the patch plane will be described. Show and explain.

【0124】照明条件変化や特徴点の追跡誤差に対する
本手法の安定性を見るため、全体的な照明条件を大きく
変化させた画像系列を用意し、さらに特徴点の追跡結果
へ標準偏差が2画素相当のガウス分布に基づくノイズを
加え実験を行った。この場合のテクスチャマッピング画
像について、(a)未補正(補正前)、(b)濃度補正
のみ、(c)テクスチャ座標の補正後に濃度補正を実
行、これら3種類の異なる処理結果としてのテクスチャ
マッピング画像各々を図13(a),(b),(c)に
示す。
In order to see the stability of the present method against changes in lighting conditions and tracking errors of feature points, an image series in which the overall lighting conditions are significantly changed is prepared, and the standard deviation is 2 pixels in the tracking result of feature points. An experiment was performed by adding noise based on a considerable Gaussian distribution. Regarding the texture mapping image in this case, (a) uncorrected (before correction), (b) only density correction, (c) density correction is performed after correction of texture coordinates, and the texture mapping image as the three different types of processing results Each is shown in FIGS. 13 (a), 13 (b) and 13 (c).

【0125】また、図13中の矢印のライン703上に
おける輝度値の分布を図14に示す。図14は、図13
の(a)未補正(補正前)、(b)濃度補正のみ、
(c)テクスチャ座標の補正後に濃度補正を実行、の3
画像のライン703に対応する画素の画素値を示すもの
である。横軸がライン703に対応する各画像の画素
(300ピクセル)であり、縦軸は、各画素の画素値
(輝度値)正規化データを示す。
FIG. 14 shows the distribution of brightness values on the arrow line 703 in FIG. 14 is the same as FIG.
(A) uncorrected (before correction), (b) only density correction,
(C) Density correction is executed after correction of texture coordinates
The pixel value of the pixel corresponding to the line 703 of the image is shown. The horizontal axis represents the pixels (300 pixels) of each image corresponding to the line 703, and the vertical axis represents the pixel value (luminance value) normalized data of each pixel.

【0126】図14(c)のラインが他のラインに比較
して、ぶれの少ない画素値を示しており、本手法、すな
わち、(2)隣接パッチの共有境界線における補正処
理、および(3)共有境界線(共有稜線)上およびパッ
チ面内の画素値補正処理の各処理を実行することによ
り、濃度補正のみの場合よりも、より滑らかにテクスチ
ャがつながるように濃度を補正できることが確認でき
る。
The line in FIG. 14C shows a pixel value with less blur compared to the other lines, and the present method, that is, (2) the correction processing in the shared boundary line of the adjacent patches, and (3) ) It is possible to confirm that the density can be corrected so that the texture is connected more smoothly by executing each of the pixel value correction processing on the shared boundary line (shared edge) and in the patch surface as compared with the case of only the density correction. .

【0127】なお、上述した本発明の画像処理は、実施
例に取り上げられた因子分解法による3D形状だけでな
く、その他の様々な方法、例えば、レーザー光を照射し
三角測量による3D形状計測法等を適用して計測された
3D形状に対しても、その3D形状計測と共に観測され
た多視点画像を用いることによって、最適なテクスチャ
マッピングが可能となる。
The above-described image processing of the present invention is not limited to the 3D shape by the factorization method described in the embodiment, and other various methods, for example, the 3D shape measuring method by irradiating laser light and triangulation. Even for a 3D shape measured by applying the above, the optimum texture mapping becomes possible by using the multi-viewpoint image observed together with the 3D shape measurement.

【0128】[システム構成]上述した画像処理を実行
するシステム構成例について、説明する。図15に本発
明の画像処理装置の一実施例構成のブロック図を示す。
本実施例における画像処理装置は、かめらによって撮影
された画像、あるいはDVD、CD等の記録媒体に格納
された多視点画像データの処理、あるいはインターネッ
ト等のデータ通信網を介して配信される多視点画像デー
タをDVD、CD、ハードディスク等の書き込み可能な
記憶媒体に格納し、これらの画像データの処理を実行す
る。
[System Configuration] A system configuration example for executing the above-mentioned image processing will be described. FIG. 15 is a block diagram showing the configuration of an embodiment of the image processing apparatus of the present invention.
The image processing apparatus according to this embodiment processes images captured by a camera or multi-viewpoint image data stored in a recording medium such as a DVD or a CD, or is distributed via a data communication network such as the Internet. The viewpoint image data is stored in a writable storage medium such as a DVD, a CD, a hard disk, and the processing of these image data is executed.

【0129】図15に示す画像処理装置750の構成に
ついて説明する。CPU(Central processing Unit)7
56は、各種アプリケーションプログラムや、OS(Op
erating System)を実行する演算処理装置であり、上述
した画像処理としての、(1)最適テクスチャマッピン
グ画像選択処理、(2)隣接パッチの共有境界線におけ
る補正処理、(3)共有境界線(共有稜線)上およびパ
ッチ面内の画素値補正処理等を実行する。さらに、各入
力装置から入力されるコマンドに応じて記憶手段からの
データ読み出し処理あるいは表示処理の制御を実行す
る。
The structure of the image processing apparatus 750 shown in FIG. 15 will be described. CPU (Central processing Unit) 7
56 is various application programs and OS (Op
(1) Optimal texture mapping image selection processing, (2) correction processing on a shared boundary line between adjacent patches, and (3) shared boundary line (shared). Pixel value correction processing on the ridge line and in the patch plane is executed. Further, control of data read processing from the storage means or display processing is executed according to the command input from each input device.

【0130】メモリ757は、ROM(Read-Only-Memo
ry)、RAM(Random Access Memory)等から構成さ
れ、CPU756が実行するプログラム、あるいは演算
パラメータとしての固定データの格納、CPU756の
処理において実行されるプログラム、およびプログラム
処理において適宜変化するパラメータの格納エリア、ワ
ーク領域として使用される。記録メディア758はDV
D、ハードディスク、CD等の記録メディアであり、例
えば処理対象となる多視点画像データを蓄積する。
The memory 757 is a ROM (Read-Only-Memo).
ry), a RAM (Random Access Memory), and the like, and a storage area for storing a program executed by the CPU 756 or fixed data as a calculation parameter, a program executed in the processing of the CPU 756, and a parameter appropriately changed in the program processing. , Used as a work area. The recording medium 758 is DV
The recording medium is a D, a hard disk, a CD, or the like, and stores multi-view image data to be processed, for example.

【0131】さらに、画像処理装置750は、通信ネッ
トワークとのインタフェースとして機能するネットワー
クインタフェース752を有し、ネットワークを介して
多視点画像データの受信を行ない、受信されたデータ
は、DVD、ハードディスク等の記録メディア758に
格納する。
Further, the image processing apparatus 750 has a network interface 752 which functions as an interface with a communication network, receives multi-viewpoint image data via the network, and the received data is a DVD, a hard disk or the like. It is stored in the recording medium 758.

【0132】ユーザからのデータ処理コマンド、あるい
はディスプレイ732における表示画像データに関する
処理要求コマンドは、マウス737、キーボード73
6、コントローラ738の各種入力機器から入力インタ
フェース753を介して入力される。また、ビデオカメ
ラ733、マイク734等のAVデータ入力機器からA
Vインタフェース754を介して入力されるデータは、
処理要求コマンドに基づいて、上述した各処理が実行さ
れ、DVD、ハードディスク等の記録メディア758に
格納、あるいは、ディスプレイ732において表示され
る。
The data processing command from the user or the processing request command relating to the display image data on the display 732 is executed by the mouse 737 and the keyboard 73.
6, input from various input devices of the controller 738 via the input interface 753. In addition, from the AV data input device such as the video camera 733 and the microphone 734,
The data input via the V interface 754 is
Based on the processing request command, each processing described above is executed and stored in the recording medium 758 such as a DVD or a hard disk, or displayed on the display 732.

【0133】DVD、ハードディスク等の記録メディア
758に格納された画像データは、フレーム単位でフレ
ームメモリ761に格納された後、D/A変換器762
を介した変換処理の後、ディスプレイ732において表
示される。一方、音声データも、音声バッファ763に
格納された後、D/A変換器764を介した変換処理の
後、スピーカ735において再生出力される。
The image data stored in the recording medium 758 such as a DVD or a hard disk is stored in the frame memory 761 on a frame-by-frame basis, and then the D / A converter 762.
After the conversion processing via the display, it is displayed on the display 732. On the other hand, the audio data is also stored in the audio buffer 763, converted through the D / A converter 764, and then reproduced and output by the speaker 735.

【0134】次に、図15に示すシステムにおいて、主
としてCPU756によって実行する上述したテクスチ
ャマッピング処理を実行するための機能構成を説明する
ブロック図を示す。
Next, in the system shown in FIG. 15, there is shown a block diagram for explaining a functional structure for executing the above-mentioned texture mapping processing mainly executed by the CPU 756.

【0135】前述したように、本発明の画像処理装置
は、(1)最適テクスチャマッピング画像選択処理、
(2)隣接パッチの共有境界線における補正処理、
(3)共有境界線(共有稜線)上およびパッチ面内の画
素値補正処理等を実行する。これらの各処理を実行する
対象となる多視点画像は、入出力インタフェース801
を介してメモリ802に格納され、三次元形状データ生
成部803において、複数パッチ面からなる三次元形状
データが生成される。
As described above, the image processing apparatus of the present invention comprises (1) optimum texture mapping image selection processing,
(2) Correction processing on the shared boundary line of adjacent patches,
(3) Pixel value correction processing on the shared boundary line (shared edge) and in the patch plane is executed. The multi-viewpoint image that is the target for executing each of these processes is the input / output interface 801.
Is stored in the memory 802 via, and the three-dimensional shape data generation unit 803 generates three-dimensional shape data composed of a plurality of patch surfaces.

【0136】三次元形状データに対するテクスチャマッ
ピング処理は、テクスチャマッピング処理部810にお
いて実行される。テクスチャマッピング処理部810
は、テクスチャ画像選択処理部811、マッチング処理
部812、および画素値補正処理部813を有する。
The texture mapping processing for the three-dimensional shape data is executed by the texture mapping processing unit 810. Texture mapping processing unit 810
Has a texture image selection processing unit 811, a matching processing unit 812, and a pixel value correction processing unit 813.

【0137】テクスチャ画像選択処理部811は、上述
した(1)最適テクスチャマッピング画像選択処理、す
なわち、パッチ面に最も正対する画像から±θの画像を
テクスチャ画像の候補画像として選択し、各候補画像に
ついて、前述の(式3)に基づいて、距離:D、角度:
θの双方を考慮した評価値:Vを算出し、候補画像中か
ら最も評価値:Vが大きくなる画像をテクスチャ画像と
して選択する処理を実行する。
The texture image selection processing unit 811 selects the above-mentioned (1) optimum texture mapping image selection processing, that is, selects an image of ± θ from the image most directly facing the patch surface as a texture image candidate image, and selects each candidate image. For, based on (Equation 3) above, distance: D, angle:
An evaluation value: V in which both θ are taken into consideration is calculated, and an image having the largest evaluation value: V is selected from the candidate images as a texture image.

【0138】マッチング処理部812は、テクスチャ画
像選択処理部811の処理結果を受領し、受領画像デー
タに基づいて、異なる視点からの画像をつなぎ合わせた
2つのパッチのグループを抽出し、これらのパッチの境
界線(共有稜線)の補正処理(マッチング処理)、すな
わち、先に図7のフロー、および(式4)を参照して説
明した端点移動による誤差の最小化処理を実行する。
The matching processing unit 812 receives the processing result of the texture image selection processing unit 811, extracts two groups of patches which connect images from different viewpoints based on the received image data, and extracts these patches. The correction processing (matching processing) of the boundary line (shared edge line), that is, the error minimization processing by the end point movement described above with reference to the flow of FIG. 7 and (Equation 4) is executed.

【0139】画素値補正処理部813は、マッチング処
理部812における端点移動によるマッチング処理後の
画像を受領し、受領画像について、前述した(式5)に
基づいたパッチの境界線(共有稜線)の画素値補正を実
行し、さらに、前述の(式6)に基づいてパッチ内の画
素値補正を実行する。
The pixel value correction processing unit 813 receives the image after the matching processing by the end point movement in the matching processing unit 812, and regarding the received image, the boundary line (shared ridge line) of the patch based on the above-mentioned (Equation 5). Pixel value correction is executed, and further, pixel value correction in the patch is executed based on (Equation 6) described above.

【0140】これらの各処理、すなわち、(1)最適テ
クスチャマッピング画像選択処理、(2)隣接パッチの
共有境界線における補正処理、(3)共有境界線(共有
稜線)上およびパッチ面内の画素値補正処理が実行され
た画像が、入出力インタフェース821を介して画像表
示装置822に出力表示され、または、記憶装置823
に格納される。
Each of these processes, that is, (1) optimum texture mapping image selection process, (2) correction process on the shared boundary line of adjacent patches, (3) pixels on the shared boundary line (shared edge line) and in the patch plane The image for which the value correction processing has been executed is output and displayed on the image display device 822 via the input / output interface 821, or the storage device 823.
Stored in.

【0141】以上、特定の実施例を参照しながら、本発
明について詳解してきた。しかしながら、本発明の要旨
を逸脱しない範囲で当業者が該実施例の修正や代用を成
し得ることは自明である。すなわち、例示という形態で
本発明を開示してきたのであり、限定的に解釈されるべ
きではない。本発明の要旨を判断するためには、冒頭に
記載した特許請求の範囲の欄を参酌すべきである。
The present invention has been described in detail above with reference to the specific embodiments. However, it is obvious that those skilled in the art can modify or substitute the embodiments without departing from the scope of the present invention. That is, the present invention has been disclosed in the form of exemplification, and should not be limitedly interpreted. In order to determine the gist of the present invention, the section of the claims described at the beginning should be taken into consideration.

【0142】なお、明細書中において説明した一連の処
理はハードウェア、またはソフトウェア、あるいは両者
の複合構成によって実行することが可能である。ソフト
ウェアによる処理を実行する場合は、処理シーケンスを
記録したプログラムを、専用のハードウェアに組み込ま
れたコンピュータ内のメモリにインストールして実行さ
せるか、あるいは、各種処理が実行可能な汎用コンピュ
ータにプログラムをインストールして実行させることが
可能である。
The series of processes described in the specification can be executed by hardware, software, or a combined configuration of both. When executing the processing by software, the program recording the processing sequence is installed in the memory in the computer incorporated in the dedicated hardware and executed, or the program is stored in a general-purpose computer capable of executing various processing. It can be installed and run.

【0143】例えば、プログラムは記録媒体としてのハ
ードディスクやROM(Read OnlyMemory)に予め記録し
ておくことができる。あるいは、プログラムはフレキシ
ブルディスク、CD−ROM(Compact Disc Read Only
Memory),MO(Magneto optical)ディスク,DVD(Dig
ital Versatile Disc)、磁気ディスク、半導体メモリな
どのリムーバブル記録媒体に、一時的あるいは永続的に
格納(記録)しておくことができる。このようなリムー
バブル記録媒体は、いわゆるパッケージソフトウエアと
して提供することができる。
For example, the program can be recorded in advance in a hard disk or a ROM (Read Only Memory) as a recording medium. Alternatively, the program may be a flexible disk or a CD-ROM (Compact Disc Read Only).
Memory), MO (Magneto optical) disk, DVD (Dig
Ital Versatile Disc), magnetic disk, semiconductor memory, or other removable recording medium can be temporarily (or permanently) stored (recorded). Such a removable recording medium can be provided as so-called package software.

【0144】なお、プログラムは、上述したようなリム
ーバブル記録媒体からコンピュータにインストールする
他、ダウンロードサイトから、コンピュータに無線転送
したり、LAN(Local Area Network)、インターネット
といったネットワークを介して、コンピュータに有線で
転送し、コンピュータでは、そのようにして転送されて
くるプログラムを受信し、内蔵するハードディスク等の
記録媒体にインストールすることができる。
The program is installed in the computer from the removable recording medium as described above, is wirelessly transferred from the download site to the computer, or is wired to the computer via a network such as LAN (Local Area Network) or the Internet. Then, the computer can receive the program thus transferred and install it in a recording medium such as a built-in hard disk.

【0145】なお、明細書に記載された各種の処理は、
記載に従って時系列に実行されるのみならず、処理を実
行する装置の処理能力あるいは必要に応じて並列的にあ
るいは個別に実行されてもよい。また、本明細書におい
てシステムとは、複数の装置の論理的集合構成であり、
各構成の装置が同一筐体内にあるものには限らない。
The various processes described in the specification are
The processing may be executed not only in time series according to the description, but also in parallel or individually according to the processing capability of the device that executes the processing or the need. Further, the system in the present specification is a logical set configuration of a plurality of devices,
The devices of the respective configurations are not limited to being in the same housing.

【0146】[0146]

【発明の効果】以上説明してきたように、本発明の画像
処理装置および方法によれば、三次元画像生成対象物に
対する複数視点の撮影画像から、三次元形状モデルを構
成するパッチ面毎に、パッチ面と各視点間の距離デー
タ、および各視点のパッチ面に対する方向データとを適
用した画質評価値に基づいて最適テクスチャ画像の選択
処理を実行する構成であり、パッチ面毎に最も画質の劣
化程度の低い最適な画像を容易に選択することが可能で
あり、高画質の三次元画像データの生成が実現される。
As described above, according to the image processing apparatus and method of the present invention, from the captured images of the three-dimensional image generation target object from a plurality of viewpoints, for each patch surface constituting the three-dimensional shape model, The configuration is such that the optimum texture image selection processing is executed based on the image quality evaluation value to which the distance data between the patch surface and each viewpoint and the direction data for the patch surface of each viewpoint are applied. It is possible to easily select an optimum image with a low degree, and it is possible to generate high-quality three-dimensional image data.

【0147】また、本発明の画像処理装置および方法に
よれば、三次元画像の構成データ中、異なる視点からの
テクスチャ画像を隣接テクスチャ画像として有するパッ
チ境界部におけるテクスチャ画像間の画素値誤差データ
を算出し、算出した画素値誤差データ中、最大の画素値
誤差データを有するパッチ境界部を選択する選択処理、
および選択パッチ境界部に対応するテクスチャ画像の端
点移動によるマッチング処理を実行し、前記画素値誤差
データが予め定めた閾値以下となるまで、前記選択処理
およびマッチング処理を繰り返し実行するマッチング処
理を実行する構成であるので、異なる視点からの画像を
テクスチャ画像として貼り付けたパッチ面境界において
も、画像のずれが発生せず、高画質の三次元画像データ
の生成が実現される。
Further, according to the image processing apparatus and method of the present invention, the pixel value error data between the texture images at the patch boundary portion having the texture images from different viewpoints as the adjacent texture images in the three-dimensional image constituent data is obtained. A selection process of selecting the patch boundary portion having the maximum pixel value error data among the calculated pixel value error data,
And a matching process is performed by moving the end points of the texture image corresponding to the selected patch boundary portion, and the matching process is repeatedly executed until the pixel value error data becomes equal to or less than a predetermined threshold value. Since the configuration is adopted, even at a patch surface boundary where images from different viewpoints are pasted as texture images, image displacement does not occur, and high-quality three-dimensional image data generation is realized.

【0148】さらに、本発明の画像処理装置および方法
によれば、パッチ境界部における隣接テクスチャ画像
中、パッチ面に対して、正対した視点方向にあるテクス
チャ画像の画素値に大きな重み付けを行ない、前記隣接
テクスチャ画像の各画素値に基づいて、前記パッチ境界
部における画素値を算出するとともに、パッチ面内の
点:Qの画素値を、パッチ境界線の画素値に対して、前
記点:Qからの距離:dnに反比例した重み係数を適用
して、パッチ境界線の画素値に基づいて算出する処理を
実行する画素値補正処理を実行する構成であるので、異
なる撮影条件のもとで撮影された異なる視点からの画像
を隣接するパッチ面のテクスチャ画像として貼り付けた
構成においても、パッチ面間の画像が滑らかに補正さ
れ、違和感のない高画質の三次元画像データの生成が実
現される。
Furthermore, according to the image processing apparatus and method of the present invention, in the adjacent texture images at the patch boundary portion, the pixel values of the texture image in the front facing direction with respect to the patch surface are heavily weighted, The pixel value at the patch boundary portion is calculated based on each pixel value of the adjacent texture image, and the pixel value of the point: Q in the patch plane is set to the point: Q with respect to the pixel value of the patch boundary line. Distance: dn, a weighting coefficient inversely proportional to dn is applied to perform pixel value correction processing for performing calculation based on the pixel value of the patch boundary line. Therefore, shooting is performed under different shooting conditions. Even in a configuration in which images from different viewpoints are pasted as texture images of adjacent patch surfaces, the images between the patch surfaces are smoothly corrected, and high image quality without discomfort Generating three-dimensional image data is realized.

【図面の簡単な説明】[Brief description of drawings]

【図1】多視点画像撮影システムの構成例を示す図であ
る。
FIG. 1 is a diagram illustrating a configuration example of a multi-view image capturing system.

【図2】多視点画像撮影システムにおける撮影視点とパ
ッチ面との対応について説明する図である。
FIG. 2 is a diagram illustrating a correspondence between a shooting viewpoint and a patch surface in a multi-view image shooting system.

【図3】多視点画像撮影システムにおける撮影視点とパ
ッチ面との対応、およびテクスチャ画像選択について説
明する図である。
FIG. 3 is a diagram illustrating correspondence between a shooting viewpoint and a patch surface and texture image selection in the multi-view image shooting system.

【図4】視点の距離および角度と、画質劣化評価値:E
との対応を示す図である。
FIG. 4 is a viewpoint distance and angle, and an image quality deterioration evaluation value: E
It is a figure which shows correspondence with.

【図5】本発明の構成におけるテクスチャ画像選択処理
について説明する図である。
FIG. 5 is a diagram illustrating a texture image selection process in the configuration of the present invention.

【図6】本発明の構成におけるマッチング処理について
説明する図である。
FIG. 6 is a diagram illustrating a matching process in the configuration of the present invention.

【図7】本発明の構成におけるマッチング処理について
説明するフロー図である。
FIG. 7 is a flowchart illustrating a matching process in the configuration of the present invention.

【図8】本発明の構成におけるパッチ面境界部の画素値
補正処理について説明する図である。
FIG. 8 is a diagram illustrating a pixel value correction process at a patch surface boundary portion in the configuration of the present invention.

【図9】本発明の構成におけるパッチ面内部の画素値補
正処理について説明する図である。
FIG. 9 is a diagram illustrating a pixel value correction process inside a patch surface in the configuration of the present invention.

【図10】本発明の構成における画素値補正処理につい
て説明するフロー図である。
FIG. 10 is a flowchart illustrating a pixel value correction process in the configuration of the present invention.

【図11】本発明の構成における多視点画像系列の構成
例について説明する図である。
FIG. 11 is a diagram illustrating a configuration example of a multi-view image sequence in the configuration of the present invention.

【図12】本発明の構成を適用した場合の効果について
説明する図である。
FIG. 12 is a diagram illustrating an effect when the configuration of the present invention is applied.

【図13】本発明の構成を適用した場合の効果について
説明する図である。
FIG. 13 is a diagram illustrating an effect when the configuration of the present invention is applied.

【図14】本発明の構成を適用した場合の効果について
説明する図である。
FIG. 14 is a diagram illustrating an effect when the configuration of the present invention is applied.

【図15】本発明の画像処理装置の構成例について示す
ブロック図である。
FIG. 15 is a block diagram showing a configuration example of an image processing apparatus of the present invention.

【図16】本発明の画像処理装置の機能構成について示
す機能ブロック図である。
FIG. 16 is a functional block diagram showing a functional configuration of the image processing apparatus of the present invention.

【符号の説明】[Explanation of symbols]

101 対象物 102 回転テーブル 103 カメラ 201,202 カメラ 203 注目パッチ面 204 重心 301,302 カメラ 303 注目パッチ面 304 重心 501 対象物 502 パッチ面 503,504 カメラ 551,552 パッチ面 561,562 撮影画像イメージ 611,612 撮影画像イメージ 621,622 パッチ面 651〜654 パッチ面 732 ディスプレイ 733 ビデオカメラ 734 マイク 735 スピーカ 736 キーボード 737 マウス 738 コントローラ 750 画像処理装置 751 コーデック 752 ネットワークインタフェース 753 入力インタフェース 754 AVインタフェース 756 CPU 757 メモリ 758 記録メディア 761 フレームメモリ 762 D/A変換器 763 音声バッファ 764 D/A変換器 801 入出力インタフェース 802 メモリ 803 三次元形状データ生成部 810 テクスチャマッピング処理部 811 テクスチャ画像選択処理部 812 マッチング処理部 813 画素値補正処理部 821 入出力インタフェース 822 表示装置 823 記憶装置 101 Target 102 rotating table 103 camera 201,202 camera 203 Notable patch surface 204 center of gravity 301,302 camera 303 Featured patch surface 304 center of gravity 501 object 502 patch surface 503, 504 camera 551,552 patch surface 561,562 Photograph image image 611,612 image 621,622 patch surface 651-654 patch surface 732 display 733 video camera 734 microphone 735 speaker 736 keyboard 737 mouse 738 controller 750 image processing device 751 codec 752 network interface 753 input interface 754 AV interface 756 CPU 757 memory 758 recording media 761 frame memory 762 D / A converter 763 audio buffer 764 D / A converter 801 I / O interface 802 memory 803 Three-dimensional shape data generation unit 810 Texture Mapping Processing Unit 811 Texture image selection processing unit 812 Matching processing unit 813 Pixel value correction processing unit 821 I / O interface 822 display device 823 storage device

───────────────────────────────────────────────────── フロントページの続き (72)発明者 佐藤 寛幸 宮城県栗原郡築館町字西小山27−5 Fターム(参考) 5B057 BA02 BA26 CA01 CA08 CA12 CA17 CB01 CB08 CB13 CB16 CC01 CE08 CE11 CE16 CH08 CH11 CH12 CH18 DA07 DA16 DB02 DB06 DB09 DC02 DC08 DC09 5B080 CA01 FA02 GA22 5C061 AA06 AA21 AB04 AB08 AB17 5L096 AA09 FA41 FA66 FA67    ─────────────────────────────────────────────────── ─── Continued front page    (72) Inventor Hiroyuki Sato             27-5 Nishikoyama, Tsukidate-cho, Kurihara-gun, Miyagi Prefecture F term (reference) 5B057 BA02 BA26 CA01 CA08 CA12                       CA17 CB01 CB08 CB13 CB16                       CC01 CE08 CE11 CE16 CH08                       CH11 CH12 CH18 DA07 DA16                       DB02 DB06 DB09 DC02 DC08                       DC09                 5B080 CA01 FA02 GA22                 5C061 AA06 AA21 AB04 AB08 AB17                 5L096 AA09 FA41 FA66 FA67

Claims (21)

【特許請求の範囲】[Claims] 【請求項1】三次元形状モデルにテクスチャ画像を貼り
付けることにより三次元画像を生成する画像処理装置に
おいて、 三次元画像生成対象物に対する複数視点の撮影画像か
ら、三次元形状モデルを構成するパッチ面毎に、パッチ
面と各視点間の距離データ、および各視点のパッチ面に
対する方向データとを適用した画質評価値に基づいて最
適テクスチャ画像の選択処理を実行するテクスチャ画像
選択処理手段を有することを特徴とする画像処理装置。
1. An image processing apparatus for generating a three-dimensional image by pasting a texture image on a three-dimensional shape model, comprising a patch forming a three-dimensional shape model from a plurality of viewpoint photographed images of a three-dimensional image generation object. A texture image selection processing unit that performs selection processing of an optimum texture image based on an image quality evaluation value to which the patch surface and distance data between viewpoints and direction data with respect to the patch surface of each viewpoint are applied for each surface An image processing device characterized by:
【請求項2】前記テクスチャ画像選択処理手段は、 三次元形状モデルを構成するパッチ面に最も正対する1
つの視点画像を選択し、該選択画像の視点から前記パッ
チ面の重心に向かう方向ベクトル:Vと、前記パッチ面
の法線ベクトル:nとのなす角度をθとして、前記重心
を中心としてθ±Δθの領域内の視点からの撮影画像
を、前記パッチ面に対するテクスチャ画像の候補画像と
し、該候補画像の中から、前記画質評価値に基づく最適
テクスチャ画像の選択処理を実行する構成であることを
特徴とする請求項1に記載の画像処理装置。
2. The texture image selection processing means 1 which is most directly opposed to a patch surface forming a three-dimensional shape model.
One viewpoint image is selected, and an angle between a direction vector: V from the viewpoint of the selected image toward the center of gravity of the patch surface and a normal vector: n of the patch surface is θ, and θ ± is centered on the center of gravity. An image captured from a viewpoint within the region of Δθ is set as a candidate image of a texture image for the patch surface, and a process of selecting an optimal texture image based on the image quality evaluation value is executed from the candidate images. The image processing apparatus according to claim 1, which is characterized in that.
【請求項3】前記評価値は、 パッチ面と視点間の距離をDとし、視点から前記パッチ
面の重心に向かう方向ベクトル:Vと、前記パッチ面の
法線ベクトル:nとのなす角度:θを適用した演算式に
よって算出される値であることを特徴とする請求項1に
記載の画像処理装置。
3. The evaluation value has a distance D between the patch surface and the viewpoint, and an angle formed by a direction vector V from the viewpoint to the center of gravity of the patch surface and a normal vector n of the patch surface: The image processing apparatus according to claim 1, wherein the value is a value calculated by an arithmetic expression to which θ is applied.
【請求項4】前記演算式は、以下に示す評価値:Vの算
出式、 【数1】 ただし、 Dはパッチ面重心と評価対象となる画像を撮影したカメ
ラの距離、Dmaxは候補画像となる複数のDの最大距
離の値、θは、評価対象となる画像を撮影したカメラの
方向ベクトル:Vと、注目パッチ面Pの法線ベクトル:
nのなす角:θ、wDは、距離:Dに対する画質劣化評
価値:Eの変化率:|dE/dD|、wθは、角度:θ
に対する画質劣化評価値:Eの変化率:|dE/dθ|
である、 であることを特徴とする請求項3に記載の画像処理装
置。
4. The calculation formula is a calculation formula of the following evaluation value: V, and Where D is the distance between the center of gravity of the patch surface and the camera that has captured the image to be evaluated, Dmax is the maximum distance value of the multiple Ds that are candidate images, and θ is the direction vector of the camera that has captured the image to be evaluated. : V and the normal vector of the patch surface P of interest:
The angle made by n: θ, w D is the change rate of the image quality deterioration evaluation value: E with respect to the distance: D: | dE / dD |, w θ is the angle: θ
Image degradation evaluation value for: Change rate of E: | dE / dθ |
The image processing apparatus according to claim 3, wherein:
【請求項5】三次元形状モデルにテクスチャ画像を貼り
付けることにより三次元画像を生成する画像処理装置に
おいて、 異なる視点からの画像をテクスチャ画像としてつなぎ合
わせたパッチ境界部における画素値のマッチング処理を
実行するマッチング処理手段を有し、 前記マッチング処理手段は、 三次元画像の構成データ中、異なる視点からのテクスチ
ャ画像を隣接テクスチャ画像として有するパッチ境界部
におけるテクスチャ画像間の画素値誤差データを算出
し、 算出した画素値誤差データ中、最大の画素値誤差データ
を有するパッチ境界部を選択する選択処理、および選択
パッチ境界部に対応するテクスチャ画像の端点移動によ
るマッチング処理を実行し、 前記画素値誤差データが予め定めた閾値以下となるま
で、前記選択処理およびマッチング処理を繰り返し実行
する構成であることを特徴とする画像処理装置。
5. An image processing device for generating a three-dimensional image by pasting a texture image on a three-dimensional shape model, wherein a pixel value matching process at a patch boundary part where images from different viewpoints are connected as a texture image is performed. The matching processing unit has a matching processing unit to execute, and the matching processing unit calculates pixel value error data between texture images at a patch boundary having texture images from different viewpoints as adjacent texture images in the three-dimensional image constituent data. The pixel value error data, the selection process of selecting the patch boundary having the maximum pixel value error data, and the matching process by moving the end points of the texture image corresponding to the selected patch boundary, Until the data becomes below a predetermined threshold, the selection process The image processing apparatus characterized in that is configured to execute repeatedly the fine matching process.
【請求項6】三次元形状モデルにテクスチャ画像を貼り
付けることにより三次元画像を生成する画像処理装置に
おいて、 異なる視点からの画像をテクスチャ画像としてつなぎ合
わせたパッチ境界部における画素値補正処理を実行する
画素値補正処理手段を有し、 前記画素値補正処理手段は、 パッチ境界部における隣接テクスチャ画像中、パッチ面
に対して、正対した視点方向にあるテクスチャ画像の画
素値に大きな重み付けを行ない、前記隣接テクスチャ画
像の各画素値に基づいて、前記パッチ境界部における画
素値を算出する構成を有することを特徴とする画像処理
装置。
6. An image processing apparatus for generating a three-dimensional image by pasting a texture image on a three-dimensional shape model, wherein pixel value correction processing is executed at a patch boundary portion where images from different viewpoints are stitched together as a texture image. Pixel value correction processing means is provided, and the pixel value correction processing means performs a large weighting on the pixel value of the texture image in the facing front direction with respect to the patch surface in the adjacent texture image at the patch boundary portion. The image processing apparatus is configured to calculate a pixel value at the patch boundary portion based on each pixel value of the adjacent texture image.
【請求項7】前記画素値補正処理手段は、 以下に示す補正画素値:Pi-new算出式、 【数2】 ただし、 λ=(cosθn)/(cosθn+cosθm) であり、θnとθmはそれぞれ画像ImagenとIm
agemを撮影したカメラの方向ベクトル:Vと、注目
パッチ面Pの法線ベクトル:nのなす角である、 に従って、前記パッチ境界部における画素値を算出する
構成を有することを特徴とする請求項6に記載の画像処
理装置。
7. The pixel value correction processing means comprises a corrected pixel value: P i-new calculation formula, However, λ = (cos θn) / (cos θn + cos θm), and θn and θm are images Image n and Im, respectively.
The pixel value at the patch boundary portion is calculated according to an angle formed by a direction vector V of the camera capturing the image m and a normal vector n of the patch surface P of interest. Item 6. The image processing device according to item 6.
【請求項8】前記画素値補正処理手段は、さらに、 異なる視点からの画像をテクスチャ画像としてつなぎ合
わせたパッチ境界を有するパッチ面内の画素値補正処理
を実行する構成であり、 パッチ面内の点:Qの画素値を、パッチ境界線の画素値
に対して、前記点:Qからの距離:dnに反比例した重
み係数を適用して、パッチ境界線の画素値に基づいて算
出する処理を実行する構成であることを特徴とする請求
項6または7に記載の画像処理装置。
8. The pixel value correction processing means is further configured to execute pixel value correction processing within a patch plane having a patch boundary obtained by joining images from different viewpoints as a texture image. A process of calculating the pixel value of the point: Q based on the pixel value of the patch boundary line by applying a weighting coefficient inversely proportional to the distance from the point: Q: dn to the pixel value of the patch boundary line The image processing apparatus according to claim 6, wherein the image processing apparatus is configured to execute.
【請求項9】前記画素値補正処理手段は、さらに、 異なる視点からの画像をテクスチャ画像としてつなぎ合
わせたパッチ境界を有するパッチ面内の画素値補正処理
を実行する構成であり、 前記画素値補正処理手段は、 3つの共有稜線:Li,Lj,Lkに囲まれた三角領域か
らなるパッチ面内の点:Qの画素値を、以下に示す補正
画素値:Qnew算出式、 【数3】 ただし、 Qoldは、点:Qの補正前の画素値、 Qnewは、点:Qの補正後の画素値であり、 Pi-old、Pi-new:共有線Li上の補正前および補正後
の画素値 Pj-old、Pj-new:共有線Lj上の補正前および補正後
の画素値 Pk-old、Pk-new:共有線Lk上の補正前および補正後
の画素値であり、 wi,wj,wk:パッチ内の点Qと、各稜線Li,Lj
k上の点Pi,Pj,Pkとの距離di,dj,dkに反比
例する重み係数 I,J,K:各稜線Li,Lj,Lk上の画素数である、 に従って、前記パッチ面内の点:Qの画素値を算出する
構成であることを特徴とする請求項6または7に記載の
画像処理装置。
9. The pixel value correction processing means is further configured to execute pixel value correction processing within a patch plane having a patch boundary in which images from different viewpoints are connected as a texture image. The processing means calculates the pixel value of a point: Q in a patch plane formed by a triangular region surrounded by three shared ridge lines: L i , L j , and L k : a corrected pixel value: Q new calculation formula, Number 3] However, Q old is the pixel value before correction of point: Q, Q new is the pixel value after correction of point: Q, P i-old , P i-new : Before correction on shared line L i and the pixel value P j-old after correction, P j-new: shared lines L j on the uncorrected and the corrected pixel value P k-old, P k- new: uncorrected and corrected on a shared line L k The pixel values after that, w i , w j , w k : point Q in the patch and each edge L i , L j ,
L k on points P i, P j, the distance d i between the P k, d j, the weighting factor is inversely proportional to d k I, J, K: the ridge line L i, L j, the number of pixels on the L k The image processing apparatus according to claim 6 or 7, wherein a pixel value of a point: Q on the patch surface is calculated according to the following.
【請求項10】三次元形状モデルにテクスチャ画像を貼
り付けることにより三次元画像を生成する画像処理装置
において、 三次元画像生成対象物に対する複数視点の撮影画像か
ら、三次元形状モデルを構成するパッチ面毎に、パッチ
面と各視点間の距離データ、および各視点のパッチ面に
対する方向データとを適用した画質評価値に基づいて最
適テクスチャ画像の選択処理を実行するテクスチャ画像
選択処理手段と、 三次元画像の構成データ中、異なる視点からのテクスチ
ャ画像を隣接テクスチャ画像として有するパッチ境界部
におけるテクスチャ画像間の画素値誤差データを算出
し、算出した画素値誤差データ中、最大の画素値誤差デ
ータを有するパッチ境界部を選択する選択処理、および
選択パッチ境界部に対応するテクスチャ画像の端点移動
によるマッチング処理を実行し、前記画素値誤差データ
が予め定めた閾値以下となるまで、前記選択処理および
マッチング処理を繰り返し実行するマッチング処理手段
と、 パッチ境界部における隣接テクスチャ画像中、パッチ面
に対して、正対した視点方向にあるテクスチャ画像の画
素値に大きな重み付けを行ない、前記隣接テクスチャ画
像の各画素値に基づいて、前記パッチ境界部における画
素値を算出するとともに、パッチ面内の点:Qの画素値
を、パッチ境界線の画素値に対して、前記点:Qからの
距離:dnに反比例した重み係数を適用して、パッチ境
界線の画素値に基づいて算出する処理を実行する画素値
補正処理手段と、 を有することを特徴とする画像処理装置。
10. An image processing apparatus for generating a three-dimensional image by pasting a texture image on a three-dimensional shape model, comprising a patch forming a three-dimensional shape model from a plurality of viewpoint photographed images of a three-dimensional image generation object. Texture image selection processing means for executing optimum texture image selection processing based on the image quality evaluation value obtained by applying, for each surface, distance data between the patch surface and each viewpoint, and direction data with respect to the patch surface of each viewpoint; Among the constituent data of the original image, the pixel value error data between the texture images at the patch boundary having the texture images from different viewpoints as the adjacent texture images is calculated, and the maximum pixel value error data is calculated from the calculated pixel value error data. Selection processing to select the patch boundary part that has, and the texture image corresponding to the selected patch boundary part Matching processing means that executes matching processing by point movement and repeatedly executes the selection processing and matching processing until the pixel value error data becomes equal to or less than a predetermined threshold value; On the other hand, the pixel value of the texture image in the facing viewpoint direction is heavily weighted, and the pixel value in the patch boundary portion is calculated based on each pixel value of the adjacent texture image, and A process of calculating the pixel value of the point: Q based on the pixel value of the patch boundary line by applying a weighting coefficient inversely proportional to the distance from the point: Q: dn to the pixel value of the patch boundary line An image processing apparatus comprising: a pixel value correction processing unit that executes the image data.
【請求項11】三次元形状モデルにテクスチャ画像を貼
り付けることにより三次元画像を生成する画像処理方法
において、 三次元画像生成対象物に対する複数視点の撮影画像か
ら、三次元形状モデルを構成するパッチ面毎に、パッチ
面と各視点間の距離データ、および各視点のパッチ面に
対する方向データとを適用した画質評価値に基づいて最
適テクスチャ画像の選択処理を実行するテクスチャ画像
選択処理ステップを有することを特徴とする画像処理方
法。
11. An image processing method for generating a three-dimensional image by attaching a texture image to the three-dimensional shape model, comprising a patch forming a three-dimensional shape model from a plurality of viewpoint photographed images of a three-dimensional image generation object. For each surface, a texture image selection processing step is executed for executing the selection processing of the optimum texture image based on the image quality evaluation value to which the distance data between the patch surface and each viewpoint and the direction data with respect to the patch surface of each viewpoint are applied. An image processing method characterized by:
【請求項12】前記テクスチャ画像選択処理ステップ
は、 三次元形状モデルを構成するパッチ面に最も正対する1
つの視点画像を選択し、該選択画像の視点から前記パッ
チ面の重心に向かう方向ベクトル:Vと、前記パッチ面
の法線ベクトル:nとのなす角度をθとして、前記重心
を中心としてθ±Δθの領域内の視点からの撮影画像
を、前記パッチ面に対するテクスチャ画像の候補画像と
し、該候補画像の中から、前記画質評価値に基づく最適
テクスチャ画像の選択処理を実行するステップを含むこ
とを特徴とする請求項11に記載の画像処理方法。
12. The texture image selection processing step is the step 1 which is most directly opposed to a patch surface forming a three-dimensional shape model.
One viewpoint image is selected, and an angle between a direction vector: V from the viewpoint of the selected image toward the center of gravity of the patch surface and a normal vector: n of the patch surface is θ, and θ ± is centered on the center of gravity. A captured image from a viewpoint within the region of Δθ is set as a candidate image of a texture image for the patch surface, and a step of performing a selection process of an optimal texture image based on the image quality evaluation value from the candidate image is included. The image processing method according to claim 11, which is characterized in that.
【請求項13】前記評価値は、 パッチ面と視点間の距離をDとし、視点から前記パッチ
面の重心に向かう方向ベクトル:Vと、前記パッチ面の
法線ベクトル:nとのなす角度:θを適用した演算式に
よって算出される値であることを特徴とする請求項11
に記載の画像処理方法。
13. The evaluation value, wherein the distance between the patch surface and the viewpoint is D, and the angle between the direction vector from the viewpoint to the center of gravity of the patch surface: V and the normal vector of the patch surface: n: The value is a value calculated by an arithmetic expression to which θ is applied.
The image processing method described in.
【請求項14】前記演算式は、以下に示す評価値:Vの
算出式、 【数4】 ただし、Dはパッチ面重心と評価対象となる画像を撮影
したカメラの距離、Dmaxは候補画像となる複数のD
の最大距離の値、θは、評価対象となる画像を撮影した
カメラの方向ベクトル:Vと、注目パッチ面Pの法線ベ
クトル:nのなす角:θ、wDは、距離:Dに対する画
質劣化評価値:Eの変化率:|dE/dD|、wθは、
角度:θに対する画質劣化評価値:Eの変化率:|dE
/dθ|、 であることを特徴とする請求項13に記載の画像処理方
法。
14. The calculation formula is a calculation formula of the following evaluation value: V, and However, D is the distance between the center of gravity of the patch surface and the camera that has captured the image to be evaluated, and Dmax is a plurality of Ds that are candidate images.
Is the maximum distance value of θ, θ is the direction vector of the camera that has captured the image to be evaluated: V, and the normal vector n of the patch surface P of interest is the angle: θ, w D is the image quality for distance: D Degradation evaluation value: change rate of E: | dE / dD |, w θ is
Change rate of image quality deterioration evaluation value: E with respect to angle: θ: | dE
The image processing method according to claim 13, wherein / dθ |
【請求項15】三次元形状モデルにテクスチャ画像を貼
り付けることにより三次元画像を生成する画像処理方法
において、 異なる視点からの画像をテクスチャ画像としてつなぎ合
わせたパッチ境界部における画素値のマッチング処理を
実行するマッチング処理ステップを有し、 前記マッチング処理ステップは、 三次元画像の構成データ中、異なる視点からのテクスチ
ャ画像を隣接テクスチャ画像として有するパッチ境界部
におけるテクスチャ画像間の画素値誤差データを算出
し、 算出した画素値誤差データ中、最大の画素値誤差データ
を有するパッチ境界部を選択する選択処理、および選択
パッチ境界部に対応するテクスチャ画像の端点移動によ
るマッチング処理を実行し、 前記画素値誤差データが予め定めた閾値以下となるま
で、前記選択処理およびマッチング処理を繰り返し実行
するステップを含むことを特徴とする画像処理方法。
15. An image processing method for generating a three-dimensional image by pasting a texture image on a three-dimensional shape model, which comprises matching processing of pixel values in a patch boundary part where images from different viewpoints are connected as a texture image. A matching process step to be executed, wherein the matching process step calculates pixel value error data between texture images at a patch boundary portion having texture images from different viewpoints as adjacent texture images in the three-dimensional image constituent data. The pixel value error data, the selection process of selecting the patch boundary having the maximum pixel value error data, and the matching process by moving the end points of the texture image corresponding to the selected patch boundary, Until the data falls below a predetermined threshold, Image processing method characterized by comprising the step of repeatedly executing the-option processing and matching processing.
【請求項16】三次元形状モデルにテクスチャ画像を貼
り付けることにより三次元画像を生成する画像処理方法
において、 異なる視点からの画像をテクスチャ画像としてつなぎ合
わせたパッチ境界部における画素値補正処理を実行する
画素値補正処理ステップを有し、 前記画素値補正処理ステップは、 パッチ境界部における隣接テクスチャ画像中、パッチ面
に対して、正対した視点方向にあるテクスチャ画像の画
素値に大きな重み付けを行ない、前記隣接テクスチャ画
像の各画素値に基づいて、前記パッチ境界部における画
素値を算出するステップであることを特徴とする画像処
理方法。
16. An image processing method for generating a three-dimensional image by pasting a texture image on a three-dimensional shape model, wherein pixel value correction processing is executed at a patch boundary portion where images from different viewpoints are stitched together as a texture image. Pixel value correction processing step is performed, and in the pixel value correction processing step, in the adjacent texture image at the patch boundary portion, a large weight is given to the pixel value of the texture image in the facing front direction with respect to the patch surface. An image processing method comprising the step of calculating a pixel value at the patch boundary portion based on each pixel value of the adjacent texture image.
【請求項17】前記画素値補正処理ステップは、 以下に示す補正画素値:Pi-new算出式、 【数5】 ただし、 λ=(cosθn)/(cosθn+cosθm) であり、θnとθmはそれぞれ画像ImagenとIm
agemを撮影したカメラの方向ベクトル:Vと、注目
パッチ面Pの法線ベクトル:nのなす角である、 に従って、前記パッチ境界部における画素値を算出する
ことを特徴とする請求項16に記載の画像処理方法。
17. The pixel value correction processing step comprises the following correction pixel value: P i -new calculation formula, However, λ = (cos θn) / (cos θn + cos θm), and θn and θm are images Image n and Im, respectively.
The pixel value at the patch boundary portion is calculated in accordance with an angle formed by the direction vector of the camera capturing the image m : V and the normal vector of the patch surface P of interest: n. The described image processing method.
【請求項18】前記画素値補正処理ステップは、さら
に、 異なる視点からの画像をテクスチャ画像としてつなぎ合
わせたパッチ境界を有するパッチ面内の画素値補正処理
を実行するステップを含み、 パッチ面内の点:Qの画素値を、パッチ境界線の画素値
に対して、前記点:Qからの距離:dnに反比例した重
み係数を適用して、パッチ境界線の画素値に基づいて算
出する処理を実行することを特徴とする請求項16また
は17に記載の画像処理方法。
18. The pixel value correction processing step further includes a step of executing pixel value correction processing within a patch plane having a patch boundary in which images from different viewpoints are joined as a texture image. A process of calculating the pixel value of the point: Q based on the pixel value of the patch boundary line by applying a weighting coefficient inversely proportional to the distance from the point: Q: dn to the pixel value of the patch boundary line The image processing method according to claim 16, which is executed.
【請求項19】前記画素値補正処理ステップは、さら
に、 異なる視点からの画像をテクスチャ画像としてつなぎ合
わせたパッチ境界を有するパッチ面内の画素値補正処理
を実行するステップを含み、 3つの共有稜線:Li,Lj,Lkに囲まれた三角領域か
らなるパッチ面内の点:Qの画素値を、以下に示す補正
画素値:Qnew算出式、 【数6】 ただし、 Qoldは、点:Qの補正前の画素値、 Qnewは、点:Qの補正後の画素値であり、 Pi-old、Pi-new:共有線Li上の補正前および補正後
の画素値 Pj-old、Pj-new:共有線Lj上の補正前および補正後
の画素値 Pk-old、Pk-new:共有線Lk上の補正前および補正後
の画素値であり、 wi,wj,wk:パッチ内の点Qと、各稜線Li,Lj
k上の点Pi,Pj,Pkとの距離di,dj,dkに反比
例する重み係数 I,J,K:各稜線Li,Lj,Lk上の画素数である、 に従って、前記パッチ面内の点:Qの画素値を算出する
ことを特徴とする請求項16または17に記載の画像処
理方法。
19. The pixel value correction processing step further includes a step of performing pixel value correction processing within a patch plane having a patch boundary in which images from different viewpoints are connected as a texture image, and three shared ridge lines are provided. : Point in the patch plane consisting of a triangular area surrounded by L i , L j , and L k : pixel value of Q, corrected pixel value shown below: Q new calculation formula, However, Q old is the pixel value before correction of point: Q, Q new is the pixel value after correction of point: Q, P i-old , P i-new : Before correction on shared line L i and the pixel value P j-old after correction, P j-new: shared lines L j on the uncorrected and the corrected pixel value P k-old, P k- new: uncorrected and corrected on a shared line L k The pixel values after that, w i , w j , w k : point Q in the patch and each edge L i , L j ,
L k on points P i, P j, the distance d i between the P k, d j, the weighting factor is inversely proportional to d k I, J, K: the ridge line L i, L j, the number of pixels on the L k The image processing method according to claim 16 or 17, wherein a pixel value of a point: Q in the patch plane is calculated according to the following.
【請求項20】三次元形状モデルにテクスチャ画像を貼
り付けることにより三次元画像を生成する画像処理方法
において、 三次元画像生成対象物に対する複数視点の撮影画像か
ら、三次元形状モデルを構成するパッチ面毎に、パッチ
面と各視点間の距離データ、および各視点のパッチ面に
対する方向データとを適用した画質評価値に基づいて最
適テクスチャ画像の選択処理を実行するテクスチャ画像
選択処理ステップと、 三次元画像の構成データ中、異なる視点からのテクスチ
ャ画像を隣接テクスチャ画像として有するパッチ境界部
におけるテクスチャ画像間の画素値誤差データを算出
し、算出した画素値誤差データ中、最大の画素値誤差デ
ータを有するパッチ境界部を選択する選択処理、および
選択パッチ境界部に対応するテクスチャ画像の端点移動
によるマッチング処理を実行し、前記画素値誤差データ
が予め定めた閾値以下となるまで、前記選択処理および
マッチング処理を繰り返し実行するマッチング処理ステ
ップと、 パッチ境界部における隣接テクスチャ画像中、パッチ面
に対して、正対した視点方向にあるテクスチャ画像の画
素値に大きな重み付けを行ない、前記隣接テクスチャ画
像の各画素値に基づいて、前記パッチ境界部における画
素値を算出するとともに、パッチ面内の点:Qの画素値
を、パッチ境界線の画素値に対して、前記点:Qからの
距離:dnに反比例した重み係数を適用して、パッチ境
界線の画素値に基づいて算出する処理を実行する画素値
補正処理ステップと、 を有することを特徴とする画像処理方法。
20. An image processing method for generating a three-dimensional image by pasting a texture image on the three-dimensional shape model, comprising a patch forming a three-dimensional shape model from a plurality of viewpoint photographed images of a three-dimensional image generation object. A texture image selection processing step for executing the selection processing of the optimum texture image based on the image quality evaluation value to which the distance data between the patch surface and each viewpoint and the direction data with respect to the patch surface of each viewpoint are applied for each surface; Among the constituent data of the original image, the pixel value error data between the texture images at the patch boundary having the texture images from different viewpoints as the adjacent texture images is calculated, and the maximum pixel value error data is calculated from the calculated pixel value error data. Selection process to select the patch boundary part that has, and the texture image corresponding to the selected patch boundary part A matching process step of repeatedly performing the selecting process and the matching process until the pixel value error data becomes equal to or less than a predetermined threshold value by performing the matching process by moving the end points of the patch; A large weight is given to the pixel value of the texture image in the facing viewpoint direction with respect to the surface, and the pixel value at the patch boundary portion is calculated based on each pixel value of the adjacent texture image. Point: Q, the pixel value of the patch boundary line is calculated based on the pixel value of the patch boundary line by applying a weighting factor inversely proportional to the distance: dn from the point: Q to the pixel value of the patch boundary line. An image processing method, comprising: a pixel value correction processing step for executing.
【請求項21】三次元形状モデルにテクスチャ画像を貼
り付けることにより三次元画像を生成する画像処理を実
行するコンピュータ・プログラムであって、 三次元画像生成対象物に対する複数視点の撮影画像か
ら、三次元形状モデルを構成するパッチ面毎に、パッチ
面と各視点間の距離データ、および各視点のパッチ面に
対する方向データとを適用した画質評価値に基づいて最
適テクスチャ画像の選択処理を実行するテクスチャ画像
選択処理ステップと、 三次元画像の構成データ中、異なる視点からのテクスチ
ャ画像を隣接テクスチャ画像として有するパッチ境界部
におけるテクスチャ画像間の画素値誤差データを算出
し、算出した画素値誤差データ中、最大の画素値誤差デ
ータを有するパッチ境界部を選択する選択処理、および
選択パッチ境界部に対応するテクスチャ画像の端点移動
によるマッチング処理を実行し、前記画素値誤差データ
が予め定めた閾値以下となるまで、前記選択処理および
マッチング処理を繰り返し実行するマッチング処理ステ
ップと、 パッチ境界部における隣接テクスチャ画像中、パッチ面
に対して、正対した視点方向にあるテクスチャ画像の画
素値に大きな重み付けを行ない、前記隣接テクスチャ画
像の各画素値に基づいて、前記パッチ境界部における画
素値を算出するとともに、パッチ面内の点:Qの画素値
を、パッチ境界線の画素値に対して、前記点:Qからの
距離:dnに反比例した重み係数を適用して、パッチ境
界線の画素値に基づいて算出する処理を実行する画素値
補正処理ステップと、 を具備することを特徴とするコンピュータ・プログラ
ム。
21. A computer program for executing image processing for generating a three-dimensional image by pasting a texture image on a three-dimensional shape model, comprising: A texture for executing the selection process of the optimum texture image based on the image quality evaluation value to which the distance data between the patch surface and each viewpoint and the direction data with respect to the patch surface of each viewpoint are applied for each patch surface forming the original shape model. Image selection processing step, in the configuration data of the three-dimensional image, the pixel value error data between the texture images in the patch boundary portion having the texture images from different viewpoints as adjacent texture images is calculated, and in the calculated pixel value error data, The selection process for selecting the patch boundary having the maximum pixel value error data, and the selection A matching process step of executing a matching process by moving the end points of the texture image corresponding to the boundary part, and repeatedly executing the selection process and the matching process until the pixel value error data becomes equal to or less than a predetermined threshold value; In the adjacent texture image in, for the patch surface, a large weight is given to the pixel value of the texture image in the facing front direction, based on each pixel value of the adjacent texture image, the pixel value in the patch boundary portion. The pixel value of the patch boundary line is calculated by applying a weighting factor inversely proportional to the pixel value of the point: Q in the patch plane to the pixel value of the patch boundary line and the distance from the point: Q: dn. A pixel value correction processing step for executing a calculation based on the value; Beam.
JP2002144127A 2002-05-20 2002-05-20 Apparatus and method for image processing, and computer program Pending JP2003337953A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002144127A JP2003337953A (en) 2002-05-20 2002-05-20 Apparatus and method for image processing, and computer program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002144127A JP2003337953A (en) 2002-05-20 2002-05-20 Apparatus and method for image processing, and computer program

Publications (1)

Publication Number Publication Date
JP2003337953A true JP2003337953A (en) 2003-11-28

Family

ID=29703880

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002144127A Pending JP2003337953A (en) 2002-05-20 2002-05-20 Apparatus and method for image processing, and computer program

Country Status (1)

Country Link
JP (1) JP2003337953A (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011039869A (en) * 2009-08-13 2011-02-24 Nippon Hoso Kyokai <Nhk> Face image processing apparatus and computer program
JP2013238716A (en) * 2012-05-15 2013-11-28 Dainippon Printing Co Ltd Method for synthesizing multi-visual point image information
JP2015064755A (en) * 2013-09-25 2015-04-09 株式会社 日立産業制御ソリューションズ Three-dimensional shape measuring system and color information attachment method
JP2018181047A (en) * 2017-04-17 2018-11-15 凸版印刷株式会社 Three-dimensional shape model generating device, three-dimensional shape model generating method and program
JP2019040229A (en) * 2017-08-22 2019-03-14 キヤノン株式会社 Image processing apparatus, image processing method and program
JP2020532022A (en) * 2017-09-01 2020-11-05 畳境数字科技(上海)有限公司Plex−Vr Digital Technology (Shanghai) Co., Ltd. Sphere light field rendering method in all viewing angles

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011039869A (en) * 2009-08-13 2011-02-24 Nippon Hoso Kyokai <Nhk> Face image processing apparatus and computer program
JP2013238716A (en) * 2012-05-15 2013-11-28 Dainippon Printing Co Ltd Method for synthesizing multi-visual point image information
JP2015064755A (en) * 2013-09-25 2015-04-09 株式会社 日立産業制御ソリューションズ Three-dimensional shape measuring system and color information attachment method
JP2018181047A (en) * 2017-04-17 2018-11-15 凸版印刷株式会社 Three-dimensional shape model generating device, three-dimensional shape model generating method and program
JP2019040229A (en) * 2017-08-22 2019-03-14 キヤノン株式会社 Image processing apparatus, image processing method and program
JP2020532022A (en) * 2017-09-01 2020-11-05 畳境数字科技(上海)有限公司Plex−Vr Digital Technology (Shanghai) Co., Ltd. Sphere light field rendering method in all viewing angles

Similar Documents

Publication Publication Date Title
US9872010B2 (en) Lidar stereo fusion live action 3D model video reconstruction for six degrees of freedom 360° volumetric virtual reality video
Maier et al. Intrinsic3D: High-quality 3D reconstruction by joint appearance and geometry optimization with spatially-varying lighting
US7426317B2 (en) Image processing apparatus and image processing method, storage medium and computer program
KR101195942B1 (en) Camera calibration method and 3D object reconstruction method using the same
TW201915944A (en) Image processing method, apparatus, and storage medium
US9098930B2 (en) Stereo-aware image editing
WO2019049421A1 (en) Calibration device, calibration system, and calibration method
CN110458932B (en) Image processing method, device, system, storage medium and image scanning apparatus
Yemez et al. 3D reconstruction of real objects with high resolution shape and texture
US20120081357A1 (en) System and method for interactive painting of 2d images for iterative 3d modeling
US9369694B2 (en) Adjusting stereo images
US20070279412A1 (en) Infilling for 2D to 3D image conversion
JP4474743B2 (en) 3D image generating apparatus, 3D image generating method, and program recording medium
JP2015022510A (en) Free viewpoint image imaging device and method for the same
US10783607B2 (en) Method of acquiring optimized spherical image using multiple cameras
De Paolis et al. Photogrammetric 3D reconstruction of small objects for a real-time fruition
Li et al. 3d reconstruction and texture optimization using a sparse set of rgb-d cameras
JP2003337953A (en) Apparatus and method for image processing, and computer program
JP3629243B2 (en) Image processing apparatus and method for rendering shading process using distance component in modeling
CA2716257A1 (en) System and method for interactive painting of 2d images for iterative 3d modeling
KR20030082307A (en) Image-based rendering method using orthogonal cross cylinder
JP7410289B2 (en) Generating arbitrary views
KR102554697B1 (en) Apparatus and method for synthesizing virtual viewpoint image
Heng et al. Keyframe-based texture mapping for rgbd human reconstruction
Lee et al. Interactive retexturing from unordered images