JP2000306118A - Tree texture generating device - Google Patents

Tree texture generating device

Info

Publication number
JP2000306118A
JP2000306118A JP10969499A JP10969499A JP2000306118A JP 2000306118 A JP2000306118 A JP 2000306118A JP 10969499 A JP10969499 A JP 10969499A JP 10969499 A JP10969499 A JP 10969499A JP 2000306118 A JP2000306118 A JP 2000306118A
Authority
JP
Japan
Prior art keywords
tree
bark
pixel
leaf
volume data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP10969499A
Other languages
Japanese (ja)
Inventor
Tatsumi Sakaguchi
竜己 坂口
Atsushi Otani
淳 大谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ATR Media Integration and Communication Research Laboratories
Original Assignee
ATR Media Integration and Communication Research Laboratories
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ATR Media Integration and Communication Research Laboratories filed Critical ATR Media Integration and Communication Research Laboratories
Priority to JP10969499A priority Critical patent/JP2000306118A/en
Publication of JP2000306118A publication Critical patent/JP2000306118A/en
Pending legal-status Critical Current

Links

Landscapes

  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)
  • Image Generation (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a tree texture generating device which automatically constructs a three-dimensional tree model holding the reality of an actually photographed picture of a tree based on the picture. SOLUTION: This tree texture generating device picks up the image of an object tree from 1 plural view points by a camera 2 and generates volume data by a computer 3 for picture generation and generates a tree model consisting of segments of branches and the trunk based on the volume data and extracts bark reference pixels of the generated tree model to update color information of a texture template of the bark read out from a disk 5 and extracts leaf surface reference pixels from pixels, where bark reference pixels are removed, and updates color information of a texture template of leaves read out from the disk 5 based on the color information of these leaf surface reference pixels and generates a tree model with updated bark pixels and leaf pixels.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】この発明は樹木のテクスチャ
生成装置に関し、特に、実写画像をもとにリアリティの
ある3次元的な樹木モデルを自動的に構築できるような
樹木のテクスチャ生成装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a tree texture generating apparatus, and more particularly to a tree texture generating apparatus capable of automatically constructing a realistic three-dimensional tree model based on a photographed image.

【0002】[0002]

【従来の技術】最近では、現実には距離を隔てた人物同
士の仮想的なシーンを介したコミュニケーション環境の
研究が進められている。このような環境を実現するため
には、仮想的なシーン生成法の確立が必要になってく
る。
2. Description of the Related Art In recent years, research on a communication environment via virtual scenes of persons at a distance from each other has been advanced. In order to realize such an environment, it is necessary to establish a virtual scene generation method.

【0003】このような仮想的シーンの一般的な生成法
として、3次元コンピュータグラフィックス(以下、C
Gと称する)の利用が挙げられる。シーン中のオブジェ
クトを幾何物体としてモデリングし、仮想カメラから見
たシーンをレンダリングする手法である。このように、
モデリングされたオブジェクトでは、現実に近い属性を
設定することで、変形や動きなどを容易に表現すること
が可能である。また、完全な3次元構造を持っているた
め、任意視点から見た画像の生成も容易である。
As a general method for generating such a virtual scene, three-dimensional computer graphics (hereinafter referred to as C
G). In this method, objects in the scene are modeled as geometric objects, and the scene viewed from the virtual camera is rendered. in this way,
In a modeled object, deformation, movement, and the like can be easily expressed by setting attributes close to reality. Further, since it has a complete three-dimensional structure, it is easy to generate an image viewed from an arbitrary viewpoint.

【0004】[0004]

【発明が解決しようとする課題】3次元CGの手法とし
て、人工物の表現は比較的研究が進められており、質感
も向上している。それに対して、樹木のように自然に存
在する物体や自然現象はそのモデリングも容易ではな
い。特に、既に存在する樹木などをモデリングする場合
は、CGアーティストの感性と手作業により行なわれて
いるのが現状であり、大変な労力と時間を要している。
As a technique of three-dimensional CG, the expression of an artificial object has been relatively studied, and the texture has been improved. On the other hand, it is not easy to model natural objects and natural phenomena such as trees. In particular, when modeling a tree or the like that already exists, it is currently performed by the CG artist's sensitivity and manual work, which requires a great deal of labor and time.

【0005】それゆえに、この発明の主たる目的は、樹
木の実写映像をもとに、そのリアリティを保持した3次
元的な樹木モデルを自動的に構築できるような樹木のテ
クスチャ生成装置を提供することである。
SUMMARY OF THE INVENTION Accordingly, a main object of the present invention is to provide a tree texture generating apparatus capable of automatically constructing a three-dimensional tree model retaining its reality based on a photographed image of the tree. It is.

【0006】[0006]

【課題を解決するための手段】請求項1に係る発明は、
対象となる樹木の画像に基づいて樹皮および葉のテクス
チャを生成する樹木のテクスチャ生成装置であって、複
数の視点からの画像をもとに樹木を包み込むボリューム
データを作成するボリュームデータ作成手段と、作成さ
れたボリュームデータに基づいて枝および幹のセグメン
トからなる樹木モデルを作成する樹木モデル作成手段
と、作成された樹木モデルの幹の位置を特定し、その周
辺画素を樹皮参照画素として定義し、その樹皮参照画素
の色範囲を限定し、その色範囲にある画素を抽出する樹
皮画素抽出手段と、樹皮画素抽出手段によって樹皮参照
画素を除去した画像に残された画素を葉の表面を示す葉
表面参照画素として抽出する葉画素抽出手段と、それぞ
れが色情報を含む葉と樹皮のテクスチャを予めテンプレ
ートとして記憶する記憶手段と、抽出された樹皮参照画
素の色情報に基づいて、記憶手段から読出された樹皮の
テクスチャテンプレートの色情報を更新する樹皮更新手
段と、抽出された葉表面参照画素の色情報に基づいて記
憶手段から読出された葉のテクスチャテンプレートの色
情報を更新する葉更新手段と、樹皮更新手段および葉更
新手段によってそれぞれ更新された樹皮画素および葉画
素によって樹木モデルを作成してレンダリングするレン
ダリング手段を備えて構成される。
The invention according to claim 1 is
A tree texture generation device that generates bark and leaf textures based on an image of a target tree, and volume data creation means that creates volume data that wraps the tree based on images from multiple viewpoints, A tree model creating means for creating a tree model composed of branches and trunk segments based on the created volume data, and specifying the position of the trunk of the created tree model, defining surrounding pixels as bark reference pixels, Bark pixel extracting means for limiting the color range of the bark reference pixel and extracting pixels in the color range, and a pixel indicating the surface of the leaf as a pixel remaining in the image obtained by removing the bark reference pixel by the bark pixel extracting means. Leaf pixel extracting means for extracting as surface reference pixels, and leaf and bark textures each containing color information are stored in advance as templates A bark updating unit that updates the color information of the bark texture template read from the storage unit based on the extracted bark reference pixel color information; and a bark updating unit that extracts the leaf surface reference pixel color information. Updating means for updating the color information of the leaf texture template read from the storage means, and rendering means for creating and rendering a tree model with the bark pixels and the leaf pixels updated by the bark updating means and the leaf updating means, respectively. It is comprised including.

【0007】請求項2に係る発明では、請求項1の樹皮
画素抽出手段は、樹皮参照画素の色相(H),彩度
(S),明度(V)の平均および分散を求め、HSV色
空間内での色範囲を限定する。
In the invention according to claim 2, the bark pixel extracting means according to claim 1 calculates an average and a variance of hue (H), saturation (S), and brightness (V) of a bark reference pixel, and obtains an HSV color space. The color range within.

【0008】請求項3に係る発明では、請求項1の葉画
素抽出手段は、葉参照画素の色相(H),彩度(S),
明度(V)の平均および分散を求め、HSV空間内での
色範囲を限定する。
According to the third aspect of the present invention, the leaf pixel extracting means of the first aspect includes a hue (H), a saturation (S),
The average and variance of lightness (V) are obtained, and the color range in the HSV space is limited.

【0009】請求項4に係る発明では、さらに複数の視
点から対象となる樹木を撮影するための撮影手段を含
み、ボリュームデータを作成する前に撮影された画像か
ら背景画像を除去するとともに、カラー変換を行なって
樹木のサイズおよび幹の位置などの正規化を施す。
[0009] The invention according to claim 4 further includes photographing means for photographing a target tree from a plurality of viewpoints, and removes a background image from an image photographed before creating volume data. The transformation is performed to normalize the tree size and stem position.

【0010】請求項5に係る発明では、さらに正規化の
実施されたボリュームデータを樹木の形状に整形する。
In the invention according to claim 5, the normalized volume data is shaped into a tree shape.

【0011】[0011]

【発明の実施の形態】図1はこの発明の一実施形態のブ
ロック図である。図1において、対象樹木1の周囲には
複数の視点から対象樹木1を撮影するための複数のカメ
ラ2が設置されている。カメラ2はCCD素子を用いた
カメラあるいは光学カメラであってもよい。カメラ2で
撮影された画像データは、画像生成用コンピュータ3に
与えられる。
FIG. 1 is a block diagram of one embodiment of the present invention. In FIG. 1, a plurality of cameras 2 for photographing the target tree 1 from a plurality of viewpoints are installed around the target tree 1. The camera 2 may be a camera using a CCD element or an optical camera. Image data captured by the camera 2 is provided to an image generation computer 3.

【0012】画像生成用コンピュータ3はカメラ2から
入力された画像データから樹木モデルを作成するため
に、主としてテクスチャ作成機能と、ボリューム作成機
能と、樹木モデル作成機能と、レンダリング作成機能と
を有している。
The image generating computer 3 mainly has a texture creating function, a volume creating function, a tree model creating function, and a rendering creating function in order to create a tree model from the image data input from the camera 2. ing.

【0013】テクスチャ作成機能は、後述の図2に示す
フローチャートに基づくプログラムに従って樹木のテク
スチャを作成する。ボリュームデータ作成機能は、カメ
ラ2によって撮影された複数の視点からの画像をもとに
樹木を包み込むボリュームデータを作成する。樹木モデ
ル作成機能は、作成されたボリュームデータに基づい
て、枝および幹のセグメントからなる樹木モデルを作成
する。レンダリング機能は、作成された樹木モデルに対
して葉のモデルを追加してレンダリングし、対象樹木1
の形をもった樹木の画像を作成する。画像生成用コンピ
ュータ3で生成された樹木画像はディスプレイ4に表示
される。
The texture creation function creates a tree texture according to a program based on a flowchart shown in FIG. The volume data creation function creates volume data surrounding a tree based on images taken from a plurality of viewpoints captured by the camera 2. The tree model creation function creates a tree model composed of branch and trunk segments based on the created volume data. The rendering function adds a leaf model to the created tree model and renders the tree model.
Create an image of a tree with the shape of The tree image generated by the image generation computer 3 is displayed on the display 4.

【0014】図2はこの発明の一実施形態の具体的な動
作を説明するためのフローチャートであり、図3は原画
像の樹木の例を示す図であり、図4は原画像から背景を
除去した画像の例を示す図である。
FIG. 2 is a flowchart for explaining a specific operation of the embodiment of the present invention. FIG. 3 is a diagram showing an example of a tree of an original image. FIG. 4 is a diagram for removing a background from the original image. FIG. 7 is a diagram showing an example of a processed image.

【0015】次に、この発明の一実施形態の具体的な動
作について説明する。図1に示した複数のカメラ2によ
って図3に示すような原画像の樹木が周囲から撮影され
る。続いて、撮影した画像から図4に示すように背景を
除去し、カラー変換を行なって樹木のサイズおよび幹の
位置などの正規化が施される。背景画像の除去はマニュ
アルで行なわれ、カラー変換はグレースケール変換によ
って行なわれるが、変換後にダイナミックレンジの正規
化が行なわれて、対象樹木1を内包する矩形を求め、そ
の大きさを正規化することで対象樹木1のサイズが求め
られる。次に、画像生成用コンピュータ3によってボリ
ュームデータが作成される。
Next, a specific operation of the embodiment of the present invention will be described. Trees of the original image as shown in FIG. 3 are photographed from the surroundings by the plurality of cameras 2 shown in FIG. Subsequently, as shown in FIG. 4, the background is removed from the photographed image, color conversion is performed, and the tree size and the position of the trunk are normalized. Background image removal is performed manually, and color conversion is performed by gray scale conversion. After conversion, dynamic range normalization is performed to obtain a rectangle including the target tree 1 and normalize its size. Thus, the size of the target tree 1 is obtained. Next, volume data is created by the image generating computer 3.

【0016】図5および図6はボリュームデータの作成
方法を説明するための図である。実写映像からボリュー
ムデータを作成するために、シルエット逆投影法の考え
方が導入される。画像より得られるシルエットを3次元
空間中に逆平行投影すると、図5に示すようにこのとき
のシルエットを断面とする無限長の柱体が得られる。複
数の視点からの画像により同様の処理を繰返すと、主体
の重なりあう領域すなわち論理式として対象形状の存在
領域が限定される。このようにして得られるボリューム
データは対象樹木1の形状そのものではないが、形状を
包含する形として定義することができる。
FIGS. 5 and 6 are diagrams for explaining a method of creating volume data. In order to create volume data from live-action video, the concept of silhouette back projection is introduced. When the silhouette obtained from the image is antiparallel-projected into a three-dimensional space, an infinite-length column having the silhouette at this time as a cross section is obtained as shown in FIG. When the same processing is repeated with images from a plurality of viewpoints, an area where the subject overlaps, that is, an area where the target shape exists as a logical expression is limited. The volume data obtained in this way is not the shape itself of the target tree 1, but can be defined as a shape including the shape.

【0017】なお、この実施形態では、ボリュームデー
タは単純なシルエット逆投影法とは異なり、ボリューム
データとして256階調の値が持たされている。
In this embodiment, unlike the simple silhouette back projection method, the volume data has 256 gradation values as the volume data.

【0018】次に、ボリュームデータの整形が行なわれ
る。対象を撮影した画像が全周囲にわたって多数用意さ
れた場合には、求められるボリュームデータの形状近似
能力も上昇するが、与えられた画像が少ない場合には意
図しない形状が生成されてしまう。たとえば、図5に示
すような2台のカメラによって撮影された画像を読取
り、2台のカメラが直角に配置されているとするなら
ば、求められるボリュームデータは図6(a)のような
直方体に近い形となり、元の樹形とは明らかに異なって
しまう。
Next, the volume data is shaped. When a large number of images of the object are prepared over the entire circumference, the shape approximation ability of the required volume data also increases. However, when the number of provided images is small, an unintended shape is generated. For example, if an image captured by two cameras as shown in FIG. 5 is read and the two cameras are arranged at right angles, the volume data to be obtained is a rectangular parallelepiped as shown in FIG. The shape is close to, and is obviously different from the original tree shape.

【0019】これを回避するために逆投影によって得ら
れるボリュームデータの整形が行なわれる。一般的には
樹木は鉛直上方から見た場合に円形に近い形をしてい
る。そこで、処理後の撮影画像の各スキャンラインごと
に幹を中心とした場合に最外郭となる点を求め、その幹
からの距離をボリュームデータの最外郭点として定義す
る。この最外郭点よりも外側に存在するボクセルを削除
することで、整形を行なうことができる。
In order to avoid this, volume data obtained by back projection is shaped. Generally, a tree has a shape close to a circle when viewed from above vertically. Therefore, the outermost point when the trunk is centered for each scan line of the captured image after processing is determined, and the distance from the trunk is defined as the outermost point of the volume data. Shaping can be performed by deleting the voxels existing outside the outermost point.

【0020】このようにして整形された樹木の入力画素
は、図2に示すステップ(図示ではSと略称する)S1
においてHSV表色系へ変換される。ここで、HSV表
色系は、色相(H),彩度(S),明度(V)で表わさ
れる表色系である。ステップS2において幹の根元領域
が検出される。
The input pixels of the tree shaped in this way are stored in a step S1 shown in FIG.
Is converted to the HSV color system. Here, the HSV color system is a color system represented by hue (H), saturation (S), and lightness (V). In step S2, a root region of the trunk is detected.

【0021】図7は幹の根元を示す図である。幹の根元
領域は、図7に示すように、すべて同じ長さ,同じ太さ
をもったセグメントとして表わされる。続いて、ステッ
プS3において幹の根元領域に含まれる画素群が樹皮参
照画素として定義され、ステップS4で樹皮参照画素の
色相,彩度,明度の平均および分散を求め、HSV色空
間内での色範囲を限定し、全画像中よりその色範囲にあ
る画素が抽出される。
FIG. 7 shows the root of the trunk. As shown in FIG. 7, the root regions of the trunk are all represented as segments having the same length and the same thickness. Subsequently, in step S3, a pixel group included in the root region of the trunk is defined as a bark reference pixel. In step S4, the average and variance of the hue, saturation, and lightness of the bark reference pixel are obtained, and the color in the HSV color space is obtained. The range is limited, and pixels in the color range are extracted from the entire image.

【0022】一方、ディスク5から図8に示すような4
枚の葉と樹皮のテクスチャテンプレートが読出され、ス
テップS5でHSV表色系への変換が行なわれる。な
お、図8において(a)は葉のテクスチャテンプレート
であり、(b)は樹皮のテクスチャテンプレートであ
る。ステップS6において、葉および樹皮のテクスチャ
テンプレートの各値の平均tavr および分散tvar が計
算される。そして、ステップS7において、樹皮のテク
スチャテンプレートの色情報がステップS4で抽出され
た色範囲の樹皮の色情報に従って更新される。
On the other hand, from disk 5 to 4 as shown in FIG.
The leaf and bark texture templates are read out and converted to the HSV color system in step S5. 8A shows a leaf texture template, and FIG. 8B shows a bark texture template. In step S6, the average t avr and the variance t var of each value of the leaf and bark texture templates are calculated. Then, in step S7, the color information of the bark texture template is updated according to the bark color information in the color range extracted in step S4.

【0023】更新後の色情報tex(u,v)は、参照
画素の平均ravrと分散rvarとテンプレートの平
均tavr,分散tvar、そしてテンプレートの画素
値tmp(u,v)より次式に従って計算される。
The updated color information tex (u, v) is calculated from the average ravr and variance rvar of the reference pixel, the average tavr and variance tvar of the template, and the pixel value tmp (u, v) of the template according to the following equation. You.

【0024】[0024]

【数1】 (Equation 1)

【0025】第(1)式は色相値Hについて示している
が、彩度値Sおよび明度値Vについても同様にして計算
される。
Although the expression (1) shows the hue value H, the saturation value S and the lightness value V are similarly calculated.

【0026】ここで、第(1)式について説明する。H
tex (u,v)は、最終的に出力される対象画像のテク
スチャである。u,vはu,v平面であることを示して
いる。Hravrは参照画像の平均値であり、Hrvarは参照
画像の分散値であり、Htmpはテンプレートの画素値で
あり、Htavrはテンプレートの平均値であり、Htvar
テンプレートの分散値である。
Here, equation (1) will be described. H
tex (u, v) is the texture of the finally output target image. u and v indicate that they are u and v planes. H ravr is the average value of the reference image, H rvar is the variance value of the reference image, H tmp is the pixel value of the template, H tavr is the average value of the template, and H tvar is the variance value of the template. is there.

【0027】第(1)式において、Htmp −Htavrはテ
ンプレートの画素が平均からどれくらい離れているかを
示している。これをテンプレートの分散値Htvar で除
算すると、分散に対してどのくらいの割合で画素が存在
するかを示していることになる。これに、参照画像の分
散値Hrvarを乗算することによって、与えられた画像の
分散に合わせて画素値が更新される。この割合を参照画
像の平均値Hravrに加算することによって、最終的に出
力される対象画像用のテクスチャが出力される。それに
よって、分散の割合を保ったままで、入力画像の色に近
づけることができる。
In equation (1), H tmp -H tavr indicates how far the template pixels are from the average. When this is divided by the variance value Ht var of the template, it indicates the ratio of pixels to the variance. By multiplying this by the variance value H rvar of the reference image, the pixel value is updated according to the variance of the given image. By adding this ratio to the average value H ravr of the reference image, the texture for the target image that is finally output is output. As a result, the color of the input image can be approximated while maintaining the variance ratio.

【0028】一方、ステップS8において、入力画像か
らステップS4で定義された樹皮の色範囲に含まれる画
素が除去され、ステップS9で残りの画素群が葉の参照
画素とされる。ステップS10において、葉の参照画素
群の平均ravrと分散rvarが計算される。
On the other hand, in step S8, pixels included in the color range of the bark defined in step S4 are removed from the input image, and in step S9, the remaining pixel groups are used as leaf reference pixels. In step S10, the average ravr and the variance rvar of the leaf reference pixel group are calculated.

【0029】ステップS11において、ステップS6で
計算された葉のテクスチャテンプレートの色情報である
各値の平均tavrと分散tvarをステップS10で
計算された葉の参照画素群の平均ravrと分散rva
rに従って、前述の第(1)式を用いて更新される。そ
れによって、与えられた画像の分散に合わせた割合で画
素値が更新される。そして、ステップS12において、
ステップS7およびS11でそれぞれ更新された樹皮の
画素と葉の画素とに基づいて図9に示すようなテクスチ
ャが生成され、表示部4に表示される。表示部4に表示
される樹木のテクスチャの一例を図10に示す。
In step S11, the average tavr and variance tvar of each value, which is the color information of the leaf texture template calculated in step S6, are calculated using the average ravr and variance rva of the leaf reference pixel group calculated in step S10.
In accordance with r, it is updated using the above-mentioned equation (1). Thereby, the pixel value is updated at a rate corresponding to the variance of the given image. Then, in step S12,
A texture as shown in FIG. 9 is generated based on the bark pixels and leaf pixels updated in steps S7 and S11, respectively, and displayed on the display unit 4. An example of a tree texture displayed on the display unit 4 is shown in FIG.

【0030】今回開示された実施の形態はすべての点で
例示であって制限的なものではないと考えられるべきで
ある。本発明の範囲は上記した説明ではなくて特許請求
の範囲によって示され、特許請求の範囲と均等の意味お
よび範囲内でのすべての変更が含まれることが意図され
る。
The embodiments disclosed this time are to be considered in all respects as illustrative and not restrictive. The scope of the present invention is defined by the terms of the claims, rather than the description above, and is intended to include any modifications within the scope and meaning equivalent to the terms of the claims.

【0031】[0031]

【発明の効果】以上のように、この発明によれば、複数
の視点から得た樹木モデルの幹の位置を特定してその周
辺画素を樹皮参照画素として定義している範囲を特定
し、その範囲の樹皮参照画素を除去して残された画素を
葉表面参照画素として抽出し、抽出した樹皮参照画素の
色情報に基づいて樹皮のテクスチャテンプレートの色情
報を更新するとともに、抽出された葉表面参照画素の色
情報に基づいて葉のテクスチャテンプレートの色情報を
更新し、更新した樹皮画素および葉画素によって樹木モ
デルを作成することにより、樹木らしい枝構造を持った
モデルを構築できる。
As described above, according to the present invention, the position of the trunk of the tree model obtained from a plurality of viewpoints is specified, and the range in which peripheral pixels are defined as bark reference pixels is specified. The pixels remaining after removing the bark reference pixels in the range are extracted as leaf surface reference pixels, the color information of the bark texture template is updated based on the color information of the extracted bark reference pixels, and the extracted leaf surface By updating the color information of the leaf texture template based on the color information of the reference pixels and creating a tree model using the updated bark pixels and leaf pixels, a model having a tree-like branch structure can be constructed.

【図面の簡単な説明】[Brief description of the drawings]

【図1】この発明の一実施形態の概略ブロック図であ
る。
FIG. 1 is a schematic block diagram of an embodiment of the present invention.

【図2】この発明の一実施形態の具体的な動作を説明す
るためのフローチャートである。
FIG. 2 is a flowchart for explaining a specific operation of the embodiment of the present invention;

【図3】原画像の樹木の例を示す図である。FIG. 3 is a diagram illustrating an example of a tree of an original image.

【図4】原画像から背景を除去した画像の例を示す図で
ある。
FIG. 4 is a diagram illustrating an example of an image obtained by removing a background from an original image.

【図5】ボリュームデータの作成方法を示す図である。FIG. 5 is a diagram showing a method of creating volume data.

【図6】ボリュームデータの整形方法を示す図である。FIG. 6 is a diagram illustrating a method of shaping volume data.

【図7】樹木の幹の根元を示す図である。FIG. 7 is a diagram showing a root of a tree trunk.

【図8】葉と樹皮のテクスチャテンプレートの例を示す
図である。
FIG. 8 is a diagram showing an example of a leaf and bark texture template.

【図9】生成された3次元モデルの樹木を示す図であ
る。
FIG. 9 is a diagram illustrating a tree of a generated three-dimensional model.

【図10】レンダリングして表示した樹木画像の一例を
示す図である。
FIG. 10 is a diagram showing an example of a tree image rendered and displayed.

【符号の説明】[Explanation of symbols]

1 対象樹木 2 カメラ 3 画像生成用コンピュータ 4 表示部 5 ディスク 1 target tree 2 camera 3 computer for image generation 4 display unit 5 disk

───────────────────────────────────────────────────── フロントページの続き (72)発明者 大谷 淳 京都府相楽郡精華町大字乾谷小字三平谷5 番地 株式会社エイ・ティ・アール知能映 像通信研究所内 Fターム(参考) 5B050 BA11 CA07 DA04 EA06 EA28 FA02 5B057 BA02 DA06 DB03 DB06 DC30 DC31  ──────────────────────────────────────────────────続 き Continued on the front page (72) Inventor Atsushi Otani 5 Sanraya, Seiya-cho, Soraku-cho, Kyoto, Japan F-Term in Intelligent Telecommunications Imaging and Communications Laboratory, Inc. 5B050 BA11 CA07 DA04 EA06 EA28 FA02 5B057 BA02 DA06 DB03 DB06 DC30 DC31

Claims (5)

【特許請求の範囲】[Claims] 【請求項1】 対象となる樹木の画像に基づいて樹皮お
よび葉のテクスチャを生成する樹木のテクスチャ生成装
置であって、 複数の視点からの画像をもとに前記樹木を包み込むボリ
ュームデータを作成するボリュームデータ作成手段、 前記ボリュームデータ作成手段によって作成されたボリ
ュームデータに基づいて、枝および幹のセグメントから
なる樹木モデルを作成する樹木モデル作成手段、 前記樹木モデル作成手段によって作成された樹木モデル
の幹の位置を特定し、その周辺画素を樹皮参照画素とし
て定義し、その樹皮参照画素の色範囲を限定し、その色
範囲にある画素を抽出する樹皮画素抽出手段、 前記樹皮画素抽出手段によって樹皮参照画素を除去した
画像に残された画素を葉の表面を示す葉表面参照画素と
して抽出する葉画素抽出手段、 それぞれが色情報を含む葉と樹皮のテクスチャを予めテ
ンプレートとして記憶する記憶手段、 前記樹皮画素抽出手段によって抽出された樹皮参照画素
の色情報に基づいて、前記記憶手段から読出された樹皮
のテクスチャテンプレートの色情報を更新する樹皮更新
手段、 前記葉画素抽出手段によって抽出された葉表面参照画素
の色情報に基づいて、前記記憶手段から読出された葉の
テクスチャテンプレートの色情報を更新する葉更新手
段、および前記樹皮更新手段および前記葉更新手段によ
ってそれぞれ更新された樹皮画素および葉画素によって
樹木モデルを作成してレンダリングするレンダリング手
段を備えた、樹木のテクスチャ生成装置。
1. A tree texture generating apparatus for generating bark and leaf textures based on an image of a target tree, wherein the apparatus generates volume data enclosing the tree based on images from a plurality of viewpoints. Volume data creating means, a tree model creating means for creating a tree model composed of branches and trunk segments based on the volume data created by the volume data creating means, a trunk of the tree model created by the tree model creating means Bark pixel extraction means for defining the position of the bark reference pixel, defining the surrounding pixel as a bark reference pixel, limiting the color range of the bark reference pixel, and extracting pixels in the color range, the bark pixel extraction means A leaf pixel for extracting a pixel remaining in the image from which the pixel has been removed as a leaf surface reference pixel indicating the leaf surface Output means, storage means for storing in advance the leaf and bark textures each including color information as a template, bark read from the storage means based on the color information of the bark reference pixels extracted by the bark pixel extraction means A bark updating unit for updating the color information of the texture template, and updating the color information of the texture template of the leaf read from the storage unit based on the color information of the leaf surface reference pixels extracted by the leaf pixel extracting unit. A tree texture generating apparatus, comprising: a leaf updating unit; and a rendering unit configured to create and render a tree model using the bark pixel and the leaf pixel updated by the bark updating unit and the leaf updating unit, respectively.
【請求項2】 前記樹皮画素抽出手段は、前記樹皮参照
画素の色相(H),彩度(S),明度(V)の平均およ
び分散を求め、HSV色空間内での色範囲を限定するこ
とを特徴とする、請求項1に記載の樹木のテクスチャ生
成装置。
2. The bark pixel extracting means calculates an average and a variance of hue (H), saturation (S), and brightness (V) of the bark reference pixel, and limits a color range in an HSV color space. The tree texture generating device according to claim 1, wherein:
【請求項3】 前記葉画素抽出手段は、前記葉参照画素
の色相(H),彩度(S),明度(V)の平均および分
散を求め、HSV空間内での色範囲を限定することを特
徴とする、請求項1に記載の樹木のテクスチャ生成装
置。
3. The leaf pixel extracting means calculates an average and a variance of hue (H), saturation (S), and lightness (V) of the leaf reference pixel, and limits a color range in an HSV space. The tree texture generating device according to claim 1, characterized in that:
【請求項4】 さらに、複数の視点から前記対象となる
樹木を撮影するための撮影手段を含み、 前記ボリュームデータを作成する前に、前記撮影された
画像から背景画像を除去するとともに、カラー変換を行
なって樹木のサイズおよび幹の位置などの正規化を施す
ことを特徴とする、請求項1に記載の樹木のテクスチャ
生成装置。
4. A photographing means for photographing the target tree from a plurality of viewpoints, wherein a background image is removed from the photographed image and color conversion is performed before creating the volume data. 2. The tree texture generating apparatus according to claim 1, wherein the tree size and the position of the trunk are normalized by performing the following.
【請求項5】 さらに、前記正規化の実施されたボリュ
ームデータを樹木の形状に整形することを特徴とする、
請求項4に記載の樹木のテクスチャ生成装置。
5. The method according to claim 1, wherein the normalized volume data is shaped into a tree shape.
A tree texture generating apparatus according to claim 4.
JP10969499A 1999-04-16 1999-04-16 Tree texture generating device Pending JP2000306118A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP10969499A JP2000306118A (en) 1999-04-16 1999-04-16 Tree texture generating device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP10969499A JP2000306118A (en) 1999-04-16 1999-04-16 Tree texture generating device

Publications (1)

Publication Number Publication Date
JP2000306118A true JP2000306118A (en) 2000-11-02

Family

ID=14516842

Family Applications (1)

Application Number Title Priority Date Filing Date
JP10969499A Pending JP2000306118A (en) 1999-04-16 1999-04-16 Tree texture generating device

Country Status (1)

Country Link
JP (1) JP2000306118A (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003219389A (en) * 2002-01-18 2003-07-31 Nippon Telegr & Teleph Corp <Ntt> Video distribution method, system, and apparatus, user terminal, video distribution program, and storage medium storing the video distribution program
CN1317681C (en) * 2001-03-01 2007-05-23 苏坡斯坎伯公共有限公司 Texturing method and apparatus
CN101866495A (en) * 2010-06-01 2010-10-20 中国科学院自动化研究所 Tree modeling method based on skeleton point cloud
CN102147930A (en) * 2011-04-13 2011-08-10 北京农业信息技术研究中心 Texture mapping method for three-dimensional curved surface of irregular plant leaf
JP5758533B1 (en) * 2014-09-05 2015-08-05 楽天株式会社 Image processing apparatus, image processing method, and program
CN108564649A (en) * 2018-04-24 2018-09-21 沈阳农业大学 A kind of plant leaf blade transmission Texture Generating Approach
CN116433838A (en) * 2023-03-31 2023-07-14 广州市城市规划勘测设计研究院 Three-dimensional tree symbol dynamic generation method, device, terminal and medium

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1317681C (en) * 2001-03-01 2007-05-23 苏坡斯坎伯公共有限公司 Texturing method and apparatus
JP2003219389A (en) * 2002-01-18 2003-07-31 Nippon Telegr & Teleph Corp <Ntt> Video distribution method, system, and apparatus, user terminal, video distribution program, and storage medium storing the video distribution program
CN101866495A (en) * 2010-06-01 2010-10-20 中国科学院自动化研究所 Tree modeling method based on skeleton point cloud
CN102147930A (en) * 2011-04-13 2011-08-10 北京农业信息技术研究中心 Texture mapping method for three-dimensional curved surface of irregular plant leaf
JP5758533B1 (en) * 2014-09-05 2015-08-05 楽天株式会社 Image processing apparatus, image processing method, and program
JP2016057664A (en) * 2014-09-05 2016-04-21 楽天株式会社 Image processing device, image processing method, and program
CN108564649A (en) * 2018-04-24 2018-09-21 沈阳农业大学 A kind of plant leaf blade transmission Texture Generating Approach
CN108564649B (en) * 2018-04-24 2019-08-20 沈阳农业大学 A kind of plant leaf blade transmission Texture Generating Approach
CN116433838A (en) * 2023-03-31 2023-07-14 广州市城市规划勘测设计研究院 Three-dimensional tree symbol dynamic generation method, device, terminal and medium

Similar Documents

Publication Publication Date Title
CN109859098B (en) Face image fusion method and device, computer equipment and readable storage medium
CA1140677A (en) Method and apparatus for producing an image of a person&#39;s face at a different age
US20200020173A1 (en) Methods and systems for constructing an animated 3d facial model from a 2d facial image
EP3992919B1 (en) Three-dimensional facial model generation method and apparatus, device, and medium
CN112215934A (en) Rendering method and device of game model, storage medium and electronic device
CN109584358A (en) A kind of three-dimensional facial reconstruction method and device, equipment and storage medium
AU2693700A (en) Method and apparatus for processing images
CN111192223A (en) Method, device and equipment for processing face texture image and storage medium
KR20240089729A (en) Image processing methods, devices, storage media and electronic devices
US20240331102A1 (en) Semantically-aware image extrapolation
CN114202615A (en) Facial expression reconstruction method, device, equipment and storage medium
CN113327316A (en) Image processing method, device, equipment and storage medium
CN112562056A (en) Control method, device, medium and equipment for virtual light in virtual studio
WO2022055367A1 (en) Method for emulating defocus of sharp rendered images
CN110096144B (en) Interactive holographic projection method and system based on three-dimensional reconstruction
CN110267079B (en) Method and device for replacing human face in video to be played
JP2000306118A (en) Tree texture generating device
CN113989434A (en) Human body three-dimensional reconstruction method and device
CN114782645A (en) Virtual digital person making method, related equipment and readable storage medium
WO2024098822A1 (en) Dynamic visualization method and apparatus for seismic disaster
JPH10507858A (en) Method and apparatus for automatically and quickly drawing on a photographic real surface on a three-dimensional wireframe
CN110719415B (en) Video image processing method and device, electronic equipment and computer readable medium
CN109040612B (en) Image processing method, device and equipment of target object and storage medium
CN112788254A (en) Camera image matting method, device, equipment and storage medium
US11276241B2 (en) Augmented reality custom face filter

Legal Events

Date Code Title Description
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20011016