JP2002352264A - Method and device for creating pattern image - Google Patents

Method and device for creating pattern image

Info

Publication number
JP2002352264A
JP2002352264A JP2001156758A JP2001156758A JP2002352264A JP 2002352264 A JP2002352264 A JP 2002352264A JP 2001156758 A JP2001156758 A JP 2001156758A JP 2001156758 A JP2001156758 A JP 2001156758A JP 2002352264 A JP2002352264 A JP 2002352264A
Authority
JP
Japan
Prior art keywords
image
projection
line
fragment
rendering
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2001156758A
Other languages
Japanese (ja)
Other versions
JP4736239B2 (en
Inventor
Tomotaka Noda
智孝 野田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dai Nippon Printing Co Ltd
Original Assignee
Dai Nippon Printing Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dai Nippon Printing Co Ltd filed Critical Dai Nippon Printing Co Ltd
Priority to JP2001156758A priority Critical patent/JP4736239B2/en
Publication of JP2002352264A publication Critical patent/JP2002352264A/en
Application granted granted Critical
Publication of JP4736239B2 publication Critical patent/JP4736239B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To provide a method and a device for creating pattern image capable of creating a pattern image to which an endless processing is applied by expressing a depth of field effect by using orthogonal projection and creating the pattern image with distinctive design. SOLUTION: A visual line angle θ, an angle to incline visual lines in the case of projecting a fragment as an object polygon, is calculated (S11) after mapping a set image to the fragment and visual line vectors (Vx, Vy) in a screen plane to determine the direction to incline the visual line angle θ are calculated (S12). Next, rendering is performed by using technique of the orthogonal projection (S14) after performing coordinate conversion (S13) based on the calculated visual line angle θ and the visual line vectors (Vx, Vy) for speedup of an arithmetic processing. Then, an average by rendering results performed so far is calculated and recorded by using this rendering result (S15). A projection image having patterns is obtained by repeating processings from S11 to S15 for the set number of visual line angles (S16).

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【産業上の利用分野】本発明は、三次元空間に表現され
た物体を二次元平面に投影することにより画像を作成す
る技術に関し、特に、このような技術を利用して人工大
理石等の模様を人工的に作成する模様画像作成方法およ
び装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a technique for creating an image by projecting an object represented in a three-dimensional space onto a two-dimensional plane, and more particularly to a technique for making a pattern such as artificial marble using such a technique. The present invention relates to a pattern image creation method and apparatus for artificially creating a pattern image.

【0002】[0002]

【従来の技術】従来より、建材製品の表面を装飾するも
のとして様々な模様が用いられている。その中でも、人
工大理石の模様は高級感もあり、人気が高い。このよう
な人工大理石の模様を作成するためには、本物の人工大
理石を直接撮影する等の作業を経て行われているが、制
作費が高くなること、バリエーションがないことが問題
となっている。最近では、コンピュータグラフィックス
によって人工的に大理石の模様を発生させる試みも行わ
れているが、実物に近いものを得るのは、困難なものと
なっている。
2. Description of the Related Art Conventionally, various patterns have been used to decorate the surface of building material products. Among them, the artificial marble pattern has a sense of quality and is very popular. In order to create such an artificial marble pattern, it is necessary to directly shoot a real artificial marble, but the production cost is high and there are no variations. . Recently, attempts have been made to artificially generate a marble pattern using computer graphics, but it has been difficult to obtain something close to the real thing.

【0003】一般に、人工大理石の模様は、媒質の中に
小石のような他の物体が含まれたようなものとなってい
る。外から見えるのは、この表面だけであるので、人工
大理石の模様というものは、小石のような物体を表面に
投影した画像で近似できると考えられている。そこで、
三次元空間における物体を投影するための技術、すなわ
ち三次元CG(コンピュータグラフィックス)の表現技
術を利用することが行われている。
In general, the pattern of artificial marble is such that a medium contains other objects such as pebbles. Since only this surface can be seen from the outside, it is considered that an artificial marble pattern can be approximated by an image obtained by projecting an object such as a pebble on the surface. Therefore,
2. Description of the Related Art A technique for projecting an object in a three-dimensional space, that is, a technique for expressing three-dimensional CG (computer graphics) has been used.

【0004】ここで、三次元CGの表現技術について説
明しておく。三次元CGの表現技術においては、より立
体感を表現するために、三次元空間内に存在する物体の
被写界深度効果を考慮した投影手法が用いられている。
被写界深度とは、視点のピントが合う平面との距離のこ
とであり、被写界深度効果とは、三次元空間内におい
て、被写界深度以外にある物体に、被写界深度との差に
応じたぼかしを施してリアル感を出す手法である。
Here, a description will be given of a three-dimensional CG expression technique. In the three-dimensional CG expression technology, a projection method is used in consideration of the depth-of-field effect of an object existing in a three-dimensional space in order to express a more three-dimensional effect.
The depth of field is the distance from the plane on which the viewpoint is in focus, and the depth of field effect is the three-dimensional space of objects other than the depth of field. This is a method of giving a sense of realism by applying a blur according to the difference between the images.

【0005】このような被写界深度効果を利用してレン
ダリングを行なう手法は、一般に透視放射影を用いて実
現されている。ここで、透視放射影を用いたレンダリン
グについて説明する。図11は透視放射影を行なう際
の、オブジェクト(物体)、焦点面、視点の関係を示す
図である。図11(a)に示すように視点には、所定の
画角が設定され、その画角の範囲に含まれるオブジェク
トが視点に投影される。図11(a)では、焦点面と視
点は、三角形を構成しているように見えるが、実際には
三次元空間であるため、焦点面を底面とし、視点を頂点
とした円錐または角錐形状を構成する関係となってい
る。透視放射影とは、円形もしくは多角形であって、焦
点面と平行な面上の各点における色情報を視点に反映さ
せる手法である。この視点を各画素位置に適用すること
により、投影画像が得られることになる。
[0005] Such a method of performing rendering utilizing the depth of field effect is generally realized by using a perspective radiation shadow. Here, rendering using perspective radiation shadows will be described. FIG. 11 is a diagram showing a relationship among an object, a focal plane, and a viewpoint when performing perspective radiographic projection. As shown in FIG. 11A, a predetermined angle of view is set for the viewpoint, and objects included in the range of the angle of view are projected to the viewpoint. In FIG. 11A, the focal plane and the viewpoint appear to form a triangle. However, since it is actually a three-dimensional space, a cone or a pyramid having the focal plane as the bottom and the viewpoint as the apex is formed. It is a constituent relationship. The perspective radiation shadow is a method of reflecting the color information at each point on a plane which is circular or polygonal and parallel to the focal plane on the viewpoint. By applying this viewpoint to each pixel position, a projected image can be obtained.

【0006】上述のように各画素に対して透視放射影を
行なうことにより投影画像が得られることになる。実際
には、その精度を向上させるために図11(b)、
(c)に示すように視点位置を変更した状態(ジッタ処
理)における投影画像を得て、これらの投影画像の平均
値を求めることにより最終的な投影画像を得るようにし
ている。視点位置を増やす程、より精度の高い投影画像
が得られることになる。このような三次元CGの表現技
術を利用することにより人工大理石の模様を簡易に作成
することが可能となる。
As described above, a projected image can be obtained by performing a perspective radiation shadow on each pixel. Actually, in order to improve the accuracy, FIG.
As shown in (c), a projection image in a state where the viewpoint position is changed (jitter processing) is obtained, and an average value of these projection images is obtained to obtain a final projection image. As the viewpoint position is increased, a more accurate projection image can be obtained. By utilizing such a three-dimensional CG expression technology, it is possible to easily create an artificial marble pattern.

【0007】[0007]

【発明が解決しようとする課題】上記のように、所定の
大きさの画像をレンダリングして大理石模様の画像を作
成する際は、ジッタ処理を施した透視放射影の手法は大
きな効果を奏する。しかしながら、模様画像などを作成
する場合は、基準となる単位画像を作成し、これを上下
左右方向に繰り返して配置することにより目的とする大
きさの模様画像を得るようにするのが普通である。この
ように単位画像を繰り返して目的の大きさの画像を作成
する場合には、その繋ぎ目が目立たないようにエンドレ
ス処理を行うことが好ましい。
As described above, when rendering an image of a predetermined size to create a marble-patterned image, the technique of the perspective projection shadow with the jitter processing has a great effect. However, when creating a pattern image or the like, it is common to create a reference unit image and repeatedly arrange it in the up, down, left, and right directions to obtain a pattern image of a desired size. . When an image having a target size is created by repeating the unit images in this manner, it is preferable to perform endless processing so that the joints are not conspicuous.

【0008】しかしながら、繰り返し同じ絵柄が現れる
エンドレス画像を生成しようとする場合、透視放射影の
手法では、視体積(作成される二次元の画像上の1点に
影響する三次元空間における体積)が図12のように広
がっているため、三次元空間に配置したオブジェクトが
エンドレスになっていたとしても、レンダリングされた
画像の端(上下、左右)がつながることはない。このた
め、好ましいエンドレス画像が得られない。また、投影
されるオブジェクトの表面の絵柄に個性的なものがな
く、得られる人工大理石模様がつまらないものとなって
いる。
However, in the case of generating an endless image in which the same picture appears repeatedly, the perspective radiation method uses a visual volume (a volume in a three-dimensional space that affects one point on a generated two-dimensional image). Since the objects are spread as shown in FIG. 12, even if the objects arranged in the three-dimensional space are endless, the edges (upper, lower, left and right) of the rendered image are not connected. Therefore, a preferable endless image cannot be obtained. Further, there is no unique pattern on the surface of the projected object, and the resulting artificial marble pattern is dull.

【0009】上記のような点に鑑み、本発明は、正射影
を用いて被写界深度効果を表現することによりエンドレ
ス処理の施された模様画像を作成することが可能である
とともに、個性的なデザインの模様画像を作成すること
が可能な模様画像作成方法および装置を提供することを
課題とする。
In view of the above points, the present invention makes it possible to create a pattern image subjected to endless processing by expressing a depth-of-field effect using orthographic projection, and at the same time to create an individual pattern image. It is an object of the present invention to provide a pattern image creation method and apparatus capable of creating a pattern image of a simple design.

【0010】[0010]

【課題を解決するための手段】上記課題を解決するた
め、本発明では、必要なパラメータを入力し、破片の表
面に生成する画像を入力し、入力されたパラメータに基
づいて三次元空間に破片を生成し、生成された破片に画
像を貼り付けた後、画像が貼り付けられた破片を二次元
平面に正射影の手法により投影すると共に媒質の透過度
を考慮して投影される画素値を算出することにより投影
画像を作成するようにしたことを特徴とする模様画像作
成方法。本発明では、特に、三次元空間上に発生した破
片を、媒質の透過度を考慮して二次元平面上に正射影の
手法により投影することにより投影画像を得るようにし
たので、この投影画像を単位画像として繰り返し並べる
ことにより繋ぎ目が目立たない模様画像を作成すること
が可能になると共に、個性的なデザインの絵柄を破片の
表面に有する人工大理石調の模様画像を作成することが
可能となる。
In order to solve the above-mentioned problems, in the present invention, necessary parameters are input, an image to be generated is input on the surface of the fragment, and the fragment is placed in a three-dimensional space based on the input parameters. After the image is pasted on the generated fragment, the fragment on which the image is pasted is projected onto a two-dimensional plane by an orthogonal projection method, and the pixel value projected in consideration of the transparency of the medium is calculated. A pattern image creating method, wherein a projected image is created by calculation. In the present invention, in particular, a projection image is obtained by projecting a fragment generated in a three-dimensional space onto a two-dimensional plane in consideration of the transparency of a medium by an orthogonal projection method. It is possible to create a pattern image with inconspicuous joints by repeatedly arranging as a unit image, and it is also possible to create an artificial marble tone pattern image having a unique design pattern on the surface of the fragment Become.

【0011】[0011]

【発明の実施の形態】以下、図面を参照して本発明の実
施形態について詳細に説明する。図1は本発明による模
様画像作成方法のフローチャートである。最初に、三次
元空間において破片をどのように発生させるかに関する
パラメータの入力を行う(ステップS1)。このような
パラメータとしては、スクリーンのサイズと位置を含む
投影領域、質感グループ数、表面質感、破片(オブジェ
クト)の大きさ、破片の底面形状、頂点の高さ、配置密
度、上記投影領域における破片の配置範囲を設定する。
投影領域とは、単位画像に対して正射影により投影を行
う三次元領域である。ここでは、投影後に単位画像とな
るスクリーンSのサイズをw画素(x方向)×h画素
(y方向)とする。また、z方向が奥行きを示すことに
なる。このような投影領域の一例を図2(a)に示す。
質感グループ数とは、破片表面の質感の種類の数を示す
ものであり、各質感グループについて、上記表面質感、
破片の大きさ、破片の底面形状、頂点の高さ、配置密
度、上記投影領域における破片の配置範囲が設定され
る。
Embodiments of the present invention will be described below in detail with reference to the drawings. FIG. 1 is a flowchart of a pattern image creating method according to the present invention. First, parameters regarding how to generate fragments in a three-dimensional space are input (step S1). Such parameters include the projection area including the screen size and position, the number of texture groups, the surface texture, the size of the fragments (objects), the bottom shape of the fragments, the height of the vertices, the arrangement density, and the fragments in the projection region. Set the arrangement range of.
The projection area is a three-dimensional area for projecting the unit image by orthographic projection. Here, the size of the screen S, which becomes a unit image after projection, is assumed to be w pixels (x direction) × h pixels (y direction). Further, the z direction indicates the depth. FIG. 2A shows an example of such a projection area.
The number of texture groups indicates the number of types of texture on the fragment surface.
The size of the fragments, the bottom shape of the fragments, the height of the vertices, the arrangement density, and the arrangement range of the fragments in the projection area are set.

【0012】表面質感とは、発生された破片表面の質感
であり、破片表面にマッピングするためのテクスチャを
指定することにより設定が行われる。テクスチャの指定
は、テクスチャを画像として記憶したファイルのID等
を指定することにより行われる。
The surface texture is the texture of the generated fragment surface, and is set by designating a texture for mapping on the fragment surface. The specification of the texture is performed by specifying the ID or the like of a file storing the texture as an image.

【0013】破片の大きさ、破片の底面形状、頂点の高
さの3つのパラメータは、破片形状を決定するためのも
のである。ここで、破片形状の一例を図3に示す。図3
の例は、破片の底面形状のパラメータが四角形と設定さ
れた場合を示している。破片の大きさは、この底面の大
きさを設定するためのパラメータであり、頂点の高さ
は、この四角錐における底面からの頂点の高さを設定す
るためのパラメータである。図3に示したような破片形
状の場合、底面は四角形であるため、最低2つの三角形
ポリゴンで構成することができ、側面は三角形であるた
め、最低1つの三角形ポリゴンで構成することができ
る。すなわち、図3に示した四角錐の破片形状は最低5
つの三角形ポリゴンで構成することができる。
The three parameters of the fragment size, fragment bottom shape, and vertex height are used to determine the fragment shape. Here, an example of the fragment shape is shown in FIG. FIG.
In the example shown in the figure, the parameter of the shape of the bottom surface of the fragment is set to a quadrangle. The size of the fragment is a parameter for setting the size of the bottom surface, and the height of the vertex is a parameter for setting the height of the vertex of the quadrangular pyramid from the bottom surface. In the case of the fragment shape as shown in FIG. 3, since the bottom surface is a quadrangle, it can be composed of at least two triangular polygons, and since the side surface is triangular, it can be composed of at least one triangular polygon. That is, the shape of the quadrangular pyramid shown in FIG.
It can be composed of three triangular polygons.

【0014】配置範囲は、図2(a)に示した投影領域
のうち、破片を配置する範囲を設定するパラメータであ
る。この配置範囲は、z座標で設定される。z座標を所
定の範囲に設定した場合の配置範囲を図2(b)に示
す。図2(b)において、網掛けされた直方体の内部が
配置範囲となる。配置密度は、配置範囲内に配置する破
片の密度を設定するパラメータである。
The arrangement range is a parameter for setting a range in which fragments are arranged in the projection area shown in FIG. This arrangement range is set by the z coordinate. FIG. 2B shows an arrangement range when the z coordinate is set to a predetermined range. In FIG. 2B, the inside of the shaded rectangular parallelepiped is the arrangement range. The arrangement density is a parameter for setting the density of the pieces arranged in the arrangement range.

【0015】続いて、三次元空間における破片を二次元
平面に投影するレンダリング処理をどのように行うかに
関するパラメータの入力を行う(ステップS2)。この
ようなパラメータとしては、焦点面の配置位置、視線方
向設定数N、視線移動最大角度θmaxを設定する。ま
た、焦点面はスクリーンSと平行に配置されるため、焦
点面の配置位置は、スクリーンSからの距離で設定され
る。視線方向設定数Nは、投影を行なうための視線方向
の設定数であり、設定された数だけ異なる方向から投影
が行なわれてスクリーンS上の画素値が決定されること
になる。視線移動最大角度θmaxは、視線方向とスクリ
ーンS平面が垂直であるときを0°としたとき、視線方
向が傾き得る最大角度を示す。
Subsequently, parameters relating to how to perform a rendering process for projecting fragments in a three-dimensional space onto a two-dimensional plane are input (step S2). As such parameters, the arrangement position of the focal plane, the set number N of gaze directions, and the maximum gaze movement angle θ max are set. Further, since the focal plane is arranged in parallel with the screen S, the arrangement position of the focal plane is set by the distance from the screen S. The set line-of-sight direction number N is a set number of line-of-sight directions for performing projection, and projection is performed from different directions by the set number to determine pixel values on the screen S. The line-of-sight movement maximum angle θ max indicates the maximum angle at which the line-of-sight direction can be inclined when the line of sight and the screen S plane are perpendicular to 0 °.

【0016】次に、三次元空間に破片を生成する(ステ
ップS3)。これは、各質感グループ毎に、設定された
形状の破片が設定された配置領域に設定された密度で生
成されることになる。また、生成された破片を構成する
各ポリゴンには、指定されたテクスチャ画像がマッピン
グ、すなわち貼り付けされる。
Next, fragments are generated in a three-dimensional space (step S3). This means that pieces of the set shape are generated at the set density in the set arrangement area for each texture group. In addition, a specified texture image is mapped, that is, pasted, to each polygon constituting the generated fragment.

【0017】ここで、テクスチャ画像のマッピングの手
法について図4を用いて説明する。まず、テクスチャ画
像としては、生成される破片を構成するポリゴンよりも
大きいものを用意しておく。図4の例では、テクスチャ
画像は縦IY×横IXの大きさとなっている。ここでま
ず、あるポリゴンについて、図4(a)に示すようにラ
ンダムに一点A(x,y)を選択する。これは、0≦x
≦IX,0≦y≦IYの範囲において乱数を発生するこ
とにより行われる。選択された点A(x,y)に対し
て、ポリゴンにおける他の頂点の関係から、図4(b)
に示すように点B,点Cのテクスチャ画像上での位置関
係が定まる。点B,点Cが共にテクスチャ画像上に収ま
る場合には、この3点ABCで決定される絵柄を切り取
って、そのポリゴンに貼り付ける。図4(c)に示すよ
うに点B,点Cのいずれかがテクスチャ画像の領域から
はみ出してしまった場合には、再度A点の位置決めが行
われる。以上のようにして生成された全ポリゴンに対し
て貼り付けるべき絵柄を決定していく。
Here, a method of mapping a texture image will be described with reference to FIG. First, as a texture image, an image larger than a polygon constituting a generated fragment is prepared. In the example of FIG. 4, the texture image has a size of vertical IY × horizontal IX. First, for a certain polygon, one point A (x, y) is selected at random as shown in FIG. This is 0 ≦ x
This is performed by generating a random number in the range of ≦ IX, 0 ≦ y ≦ IY. FIG. 4B shows the relationship between the selected point A (x, y) and other vertices in the polygon.
As shown in the figure, the positional relationship between the points B and C on the texture image is determined. When both the points B and C fall within the texture image, the picture determined by the three points ABC is cut out and pasted on the polygon. As shown in FIG. 4 (c), when either point B or point C is out of the area of the texture image, the positioning of point A is performed again. The picture to be pasted on all the polygons generated as described above is determined.

【0018】次に、媒質ポリゴンを生成する(ステップ
S4)。媒質ポリゴンは、スクリーンSと同サイズでス
クリーンSと同位置に生成される。すなわち、スクリー
ンSは矩形形状となるので、三角形のポリゴン2つで構
成することができる。この媒質ポリゴンには、あらかじ
め用意した媒質テクスチャを貼り付けるようにすること
も可能であるが、本実施形態では、媒質を一様にするた
め、全面に渡って均一な色となるよう設定する。
Next, a medium polygon is generated (step S4). The medium polygon is generated at the same position as the screen S with the same size as the screen S. That is, since the screen S has a rectangular shape, it can be constituted by two triangular polygons. A medium texture prepared in advance can be attached to this medium polygon, but in the present embodiment, in order to make the medium uniform, the color is set to be uniform over the entire surface.

【0019】次に、破片のスクリーンSへの正射影を行
い、当該スクリーン上の各画素の色を決定する(ステッ
プS5)。ステップS5における正射影のための視線の
方向は複数設定され、それぞれの視線方向についてスク
リーンS上の画素値を決定する。各視線方向ごとに得ら
れるスクリーンS上の画素値は、最終的には平均化され
て1つの投影画像を構成する画素値が得られることにな
る。ここでは、まず、スクリーンSからの視線方向がス
クリーンSに対して垂直である場合について説明する。
Next, the fragments are orthogonally projected onto the screen S, and the color of each pixel on the screen is determined (step S5). A plurality of line-of-sight directions for orthographic projection in step S5 are set, and a pixel value on the screen S is determined for each line-of-sight direction. The pixel values on the screen S obtained for each line-of-sight direction are finally averaged to obtain pixel values constituting one projection image. Here, first, the case where the line of sight from the screen S is perpendicular to the screen S will be described.

【0020】この場合、ある破片上の画素は、(x,
y)座標値が同一であるスクリーンS上の画素に投影さ
れることになるが、このときスクリーン上の画素の画素
値VHは以下の(数式1)で算出される。
In this case, the pixel on a fragment is (x,
y) Projection is performed on a pixel on the screen S having the same coordinate value. At this time, the pixel value V H of the pixel on the screen is calculated by the following (Equation 1).

【0021】(数式1) VH = T ×(DO /DF )×VO T:減衰率(Equation 1) V H = T × (D O / D F ) × V O T: Attenuation rate

【0022】ただし、上記(数式1)において、DO
スクリーンSから破片上の画素VOまでの距離、DFはス
クリーンSから焦点面までの距離を示す。上記(数式
1)は、破片上の画素が焦点面に近い程、本来の画素値
に近付き、焦点面から遠ざかる程、ぼけていくことを示
している。また、破片は三次元空間内にランダムに配置
されるため、スクリーンSからの視線上で重なる破片に
ついては、最もスクリーンSに近い破片だけが見えるこ
とになる。これは、単純に両破片のz座標同士を比較
し、スクリーンSに近いものを生かすことにより表現で
きる。
[0022] However, in the above (Equation 1), D O is the distance from the screen S to the pixel V O on the debris, D F is the distance from the screen S to the focal plane. The above (Formula 1) indicates that the closer the pixel on the fragment is to the focal plane, the closer to the original pixel value, and the farther away from the focal plane, the more blurred. In addition, since the pieces are randomly arranged in the three-dimensional space, only pieces closest to the screen S are visible for pieces that overlap on the line of sight from the screen S. This can be expressed simply by comparing the z-coordinates of both fragments and utilizing the one close to the screen S.

【0023】さらに、スクリーンS上の画素値はこれだ
けで決定されるのではなく、媒質による減衰分も考慮さ
れて決定されることになる。媒質の画素値をVBとし、
合成のための透過率をα(ただし、0≦α≦1)とする
と、スクリーンS上の画素値Vは以下に示す(数式2)
により算出される。このとき、媒質の画素値VBは、ス
クリーン上に生成された媒質ポリゴン上の画素値が採用
される。
Further, the pixel value on the screen S is not determined solely by this, but is also determined in consideration of the attenuation due to the medium. Let the pixel value of the medium be V B ,
Assuming that the transmittance for the combination is α (where 0 ≦ α ≦ 1), the pixel value V on the screen S is shown below (Equation 2).
Is calculated by At this time, the pixel value on the medium polygon generated on the screen is adopted as the pixel value V B of the medium.

【0024】(数式2) V = α×VH + (1−α)× VB (Equation 2) V = α × V H + (1−α) × V B

【0025】この(数式2)からわかるように、透過率
αの値を大きくすればする程、本来の色が表現され、透
過率αの値を小さくすればする程、媒質色の影響が強く
なる。
As can be seen from Equation (2), the larger the value of the transmittance α, the more the original color is expressed, and the smaller the value of the transmittance α, the stronger the effect of the medium color. Become.

【0026】視線方向を変えた場合にも同様に投影が行
なわれる。例えば、視線角度θで正射影を行なう場合、
その視線角度θは、以下の(数式3)により算出され
る。
When the line of sight is changed, projection is performed in the same manner. For example, when performing orthographic projection at the line-of-sight angle θ,
The line-of-sight angle θ is calculated by the following (Equation 3).

【0027】(数式3) θ = θmax × γ1 (Equation 3) θ = θ max × γ 1

【0028】上記(数式3)において、θmaxはステッ
プS1において設定された視線移動最大角度を示し、γ
1は0.0〜1.0の範囲の値になるように発生される
乱数を示す。
In the above (Equation 3), θ max indicates the maximum line-of-sight movement angle set in step S1, and γ
1 indicates a random number generated to have a value in the range of 0.0 to 1.0.

【0029】この視線角度θに基づいて、三次元空間に
存在する破片を正射影すると共に媒質の影響を考慮する
ことにより、この視線角度θに対するスクリーンS上の
画素が得られる。ここで、ある破片に着目した場合の視
線角度θとスクリーンSおよび破片の関係を図5に示
す。図中、横軸は図2に示したz軸であるものとする。
図5(a)は視線角度が0°、すなわちスクリーンSと
視線方向が垂直である状態を示している。図5(b)
(c)は、それぞれ視線角度θだけ視線方向を傾けた状
態を示している。図5(a)〜(c)に示すスクリーン
および破片は全て同位置に存在するものであるが、視線
角度が異なるため、スクリーンに投影される破片の様子
は異なるものになる。図5(a)〜(c)のスクリーン
に投影される破片の様子をそれぞれ図6(a)〜(c)
に示す。図6(a)では、オブジェクトはスクリーンの
中央に投影されているが、図6(b)ではスクリーン下
方、図6(c)ではスクリーン上方にそれぞれ投影され
ていることがわかる。
Based on the line-of-sight angle θ, fragments on the screen S corresponding to the line-of-sight angle θ are obtained by orthogonally projecting fragments present in the three-dimensional space and considering the influence of the medium. Here, FIG. 5 shows the relationship between the line-of-sight angle θ, the screen S, and the pieces when focusing on a certain piece. In the figure, the horizontal axis is the z-axis shown in FIG.
FIG. 5A shows a state in which the viewing angle is 0 °, that is, the viewing direction is perpendicular to the screen S. FIG. 5 (b)
(C) shows a state in which the viewing direction is inclined by the viewing angle θ. Although the screen and the fragments shown in FIGS. 5A to 5C are all located at the same position, the appearance of the fragments projected on the screen differs due to different viewing angles. FIGS. 6 (a) to 6 (c) show the state of the fragments projected on the screens of FIGS. 5 (a) to 5 (c), respectively.
Shown in In FIG. 6A, the object is projected at the center of the screen, but in FIG. 6B, the object is projected below the screen, and in FIG. 6C, it is projected above the screen.

【0030】ステップS5における正射影は、ステップ
S2において設定された視線方向設定数だけ行なわれ
る。すなわち、視線方向設定数分のレンダリング結果が
得られることになる。最終的に得られる投影画像は、こ
れらのレンダリング結果を平均化したものである。ここ
で、ステップS5における処理手順の詳細を図7のフロ
ーチャートに基づいて説明する。まず、上述のように
(数式3)を用いて視線角度θを算出する(ステップS
11)。
The orthographic projection in step S5 is performed for the set number of gaze directions set in step S2. That is, rendering results for the set number of gaze directions are obtained. The finally obtained projection image is an average of these rendering results. Here, details of the processing procedure in step S5 will be described based on the flowchart of FIG. First, the line-of-sight angle θ is calculated using (Equation 3) as described above (Step S)
11).

【0031】続いて、視線角度θを傾ける方向を決定す
るためのスクリーン平面内における視線ベクトル(V
x,Vy)を以下の(数式4)により算出する(ステッ
プS12)。
Subsequently, the line-of-sight vector (V) in the screen plane for determining the direction in which the line-of-sight angle θ is inclined is determined.
x, Vy) is calculated by the following (Equation 4) (step S12).

【0032】(数式4) Vx=sinφ Vy=cosφ ただし、φ=360°×γ2 (Equation 4) Vx = sin φ Vy = cos φ where φ = 360 ° × γ 2

【0033】上記(数式4)においてγ2は0.0〜
1.0の範囲の値になるように発生される乱数を示す。
このようにして、視線角度θ、および視線ベクトル(V
x,Vy)が定まると、正射影を行なうための視線方向
が1方向に特定されるので、特定された視線方向からス
クリーンへの正射影、すなわち、スクリーンへのレンダ
リングを行なう。これは、具体的には上記(数式1)お
よび(数式2)を用いて行われるが、視線方向θ=0°
以外の場合は、距離の算出に三次元のそれぞれの座標に
おける位置計算が必要となるため、演算負荷が大きくな
る。そこで、本発明では、この演算負荷を削減するため
に、レンダリング処理を行う前に、距離を1つの座標軸
で算出可能なように破片の位置座標の変換を行う(ステ
ップS13)。
In the above (Equation 4), γ 2 is 0.0 to 0.0
Indicates a random number generated to be a value in the range of 1.0.
Thus, the line-of-sight angle θ and the line-of-sight vector (V
When x, Vy) is determined, the direction of the line of sight for performing the orthogonal projection is specified in one direction. Therefore, orthographic projection from the specified line of sight to the screen, that is, rendering to the screen, is performed. This is specifically performed using the above (Equation 1) and (Equation 2), but the line-of-sight direction θ = 0 °
In other cases, the calculation of the distance requires a position calculation at each of the three-dimensional coordinates, which increases the calculation load. Therefore, in the present invention, in order to reduce the calculation load, before performing the rendering processing, the position coordinates of the fragment are converted so that the distance can be calculated with one coordinate axis (step S13).

【0034】具体的には、各破片がポリゴンで構成され
ているため、このポリゴンの各頂点の座標値を以下の
(数式5)(数式6)により変換する。
Specifically, since each fragment is composed of a polygon, the coordinate values of each vertex of this polygon are converted by the following (Equation 5) and (Equation 6).

【0035】(数式5) K = tanθ × abs(L−Z)(Equation 5) K = tanθ × abs (LZ)

【0036】上記(数式5)は移動量Kを算出するため
のものであり、Lは投影面のz座標値、Zはポリゴンの
z座標値、absは絶対値を取ることを示す。
The above (Equation 5) is for calculating the movement amount K, where L indicates the z coordinate value of the projection plane, Z indicates the z coordinate value of the polygon, and abs indicates the absolute value.

【0037】(数式6) Mx= Vx × K My= Vy × K(Equation 6) Mx = Vx × K My = Vy × K

【0038】上記(数式6)は(数式5)で算出した移
動量Kを用いてx座標、y座標の移動量Mx、Myをそ
れぞれ算出するものである。この結果、各ポリゴンの頂
点の座標値(X、Y、Z)は、仮想的な座標値(X+M
x,Y+My,Z)に変換される。
In the above (Equation 6), the movement amounts Mx and My of the x coordinate and the y coordinate are calculated using the movement amount K calculated in (Equation 5). As a result, the coordinate values (X, Y, Z) of the vertices of each polygon are calculated as the virtual coordinate values (X + M
x, Y + My, Z).

【0039】このようなステップS13における座標変
換処理は、各破片を構成する各ポリゴンの各頂点につい
て行われる。これにより、仮想的な三次元空間における
座標値が作成されることになる。例えば、図8(a)に
示すような状態でポリゴンが存在している場合、図8
(b)に示すような状態に変換されることになる。これ
により、破片を構成するポリゴンのある頂点A(X,
Y,Z)はA´(X+Mx,Y+My,Z)に移動する
ことになる。このように変換することにより、z軸方向
(図8では左右方向)の値の差がそのまま投影面との距
離となる。
The coordinate conversion processing in step S13 is performed for each vertex of each polygon constituting each fragment. Thus, coordinate values in a virtual three-dimensional space are created. For example, when a polygon exists in a state as shown in FIG.
This is converted into the state shown in FIG. Thus, the vertex A (X,
Y, Z) will move to A '(X + Mx, Y + My, Z). By performing the conversion in this manner, the difference between the values in the z-axis direction (the horizontal direction in FIG. 8) becomes the distance to the projection plane as it is.

【0040】続いて、この仮想的な座標値に基づいて、
(数式1)(数式2)を用いることにより、スクリーン
S上の画素の画素値Vが算出される。このとき、(数式
1)において画素値VHの算出のための距離DO、距離D
Fは共に仮想的な空間におけるz座標値だけを用いれば
良いので演算負荷が大幅に削減され、高速に処理を行う
ことが可能となる。この画素値の集合がその視線方向の
場合のレンダリング結果となる(ステップS14)。
Subsequently, based on the virtual coordinate values,
By using (Equation 1) and (Equation 2), the pixel value V of the pixel on the screen S is calculated. At this time, the distance D O and the distance D for calculating the pixel value V H in (Equation 1)
Since it is sufficient for F to use only the z coordinate value in the virtual space, the calculation load is greatly reduced, and the processing can be performed at high speed. This set of pixel values is the rendering result in the case of the line-of-sight direction (step S14).

【0041】スクリーンSへのレンダリング結果は、画
像メモリに記録される(ステップS15)。この場合、
最初のレンダリング結果はそのまま画像メモリに書き込
まれる。2つ目以降のレンダリング結果は、それ以前に
画像メモリに書き込まれていた内容を含めた複数回のレ
ンダリング結果に加算されて、それまでの平均値として
書き込まれるようになっている。例えば、2回目のレン
ダリング結果は、既に画像メモリに記録されている1回
目のレンダリング結果と各画素ごとに加算して2で割る
ことにより平均値を算出し、それを2回目までのレンダ
リング平均として画像メモリの内容を更新する。3回目
のレンダリング結果は、2回目までのレンダリング平均
を2倍したものと各画素ごとに加算した後、3で割るこ
とにより過去3回目までの平均値を算出し、それを3回
目までのレンダリング平均として画像メモリの内容を更
新する。これを一般化すると、n回目のレンダリング結
果は、(n−1)回目までのレンダリング平均を(n−
1)倍したものと各画素ごとに加算した後、nで割るこ
とにより過去n回目までの平均値を算出し、それをn回
目までのレンダリング平均として画像メモリの内容を更
新することになる。すなわち、ステップS15の処理が
終了した時点では常に、画像メモリにはそれまでのレン
ダリング結果の平均が記録されていることになる。
The result of rendering on the screen S is recorded in the image memory (step S15). in this case,
The first rendering result is written to the image memory as it is. The second and subsequent rendering results are added to a plurality of rendering results including the contents previously written in the image memory, and written as an average value up to that time. For example, the second rendering result is calculated by adding the first rendering result already stored in the image memory to each pixel and dividing by 2 to calculate an average value. Update the contents of the image memory. The third rendering result is calculated by doubling the rendering average up to the second rendering, adding each pixel, and dividing by 3 to calculate the average value up to the third rendering in the past, and rendering it up to the third rendering. Update the contents of the image memory as an average. When this is generalized, the rendering result of the n-th rendering is obtained by calculating the rendering average up to the (n-1) -th rendering by (n-
1) After adding the multiplied value for each pixel, the result is divided by n to calculate an average value up to the n-th time in the past, and update the content of the image memory as the rendering average up to the n-th time. That is, when the processing in step S15 ends, the average of the rendering results up to that point is always recorded in the image memory.

【0042】ステップS15においてレンダリング結果
の平均値が記録されると、ステップS11〜ステップS
15までの処理を行なった回数が、視線角度設定数Nに
達したかどうかが判断される(ステップS16)。N回
実行していれば終了し、N回実行していなければ、ステ
ップS11に戻って処理を続けることになる。ステップ
S15においてYESと判断されたら、画像メモリに記
録されているそれまでのレンダリング結果が投影画像と
されることになる。
When the average value of the rendering result is recorded in step S15, steps S11 to S11 are executed.
It is determined whether the number of times the processing up to 15 has been performed has reached the set number N of gaze angles (step S16). If it has been executed N times, the process ends. If it has not been executed N times, the process returns to step S11 to continue the process. If YES is determined in the step S15, the previous rendering result recorded in the image memory is used as the projection image.

【0043】図7のフローチャートを用いて説明したよ
うな処理により、ステップS5の正射影による投影画像
の作成処理が実行される。これにより所望の投影画像が
得られることになる。
By the processing described with reference to the flowchart of FIG. 7, the processing of creating a projection image by orthographic projection in step S5 is executed. As a result, a desired projection image is obtained.

【0044】本発明では、レンダリング用の画像メモリ
のサイズに制限がある場合にも、精度の高いレンダリン
グが可能なように工夫を行っている。次に、このような
場合について図9のフローチャートを用いて説明する。
まず、レンダリング範囲の分割を行う(ステップS2
1)。これは、作成する単位画像の大きさにもよるが、
ここでは、縦2×横2の4分割を行うものとする。図2
の例で説明したようにスクリーンSのサイズがw画素
(x方向)×h画素(y方向)の場合、1つのレンダリ
ング範囲は、 w/2画素(x方向)×h/2画素(y
方向)となる。
In the present invention, even when the size of the image memory for rendering is limited, a device is devised so that highly accurate rendering can be performed. Next, such a case will be described with reference to the flowchart of FIG.
First, the rendering range is divided (step S2).
1). This depends on the size of the unit image to be created,
Here, it is assumed that four divisions of 2 × 2 are performed. FIG.
When the size of the screen S is w pixels (x direction) × h pixels (y direction) as described in the example of (1), one rendering range is w / 2 pixels (x direction) × h / 2 pixels (y
Direction).

【0045】続くステップS22からステップS24ま
での処理は分割された各レンダリング範囲について行わ
れる。まず、1つのレンダリング範囲内に完全に含まれ
る破片のポリゴンにマーキングを行う(ステップS2
2)。さらに、このレンダリング範囲に含まれると共
に、他のレンダリング範囲に含まれる破片、すなわち、
複数のレンダリング範囲の境界に掛かる破片のポリゴン
について別のマーキングを行う(ステップS23)。こ
のステップS22、ステップS23におけるレンダリン
グ範囲に含まれるか境界に掛かるかの判断は、視線移動
最大角度θmaxを考慮して行われる。つまり、視線移動
最大角度θmax分視線を移動してもなおかつレンダリン
グ範囲内に含まれるものをステップS22でマーキング
し、視線移動最大角度θmax分視線を移動した場合にレ
ンダリング範囲から外れることがある場合には、ステッ
プS23においてマーキングを行う。
The subsequent steps S22 to S24 are performed for each of the divided rendering ranges. First, marking is performed on a fragment polygon completely included in one rendering range (step S2).
2). Furthermore, fragments included in this rendering range and other rendering ranges, that is,
Another marking is performed on the polygon of the debris on the boundary between the plurality of rendering ranges (step S23). This step S22, determination of whether acting on whether the boundary is included in the rendering range in step S23 is performed in consideration of the visual line movement maximum angle theta max. That is, even if the line of sight is moved by the maximum line-of-sight angle θ max and still included in the rendering range, marking is performed in step S22, and if the line of sight is moved by the maximum line-of-sight movement angle θ max, the line of sight may fall outside the rendering range. In this case, marking is performed in step S23.

【0046】続いて、分割投影画像の作成処理を行う
(ステップS24)。この具体的な処理としては、図7
のフローチャートで説明したのと同様な処理が行われ
る。1つの分割投影画像が得られたら、この画像は別の
記憶領域に保存して画像メモリを使用可能な状態にした
後、ステップS22に戻って他のレンダリング範囲につ
いて同様な処理を行う。ただし、2番目以降のレンダリ
ング範囲については、ステップS24における処理が異
なってくる。2番目以降の場合、レンダリング境界に掛
かる破片のポリゴンについては、既に処理されたものに
ついては、再び処理を行わないようにする。既に処理さ
れたものかどうかは、ステップS23により行われたマ
ーキングにより判断が可能となる。以上のようにして、
全てのレンダリング範囲について分割投影画像が得られ
たら、分割投影画像の統合を行って、最終的な投影画像
を得る(ステップS25)。
Subsequently, a process of creating a divided projection image is performed (step S24). FIG. 7 shows the specific processing.
The same processing as described in the flowchart of FIG. When one divided projection image is obtained, this image is stored in another storage area to make the image memory usable, and the process returns to step S22 to perform the same processing for another rendering range. However, the processing in step S24 is different for the second and subsequent rendering ranges. In the second and subsequent cases, processing is not performed again on polygons that have already been processed with respect to polygons of fragments that fall on rendering boundaries. Whether it has been already processed can be determined by the marking performed in step S23. As described above,
When the divided projection images are obtained for all the rendering ranges, the divided projection images are integrated to obtain a final projection image (step S25).

【0047】(装置構成)次に、上記模様画像作成方法
を実行するための装置構成について説明する。図10
は、本発明による模様画像作成装置の構成図である。図
10において、パラメータ入力手段1は、図1のステッ
プS1およびステップS2を実行するためのものであ
り、マウスやキーボード等で実現できる。
(Apparatus Configuration) Next, an apparatus configuration for executing the above-described pattern image creating method will be described. FIG.
1 is a configuration diagram of a pattern image creating device according to the present invention. In FIG. 10, a parameter input unit 1 is for executing steps S1 and S2 of FIG. 1, and can be realized by a mouse, a keyboard, or the like.

【0048】破片生成手段2は、図1のステップS3を
実行するためのものであり、パラメータ入力手段1より
入力されたパラメータに従って、設定された三次元空間
内に破片を配置する機能を有する。媒質ポリゴン生成手
段3は、図1のステップS4を実行するためのものであ
り、指定された色もしくはテクスチャを貼り付ける機能
を有する。
The fragment generating means 2 is for executing step S3 of FIG. 1 and has a function of arranging the fragments in the set three-dimensional space according to the parameters input from the parameter input means 1. The medium polygon generating means 3 is for executing step S4 in FIG. 1, and has a function of pasting a designated color or texture.

【0049】投影手段4は、図1のステップS5を実行
するためのものであり、座標変換手段5によりステップ
S13の座標変換処理が施された破片を投影することに
より、画像メモリ6にレンダリング結果を書き込みなが
ら投影処理を繰り返し行なう機能を有する。破片生成手
段2、媒質ポリゴン生成手段3、投影手段4、座標変換
手段5の各手段は現実にはコンピュータと、コンピュー
タに搭載された専用プログラムにより実現され、画像メ
モリ6はコンピュータ内部に搭載される。
The projecting means 4 is for executing step S5 in FIG. 1 and projects the fragment subjected to the coordinate transformation processing of step S13 by the coordinate transformation means 5 to render the rendering result on the image memory 6. Has the function of repeatedly performing the projection process while writing. Each of the fragment generation means 2, medium polygon generation means 3, projection means 4, and coordinate conversion means 5 is actually realized by a computer and a dedicated program mounted on the computer, and the image memory 6 is mounted inside the computer. .

【0050】出力手段7は、投影手段4による処理の結
果得られる投影画像を出力するためのものであり、表示
するためのディスプレイ、画像データとして出力するた
めのFD、MO等が適用できる。
The output means 7 is for outputting a projection image obtained as a result of the processing by the projection means 4, and a display for displaying, an FD, an MO for outputting as image data, and the like can be applied.

【0051】[0051]

【発明の効果】以上、説明したように本発明によれば、
必要なパラメータを入力し、破片の表面に生成する画像
を入力し、入力されたパラメータに基づいて三次元空間
に破片を生成し、生成された破片に画像を貼り付けた
後、画像が貼り付けられた破片を二次元平面に正射影の
手法により投影すると共に媒質の透過度を考慮して投影
される画素値を算出することにより投影画像を作成する
ようにしたので、この投影画像を単位画像として繰り返
し並べることにより繋ぎ目が目立たない模様画像を作成
することが可能になると共に、個性的なデザインの絵柄
を破片の表面に有する人工大理石調の模様画像を作成す
ることが可能となるという効果を奏する。
As described above, according to the present invention,
Enter the required parameters, enter the image to be generated on the surface of the fragment, generate fragments in 3D space based on the input parameters, paste the image on the generated fragment, and paste the image The projected fragments are projected onto a two-dimensional plane by an orthogonal projection method, and a projected image is created by calculating a pixel value to be projected in consideration of the transparency of the medium. It is possible to create a pattern image with inconspicuous joints by repeatedly arranging as a pattern, and it is also possible to create an artificial marble-like pattern image having a unique design pattern on the surface of the fragment Play.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明による模様画像作成方法を示すフローチ
ャートである。
FIG. 1 is a flowchart showing a pattern image creating method according to the present invention.

【図2】三次元空間内に設定される投影領域を示す図で
ある。
FIG. 2 is a diagram showing a projection area set in a three-dimensional space.

【図3】破片形状の一例を示す図である。FIG. 3 is a diagram showing an example of a fragment shape.

【図4】ポリゴンにマッピングする絵柄の決定を説明す
るための図である。
FIG. 4 is a diagram for explaining how to determine a picture to be mapped to a polygon;

【図5】正射影を行なう場合の視線角度、スクリーン、
オブジェクトの関係を示す図である。
FIG. 5 is a view angle, screen,
FIG. 4 is a diagram illustrating a relationship between objects.

【図6】図5に示した関係をスクリーン側から見た状態
を示す図である。
FIG. 6 is a diagram showing a state where the relationship shown in FIG. 5 is viewed from a screen side.

【図7】図1のステップS5の処理の詳細を示すフロー
チャートである。
FIG. 7 is a flowchart showing details of a process in step S5 of FIG. 1;

【図8】図7のステップS13の座標変換処理を説明す
るための図である。
8 is a diagram for explaining the coordinate conversion process in step S13 in FIG.

【図9】画像メモリのサイズに制限がある場合の処理を
示すフローチャートである。
FIG. 9 is a flowchart illustrating a process when the size of an image memory is limited.

【図10】本発明による模様画像作成装置の構成を示す
機能ブロック図である。
FIG. 10 is a functional block diagram showing a configuration of a pattern image creating device according to the present invention.

【図11】透視放射影を行なう場合の画角、焦点面、オ
ブジェクトの関係を示す図である。
FIG. 11 is a diagram showing a relationship among an angle of view, a focal plane, and an object when performing perspective radiographic shadowing.

【図12】透視放射影を行なう場合の視点位置、レンダ
リング面、視体積の関係を示す図である。
FIG. 12 is a diagram illustrating a relationship among a viewpoint position, a rendering surface, and a viewing volume when performing perspective radiographic shadowing.

【符号の説明】[Explanation of symbols]

S・・・スクリーン 1・・・パラメータ入力手段 2・・・破片生成手段 3・・・媒質ポリゴン生成手段 4・・・投影手段 5・・・座標変換手段 6・・・画像メモリ 7・・・出力手段 S ... Screen 1 ... Parameter input means 2 ... Fragment generation means 3 ... Medium polygon generation means 4 ... Projection means 5 ... Coordinate conversion means 6 ... Image memory 7 ... Output means

Claims (7)

【特許請求の範囲】[Claims] 【請求項1】必要なパラメータを入力する段階と、破片
の表面に生成する画像を入力する段階と、入力されたパ
ラメータに基づいて三次元空間に破片を生成する段階
と、前記生成された破片に画像を貼り付ける段階と、前
記画像が貼り付けられた破片を二次元平面に正射影の手
法により投影すると共に媒質の透過度を考慮して投影さ
れる画素値を算出することにより投影画像を作成する投
影画像作成段階と、を有することを特徴とする模様画像
作成方法。
1. A step of inputting necessary parameters; a step of inputting an image to be generated on a surface of a fragment; a step of generating a fragment in a three-dimensional space based on the input parameters; A step of pasting an image to the projection image by calculating the pixel value to be projected in consideration of the transparency of the medium while projecting the fragments on which the image is pasted onto a two-dimensional plane by an orthogonal projection method. A projecting image creating step of creating a pattern image creating method.
【請求項2】前記投影画像作成段階は、入力されたパラ
メータに基づいて視線方向を決定し、この視線方向に基
づいて前記生成された破片の三次元空間における座標を
変換した後、正射影の手法により投影を行うものである
ことを特徴とする請求項1に記載の模様画像作成方法。
2. The method according to claim 1, wherein the step of generating a projection image includes determining a line-of-sight direction based on the input parameters, transforming coordinates of the generated fragments in a three-dimensional space based on the line-of-sight direction, and then performing orthogonal projection. 2. The pattern image creating method according to claim 1, wherein the projection is performed by a technique.
【請求項3】前記座標の変換は、三次元空間における破
片の座標を、前記視線方向を決定する視線角度および視
線ベクトルを用いて、投影面からの距離方向を1つの座
標軸とする三次元空間における座標に変換するものであ
ることを特徴とする請求項2に記載の模様画像作成方
法。
3. The coordinate transformation is performed by using the coordinates of a fragment in a three-dimensional space as a coordinate axis with a distance direction from a projection plane as a coordinate axis using a line-of-sight angle and a line-of-sight vector for determining the line-of-sight direction. 3. The method according to claim 2, wherein the coordinates are converted into coordinates.
【請求項4】前記投影画像作成段階は、視線方向を変化
させることにより複数回レンダリングを行ない、それぞ
れのレンダリングにより得られるレンダリング結果の平
均を算出することにより、投影画像を作成するものであ
ることを特徴とする請求項1から請求項3のいずれかに
記載の模様画像作成方法。
4. The projection image creating step is to perform a plurality of renderings by changing a line-of-sight direction and calculate an average of rendering results obtained by each rendering to create a projection image. The pattern image creating method according to any one of claims 1 to 3, wherein:
【請求項5】必要なパラメータを入力すると共に破片の
表面に生成する画像を設定するパラメータ入力手段と、
入力されたパラメータに基づいて三次元空間に破片を生
成すると共に生成された破片に前記設定された画像を貼
り付ける破片生成手段と、入力されたパラメータに基づ
いて視線方向を決定し、この視線方向に基づいて前記破
片の三次元空間における座標を変換する座標変換手段
と、前記座標変換された破片を二次元平面に正射影の手
法により投影すると共に媒質の透過度を考慮して投影さ
れる画素値を算出することにより投影画像を作成する投
影手段と、を有することを特徴とする模様画像作成装
置。
5. Parameter input means for inputting necessary parameters and setting an image to be generated on the surface of the fragment.
A fragment generating means for generating fragments in a three-dimensional space based on the input parameters and attaching the set image to the generated fragments; determining a line-of-sight direction based on the input parameters; Coordinate transformation means for transforming the coordinates of the fragment in a three-dimensional space based on the pixel, and projecting the coordinate-transformed fragment on a two-dimensional plane by an orthogonal projection method and projecting the transparency in consideration of the medium. A pattern image creating apparatus comprising: a projecting unit that creates a projected image by calculating a value.
【請求項6】前記座標変換手段は、三次元空間における
破片の座標を、前記視線方向を決定する視線角度および
視線ベクトルを用いて、投影面からの距離方向を1つの
座標軸とする三次元空間における座標に変換するもので
あることを特徴とする請求項5に記載の模様画像作成装
置。
6. The coordinate conversion means converts the coordinates of the fragment in the three-dimensional space into a three-dimensional space having a distance direction from a projection plane as one coordinate axis using a line-of-sight angle and a line-of-sight vector for determining the line-of-sight direction. The pattern image creating apparatus according to claim 5, wherein the pattern image is converted into coordinates in (1).
【請求項7】前記投影手段は、レンダリング結果を書き
込むための画像メモリを備え、視線方向を変化させるこ
とにより複数回レンダリングを行ない、それぞれのレン
ダリングにより得られるレンダリング結果を、それまで
のメモリへの書込み回数により平均値を取りながら前期
画像メモリに上書きしていくことにより投影画像を作成
するものであることを特徴とする請求項5または請求項
6に記載の模様画像作成装置。
7. The projection means includes an image memory for writing a rendering result, performs rendering a plurality of times by changing a line-of-sight direction, and stores a rendering result obtained by each rendering in a memory up to that time. 7. The pattern image creating apparatus according to claim 5, wherein a projected image is created by overwriting the image memory while taking an average value according to the number of writings.
JP2001156758A 2001-05-25 2001-05-25 Pattern image creating method and apparatus Expired - Fee Related JP4736239B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001156758A JP4736239B2 (en) 2001-05-25 2001-05-25 Pattern image creating method and apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001156758A JP4736239B2 (en) 2001-05-25 2001-05-25 Pattern image creating method and apparatus

Publications (2)

Publication Number Publication Date
JP2002352264A true JP2002352264A (en) 2002-12-06
JP4736239B2 JP4736239B2 (en) 2011-07-27

Family

ID=19000725

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001156758A Expired - Fee Related JP4736239B2 (en) 2001-05-25 2001-05-25 Pattern image creating method and apparatus

Country Status (1)

Country Link
JP (1) JP4736239B2 (en)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH087124A (en) * 1994-06-17 1996-01-12 Hitachi Ltd Image simulating system
JP2001016508A (en) * 1999-06-30 2001-01-19 Toshiba Corp Solid-state image pickup device
JP2001022944A (en) * 1999-07-05 2001-01-26 Dainippon Printing Co Ltd Method and device for producing stone pattern
JP2001043394A (en) * 1999-08-03 2001-02-16 Dainippon Printing Co Ltd Image display method and device
JP2002216150A (en) * 2001-01-15 2002-08-02 Dainippon Printing Co Ltd Image creating method and its device
JP2002304635A (en) * 2001-04-03 2002-10-18 Dainippon Printing Co Ltd Method and device for pattern image generation

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH087124A (en) * 1994-06-17 1996-01-12 Hitachi Ltd Image simulating system
JP2001016508A (en) * 1999-06-30 2001-01-19 Toshiba Corp Solid-state image pickup device
JP2001022944A (en) * 1999-07-05 2001-01-26 Dainippon Printing Co Ltd Method and device for producing stone pattern
JP2001043394A (en) * 1999-08-03 2001-02-16 Dainippon Printing Co Ltd Image display method and device
JP2002216150A (en) * 2001-01-15 2002-08-02 Dainippon Printing Co Ltd Image creating method and its device
JP2002304635A (en) * 2001-04-03 2002-10-18 Dainippon Printing Co Ltd Method and device for pattern image generation

Also Published As

Publication number Publication date
JP4736239B2 (en) 2011-07-27

Similar Documents

Publication Publication Date Title
EP1064619B1 (en) Stochastic level of detail in computer animation
JP3294149B2 (en) Three-dimensional texture mapping processing device and three-dimensional image generation device using the same
JP4680796B2 (en) Image base protrusion displacement mapping method and double displacement mapping method using the method
US8884947B2 (en) Image processing apparatus and image processing method
JP2009237680A (en) Program, information storage medium, and image generation system
US20060077208A1 (en) Method of creating texture capable of continuous mapping
JP2012190428A (en) Stereoscopic image visual effect processing method
JP2004005452A (en) Image processor, image processing method, semiconductor device, computer program and record medium
US9401044B1 (en) Method for conformal visualization
JPH09330423A (en) Three-dimensional shape data transforming device
US5793372A (en) Methods and apparatus for rapidly rendering photo-realistic surfaces on 3-dimensional wire frames automatically using user defined points
JP3748451B1 (en) Program, information storage medium, and image generation system
KR100489572B1 (en) Image processing method
JP2002183756A (en) Game information, information storage medium and game device
CN109074670B (en) Information processing apparatus, image generating method, and recording medium
KR20100075351A (en) Method and system for rendering mobile computer graphic
JP4668447B2 (en) Pattern image creating method and apparatus
JP4736239B2 (en) Pattern image creating method and apparatus
JP3501479B2 (en) Image processing device
JP2002230579A (en) Method and device for creating image
JP2002216150A (en) Image creating method and its device
JP3867071B2 (en) Image processing apparatus and image processing method
JP2000057372A (en) Image processor, image processing method and storage medium
JP3453410B2 (en) Image processing apparatus and method
Okuya et al. Reproduction of perspective in cel animation 2D composition for real-time 3D rendering

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080521

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100928

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101006

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101201

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110119

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110317

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110405

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110418

R150 Certificate of patent or registration of utility model

Ref document number: 4736239

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140513

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees