JP4736239B2 - Pattern image creating method and apparatus - Google Patents

Pattern image creating method and apparatus Download PDF

Info

Publication number
JP4736239B2
JP4736239B2 JP2001156758A JP2001156758A JP4736239B2 JP 4736239 B2 JP4736239 B2 JP 4736239B2 JP 2001156758 A JP2001156758 A JP 2001156758A JP 2001156758 A JP2001156758 A JP 2001156758A JP 4736239 B2 JP4736239 B2 JP 4736239B2
Authority
JP
Japan
Prior art keywords
image
projection
line
rendering
fragment
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2001156758A
Other languages
Japanese (ja)
Other versions
JP2002352264A (en
Inventor
智孝 野田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dai Nippon Printing Co Ltd
Original Assignee
Dai Nippon Printing Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dai Nippon Printing Co Ltd filed Critical Dai Nippon Printing Co Ltd
Priority to JP2001156758A priority Critical patent/JP4736239B2/en
Publication of JP2002352264A publication Critical patent/JP2002352264A/en
Application granted granted Critical
Publication of JP4736239B2 publication Critical patent/JP4736239B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Description

【0001】
【産業上の利用分野】
本発明は、三次元空間に表現された物体を二次元平面に投影することにより画像を作成する技術に関し、特に、このような技術を利用して人工大理石等の模様を人工的に作成する模様画像作成方法および装置に関する。
【0002】
【従来の技術】
従来より、建材製品の表面を装飾するものとして様々な模様が用いられている。その中でも、人工大理石の模様は高級感もあり、人気が高い。このような人工大理石の模様を作成するためには、本物の人工大理石を直接撮影する等の作業を経て行われているが、制作費が高くなること、バリエーションがないことが問題となっている。最近では、コンピュータグラフィックスによって人工的に大理石の模様を発生させる試みも行われているが、実物に近いものを得るのは、困難なものとなっている。
【0003】
一般に、人工大理石の模様は、媒質の中に小石のような他の物体が含まれたようなものとなっている。外から見えるのは、この表面だけであるので、人工大理石の模様というものは、小石のような物体を表面に投影した画像で近似できると考えられている。そこで、三次元空間における物体を投影するための技術、すなわち三次元CG(コンピュータグラフィックス)の表現技術を利用することが行われている。
【0004】
ここで、三次元CGの表現技術について説明しておく。三次元CGの表現技術においては、より立体感を表現するために、三次元空間内に存在する物体の被写界深度効果を考慮した投影手法が用いられている。被写界深度とは、視点のピントが合う平面との距離のことであり、被写界深度効果とは、三次元空間内において、被写界深度以外にある物体に、被写界深度との差に応じたぼかしを施してリアル感を出す手法である。
【0005】
このような被写界深度効果を利用してレンダリングを行なう手法は、一般に透視放射影を用いて実現されている。ここで、透視放射影を用いたレンダリングについて説明する。図11は透視放射影を行なう際の、オブジェクト(物体)、焦点面、視点の関係を示す図である。図11(a)に示すように視点には、所定の画角が設定され、その画角の範囲に含まれるオブジェクトが視点に投影される。図11(a)では、焦点面と視点は、三角形を構成しているように見えるが、実際には三次元空間であるため、焦点面を底面とし、視点を頂点とした円錐または角錐形状を構成する関係となっている。透視放射影とは、円形もしくは多角形であって、焦点面と平行な面上の各点における色情報を視点に反映させる手法である。この視点を各画素位置に適用することにより、投影画像が得られることになる。
【0006】
上述のように各画素に対して透視放射影を行なうことにより投影画像が得られることになる。実際には、その精度を向上させるために図11(b)、(c)に示すように視点位置を変更した状態(ジッタ処理)における投影画像を得て、これらの投影画像の平均値を求めることにより最終的な投影画像を得るようにしている。視点位置を増やす程、より精度の高い投影画像が得られることになる。このような三次元CGの表現技術を利用することにより人工大理石の模様を簡易に作成することが可能となる。
【0007】
【発明が解決しようとする課題】
上記のように、所定の大きさの画像をレンダリングして大理石模様の画像を作成する際は、ジッタ処理を施した透視放射影の手法は大きな効果を奏する。しかしながら、模様画像などを作成する場合は、基準となる単位画像を作成し、これを上下左右方向に繰り返して配置することにより目的とする大きさの模様画像を得るようにするのが普通である。このように単位画像を繰り返して目的の大きさの画像を作成する場合には、その繋ぎ目が目立たないようにエンドレス処理を行うことが好ましい。
【0008】
しかしながら、繰り返し同じ絵柄が現れるエンドレス画像を生成しようとする場合、透視放射影の手法では、視体積(作成される二次元の画像上の1点に影響する三次元空間における体積)が図12のように広がっているため、三次元空間に配置したオブジェクトがエンドレスになっていたとしても、レンダリングされた画像の端(上下、左右)がつながることはない。このため、好ましいエンドレス画像が得られない。また、投影されるオブジェクトの表面の絵柄に個性的なものがなく、得られる人工大理石模様がつまらないものとなっている。
【0009】
上記のような点に鑑み、本発明は、正射影を用いて被写界深度効果を表現することによりエンドレス処理の施された模様画像を作成することが可能であるとともに、個性的なデザインの模様画像を作成することが可能な模様画像作成方法および装置を提供することを課題とする。
【0010】
【課題を解決するための手段】
上記課題を解決するため、本発明では、コンピュータが、入力されたパラメータに基づいて三次元空間に破片を生成し、生成された破片に入力された画像を貼り付けた後、画像が貼り付けられた破片を二次元平面に正射影の手法により投影すると共に、焦点面からの距離および媒質の透過度を考慮して投影される画素値を算出することにより投影画像を作成し、投影画像の作成は、視線方向を変化させることにより複数回レンダリングを行ない、それぞれのレンダリングにより得られるレンダリング結果の平均を算出することにより行うようにしたことを特徴とする。本発明では、特に、三次元空間上に発生した破片を、焦点面からの距離および媒質の透過度を考慮して二次元平面上に正射影の手法により投影することにより投影画像を得るようにしたので、この投影画像を単位画像として繰り返し並べることにより繋ぎ目が目立たない模様画像を作成することが可能になると共に、個性的なデザインの絵柄を破片の表面に有する人工大理石調の模様画像を作成することが可能となる。
【0011】
【発明の実施の形態】
以下、図面を参照して本発明の実施形態について詳細に説明する。
図1は本発明による模様画像作成方法のフローチャートである。最初に、三次元空間において破片をどのように発生させるかに関するパラメータの入力を行う(ステップS1)。このようなパラメータとしては、スクリーンのサイズと位置を含む投影領域、質感グループ数、表面質感、破片(オブジェクト)の大きさ、破片の底面形状、頂点の高さ、配置密度、上記投影領域における破片の配置範囲を設定する。投影領域とは、単位画像に対して正射影により投影を行う三次元領域である。ここでは、投影後に単位画像となるスクリーンSのサイズをw画素(x方向)×h画素(y方向)とする。また、z方向が奥行きを示すことになる。このような投影領域の一例を図2(a)に示す。質感グループ数とは、破片表面の質感の種類の数を示すものであり、各質感グループについて、上記表面質感、破片の大きさ、破片の底面形状、頂点の高さ、配置密度、上記投影領域における破片の配置範囲が設定される。
【0012】
表面質感とは、発生された破片表面の質感であり、破片表面にマッピングするためのテクスチャを指定することにより設定が行われる。テクスチャの指定は、テクスチャを画像として記憶したファイルのID等を指定することにより行われる。
【0013】
破片の大きさ、破片の底面形状、頂点の高さの3つのパラメータは、破片形状を決定するためのものである。ここで、破片形状の一例を図3に示す。図3の例は、破片の底面形状のパラメータが四角形と設定された場合を示している。破片の大きさは、この底面の大きさを設定するためのパラメータであり、頂点の高さは、この四角錐における底面からの頂点の高さを設定するためのパラメータである。図3に示したような破片形状の場合、底面は四角形であるため、最低2つの三角形ポリゴンで構成することができ、側面は三角形であるため、最低1つの三角形ポリゴンで構成することができる。すなわち、図3に示した四角錐の破片形状は最低5つの三角形ポリゴンで構成することができる。
【0014】
配置範囲は、図2(a)に示した投影領域のうち、破片を配置する範囲を設定するパラメータである。この配置範囲は、z座標で設定される。z座標を所定の範囲に設定した場合の配置範囲を図2(b)に示す。図2(b)において、網掛けされた直方体の内部が配置範囲となる。配置密度は、配置範囲内に配置する破片の密度を設定するパラメータである。
【0015】
続いて、三次元空間における破片を二次元平面に投影するレンダリング処理をどのように行うかに関するパラメータの入力を行う(ステップS2)。このようなパラメータとしては、焦点面の配置位置、視線方向設定数N、視線移動最大角度θmaxを設定する。また、焦点面はスクリーンSと平行に配置されるため、焦点面の配置位置は、スクリーンSからの距離で設定される。視線方向設定数Nは、投影を行なうための視線方向の設定数であり、設定された数だけ異なる方向から投影が行なわれてスクリーンS上の画素値が決定されることになる。視線移動最大角度θmaxは、視線方向とスクリーンS平面が垂直であるときを0°としたとき、視線方向が傾き得る最大角度を示す。
【0016】
次に、三次元空間に破片を生成する(ステップS3)。これは、各質感グループ毎に、設定された形状の破片が設定された配置領域に設定された密度で生成されることになる。また、生成された破片を構成する各ポリゴンには、指定されたテクスチャ画像がマッピング、すなわち貼り付けされる。
【0017】
ここで、テクスチャ画像のマッピングの手法について図4を用いて説明する。
まず、テクスチャ画像としては、生成される破片を構成するポリゴンよりも大きいものを用意しておく。図4の例では、テクスチャ画像は縦IY×横IXの大きさとなっている。ここでまず、あるポリゴンについて、図4(a)に示すようにランダムに一点A(x,y)を選択する。これは、0≦x≦IX,0≦y≦IYの範囲において乱数を発生することにより行われる。選択された点A(x,y)に対して、ポリゴンにおける他の頂点の関係から、図4(b)に示すように点B,点Cのテクスチャ画像上での位置関係が定まる。点B,点Cが共にテクスチャ画像上に収まる場合には、この3点ABCで決定される絵柄を切り取って、そのポリゴンに貼り付ける。図4(c)に示すように点B,点Cのいずれかがテクスチャ画像の領域からはみ出してしまった場合には、再度A点の位置決めが行われる。以上のようにして生成された全ポリゴンに対して貼り付けるべき絵柄を決定していく。
【0018】
次に、媒質ポリゴンを生成する(ステップS4)。媒質ポリゴンは、スクリーンSと同サイズでスクリーンSと同位置に生成される。すなわち、スクリーンSは矩形形状となるので、三角形のポリゴン2つで構成することができる。この媒質ポリゴンには、あらかじめ用意した媒質テクスチャを貼り付けるようにすることも可能であるが、本実施形態では、媒質を一様にするため、全面に渡って均一な色となるよう設定する。
【0019】
次に、破片のスクリーンSへの正射影を行い、当該スクリーン上の各画素の色を決定する(ステップS5)。ステップS5における正射影のための視線の方向は複数設定され、それぞれの視線方向についてスクリーンS上の画素値を決定する。各視線方向ごとに得られるスクリーンS上の画素値は、最終的には平均化されて1つの投影画像を構成する画素値が得られることになる。ここでは、まず、スクリーンSからの視線方向がスクリーンSに対して垂直である場合について説明する。
【0020】
この場合、ある破片上の画素は、(x,y)座標値が同一であるスクリーンS上の画素に投影されることになるが、このときスクリーン上の画素の画素値VHは以下の(数式1)で算出される。
【0021】
(数式1)
H = T ×(DO /DF )×VO
T:減衰率
【0022】
ただし、上記(数式1)において、DOはスクリーンSから破片上の画素VOまでの距離、DFはスクリーンSから焦点面までの距離を示す。上記(数式1)は、破片上の画素が焦点面に近い程、本来の画素値に近付き、焦点面から遠ざかる程、ぼけていくことを示している。また、破片は三次元空間内にランダムに配置されるため、スクリーンSからの視線上で重なる破片については、最もスクリーンSに近い破片だけが見えることになる。これは、単純に両破片のz座標同士を比較し、スクリーンSに近いものを生かすことにより表現できる。
【0023】
さらに、スクリーンS上の画素値はこれだけで決定されるのではなく、媒質による減衰分も考慮されて決定されることになる。媒質の画素値をVBとし、合成のための透過率をα(ただし、0≦α≦1)とすると、スクリーンS上の画素値Vは以下に示す(数式2)により算出される。このとき、媒質の画素値VBは、スクリーン上に生成された媒質ポリゴン上の画素値が採用される。
【0024】
(数式2)
V = α×VH + (1−α)× VB
【0025】
この(数式2)からわかるように、透過率αの値を大きくすればする程、本来の色が表現され、透過率αの値を小さくすればする程、媒質色の影響が強くなる。
【0026】
視線方向を変えた場合にも同様に投影が行なわれる。例えば、視線角度θで正射影を行なう場合、その視線角度θは、以下の(数式3)により算出される。
【0027】
(数式3)
θ = θmax × γ1
【0028】
上記(数式3)において、θmaxはステップS1において設定された視線移動最大角度を示し、γ1は0.0〜1.0の範囲の値になるように発生される乱数を示す。
【0029】
この視線角度θに基づいて、三次元空間に存在する破片を正射影すると共に媒質の影響を考慮することにより、この視線角度θに対するスクリーンS上の画素が得られる。ここで、ある破片に着目した場合の視線角度θとスクリーンSおよび破片の関係を図5に示す。図中、横軸は図2に示したz軸であるものとする。
図5(a)は視線角度が0°、すなわちスクリーンSと視線方向が垂直である状態を示している。図5(b)(c)は、それぞれ視線角度θだけ視線方向を傾けた状態を示している。図5(a)〜(c)に示すスクリーンおよび破片は全て同位置に存在するものであるが、視線角度が異なるため、スクリーンに投影される破片の様子は異なるものになる。図5(a)〜(c)のスクリーンに投影される破片の様子をそれぞれ図6(a)〜(c)に示す。図6(a)では、オブジェクトはスクリーンの中央に投影されているが、図6(b)ではスクリーン下方、図6(c)ではスクリーン上方にそれぞれ投影されていることがわかる。
【0030】
ステップS5における正射影は、ステップS2において設定された視線方向設定数だけ行なわれる。すなわち、視線方向設定数分のレンダリング結果が得られることになる。最終的に得られる投影画像は、これらのレンダリング結果を平均化したものである。ここで、ステップS5における処理手順の詳細を図7のフローチャートに基づいて説明する。まず、上述のように(数式3)を用いて視線角度θを算出する(ステップS11)。
【0031】
続いて、視線角度θを傾ける方向を決定するためのスクリーン平面内における視線ベクトル(Vx,Vy)を以下の(数式4)により算出する(ステップS12)。
【0032】
(数式4)
Vx=sinφ
Vy=cosφ
ただし、φ=360°×γ2
【0033】
上記(数式4)においてγ2は0.0〜1.0の範囲の値になるように発生される乱数を示す。このようにして、視線角度θ、および視線ベクトル(Vx,Vy)が定まると、正射影を行なうための視線方向が1方向に特定されるので、特定された視線方向からスクリーンへの正射影、すなわち、スクリーンへのレンダリングを行なう。これは、具体的には上記(数式1)および(数式2)を用いて行われるが、視線方向θ=0°以外の場合は、距離の算出に三次元のそれぞれの座標における位置計算が必要となるため、演算負荷が大きくなる。そこで、本発明では、この演算負荷を削減するために、レンダリング処理を行う前に、距離を1つの座標軸で算出可能なように破片の位置座標の変換を行う(ステップS13)。
【0034】
具体的には、各破片がポリゴンで構成されているため、このポリゴンの各頂点の座標値を以下の(数式5)(数式6)により変換する。
【0035】
(数式5)
K = tanθ × abs(L−Z)
【0036】
上記(数式5)は移動量Kを算出するためのものであり、Lは投影面のz座標値、Zはポリゴンのz座標値、absは絶対値を取ることを示す。
【0037】
(数式6)
Mx= Vx × K
My= Vy × K
【0038】
上記(数式6)は(数式5)で算出した移動量Kを用いてx座標、y座標の移動量Mx、Myをそれぞれ算出するものである。この結果、各ポリゴンの頂点の座標値(X、Y、Z)は、仮想的な座標値(X+Mx,Y+My,Z)に変換される。
【0039】
このようなステップS13における座標変換処理は、各破片を構成する各ポリゴンの各頂点について行われる。これにより、仮想的な三次元空間における座標値が作成されることになる。例えば、図8(a)に示すような状態でポリゴンが存在している場合、図8(b)に示すような状態に変換されることになる。これにより、破片を構成するポリゴンのある頂点A(X,Y,Z)はA´(X+Mx,Y+My,Z)に移動することになる。このように変換することにより、z軸方向(図8では左右方向)の値の差がそのまま投影面との距離となる。
【0040】
続いて、この仮想的な座標値に基づいて、(数式1)(数式2)を用いることにより、スクリーンS上の画素の画素値Vが算出される。このとき、(数式1)において画素値VHの算出のための距離DO、距離DFは共に仮想的な空間におけるz座標値だけを用いれば良いので演算負荷が大幅に削減され、高速に処理を行うことが可能となる。この画素値の集合がその視線方向の場合のレンダリング結果となる(ステップS14)。
【0041】
スクリーンSへのレンダリング結果は、画像メモリに記録される(ステップS15)。この場合、最初のレンダリング結果はそのまま画像メモリに書き込まれる。2つ目以降のレンダリング結果は、それ以前に画像メモリに書き込まれていた内容を含めた複数回のレンダリング結果に加算されて、それまでの平均値として書き込まれるようになっている。例えば、2回目のレンダリング結果は、既に画像メモリに記録されている1回目のレンダリング結果と各画素ごとに加算して2で割ることにより平均値を算出し、それを2回目までのレンダリング平均として画像メモリの内容を更新する。3回目のレンダリング結果は、2回目までのレンダリング平均を2倍したものと各画素ごとに加算した後、3で割ることにより過去3回目までの平均値を算出し、それを3回目までのレンダリング平均として画像メモリの内容を更新する。これを一般化すると、n回目のレンダリング結果は、(n−1)回目までのレンダリング平均を(n−1)倍したものと各画素ごとに加算した後、nで割ることにより過去n回目までの平均値を算出し、それをn回目までのレンダリング平均として画像メモリの内容を更新することになる。すなわち、ステップS15の処理が終了した時点では常に、画像メモリにはそれまでのレンダリング結果の平均が記録されていることになる。
【0042】
ステップS15においてレンダリング結果の平均値が記録されると、ステップS11〜ステップS15までの処理を行なった回数が、視線角度設定数Nに達したかどうかが判断される(ステップS16)。N回実行していれば終了し、N回実行していなければ、ステップS11に戻って処理を続けることになる。ステップS15においてYESと判断されたら、画像メモリに記録されているそれまでのレンダリング結果が投影画像とされることになる。
【0043】
図7のフローチャートを用いて説明したような処理により、ステップS5の正射影による投影画像の作成処理が実行される。これにより所望の投影画像が得られることになる。
【0044】
本発明では、レンダリング用の画像メモリのサイズに制限がある場合にも、精度の高いレンダリングが可能なように工夫を行っている。次に、このような場合について図9のフローチャートを用いて説明する。まず、レンダリング範囲の分割を行う(ステップS21)。これは、作成する単位画像の大きさにもよるが、ここでは、縦2×横2の4分割を行うものとする。図2の例で説明したようにスクリーンSのサイズがw画素(x方向)×h画素(y方向)の場合、1つのレンダリング範囲は、 w/2画素(x方向)×h/2画素(y方向)となる。
【0045】
続くステップS22からステップS24までの処理は分割された各レンダリング範囲について行われる。まず、1つのレンダリング範囲内に完全に含まれる破片のポリゴンにマーキングを行う(ステップS22)。さらに、このレンダリング範囲に含まれると共に、他のレンダリング範囲に含まれる破片、すなわち、複数のレンダリング範囲の境界に掛かる破片のポリゴンについて別のマーキングを行う(ステップS23)。このステップS22、ステップS23におけるレンダリング範囲に含まれるか境界に掛かるかの判断は、視線移動最大角度θmaxを考慮して行われる。つまり、視線移動最大角度θmax分視線を移動してもなおかつレンダリング範囲内に含まれるものをステップS22でマーキングし、視線移動最大角度θmax分視線を移動した場合にレンダリング範囲から外れることがある場合には、ステップS23においてマーキングを行う。
【0046】
続いて、分割投影画像の作成処理を行う(ステップS24)。この具体的な処理としては、図7のフローチャートで説明したのと同様な処理が行われる。1つの分割投影画像が得られたら、この画像は別の記憶領域に保存して画像メモリを使用可能な状態にした後、ステップS22に戻って他のレンダリング範囲について同様な処理を行う。ただし、2番目以降のレンダリング範囲については、ステップS24における処理が異なってくる。2番目以降の場合、レンダリング境界に掛かる破片のポリゴンについては、既に処理されたものについては、再び処理を行わないようにする。既に処理されたものかどうかは、ステップS23により行われたマーキングにより判断が可能となる。以上のようにして、全てのレンダリング範囲について分割投影画像が得られたら、分割投影画像の統合を行って、最終的な投影画像を得る(ステップS25)。
【0047】
(装置構成)
次に、上記模様画像作成方法を実行するための装置構成について説明する。図10は、本発明による模様画像作成装置の構成図である。図10において、パラメータ入力手段1は、図1のステップS1およびステップS2を実行するためのものであり、マウスやキーボード等で実現できる。
【0048】
破片生成手段2は、図1のステップS3を実行するためのものであり、パラメータ入力手段1より入力されたパラメータに従って、設定された三次元空間内に破片を配置する機能を有する。媒質ポリゴン生成手段3は、図1のステップS4を実行するためのものであり、指定された色もしくはテクスチャを貼り付ける機能を有する。
【0049】
投影手段4は、図1のステップS5を実行するためのものであり、座標変換手段5によりステップS13の座標変換処理が施された破片を投影することにより、画像メモリ6にレンダリング結果を書き込みながら投影処理を繰り返し行なう機能を有する。破片生成手段2、媒質ポリゴン生成手段3、投影手段4、座標変換手段5の各手段は現実にはコンピュータと、コンピュータに搭載された専用プログラムにより実現され、画像メモリ6はコンピュータ内部に搭載される。
【0050】
出力手段7は、投影手段4による処理の結果得られる投影画像を出力するためのものであり、表示するためのディスプレイ、画像データとして出力するためのFD、MO等が適用できる。
【0051】
【発明の効果】
以上、説明したように本発明によれば、必要なパラメータを入力し、破片の表面に生成する画像を入力し、入力されたパラメータに基づいて三次元空間に破片を生成し、生成された破片に画像を貼り付けた後、画像が貼り付けられた破片を二次元平面に正射影の手法により投影すると共に媒質の透過度を考慮して投影される画素値を算出することにより投影画像を作成するようにしたので、この投影画像を単位画像として繰り返し並べることにより繋ぎ目が目立たない模様画像を作成することが可能になると共に、個性的なデザインの絵柄を破片の表面に有する人工大理石調の模様画像を作成することが可能となるという効果を奏する。
【図面の簡単な説明】
【図1】本発明による模様画像作成方法を示すフローチャートである。
【図2】三次元空間内に設定される投影領域を示す図である。
【図3】破片形状の一例を示す図である。
【図4】ポリゴンにマッピングする絵柄の決定を説明するための図である。
【図5】正射影を行なう場合の視線角度、スクリーン、オブジェクトの関係を示す図である。
【図6】図5に示した関係をスクリーン側から見た状態を示す図である。
【図7】図1のステップS5の処理の詳細を示すフローチャートである。
【図8】図7のステップS13の座標変換処理を説明するための図である。
【図9】画像メモリのサイズに制限がある場合の処理を示すフローチャートである。
【図10】本発明による模様画像作成装置の構成を示す機能ブロック図である。
【図11】透視放射影を行なう場合の画角、焦点面、オブジェクトの関係を示す図である。
【図12】透視放射影を行なう場合の視点位置、レンダリング面、視体積の関係を示す図である。
【符号の説明】
S・・・スクリーン
1・・・パラメータ入力手段
2・・・破片生成手段
3・・・媒質ポリゴン生成手段
4・・・投影手段
5・・・座標変換手段
6・・・画像メモリ
7・・・出力手段
[0001]
[Industrial application fields]
The present invention relates to a technique for creating an image by projecting an object represented in a three-dimensional space onto a two-dimensional plane, and in particular, a pattern for artificially creating a pattern such as artificial marble using such a technique. The present invention relates to an image creation method and apparatus.
[0002]
[Prior art]
Conventionally, various patterns are used to decorate the surface of building material products. Among them, the artificial marble pattern has a high-class feeling and is very popular. In order to create such a pattern of artificial marble, it has been carried out through work such as direct photographing of real artificial marble, but there is a problem that production costs are high and there are no variations . Recently, attempts have been made to artificially generate a marble pattern by computer graphics, but it is difficult to obtain an actual one.
[0003]
In general, the pattern of artificial marble is such that other objects such as pebbles are included in the medium. Since only this surface is visible from the outside, it is thought that the artificial marble pattern can be approximated by an image obtained by projecting an object like a pebble on the surface. Therefore, a technique for projecting an object in a three-dimensional space, that is, a three-dimensional CG (computer graphics) expression technique is used.
[0004]
Here, a three-dimensional CG expression technique will be described. In the three-dimensional CG representation technique, a projection method that takes into account the depth-of-field effect of an object that exists in a three-dimensional space is used in order to express more stereoscopic effect. Depth of field is the distance from the plane in which the viewpoint is in focus, and the depth of field effect refers to the depth of field in an object other than the depth of field in three-dimensional space. This is a technique that gives a sense of realism by blurring according to the difference between the two.
[0005]
A technique for rendering using such a depth-of-field effect is generally realized using a perspective radiation shadow. Here, rendering using a perspective radiation shadow will be described. FIG. 11 is a diagram illustrating the relationship between an object (object), a focal plane, and a viewpoint when performing perspective radiation. As shown in FIG. 11A, a predetermined angle of view is set for the viewpoint, and an object included in the range of the angle of view is projected onto the viewpoint. In FIG. 11A, the focal plane and the viewpoint seem to form a triangle, but since it is actually a three-dimensional space, a cone or pyramid shape with the focal plane as the bottom and the viewpoint as the apex is formed. It is a constituent relationship. The perspective radiation shadow is a method of reflecting color information at each point on a plane parallel to the focal plane in a circular or polygonal shape. By applying this viewpoint to each pixel position, a projection image is obtained.
[0006]
As described above, a projection image is obtained by performing a perspective radiation shadow on each pixel. Actually, in order to improve the accuracy, as shown in FIGS. 11B and 11C, a projection image in a state where the viewpoint position is changed (jitter processing) is obtained, and an average value of these projection images is obtained. Thus, a final projection image is obtained. As the viewpoint position is increased, a more accurate projection image is obtained. By using such a three-dimensional CG expression technique, it is possible to easily create an artificial marble pattern.
[0007]
[Problems to be solved by the invention]
As described above, when creating a marble pattern image by rendering an image of a predetermined size, the technique of the perspective radiation shadow subjected to the jitter processing has a great effect. However, when creating a pattern image or the like, it is common to create a reference unit image and obtain a pattern image of a desired size by repeatedly arranging the unit image vertically and horizontally. . In this way, when the unit image is repeated to create an image of a target size, it is preferable to perform endless processing so that the joint is not noticeable.
[0008]
However, when an endless image in which the same pattern appears repeatedly is generated, in the perspective radiation method, the visual volume (the volume in a three-dimensional space that affects one point on the generated two-dimensional image) is as shown in FIG. Therefore, even if the object arranged in the three-dimensional space is endless, the edges (up and down, left and right) of the rendered image are not connected. For this reason, a preferable endless image cannot be obtained. Also, there is no individual pattern on the surface of the projected object, and the resulting artificial marble pattern is boring.
[0009]
In view of the above points, the present invention can create a pattern image subjected to endless processing by expressing the depth-of-field effect using an orthogonal projection, and has a unique design. It is an object of the present invention to provide a pattern image creating method and apparatus capable of creating a pattern image.
[0010]
[Means for Solving the Problems]
  In order to solve the above problems, in the present invention, a computer generates a fragment in a three-dimensional space based on an input parameter, and pastes the input image on the generated fragment, and then the image is pasted. A projected image is created by projecting the debris onto a two-dimensional plane using the orthogonal projection method and calculating the projected pixel value considering the distance from the focal plane and the transparency of the mediumThe projection image is created by performing rendering a plurality of times by changing the line-of-sight direction and calculating the average of the rendering results obtained by each rendering.It is characterized by doing so. In the present invention, in particular, a projection image is obtained by projecting a fragment generated in a three-dimensional space onto a two-dimensional plane by an orthogonal projection method in consideration of the distance from the focal plane and the transmittance of the medium. Therefore, by repeating this projection image as a unit image, it becomes possible to create a pattern image with inconspicuous joints, and an artificial marble-like pattern image with a unique design pattern on the surface of the fragment It becomes possible to create.
[0011]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
FIG. 1 is a flowchart of a pattern image creating method according to the present invention. First, parameters relating to how fragments are generated in the three-dimensional space are input (step S1). Such parameters include the projection area including the screen size and position, the number of texture groups, the surface texture, the size of the fragments (objects), the shape of the bottom surface of the fragments, the height of the vertices, the arrangement density, and the fragments in the projection area. Set the arrangement range of. The projection area is a three-dimensional area where the unit image is projected by orthographic projection. Here, the size of the screen S that becomes a unit image after projection is assumed to be w pixels (x direction) × h pixels (y direction). Further, the z direction indicates the depth. An example of such a projection area is shown in FIG. The number of texture groups indicates the number of types of texture on the surface of the fragment. For each texture group, the surface texture, the size of the fragment, the shape of the bottom surface of the fragment, the height of the vertex, the arrangement density, and the projection area. The arrangement range of the fragments at is set.
[0012]
The surface texture is the texture of the generated fragment surface, and is set by designating a texture for mapping to the fragment surface. The designation of the texture is performed by designating the ID of a file storing the texture as an image.
[0013]
The three parameters of fragment size, fragment bottom shape, and apex height are for determining the fragment shape. Here, an example of a fragment shape is shown in FIG. The example of FIG. 3 shows a case where the parameter of the shape of the bottom surface of the shard is set to be square. The size of the fragment is a parameter for setting the size of the bottom surface, and the height of the vertex is a parameter for setting the height of the vertex from the bottom surface in the quadrangular pyramid. In the case of the fragment shape as shown in FIG. 3, since the bottom surface is a quadrangle, it can be composed of at least two triangular polygons, and since the side surface is triangular, it can be composed of at least one triangular polygon. That is, the shape of the quadrangular pyramid shown in FIG. 3 can be composed of at least five triangular polygons.
[0014]
The arrangement range is a parameter for setting a range in which fragments are arranged in the projection area shown in FIG. This arrangement range is set by the z coordinate. FIG. 2B shows an arrangement range when the z coordinate is set to a predetermined range. In FIG. 2B, the inside of the shaded rectangular parallelepiped is the arrangement range. The arrangement density is a parameter that sets the density of the pieces arranged within the arrangement range.
[0015]
Subsequently, parameters relating to how to perform the rendering process for projecting the fragments in the three-dimensional space onto the two-dimensional plane are input (step S2). Such parameters include focal plane placement position, line-of-sight direction setting number N, line-of-sight movement maximum angle θ.maxSet. Further, since the focal plane is arranged in parallel with the screen S, the arrangement position of the focal plane is set by the distance from the screen S. The line-of-sight direction setting number N is the number of line-of-sight direction settings for performing projection, and projection is performed from different directions by the set number to determine the pixel value on the screen S. Maximum line-of-sight movement angle θmaxIndicates the maximum angle at which the line-of-sight direction can be tilted when the line-of-sight direction and the screen S plane are perpendicular to each other.
[0016]
Next, fragments are generated in the three-dimensional space (step S3). This is generated for each texture group with the density set in the arrangement area where the pieces of the set shape are set. Also, the specified texture image is mapped, that is, pasted to each polygon constituting the generated fragment.
[0017]
A texture image mapping method will be described with reference to FIG.
First, as the texture image, an image larger than the polygon constituting the generated fragment is prepared. In the example of FIG. 4, the texture image has a size of vertical IY × horizontal IX. First, for a certain polygon, one point A (x, y) is randomly selected as shown in FIG. This is done by generating random numbers in the range of 0 ≦ x ≦ IX and 0 ≦ y ≦ IY. With respect to the selected point A (x, y), the positional relationship between the points B and C on the texture image is determined as shown in FIG. When both the points B and C fit on the texture image, the pattern determined by the three points ABC is cut out and pasted on the polygon. As shown in FIG. 4C, when either point B or point C protrudes from the texture image area, positioning of point A is performed again. The pattern to be pasted is determined for all the polygons generated as described above.
[0018]
Next, a medium polygon is generated (step S4). The medium polygon has the same size as the screen S and is generated at the same position as the screen S. That is, since the screen S has a rectangular shape, the screen S can be composed of two triangular polygons. A medium texture prepared in advance can be attached to the medium polygon. However, in this embodiment, in order to make the medium uniform, the medium polygon is set to have a uniform color over the entire surface.
[0019]
Next, orthographic projection of the fragments on the screen S is performed to determine the color of each pixel on the screen (step S5). A plurality of line-of-sight directions for orthographic projection in step S5 are set, and a pixel value on the screen S is determined for each line-of-sight direction. The pixel values on the screen S obtained for each line-of-sight direction are finally averaged to obtain pixel values constituting one projection image. Here, a case where the line-of-sight direction from the screen S is perpendicular to the screen S will be described first.
[0020]
In this case, a pixel on a certain fragment is projected onto a pixel on the screen S having the same (x, y) coordinate value. At this time, the pixel value V of the pixel on the screen is displayed.HIs calculated by the following (Formula 1).
[0021]
(Formula 1)
VH = T x (DO / DF) × VO
T: Decay rate
[0022]
However, in the above (Formula 1), DOIs the pixel V on the shard from the screen SODistance to DFIndicates the distance from the screen S to the focal plane. The above (Equation 1) indicates that the closer the pixel on the fragment is to the focal plane, the closer to the original pixel value, and the farther away from the focal plane, the more blurred the pixel. Further, since the fragments are randomly arranged in the three-dimensional space, only the fragments closest to the screen S can be seen with respect to the fragments overlapping on the line of sight from the screen S. This can be expressed by simply comparing the z-coordinates of both pieces and utilizing the one close to the screen S.
[0023]
Furthermore, the pixel value on the screen S is not determined only by this, but is determined in consideration of the attenuation due to the medium. Set the pixel value of the medium to VBAssuming that the transmittance for synthesis is α (where 0 ≦ α ≦ 1), the pixel value V on the screen S is calculated by the following (Formula 2). At this time, the pixel value V of the mediumBThe pixel value on the medium polygon generated on the screen is adopted.
[0024]
(Formula 2)
V = α x VH + (1-α) x VB
[0025]
As can be seen from (Equation 2), the larger the value of the transmittance α, the more the original color is expressed, and the smaller the value of the transmittance α, the stronger the influence of the medium color.
[0026]
The projection is performed in the same manner when the viewing direction is changed. For example, when the orthogonal projection is performed at the line-of-sight angle θ, the line-of-sight angle θ is calculated by the following (Formula 3).
[0027]
(Formula 3)
θ = θmax  × γ1
[0028]
In the above (Formula 3), θmaxIndicates the maximum line-of-sight movement angle set in step S1, and γ1Indicates a random number generated to have a value in the range of 0.0 to 1.0.
[0029]
Based on this viewing angle θ, the pixels on the screen S with respect to the viewing angle θ can be obtained by orthogonally projecting the fragments present in the three-dimensional space and considering the influence of the medium. Here, FIG. 5 shows the relationship between the line-of-sight angle θ, the screen S, and fragments when attention is paid to a certain fragment. In the figure, the horizontal axis is the z-axis shown in FIG.
FIG. 5A shows a state in which the viewing angle is 0 °, that is, the viewing direction is perpendicular to the screen S. FIGS. 5B and 5C show states in which the viewing direction is inclined by the viewing angle θ. Although the screens and pieces shown in FIGS. 5A to 5C are all present at the same position, since the viewing angles are different, the state of the pieces projected on the screen is different. The state of the fragments projected on the screens of FIGS. 5A to 5C are shown in FIGS. In FIG. 6A, the object is projected on the center of the screen, but in FIG. 6B, it is seen that the object is projected below the screen, and in FIG. 6C, it is projected above the screen.
[0030]
Orthographic projection in step S5 is performed for the set number of line-of-sight directions set in step S2. That is, as many rendering results as the number of gaze direction settings are obtained. The finally obtained projection image is an average of these rendering results. Here, details of the processing procedure in step S5 will be described based on the flowchart of FIG. First, as described above, the line-of-sight angle θ is calculated using (Equation 3) (step S11).
[0031]
Subsequently, the line-of-sight vector (Vx, Vy) in the screen plane for determining the direction in which the line-of-sight angle θ is inclined is calculated by the following (Formula 4) (Step S12).
[0032]
(Formula 4)
Vx = sinφ
Vy = cosφ
However, φ = 360 ° × γ2
[0033]
In the above (Equation 4), γ2Indicates a random number generated to have a value in the range of 0.0 to 1.0. In this way, when the line-of-sight angle θ and the line-of-sight vector (Vx, Vy) are determined, the line-of-sight direction for performing the orthogonal projection is specified as one direction, and thus the orthogonal projection from the specified line-of-sight direction to the screen, That is, rendering on the screen is performed. Specifically, this is performed using the above (Formula 1) and (Formula 2), but when the line-of-sight direction θ is not 0 °, position calculation at each of the three-dimensional coordinates is necessary for calculating the distance. Therefore, the calculation load increases. Therefore, in the present invention, in order to reduce this calculation load, before the rendering process is performed, the position coordinates of the fragments are converted so that the distance can be calculated with one coordinate axis (step S13).
[0034]
Specifically, since each piece is composed of a polygon, the coordinate value of each vertex of the polygon is converted by the following (Equation 5) and (Equation 6).
[0035]
(Formula 5)
K = tan θ × abs (L−Z)
[0036]
The above (Equation 5) is for calculating the movement amount K, L indicates the z coordinate value of the projection plane, Z indicates the z coordinate value of the polygon, and abs indicates the absolute value.
[0037]
(Formula 6)
Mx = Vx × K
My = Vy × K
[0038]
The above (Equation 6) calculates the movement amounts Mx and My of the x coordinate and the y coordinate using the movement amount K calculated in (Equation 5). As a result, the coordinate values (X, Y, Z) of the vertices of each polygon are converted into virtual coordinate values (X + Mx, Y + My, Z).
[0039]
Such coordinate conversion processing in step S13 is performed for each vertex of each polygon constituting each piece. As a result, coordinate values in a virtual three-dimensional space are created. For example, when a polygon exists in a state as shown in FIG. 8A, it is converted into a state as shown in FIG. As a result, the vertex A (X, Y, Z) having the polygon constituting the fragment moves to A ′ (X + Mx, Y + My, Z). By converting in this way, the difference between the values in the z-axis direction (left-right direction in FIG. 8) becomes the distance from the projection plane as it is.
[0040]
Subsequently, the pixel value V of the pixel on the screen S is calculated by using (Equation 1) and (Equation 2) based on this virtual coordinate value. At this time, the pixel value V in (Formula 1)HDistance D for calculationO, Distance DFBoth need only use z-coordinate values in a virtual space, so that the calculation load is greatly reduced and processing can be performed at high speed. This set of pixel values is the rendering result when the line-of-sight direction is set (step S14).
[0041]
The result of rendering on the screen S is recorded in the image memory (step S15). In this case, the first rendering result is written in the image memory as it is. The second and subsequent rendering results are added to a plurality of rendering results including the contents previously written in the image memory, and are written as an average value so far. For example, the second rendering result is calculated by adding the first rendering result already recorded in the image memory to each pixel and dividing by two, and calculating the average value up to the second rendering average. Update the contents of the image memory. The result of the third rendering is the result of adding the average of rendering up to the second to twice and each pixel, then dividing by 3 to calculate the average up to the third time, and then rendering up to the third Update the contents of the image memory as an average. When this is generalized, the nth rendering result is obtained by adding the average of rendering up to the (n-1) th to (n-1) times for each pixel and then dividing by n until the past nth. And the content of the image memory is updated by using the average value of n as the rendering average up to the nth time. That is, whenever the processing in step S15 ends, the average of the rendering results so far is recorded in the image memory.
[0042]
When the average value of the rendering results is recorded in step S15, it is determined whether or not the number of times of performing the processing from step S11 to step S15 has reached the line-of-sight angle setting number N (step S16). If it has been executed N times, the process ends. If it has not been executed N times, the process returns to step S11 to continue the process. If YES is determined in the step S15, the rendering result so far recorded in the image memory is used as the projection image.
[0043]
Through the processing described with reference to the flowchart of FIG. 7, the projection image creation processing by orthographic projection in step S5 is executed. Thereby, a desired projection image is obtained.
[0044]
In the present invention, even when the size of the image memory for rendering is limited, the invention is devised so that highly accurate rendering is possible. Next, such a case will be described with reference to the flowchart of FIG. First, the rendering range is divided (step S21). This depends on the size of the unit image to be created, but here, it is assumed that 4 divisions of 2 × 2 are performed. As described in the example of FIG. 2, when the size of the screen S is w pixels (x direction) × h pixels (y direction), one rendering range is w / 2 pixels (x direction) × h / 2 pixels ( y direction).
[0045]
The subsequent processing from step S22 to step S24 is performed for each of the divided rendering ranges. First, marking is performed on a polygon of a fragment completely included in one rendering range (step S22). Further, another marking is performed on the fragments included in the rendering range and included in the other rendering ranges, that is, the polygons of the fragments that fall on the boundaries of the plurality of rendering ranges (step S23). The determination as to whether the image is included in the rendering range in step S22 or step S23 or whether it falls on the boundary is the maximum line-of-sight movement angle θmaxIs taken into consideration. That is, the maximum line-of-sight movement angle θmaxEven if the line of sight is moved, it is marked in step S22 in the rendering range, and the line-of-sight movement maximum angle θ is marked.maxIf there is a case where the line of sight is moved and there is a case where it is out of the rendering range, marking is performed in step S23.
[0046]
Subsequently, a divided projection image creation process is performed (step S24). As this specific process, the same process as described in the flowchart of FIG. 7 is performed. When one divided projection image is obtained, this image is stored in another storage area to make the image memory usable, and the process returns to step S22 to perform the same processing for the other rendering ranges. However, the processing in step S24 is different for the second and subsequent rendering ranges. In the second and subsequent cases, regarding the polygons of the fragments on the rendering boundary, those already processed are not processed again. Whether or not it has already been processed can be determined by the marking performed in step S23. As described above, when the divided projection images are obtained for the entire rendering range, the divided projection images are integrated to obtain a final projection image (step S25).
[0047]
(Device configuration)
Next, an apparatus configuration for executing the pattern image creation method will be described. FIG. 10 is a block diagram of a pattern image creating apparatus according to the present invention. In FIG. 10, the parameter input means 1 is for executing step S1 and step S2 of FIG. 1, and can be realized by a mouse, a keyboard, or the like.
[0048]
The fragment generation means 2 is for executing step S3 of FIG. 1, and has a function of arranging the fragments in the set three-dimensional space according to the parameters input from the parameter input means 1. The medium polygon generating means 3 is for executing step S4 in FIG. 1, and has a function of pasting a designated color or texture.
[0049]
The projecting means 4 is for executing step S5 in FIG. 1. While projecting the pieces subjected to the coordinate transformation processing of step S13 by the coordinate transformation means 5, the rendering result is written in the image memory 6. It has a function of repeatedly performing projection processing. Each of the fragment generation means 2, medium polygon generation means 3, projection means 4, and coordinate conversion means 5 is actually realized by a computer and a dedicated program installed in the computer, and the image memory 6 is installed inside the computer. .
[0050]
The output means 7 is for outputting a projection image obtained as a result of the processing by the projection means 4, and a display for display, FD, MO, etc. for outputting as image data can be applied.
[0051]
【The invention's effect】
As described above, according to the present invention, the necessary parameters are input, the image to be generated on the surface of the fragments is input, the fragments are generated in the three-dimensional space based on the input parameters, and the generated fragments After the image is pasted on, a projected image is created by projecting the fragment with the image pasted onto a two-dimensional plane by orthographic projection and calculating the projected pixel value considering the transparency of the medium Since this projection image is repeatedly arranged as a unit image, it becomes possible to create a pattern image with inconspicuous joints, and an artificial marble tone with a unique design pattern on the surface of the fragment There is an effect that a pattern image can be created.
[Brief description of the drawings]
FIG. 1 is a flowchart showing a pattern image creating method according to the present invention.
FIG. 2 is a diagram showing a projection area set in a three-dimensional space.
FIG. 3 is a diagram showing an example of a fragment shape.
FIG. 4 is a diagram for explaining determination of a pattern to be mapped to a polygon.
FIG. 5 is a diagram illustrating a relationship between a line-of-sight angle, a screen, and an object when performing orthographic projection.
6 is a diagram illustrating a state where the relationship illustrated in FIG. 5 is viewed from the screen side.
FIG. 7 is a flowchart showing details of the process in step S5 of FIG. 1;
FIG. 8 is a diagram for explaining the coordinate conversion processing in step S13 of FIG. 7;
FIG. 9 is a flowchart illustrating processing when the size of the image memory is limited.
FIG. 10 is a functional block diagram showing a configuration of a pattern image creating apparatus according to the present invention.
FIG. 11 is a diagram illustrating a relationship between an angle of view, a focal plane, and an object when performing perspective radiation.
FIG. 12 is a diagram illustrating a relationship between a viewpoint position, a rendering plane, and a viewing volume when performing perspective radiation.
[Explanation of symbols]
S ... Screen
1 ... Parameter input means
2 ... Fragment generating means
3 ... Medium polygon generating means
4 ... Projection means
5. Coordinate conversion means
6 ... Image memory
7 ... Output means

Claims (5)

コンピュータが、入力されたパラメータに基づいて三次元空間に破片を生成する段階と、前記生成された破片に、入力された画像を貼り付ける段階と、前記画像が貼り付けられた破片を二次元平面に正射影の手法により投影すると共に、焦点面からの距離および媒質の透過度を考慮して投影される画素値を算出することにより投影画像を作成する投影画像作成段階と、を実行し、
前記投影画像作成段階は、視線方向を変化させることにより複数回レンダリングを行ない、それぞれのレンダリングにより得られるレンダリング結果の平均を算出することにより、投影画像を作成するものであることを特徴とする模様画像作成方法。
A computer generates a fragment in a three-dimensional space based on the input parameters, a step of pasting the input image on the generated fragment, and a two-dimensional plane of the fragment on which the image is pasted A projection image creation step of creating a projection image by calculating a pixel value to be projected in consideration of the distance from the focal plane and the transparency of the medium ,
The projection image creating step is characterized in that the projection image is created by performing rendering a plurality of times by changing the line-of-sight direction and calculating an average of rendering results obtained by each rendering. Image creation method.
前記投影画像作成段階は、入力されたパラメータに基づいて視線方向を決定し、この視線方向に基づいて前記生成された破片の三次元空間における座標を変換した後、正射影の手法により投影を行うものであることを特徴とする請求項1に記載の模様画像作成方法。  In the projection image creation step, the line-of-sight direction is determined based on the input parameters, and after the coordinates of the generated fragment in the three-dimensional space are converted based on the line-of-sight direction, projection is performed by an orthographic projection method. The pattern image creating method according to claim 1, wherein the pattern image creating method is a method. 前記座標の変換は、三次元空間における破片の座標を、前記視線方向を決定する視線角度および視線ベクトルを用いて、投影面からの距離方向を1つの座標軸とする三次元空間における座標に変換するものであることを特徴とする請求項2に記載の模様画像作成方法。  In the coordinate conversion, the coordinates of the fragments in the three-dimensional space are converted into coordinates in the three-dimensional space with the distance direction from the projection plane as one coordinate axis using the line-of-sight angle and the line-of-sight vector that determine the line-of-sight direction. The pattern image creating method according to claim 2, wherein the pattern image creating method is one. 必要なパラメータを入力すると共に破片の表面に生成する画像を設定するパラメータ入力手段と、入力されたパラメータに基づいて三次元空間に破片を生成すると共に生成された破片に前記設定された画像を貼り付ける破片生成手段と、入力されたパラメータに基づいて視線方向を決定し、この視線方向に基づいて前記破片の三次元空間における座標を変換する座標変換手段と、前記座標変換された破片を二次元平面に正射影の手法により投影すると共に、焦点面からの距離および媒質の透過度を考慮して投影される画素値を算出することにより投影画像を作成する投影手段と、を有し、
前記投影手段は、レンダリング結果を書き込むための画像メモリを備え、視線方向を変化させることにより複数回レンダリングを行ない、それぞれのレンダリングにより得られるレンダリング結果を、それまでのメモリへの書込み回数により平均値を取りながら前記画像メモリに上書きしていくことにより投影画像を作成するものであることを特徴とする模様画像作成装置。
Parameter input means for inputting necessary parameters and setting an image to be generated on the surface of the fragment, and generating the fragment in the three-dimensional space based on the input parameter and pasting the set image on the generated fragment A debris generation unit to be attached, a line-of-sight direction based on the input parameters, a coordinate conversion unit for converting coordinates in the three-dimensional space of the debris based on the line-of-sight direction, and the coordinate-converted debris in two dimensions while projected by orthogonal projection method in a plane, it possesses a projection means for creating a projection image by calculating a pixel value projected by considering the permeability of the distance and the medium from the focal plane, and
The projection unit includes an image memory for writing a rendering result, performs rendering a plurality of times by changing the line-of-sight direction, and averages the rendering results obtained by each rendering based on the number of times of writing to the memory so far. A pattern image creating apparatus for creating a projected image by overwriting the image memory while taking a picture .
前記座標変換手段は、三次元空間における破片の座標を、前記視線方向を決定する視線角度および視線ベクトルを用いて、投影面からの距離方向を1つの座標軸とする三次元空間における座標に変換するものであることを特徴とする請求項に記載の模様画像作成装置。The coordinate conversion means converts the coordinates of the fragments in the three-dimensional space into coordinates in the three-dimensional space with the distance direction from the projection plane as one coordinate axis, using the line-of-sight angle and the line-of-sight vector that determine the line-of-sight direction. The pattern image creating apparatus according to claim 4 , wherein the pattern image creating apparatus is a thing.
JP2001156758A 2001-05-25 2001-05-25 Pattern image creating method and apparatus Expired - Fee Related JP4736239B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001156758A JP4736239B2 (en) 2001-05-25 2001-05-25 Pattern image creating method and apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001156758A JP4736239B2 (en) 2001-05-25 2001-05-25 Pattern image creating method and apparatus

Publications (2)

Publication Number Publication Date
JP2002352264A JP2002352264A (en) 2002-12-06
JP4736239B2 true JP4736239B2 (en) 2011-07-27

Family

ID=19000725

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001156758A Expired - Fee Related JP4736239B2 (en) 2001-05-25 2001-05-25 Pattern image creating method and apparatus

Country Status (1)

Country Link
JP (1) JP4736239B2 (en)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH087124A (en) * 1994-06-17 1996-01-12 Hitachi Ltd Image simulating system
JP2001016508A (en) * 1999-06-30 2001-01-19 Toshiba Corp Solid-state image pickup device
JP2001022944A (en) * 1999-07-05 2001-01-26 Dainippon Printing Co Ltd Method and device for producing stone pattern
JP2001043394A (en) * 1999-08-03 2001-02-16 Dainippon Printing Co Ltd Image display method and device
JP2002216150A (en) * 2001-01-15 2002-08-02 Dainippon Printing Co Ltd Image creating method and its device
JP2002304635A (en) * 2001-04-03 2002-10-18 Dainippon Printing Co Ltd Method and device for pattern image generation

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH087124A (en) * 1994-06-17 1996-01-12 Hitachi Ltd Image simulating system
JP2001016508A (en) * 1999-06-30 2001-01-19 Toshiba Corp Solid-state image pickup device
JP2001022944A (en) * 1999-07-05 2001-01-26 Dainippon Printing Co Ltd Method and device for producing stone pattern
JP2001043394A (en) * 1999-08-03 2001-02-16 Dainippon Printing Co Ltd Image display method and device
JP2002216150A (en) * 2001-01-15 2002-08-02 Dainippon Printing Co Ltd Image creating method and its device
JP2002304635A (en) * 2001-04-03 2002-10-18 Dainippon Printing Co Ltd Method and device for pattern image generation

Also Published As

Publication number Publication date
JP2002352264A (en) 2002-12-06

Similar Documents

Publication Publication Date Title
US10083538B2 (en) Variable resolution virtual reality display system
TW514836B (en) Filter for transforming 3D data in a hardware accelerated rendering architecture
EP1064619B1 (en) Stochastic level of detail in computer animation
JP3294149B2 (en) Three-dimensional texture mapping processing device and three-dimensional image generation device using the same
JP4680796B2 (en) Image base protrusion displacement mapping method and double displacement mapping method using the method
US7446778B2 (en) Dynamically adjusted brush for direct paint systems on parameterized multi-dimensional surfaces
US20060077208A1 (en) Method of creating texture capable of continuous mapping
Brosz et al. Single camera flexible projection
JPH10198822A (en) Image compositing device
US9401044B1 (en) Method for conformal visualization
JP3453119B2 (en) Information storage medium and game device
KR100489572B1 (en) Image processing method
KR101118597B1 (en) Method and System for Rendering Mobile Computer Graphic
JP4736239B2 (en) Pattern image creating method and apparatus
JP4668447B2 (en) Pattern image creating method and apparatus
JP6062589B1 (en) Program, information processing apparatus, influence derivation method, image generation method, and recording medium
WO2008147999A1 (en) Shear displacement depth of field
JP3144637B2 (en) 3D rendering method
JP4970583B2 (en) Information storage medium and game device
JP4688407B2 (en) Information storage medium and game device
JP2002230579A (en) Method and device for creating image
JP3867071B2 (en) Image processing apparatus and image processing method
JP2005322097A (en) Device, method and program for displaying animation of object image model
Zheng et al. Interactive Design and Optics-Based Visualization of Arbitrary Non-Euclidean Kaleidoscopic Orbifolds
Okuya et al. Reproduction of perspective in cel animation 2D composition for real-time 3D rendering

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080521

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100928

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101006

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101201

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110119

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110317

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110405

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110418

R150 Certificate of patent or registration of utility model

Ref document number: 4736239

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140513

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees