JP4230051B2 - Image generation method - Google Patents

Image generation method Download PDF

Info

Publication number
JP4230051B2
JP4230051B2 JP14346799A JP14346799A JP4230051B2 JP 4230051 B2 JP4230051 B2 JP 4230051B2 JP 14346799 A JP14346799 A JP 14346799A JP 14346799 A JP14346799 A JP 14346799A JP 4230051 B2 JP4230051 B2 JP 4230051B2
Authority
JP
Japan
Prior art keywords
image
setting
dimensional image
area
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP14346799A
Other languages
Japanese (ja)
Other versions
JP2000331196A (en
Inventor
陽介 黒田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Namco Ltd
Bandai Namco Entertainment Inc
Original Assignee
Namco Ltd
Namco Bandai Games Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Namco Ltd, Namco Bandai Games Inc filed Critical Namco Ltd
Priority to JP14346799A priority Critical patent/JP4230051B2/en
Publication of JP2000331196A publication Critical patent/JP2000331196A/en
Application granted granted Critical
Publication of JP4230051B2 publication Critical patent/JP4230051B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Description

【0001】
【発明の属する技術分野】
本発明は、仮想的な三次元空間内に配置されたオブジェクトを所定の視点位置から見たときに得られる二次元画像を生成する画像生成方式に関する。
【0002】
【従来の技術】
最近では、パーソナルコンピュータ等を用いて、仮想的な三次元空間(以後、「オブジェクト空間」と称する)内に配置された三次元物体(以後、「3Dモデル」と称する)であるオブジェクトを所定の視点位置から見たときに得られる二次元画像を生成するコンピュータグラフィックス(以後、「CG」と称する)の手法が汎用されている。
【0003】
具体的なCG画像の生成は以下のようにして行われる。まず、モデリング工程において、オブジェクト空間内に配置される3Dモデルの特定が行われる。例えば、3Dモデルの形状が設定された後、各3Dモデルの表面の属性が設定される。次に、レイアウト工程において、オブジェクト空間内における各3Dモデルの位置、光源の位置、視点位置のそれぞれが設定される。その後、レンダリング処理が行われ、所望の視点位置から3Dモデルを見たときに得られる二次元画像としてのCG画像が生成される。
【0004】
上述したCG画像は、通常は矩形形状で出力されることが多いが、用途によってはその一部が任意の形状に切り出されて使用される。例えば、ポスター等において、任意の閉曲線で囲まれた複数の窓のそれぞれに別々のCG画像を対応させる場合や、漫画雑誌の各ページにおいて、任意形状の領域を組み合わせて全体として各ページの紙面形状に収まるようにするコマ割りを行って、各コマ毎に異なるCG画像を対応させる場合がこれにあたる。
【0005】
図8は、漫画雑誌等の各ページにおいて複数の非矩形領域からなるコマ割りを行って、それぞれの非矩形領域に対応するCG画像をはめ込む場合の動作手順を示す流れ図である。例えば、一つのオブジェクト空間内に配置された1あるいは複数の3Dモデルがある場合に、このオブジェクト空間内に複数の視点位置を設定して生成されたCG画像のそれぞれを異なる非矩形領域に対応させてはめ込む場合の動作が示されている。なお、オブジェクト空間内の各3Dモデルの形状や表面属性を設定するモデリング工程と、オブジェクト空間における各3Dモデルの配置や光源位置を設定する一部のレイアウト工程が既に実施されているものとする。
【0006】
まず、あらかじめ作成された絵コンテにあわせて、1ページの紙面に含まれる複数の領域を設定するコマ割りの作業が行われる(ステップ500)。次に、各領域毎に、適正であると予想されるレイアウト作業が行われる(ステップ501)。このレイアウト作業では、利用者の指示に応じて、各領域毎に視点位置が設定される。このようにして残りのレイアウト工程が終了した後、各領域毎のレンダリング処理が行われる(ステップ502)。このようにして各領域に対応したCG画像が生成される。なお、これらの各CG画像は、所定の縦横比を有する矩形形状に形成される。
【0007】
次に、それぞれの領域に対応する形状に各CG画像の切り出しが行われ(ステップ503)、その後、各領域に対応して生成されたCG画像の内容が、利用者が意図したものに合致しているか否かが判定される(ステップ504)。利用者が意図したものでない場合には上述したステップ501に戻って、再度のレイアウト作業が繰り返される。また、利用者が意図したCG画像が生成された場合には、切り出されたそれぞれのCG画像を合成した1ページ分の画像が生成される(ステップ505)。
【0008】
その後、この1ページ分の画像の全体が利用者が意図したものに合致しているか否かが判定され(ステップ506)、利用者が意図したものでない場合には、上述したステップ501に戻って、再度のレイアウト作業が繰り返される。また、1ページ分の画像の全体が、利用者が意図したものである場合には、一連の画像生成動作が終了する。
【0009】
【発明が解決しようとする課題】
ところで、一般的なレンダリング処理においては、視点位置と3Dモデルとの距離やライティングによる3Dモデルの表面の輝度等、数多くの計算が行われるため、CG画像生成時の処理負担が大きい。したがって、無駄なレンダリング処理を少なくして処理負担の軽減を図ることが望ましい。特に、光線追跡法(レイトレーシング法)によるレンダリング処理では、CG画像を構成する全ての画素のそれぞれについて画素値が計算されており、計算量が膨大であるため、無駄なレンダリング処理を極力なくすことが望ましい。
【0010】
しかし、上述した1ページ分の画像を生成する手順では、縦横比が一定の矩形形状のCG画像を生成した後に、これらのCG画像を1ページに含まれる各領域の形状に合わせて切り出して使用しているため、この切り出し作業の結果用いられない部分については、全く無駄なレンダリング処理が行われたことになる。また、縦横比が一定の矩形形状のCG画像を生成した際、およびこのCG画像を非矩形形状に切り出した後に1ページ分の画像を生成した際に、利用者の意図に合致したものであるか否かを判定しているため、利用者が意図しない画像が生成された場合には、レンダリング処理をやりなおすことになって、多大な無駄が生じることになる。
【0011】
本発明は、このような点に鑑みて創作されたものであり、その目的は、CG画像を任意形状に切り出して合成する場合の無駄を低減して処理の負担を軽減することができる画像生成方式を提供することにある。
【0012】
【課題を解決するための手段】
上述した課題を解決するために、本発明の画像生成方式は、所定の出力媒体に含まれる複数の領域のそれぞれの外縁形状を領域形状設定手段によって設定し、これら複数の領域の配置状態を領域配置設定手段によって設定しており、これら各種の設定が行われたそれぞれの領域について、仮想的な三次元空間内に配置された表示対象物を所定の視点位置から見た二次元画像を二次元画像生成手段によって生成した後、画像合成手段によってそれぞれの領域に対応した二次元画像の合成を行っている。二次元画像を生成する前に各領域の外縁形状が設定されるため、二次元画像を生成した後に必要な部分だけ切り出す場合に比べて、除去される部分に対応する二次元画像を生成する無駄を省くことができ、処理の負担を軽減することができる。
【0013】
特に、上述した二次元画像生成手段は、領域形状設定手段によって設定された外縁形状に含まれる二次元画像をレンダリング処理によって生成することが望ましい。レンダリング処理は、レイトレーシング法やスキャンライン法などの各種の手法を用いて行われるが、画像を構成する各画素毎に多くの計算が必要になるため、後に廃棄する部分を処理範囲に含めると、多大な無駄が生じる。このため、後の画像合成で使用する領域内についてのみレンダリング処理を実施することにより、処理の負担を低減することができる。
【0014】
また、視点位置設定手段を備えて、複数の領域のそれぞれに対応させて、二次元画像生成の際に必要となる視点位置を設定することが望ましい。各領域毎に個別に視点位置を設定することができるため、異なる視点位置から見た複数の二次元画像を生成することが容易となる。したがって、レンダリング処理等によって二次元画像を生成する際に1箇所の視点位置しか設定できず、視点位置の設定と二次元画像の生成処理とを交互に繰り返して上述した合成画像を生成する場合に比べて、画像生成処理全体の手間を大幅に低減することができる。
【0015】
また、上述した視点位置設定手段によって設定される複数の視点位置を同一の三次元空間に含ませることが望ましい。例えば、漫画雑誌等において、同じ表示対象物を角度を変えて見た画像が必要となることがあるが、同一の三次元空間内に複数の視点位置を設定することにより、これらの画像を簡単な操作で生成することができる。
【0016】
また、二次元画像生成手段による二次元画像の生成動作に先立って、それぞれの領域に対応する簡略画像を簡略画像生成手段によって生成し、この生成した簡略画像を簡略画像表示手段によって表示することが望ましい。上述したように、レンダリング処理等によって各領域に対応する二次元画像を生成する処理は、多大な負担となるため、最終的な合成画像の内容が制作者(利用者)の意図に沿わない場合に、その都度最初から各種の処理をやりなおすことにすると、多大な手間と処理時間を要することになる。これに対し、簡略画像生成手段と簡略画像表示手段によって各領域に対応する簡略画像を生成して表示する場合には、最終的な合成画像を得るため行われる膨大な処理に比べて少ない処理量によって簡略画像を表示させるだけで、最終的に得られる画像が制作者の意図に沿ったものであるか否かをある程度判断することが可能であり、適切な合成画像を得るまでに要する処理量を低減することができる。
【0017】
【発明の実施の形態】
以下、本発明を適用した一実施形態の画像生成装置について、図面を参照しながら詳細に説明する。
【0018】
図1は、本実施形態の画像生成装置100の構成を示す図である。同図に示す画像生成装置100は、3Dデータ格納部10、CG処理部20、操作部30、読取り部32、2Dデータ格納部40、表示制御部42、ディスプレイ装置44を含んで構成されている。
【0019】
3Dデータ格納部10は、オブジェクト空間内に配置される表示対象物としての3Dモデルを特定するために必要なデータ(各3Dモデルの形状データや表面の属性に関するデータ等)やその背景データ、およびオブジェクト空間内における各3Dモデルの位置、光源の位置、視点位置を格納する。これらの各種データは、予め3Dデータ格納部10に格納されている場合の他に、CG画像を生成する際にその都度入力するようにしてもよい。例えば、本実施形態においては、CG画像を生成する際にこれらのデータがその都度入力されて3Dデータ格納部10に格納されるものとする。
【0020】
CG処理部20は、少なくとも一部の外縁形状が非矩形形状に形成された複数の領域を設定し、これらの各領域の形状に対応する外縁形状を有するCG画像を生成するものであり、3Dモデル設定部21、3Dレイアウト設定部22、領域設定部23、領域レイアウト設定部24、視点位置設定部25、プレビュー画像作成部26、レンダリング処理部27、画像合成部28を含んで構成されている。
【0021】
3Dモデル設定部21は、オブジェクト空間内に配置される各3Dモデルを特定するために必要な各種データの設定を行う。例えば、このデータには、各3Dモデルの形状を特定する形状データと、各3Dモデルの表面の属性を特定する表面属性データとが含まれている。また、この表面属性データには、各3Dモデルの表面の明度、彩度、色合いや質感(反射率、透過率などの材質や素材そのものの模様など)が含まれている。なお、ここで特定される1あるいは複数の3Dモデルは、共通する一つのオブジェクト空間内に配置されている場合の他に、2以上の異なるオブジェクト空間のそれぞれに配置されている場合であってもよい。
【0022】
3Dレイアウト設定部22は、3Dモデル設定部21によって形状や表面属性が設定された各3Dモデルについて、オブジェクト空間内の位置(配置)を設定する。また、3Dレイアウト設定部22は、オブジェクト空間内に配置される光源の位置と種類を特定する。例えば、光源の種類として、最も単純な点光源の他に平行光線、スポット、コーン用の光源の指定が可能になっている。
【0023】
領域設定部23は、それぞれに異なるCG画像を対応させる複数の領域と、それぞれの領域の外縁形状を設定する。これら複数の領域の内、少なくとも一部の領域の外縁形状は非矩形形状に形成されている。また、領域レイアウト設定部24は、領域設定部23によって外縁形状が設定された複数の領域のそれぞれについて、出力媒体における配置状態を設定する。
【0024】
図2は、領域設定部23および領域レイアウト設定部24によって設定された各領域の外縁形状と配置状態の具体例を示す図である。図2に示すように、出力媒体として、漫画雑誌等における1ページ分の紙面を考え、それに含まれる7個の領域(コマ)を設定するものとする。領域設定部23は、7つの領域のそれぞれの外縁形状を設定する。また、領域レイアウト設定部24は、7つの領域のそれぞれを、出力媒体としての1ページ分の紙面にどのように配置するかを設定する。これらの各領域の外縁形状の設定および配置状態の設定は、利用者の指示に基づいて行われる。
【0025】
視点位置設定部25は、オブジェクト空間内における視点位置の設定を行う。本実施形態の画像生成装置100では、上述した領域設定部23によって設定された複数の領域のそれぞれに、異なるCG画像を対応させることができるため、それぞれの領域毎に視点位置の設定が行われる。また、上述したように、2以上の異なるオブジェクト空間のそれぞれに3Dモデルが配置されている場合には、異なるオブジェクト空間のそれぞれにおいて視点位置が設定される。
【0026】
プレビュー画像作成部26は、領域設定部23によって設定された複数の領域のそれぞれについて、対応する視点位置から3Dモデルを見た場合の簡易画像であるプレビュー画像を生成するとともに、これらのプレビュー画像を領域レイアウト部24によって設定された各領域の配置状態にしたがって組み合わせて1ページ分の合成画像を生成する。なお、ここで生成されるプレビュー画像(CG画像)は、概略的な内容を把握するために用いられるため、3Dモデルの正確な色や形状を再現する必要はなく、それぞれの雰囲気が利用者につたわればよい。
【0027】
レンダリング処理部27は、3Dモデル設定部21によって設定された各3Dモデルの詳細データや、3Dレイアウト設定部22によって設定された各3Dモデルの配置状態やオブジェクト空間内における光源位置、視点位置設定部25によって設定された各領域毎の視点位置等に基づいてレンダリング処理を行う。例えば、レンダリング処理の代表的な手法としては、レイトレーシング法やスキャンライン法、あるいはこれらをさらに発展させたパーシャルレイトレーシング法等の各種の手法が知られている。また、このレンダリング処理は、それぞれの領域毎に予め設定された外縁形状に対応するように行われており、各領域の外縁形状に一致するCG画像が生成される。
【0028】
画像合成部28は、レンダリング処理部27によって各領域毎の外縁形状に合わせて生成された複数のCG画像を、領域レイアウト設定部24によって設定された各領域の配置状態に対応するように合成する。
【0029】
また、操作部30は、利用者によって各種の操作指示を入力するためのものであり、文字や数字を入力するためのキーボードや、ポインティングデバイスとしてのマウス等が含まれる。利用者は、ディスプレイ装置44に表示される各種の操作画面を見ながらこの操作部30を操作し、3Dモデルの形状や表面属性、オブジェクト空間内での位置、光源位置、視点位置、各領域の外縁形状等を任意に指定することができる。読取り部32は、紙媒体に描かれた各領域の外縁形状の情報を光学的に読み取るためのものである。例えば、複雑な外縁形状を紙面に描いておいて、これを光学的に読み取ることにより、操作部30のマウス等を用いて入力する手間を低減することができる。
【0030】
2Dデータ格納部40は、CG処理部20によって生成されたCG画像データを格納する。このCG画像データは、表示制御部42に送られ、ディスプレイ装置44の画面上に表示される。
【0031】
上述した領域設定部23が領域形状設定手段に、領域レイアウト設定部24が領域配置設定手段に、視点位置設定部25が視点位置設定手段に、プレビュー画像作成部26が簡略画像生成手段に、レンダリング処理部27が二次元画像生成手段に、画像合成部28が画像合成部に、2Dデータ格納部40、表示制御部42、ディスプレイ装置44が簡略画像表示手段にそれぞれ対応する。
【0032】
本実施形態の画像処理装置100はこのような構成を有しており、次にその動作を説明する。
【0033】
図3は、出力媒体として1ページ分の紙面を考え、その中に配置される複数の領域に対応するCG画像を生成する画像処理装置100の動作手順を示す図である。例えば、各領域には、共通のオブジェクト空間内に配置された複数の3Dモデルを複数の視点位置から見たCG画像がはめ込まれるものとする。また、これらの3Dモデルの形状や表面属性を設定するモデリング工程と、オブジェクト空間における3Dモデルの配置や光源位置を設定する一部のレイアウト工程が既に実施されているものとする。
【0034】
まず、あらかじめ作成された絵コンテにあわせて、1ページ分の紙面に含まれる複数の領域を設定するコマ割りの作業が行われる(ステップ100)。この作業には、各領域の外縁形状の設定と、各領域の配置状態の設定が含まれている。領域設定部23は、操作部30を操作することにより行われる利用者の指示に応じて、図2に示す7つの領域1〜7のそれぞれの外縁形状を設定する。例えば、各領域の外縁形状の設定は、ディスプレイ装置44の画面を見ながら操作部30のマウスをクリックあるいはドラッグすることにより行うことができるが、各領域の外縁形状が描かれた図面を読取り部32によって光学的に読み取るようにしてもよい。また、領域レイアウト設定部24は、操作部30を操作することにより行われる利用者の指示に応じて、図2に示すような並びとなるように7つの領域の配置状態を設定する。例えば、各領域の配置状態の設定は、ディスプレイ装置44の画面上に、領域設定部23によって設定された外縁形状を有する7つの領域を表示させておいて、これら表示された各領域を利用者が画面上でドラッグして任意に移動させることにより行うことができる。
【0035】
次に、外縁形状と配置状態が設定された7つの領域のそれぞれ、およびこれらの領域の全体について、プレビュー画面の表示処理と並行して残りのレイアウト行程である視点位置の設定処理が実施される(ステップ101)。
【0036】
図4は、各領域ごとにレイアウト行程を実施する前の初期状態におけるプレビュー画面の一例を示す図である。図4に示すように、最初は、ディスプレイ装置44の画面上に、各領域に何の画像も含まれないプレビュー画面が表示される。この状態において、利用者が操作部30のマウスを操作していずれかの領域を指し示すことにより、この指し示された領域のレイアウト設定が有効になる。
【0037】
例えば、上述したように、このオブジェクト空間に存在する各3Dモデルの特定や配置および光源位置の設定が終了しているものとすると、視点位置設定部25は、レイアウト設定が有効になった特定の領域に対応するレンダリング処理を行う際に必要となる視点位置を設定する。いずれかの領域に対応した視点位置の設定が行われ、この領域についてのレイアウト設定が終了すると、プレビュー画像作成部26は、この領域について、設定された視点位置からオブジェクト空間内に配置された3Dモデルを見た場合の概略的なCG画像(プレビュー画像)を作成し、2Dデータ格納部40に格納する。この2Dデータ格納部40に格納されたプレビュー画像は、表示制御部42によって読み出され、一部の領域にこの作成されたプレビュー画像が含まれたプレビュー画面がディスプレイ装置44に表示される。なお、上述したプレビュー画像作成部26によるプレビュー画像の作成処理は、概略画面を得ることを目的に行われる。したがって、通常のレンダリング処理を行って精細なCG画像を生成する必要はなく、処理対象となる画素数を少なくするとともに、各画素の階調数を減らす等の工夫をすることにより、処理の高速化が図られている。
【0038】
図5は、図2に示した領域3に対応するプレビュー画像が表示されたプレビュー画面の一例を示す図である。領域3のみが選択されると、この領域3の外縁形状に一致するプレビュー画像が生成され、表示される。以後、同様にして、領域3に対応するプレビュー画像が含まれるプレビュー画面が表示された状態において、利用者が操作部30のマウスを操作して他のいずれかの領域を指し示すことにより、この指し示された領域のレイアウト設定が有効になり、この領域に対応する視点位置の設定が行われた後、新たなプレビュー画像が追加されたプレビュー画面が表示される。
【0039】
このようにして、全ての領域についてレイアウト設定処理とプレビュー画像の作成処理が終了するまで、これらの処理が繰り返される。なお、プレビュー画像が生成されていない新たな領域が選択された場合には、この領域に対する1回目の視点位置の設定処理とプレビュー画像の作成処理が行われるが、既にプレビュー画像が作成され表示されている領域を選択することもできる。この場合には、この領域に対する再度の視点位置の設定とプレビュー画像の作成処理が行われ、利用者が意図したプレビュー画像が表示されるまで、この領域の選択からプレビュー画像の表示までの一連の処理が繰り返される。
【0040】
図6は、全ての領域に対応するプレビュー画像が作成されて表示されたプレビュー画面の一例を示す図である。利用者は、各プレビュー画像が自分の意図したものと一致し、しかも図6に示すプレビュー画面の全体から受ける印象も自分が意図したものと一致していると判断すると、プレビュー画面の下部に含まれる「はい」と表示されたボタンを指し示す。
【0041】
プレビュー画面を見ながら各領域毎の視点位置の設定が終了すると、次に、レンダリング処理部27は、各領域のそれぞれについて、所定のレンダリング処理を実施する(ステップ102)。この各領域に対応するレンダリング処理においては、既に各領域の形状が設定されているため、各領域の外縁形状に含まれる部分のみに対応したCG画像の生成が行われる。
【0042】
このようにして全ての領域のそれぞれに対応するCG画像の生成処理が終了すると、画像合成部28は、この生成されたそれぞれのCG画像を合成して、図7に示すような1ページ分の合成画像を生成し(ステップ103)、一連の画像生成処理が終了する。なお、図7においては、3Dモデルにハッチングを付して最終的なCG画像であることを示したが、実際には所定の着色がなされた高精細なCG画像が得られる。
【0043】
このようにして生成された1ページ分の合成画像は2Dデータ格納部40に格納され、表示制御部42によって読み出されてディスプレイ装置44の画面上に表示されるが、図示しないプリンタによって紙媒体に印刷するようにしてもよい。
【0044】
このように、本実施形態の画像生成装置100では、出力媒体に含まれる複数の領域の外縁形状と各領域の配置状態をあらかじめ設定し、それぞれの領域毎に視点位置の設定処理とプレビュー表示処理を行っている。したがって、CG画像の制作者(利用者)は、各領域のプレビュー画像を見ながらレイアウト作業を行うことができ、従来のように全ての処理が終了した後に各領域に対応した視点位置等が意図に沿わず、一連の処理を最初からやり直す無駄を低減することができる。また、最後に行われるレンダリング処理は、外縁形状が設定されたそれぞれの領域の内部のみを対象に行われるため、不要な部分(後に廃棄される部分)について不要な計算を行うことを防止することができ、処理の負担を軽減することができる。
【0045】
なお、本発明は上記実施形態に限定されるものではなく、本発明の要旨の範囲内で種々の変形実施が可能である。例えば、上述した実施形態では、各領域の外縁形状や配置状態を設定する前に、モデリング工程と一部のレイアウト工程(3Dモデルの配置と光源位置の設定)が終了しているものとしたが、これらの各工程あるいは各工程の更新処理を、図3に示したステップ101において行うようにしてもよい。例えば、各3Dモデルの配置や光源位置等を、各領域に対応して生成されるプレビュー画像を見ながら調整することにより、最適なCG画像を無駄な処理を行うことなく生成することができる。
【0046】
また、上述した実施形態では、共通するオブジェクト空間に含まれる3Dモデルを異なる視点位置から見たCG画像を各領域に対応させて生成する場合を説明したが、異なるオブジェクト空間に存在する3Dモデルについて生成した複数のCG画像を各領域に対応させるようにしてもよい。また、各領域に対応するCG画像は、必ずしもレンダリング処理によって生成したものである必要はなく、一部については単なる平面的な二次元画像を用いるようにしてもよい。
【0047】
【発明の効果】
上述したように、本発明によれば、二次元画像を生成する前に各領域の外縁形状が設定されるため、二次元画像を生成した後に必要な部分だけ切り出す場合に比べて、除去される部分に対応する二次元画像を生成する無駄を省くことができ、処理の負担を軽減することができる。
【図面の簡単な説明】
【図1】一実施形態の画像生成装置の構成を示す図である。
【図2】領域設定部および領域レイアウト設定部によって設定された各領域の外縁形状と配置状態の具体例を示す図である。
【図3】本実施形態の画像処理装置の動作手順を示す図である。
【図4】各領域ごとにレイアウト設定を行う前の初期状態におけるプレビュー画面の具体例を示す図である。
【図5】一部の領域に対応するプレビュー画像が表示されたプレビュー画面の具体例を示す図である。
【図6】全ての領域に対応するプレビュー画像が作成されて表示されたプレビュー画面の具体例を示す図である。
【図7】レンダリング処理によって得られた各領域のCG画像を合成した全体画像を示す図である。
【図8】漫画雑誌等の各ページにおいて複数の領域からなるコマ割りを行って、それぞれの領域に対応するCG画像をはめ込む場合の動作手順を示す流れ図である。
【符号の説明】
10 3Dデータ格納部
20 CG処理部
21 3Dモデル設定部
22 3Dレイアウト設定部
23 領域設定部
24 領域レイアウト設定部
25 視点位置設定部
26 プレビュー画像作成部
27 レンダリング処理部
28 画像合成部
30 操作部
32 読取り部
40 2Dデータ格納部
42 表示制御部
44 ディスプレイ装置
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an image generation method for generating a two-dimensional image obtained when an object arranged in a virtual three-dimensional space is viewed from a predetermined viewpoint position.
[0002]
[Prior art]
Recently, using a personal computer or the like, an object which is a three-dimensional object (hereinafter referred to as “3D model”) arranged in a virtual three-dimensional space (hereinafter referred to as “object space”) is determined in advance. A computer graphics (hereinafter referred to as “CG”) method for generating a two-dimensional image obtained when viewed from a viewpoint position is widely used.
[0003]
A specific CG image is generated as follows. First, in the modeling process, the 3D model arranged in the object space is specified. For example, after the shape of the 3D model is set, the attribute of the surface of each 3D model is set. Next, in the layout process, the position of each 3D model, the position of the light source, and the viewpoint position in the object space are set. Thereafter, rendering processing is performed, and a CG image as a two-dimensional image obtained when the 3D model is viewed from a desired viewpoint position is generated.
[0004]
The CG image described above is usually output in a rectangular shape in many cases, but a part of the CG image is cut into an arbitrary shape and used depending on the application. For example, in a poster or the like, when a separate CG image is associated with each of a plurality of windows surrounded by an arbitrary closed curve, or on each page of a comic magazine, a page shape of each page is combined as a whole by combining areas of arbitrary shapes This is the case where frame allocation is performed so as to fit within the frame, and different CG images are associated with each frame.
[0005]
FIG. 8 is a flowchart showing an operation procedure in the case where a frame division including a plurality of non-rectangular areas is performed on each page of a comic magazine and the like and a CG image corresponding to each non-rectangular area is fitted. For example, when there is one or a plurality of 3D models arranged in one object space, each CG image generated by setting a plurality of viewpoint positions in the object space is made to correspond to a different non-rectangular region. The operation when fitting is shown. It is assumed that a modeling process for setting the shape and surface attribute of each 3D model in the object space and a part of the layout process for setting the arrangement and light source position of each 3D model in the object space are already performed.
[0006]
First, a frame division operation for setting a plurality of areas included in a page of paper is performed in accordance with a previously created storyboard (step 500). Next, a layout work that is expected to be appropriate is performed for each area (step 501). In this layout work, a viewpoint position is set for each area in accordance with a user instruction. After the rest of the layout process is completed in this way, rendering processing for each area is performed (step 502). In this way, a CG image corresponding to each area is generated. Each CG image is formed in a rectangular shape having a predetermined aspect ratio.
[0007]
Next, each CG image is cut out into a shape corresponding to each area (step 503), and then the contents of the CG image generated corresponding to each area match what the user intended. It is determined whether or not (step 504). If the user does not intend, the process returns to step 501 described above and the layout work is repeated. Further, when the CG image intended by the user is generated, an image for one page obtained by combining the cut out CG images is generated (step 505).
[0008]
Thereafter, it is determined whether or not the entire image for one page matches what the user intended (step 506). If the image is not intended by the user, the process returns to step 501 described above. The layout work is repeated again. If the entire image for one page is what the user intended, the series of image generation operations ends.
[0009]
[Problems to be solved by the invention]
By the way, in general rendering processing, since many calculations such as the distance between the viewpoint position and the 3D model and the brightness of the surface of the 3D model by lighting are performed, the processing load at the time of CG image generation is large. Therefore, it is desirable to reduce the processing load by reducing unnecessary rendering processing. In particular, in the rendering processing by the ray tracing method (ray tracing method), pixel values are calculated for all the pixels constituting the CG image, and the calculation amount is enormous. Therefore, unnecessary rendering processing is minimized. Is desirable.
[0010]
However, in the above-described procedure for generating an image for one page, a rectangular CG image having a constant aspect ratio is generated, and then these CG images are cut out according to the shape of each area included in one page and used. For this reason, a portion that is not used as a result of this cut-out operation has undergone a completely useless rendering process. Also, when a rectangular CG image with a constant aspect ratio is generated, and when an image for one page is generated after the CG image is cut out into a non-rectangular shape, the image matches the user's intention. Therefore, when an image that is not intended by the user is generated, the rendering process is performed again, resulting in a great waste.
[0011]
The present invention was created in view of the above points, and an object of the present invention is to generate an image that can reduce the processing load by reducing waste when a CG image is cut into an arbitrary shape and combined. To provide a method.
[0012]
[Means for Solving the Problems]
In order to solve the above-described problems, according to the image generation method of the present invention, the outer edge shape of each of a plurality of regions included in a predetermined output medium is set by a region shape setting unit, and the arrangement state of the plurality of regions is set to a region. A two-dimensional image obtained by viewing a display object arranged in a virtual three-dimensional space from a predetermined viewpoint position for each of the areas set by the arrangement setting means and having these various settings. After being generated by the image generating means, a two-dimensional image corresponding to each region is synthesized by the image synthesizing means. Since the outer edge shape of each area is set before generating the 2D image, it is wasteful to generate the 2D image corresponding to the removed part compared to cutting out only the necessary part after generating the 2D image. Can be omitted, and the processing burden can be reduced.
[0013]
In particular, it is desirable that the above-described two-dimensional image generation unit generates a two-dimensional image included in the outer edge shape set by the region shape setting unit by rendering processing. The rendering process is performed using various methods such as the ray tracing method and the scan line method. However, since a lot of calculation is required for each pixel constituting the image, if the portion to be discarded later is included in the processing range, , A lot of waste arises. For this reason, it is possible to reduce the processing load by performing the rendering process only in the region used in the subsequent image composition.
[0014]
In addition, it is desirable that a viewpoint position setting unit is provided to set a viewpoint position necessary for generating a two-dimensional image so as to correspond to each of the plurality of regions. Since the viewpoint position can be individually set for each region, it is easy to generate a plurality of two-dimensional images viewed from different viewpoint positions. Accordingly, when a two-dimensional image is generated by rendering processing or the like, only one viewpoint position can be set, and the above-described composite image is generated by alternately repeating the viewpoint position setting and the two-dimensional image generation processing. In comparison, the labor of the entire image generation process can be greatly reduced.
[0015]
In addition, it is desirable to include a plurality of viewpoint positions set by the viewpoint position setting means described above in the same three-dimensional space. For example, in a comic magazine, images that look at the same display object from different angles may be required. By setting multiple viewpoint positions in the same three-dimensional space, these images can be easily displayed. Can be generated by simple operations.
[0016]
Further, prior to the two-dimensional image generation operation by the two-dimensional image generation means, a simple image corresponding to each region is generated by the simple image generation means, and the generated simple image is displayed by the simple image display means. desirable. As described above, the process of generating a two-dimensional image corresponding to each region by rendering processing or the like is a heavy burden, and the final composite image content does not conform to the intention of the producer (user) In addition, if various processes are performed again from the beginning each time, a great amount of labor and processing time are required. On the other hand, when a simple image corresponding to each area is generated and displayed by the simple image generation means and the simple image display means, the processing amount is smaller than the enormous processing performed to obtain the final composite image. It is possible to determine to a certain extent whether the final image is in line with the creator's intention by simply displaying a simple image, and the amount of processing required to obtain an appropriate composite image Can be reduced.
[0017]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, an image generation apparatus according to an embodiment to which the present invention is applied will be described in detail with reference to the drawings.
[0018]
FIG. 1 is a diagram illustrating a configuration of an image generation apparatus 100 according to the present embodiment. The image generation apparatus 100 shown in the figure includes a 3D data storage unit 10, a CG processing unit 20, an operation unit 30, a reading unit 32, a 2D data storage unit 40, a display control unit 42, and a display device 44. .
[0019]
The 3D data storage unit 10 includes data necessary for specifying a 3D model as a display object to be arranged in the object space (shape data of each 3D model, data on surface attributes, etc.), background data thereof, and Stores the position of each 3D model, the position of the light source, and the viewpoint position in the object space. In addition to the case where these various data are stored in the 3D data storage unit 10 in advance, they may be input each time a CG image is generated. For example, in the present embodiment, when generating a CG image, these data are input each time and stored in the 3D data storage unit 10.
[0020]
The CG processing unit 20 sets a plurality of areas in which at least a part of the outer edge shape is formed into a non-rectangular shape, and generates a CG image having an outer edge shape corresponding to the shape of each of these areas. The model setting unit 21, 3D layout setting unit 22, region setting unit 23, region layout setting unit 24, viewpoint position setting unit 25, preview image creation unit 26, rendering processing unit 27, and image composition unit 28 are configured. .
[0021]
The 3D model setting unit 21 sets various data necessary for specifying each 3D model arranged in the object space. For example, this data includes shape data that specifies the shape of each 3D model and surface attribute data that specifies the attributes of the surface of each 3D model. The surface attribute data includes the surface brightness, saturation, hue, and texture (materials such as reflectance and transmittance, and patterns of the materials themselves) of each 3D model. Note that one or a plurality of 3D models specified here may be arranged in two or more different object spaces in addition to the case where they are arranged in one common object space. Good.
[0022]
The 3D layout setting unit 22 sets the position (arrangement) in the object space for each 3D model whose shape and surface attributes are set by the 3D model setting unit 21. The 3D layout setting unit 22 identifies the position and type of the light source arranged in the object space. For example, in addition to the simplest point light source, a parallel light source, a spot light source, and a cone light source can be specified as the light source type.
[0023]
The region setting unit 23 sets a plurality of regions corresponding to different CG images and the outer edge shape of each region. Outer edge shapes of at least some of the plurality of regions are formed in a non-rectangular shape. The area layout setting unit 24 sets an arrangement state in the output medium for each of the plurality of areas whose outer edge shapes are set by the area setting unit 23.
[0024]
FIG. 2 is a diagram illustrating a specific example of the outer edge shape and the arrangement state of each region set by the region setting unit 23 and the region layout setting unit 24. As shown in FIG. 2, it is assumed that one page of a comic magazine or the like is considered as an output medium, and seven areas (frames) included therein are set. The region setting unit 23 sets the outer edge shape of each of the seven regions. The area layout setting unit 24 sets how to arrange each of the seven areas on a page of paper as an output medium. The setting of the outer edge shape and the arrangement state of each of these regions is performed based on a user instruction.
[0025]
The viewpoint position setting unit 25 sets the viewpoint position in the object space. In the image generation apparatus 100 according to the present embodiment, since a different CG image can be associated with each of the plurality of areas set by the area setting unit 23 described above, the viewpoint position is set for each area. . Further, as described above, when the 3D model is arranged in each of two or more different object spaces, the viewpoint position is set in each of the different object spaces.
[0026]
The preview image creation unit 26 generates, for each of the plurality of regions set by the region setting unit 23, a preview image that is a simple image when the 3D model is viewed from the corresponding viewpoint position. A combined image for one page is generated by combining according to the arrangement state of each area set by the area layout unit 24. Note that the preview image (CG image) generated here is used to grasp the outline of the content, so there is no need to reproduce the exact color and shape of the 3D model, and each atmosphere can be used by the user. Just touch.
[0027]
The rendering processing unit 27 includes detailed data of each 3D model set by the 3D model setting unit 21, the arrangement state of each 3D model set by the 3D layout setting unit 22, the light source position in the object space, and the viewpoint position setting unit. Rendering processing is performed based on the viewpoint position for each region set by 25. For example, as representative rendering processing methods, various methods such as a ray tracing method, a scan line method, or a partial ray tracing method obtained by further developing these methods are known. This rendering process is performed so as to correspond to the outer edge shape set in advance for each area, and a CG image matching the outer edge shape of each area is generated.
[0028]
The image composition unit 28 synthesizes a plurality of CG images generated by the rendering processing unit 27 according to the outer edge shape of each region so as to correspond to the arrangement state of each region set by the region layout setting unit 24. .
[0029]
The operation unit 30 is for inputting various operation instructions by the user, and includes a keyboard for inputting characters and numbers, a mouse as a pointing device, and the like. The user operates the operation unit 30 while looking at various operation screens displayed on the display device 44, and the shape and surface attribute of the 3D model, the position in the object space, the light source position, the viewpoint position, and each area. An outer edge shape or the like can be arbitrarily designated. The reading unit 32 is for optically reading information on the outer edge shape of each region drawn on the paper medium. For example, a complicated outer edge shape is drawn on a sheet of paper, and this is optically read, so that it is possible to reduce the trouble of inputting using the mouse of the operation unit 30 or the like.
[0030]
The 2D data storage unit 40 stores the CG image data generated by the CG processing unit 20. The CG image data is sent to the display control unit 42 and displayed on the screen of the display device 44.
[0031]
The above-described area setting unit 23 is an area shape setting unit, an area layout setting unit 24 is an area arrangement setting unit, a viewpoint position setting unit 25 is a viewpoint position setting unit, and a preview image creation unit 26 is a simple image generation unit. The processing unit 27 corresponds to the two-dimensional image generation unit, the image synthesis unit 28 corresponds to the image synthesis unit, and the 2D data storage unit 40, the display control unit 42, and the display device 44 correspond to the simple image display unit.
[0032]
The image processing apparatus 100 of the present embodiment has such a configuration, and the operation thereof will be described next.
[0033]
FIG. 3 is a diagram illustrating an operation procedure of the image processing apparatus 100 that generates a CG image corresponding to a plurality of areas arranged in one page as an output medium. For example, CG images obtained by viewing a plurality of 3D models arranged in a common object space from a plurality of viewpoint positions are fitted in each region. Further, it is assumed that a modeling process for setting the shape and surface attribute of these 3D models and a part of the layout process for setting the arrangement and light source position of the 3D model in the object space have already been performed.
[0034]
First, a frame division operation for setting a plurality of areas included in the paper for one page is performed in accordance with a previously created storyboard (step 100). This work includes setting the outer edge shape of each area and setting the arrangement state of each area. The region setting unit 23 sets the outer edge shape of each of the seven regions 1 to 7 illustrated in FIG. 2 in accordance with a user instruction performed by operating the operation unit 30. For example, the setting of the outer edge shape of each area can be performed by clicking or dragging the mouse of the operation unit 30 while looking at the screen of the display device 44. 32 may be optically read. In addition, the area layout setting unit 24 sets the arrangement state of the seven areas so as to be arranged as shown in FIG. 2 in accordance with a user instruction performed by operating the operation unit 30. For example, in the setting of the arrangement state of each area, seven areas having the outer edge shape set by the area setting unit 23 are displayed on the screen of the display device 44, and each of these displayed areas is displayed by the user. Can be performed by dragging on the screen and moving it arbitrarily.
[0035]
Next, for each of the seven areas in which the outer edge shape and the arrangement state are set, and the whole of these areas, the viewpoint position setting process, which is the remaining layout process, is performed in parallel with the preview screen display process. (Step 101).
[0036]
FIG. 4 is a diagram illustrating an example of a preview screen in an initial state before the layout process is performed for each region. As shown in FIG. 4, first, a preview screen in which no image is included in each area is displayed on the screen of the display device 44. In this state, when the user operates the mouse of the operation unit 30 to point to any area, the layout setting of the pointed area becomes valid.
[0037]
For example, as described above, when the specification and arrangement of each 3D model existing in the object space and the setting of the light source position have been completed, the viewpoint position setting unit 25 specifies the specific setting in which the layout setting is valid. A viewpoint position required when performing rendering processing corresponding to an area is set. When the viewpoint position corresponding to one of the areas is set and the layout setting for this area is completed, the preview image creating unit 26 3D arranged in this object space from the set viewpoint position for this area. A schematic CG image (preview image) when the model is viewed is created and stored in the 2D data storage unit 40. The preview image stored in the 2D data storage unit 40 is read by the display control unit 42, and a preview screen including the created preview image in a partial area is displayed on the display device 44. Note that the above-described preview image creation processing by the preview image creation unit 26 is performed for the purpose of obtaining a schematic screen. Therefore, it is not necessary to perform a normal rendering process to generate a fine CG image, and by reducing the number of pixels to be processed and reducing the number of gradations of each pixel, the processing speed can be increased. It is planned.
[0038]
FIG. 5 is a diagram illustrating an example of a preview screen on which a preview image corresponding to the region 3 illustrated in FIG. 2 is displayed. When only region 3 is selected, a preview image that matches the outer edge shape of region 3 is generated and displayed. Thereafter, in the same manner, when the preview screen including the preview image corresponding to the region 3 is displayed, the user operates the mouse of the operation unit 30 to point to any other region. After the layout setting of the indicated area is enabled and the viewpoint position corresponding to this area is set, a preview screen with a new preview image added is displayed.
[0039]
In this way, these processes are repeated until the layout setting process and the preview image creation process are completed for all regions. When a new area for which no preview image has been generated is selected, the first viewpoint position setting process and the preview image creating process are performed for this area, but the preview image has already been created and displayed. Can also be selected. In this case, the viewpoint position is set again for this area and the preview image is created, and a series of processes from selection of this area to display of the preview image is performed until the preview image intended by the user is displayed. The process is repeated.
[0040]
FIG. 6 is a diagram illustrating an example of a preview screen on which preview images corresponding to all regions are created and displayed. If the user determines that each preview image matches the one intended by the user and that the impression received from the entire preview screen shown in FIG. 6 also matches the one intended by the user, the preview image is included at the bottom of the preview screen. Point to the button labeled “Yes”.
[0041]
When the setting of the viewpoint position for each area is completed while viewing the preview screen, the rendering processor 27 next performs a predetermined rendering process for each area (step 102). In the rendering process corresponding to each region, since the shape of each region has already been set, a CG image corresponding to only a portion included in the outer edge shape of each region is generated.
[0042]
When the generation processing of the CG image corresponding to each of all the regions is completed in this way, the image composition unit 28 synthesizes each of the generated CG images to generate one page as shown in FIG. A composite image is generated (step 103), and a series of image generation processing ends. In FIG. 7, the 3D model is hatched to indicate a final CG image. However, a high-definition CG image with a predetermined coloring is actually obtained.
[0043]
The composite image for one page generated in this way is stored in the 2D data storage unit 40, read by the display control unit 42, and displayed on the screen of the display device 44. You may make it print on.
[0044]
As described above, in the image generation apparatus 100 according to the present embodiment, the outer edge shape of a plurality of areas included in the output medium and the arrangement state of each area are set in advance, and viewpoint position setting processing and preview display processing are performed for each area. It is carried out. Therefore, the producer (user) of the CG image can perform the layout work while looking at the preview image of each area, and the viewpoint position corresponding to each area is intended after all processing is completed as in the past. Therefore, the waste of redoing a series of processes from the beginning can be reduced. In addition, since the last rendering process is performed only on the inside of each region in which the outer edge shape is set, it is possible to prevent unnecessary calculations (parts to be discarded later) from being subjected to unnecessary calculations. Can reduce the burden of processing.
[0045]
In addition, this invention is not limited to the said embodiment, A various deformation | transformation implementation is possible within the range of the summary of this invention. For example, in the embodiment described above, the modeling process and a part of the layout process (3D model arrangement and light source position setting) are completed before setting the outer edge shape and arrangement state of each region. These processes or the update process of each process may be performed in step 101 shown in FIG. For example, an optimal CG image can be generated without wasteful processing by adjusting the arrangement, light source position, and the like of each 3D model while viewing a preview image generated corresponding to each region.
[0046]
In the above-described embodiment, a case has been described in which a 3D model included in a common object space is generated by associating each region with a CG image viewed from different viewpoint positions. However, a 3D model existing in a different object space is described. A plurality of generated CG images may correspond to each region. In addition, the CG image corresponding to each region does not necessarily have to be generated by rendering processing, and a simple planar two-dimensional image may be used for a part thereof.
[0047]
【The invention's effect】
As described above, according to the present invention, since the outer edge shape of each region is set before generating a two-dimensional image, it is removed as compared with a case where only a necessary part is cut out after generating a two-dimensional image. It is possible to eliminate the waste of generating a two-dimensional image corresponding to the portion, and to reduce the processing burden.
[Brief description of the drawings]
FIG. 1 is a diagram illustrating a configuration of an image generation apparatus according to an embodiment.
FIG. 2 is a diagram illustrating a specific example of an outer edge shape and an arrangement state of each region set by a region setting unit and a region layout setting unit.
FIG. 3 is a diagram illustrating an operation procedure of the image processing apparatus according to the present embodiment.
FIG. 4 is a diagram illustrating a specific example of a preview screen in an initial state before layout setting is performed for each region.
FIG. 5 is a diagram showing a specific example of a preview screen on which preview images corresponding to some areas are displayed.
FIG. 6 is a diagram showing a specific example of a preview screen on which preview images corresponding to all areas are created and displayed.
FIG. 7 is a diagram illustrating an entire image obtained by synthesizing a CG image of each region obtained by rendering processing.
FIG. 8 is a flowchart showing an operation procedure when performing frame division including a plurality of areas on each page of a comic magazine or the like and inserting a CG image corresponding to each area.
[Explanation of symbols]
10 3D data storage
20 CG processing unit
21 3D model setting section
22 3D layout setting section
23 Area setting section
24 area layout setting section
25 Viewpoint position setting section
26 Preview image generator
27 Rendering processor
28 Image composition part
30 Operation unit
32 Reading unit
40 2D data storage
42 Display controller
44 Display device

Claims (4)

所定の出力媒体に含まれる複数の領域のそれぞれの外縁形状を設定する領域形状設定手段と、
前記出力媒体における前記複数の領域の配置状態を設定する領域配置設定手段と、
前記複数の領域のそれぞれについて、仮想的な三次元空間内に配置された表示対象物を所定の視点位置から見た二次元画像を、前記領域形状設定手段によって設定された外縁形状となるように生成する二次元画像生成手段と、
前記二次元画像生成手段によって生成された前記複数の領域のそれぞれに対応した二次元画像を、前記領域配置設定手段によって設定された配置状態にしたがって合成する画像合成手段と、
前記二次元画像生成手段による前記二次元画像の生成動作に先立って、前記複数の領域のそれぞれに対応する簡略画像を生成する簡略画像生成手段と、
前記複数の領域のそれぞれに対応する前記簡略画像を表示する簡略画像表示手段と、
利用者によって操作される操作部と、
を備え、前記複数の領域の全てに対応する前記簡略画像が生成されて表示された内容について、前記操作部を利用者が操作してこの表示内容が自分の意図したものであることを示す指示を行った後に、前記複数の領域の全てについて前記二次元画像生成手段による二次元画像の生成が行われることを特徴とする画像生成方式。
Area shape setting means for setting the outer edge shape of each of a plurality of areas included in a predetermined output medium;
Area arrangement setting means for setting the arrangement state of the plurality of areas in the output medium;
For each of the plurality of regions, a two-dimensional image obtained by viewing a display object arranged in a virtual three-dimensional space from a predetermined viewpoint position has an outer edge shape set by the region shape setting unit. Two-dimensional image generation means for generating;
Image synthesizing means for synthesizing a two-dimensional image corresponding to each of the plurality of areas generated by the two-dimensional image generating means according to the arrangement state set by the area arrangement setting means;
Prior to the operation of generating the two-dimensional image by the two-dimensional image generating unit, a simplified image generating unit that generates a simplified image corresponding to each of the plurality of regions;
Simplified image display means for displaying the simplified image corresponding to each of the plurality of regions;
An operation unit operated by a user;
An instruction indicating that the display content is intended by the user by operating the operation unit with respect to the content generated and displayed for the simplified image corresponding to all of the plurality of regions. after the image generation method according to claim Rukoto generation is performed in the two-dimensional image by the two-dimensional image generation means for all of said plurality of regions.
請求項1において、
前記二次元画像生成手段は、前記領域形状設定手段によって設定された外縁形状に含まれる前記二次元画像をレンダリング処理によって生成することを特徴とする画像生成方式。
In claim 1,
The two-dimensional image generation means generates the two-dimensional image included in the outer edge shape set by the region shape setting means by rendering processing.
請求項1または2において、
前記複数の領域のそれぞれに対応させて前記視点位置を設定する視点位置設定手段をさらに備えることを特徴とする画像生成方式。
In claim 1 or 2,
An image generation method, further comprising viewpoint position setting means for setting the viewpoint position corresponding to each of the plurality of regions.
請求項3において、
前記視点位置設定手段によって設定される複数の前記視点位置は、同一の前記三次元空間に含まれることを特徴とする画像生成方式。
In claim 3,
A plurality of the viewpoint positions set by the viewpoint position setting means are included in the same three-dimensional space.
JP14346799A 1999-05-24 1999-05-24 Image generation method Expired - Lifetime JP4230051B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP14346799A JP4230051B2 (en) 1999-05-24 1999-05-24 Image generation method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP14346799A JP4230051B2 (en) 1999-05-24 1999-05-24 Image generation method

Publications (2)

Publication Number Publication Date
JP2000331196A JP2000331196A (en) 2000-11-30
JP4230051B2 true JP4230051B2 (en) 2009-02-25

Family

ID=15339395

Family Applications (1)

Application Number Title Priority Date Filing Date
JP14346799A Expired - Lifetime JP4230051B2 (en) 1999-05-24 1999-05-24 Image generation method

Country Status (1)

Country Link
JP (1) JP4230051B2 (en)

Also Published As

Publication number Publication date
JP2000331196A (en) 2000-11-30

Similar Documents

Publication Publication Date Title
US6867787B1 (en) Character generator and character generating method
US5473740A (en) Method and apparatus for interactively indicating image boundaries in digital image cropping
EP0887771B1 (en) Method and apparatus for composing layered synthetic graphics filters
EP0559708A1 (en) Image synthesis and processing
CA2233129C (en) Method and apparatus for defining the scope of operation of layered synthetic graphics filters
JP2001084404A (en) Method and device for rendering, game machine, and computer readable recording medium for storing program for rendering three-dimensional model
JP4174133B2 (en) Image generation method
JPH06222899A (en) Multiwindow display system
JP4230051B2 (en) Image generation method
JPS6282472A (en) Picture processing system
JP2001101441A (en) Method and device for rendering, game system and computer readable recording medium storing program for rendering three-dimensional model
JP2006293470A (en) Drawing system, method therefor, and drawing program
US5151686A (en) Electronic brush generation
JP2003006676A (en) Two-dimensional cg image preparation system
JP4839760B2 (en) Image generation device, image generation method, etc.
JPH11296696A (en) Three-dimensional image processor
Owada et al. Copy-paste synthesis of 3d geometry with repetitive patterns
JP2701056B2 (en) Secondary representation method for three-dimensional objects
JP2598903B2 (en) 3D character typesetting device
JP3372034B2 (en) Rendering method and apparatus, game apparatus, and computer-readable recording medium storing program for rendering stereo model
JPH11296698A (en) Three-dimensional model creation device
JPH07152925A (en) Image generating device
JPH09147147A (en) Texuture editing system
JPH0661089B2 (en) Two-dimensional representation method of three-dimensional object
JP2004110519A (en) Texture expressing device and texture expressing method and synthesis method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060322

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080826

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20081024

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20081202

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20081203

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111212

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111212

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111212

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111212

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121212

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121212

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131212

Year of fee payment: 5

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

EXPY Cancellation because of completion of term