JP2004246877A - ゲームのキャラクタに画像を投影するプログラム、そのプログラムが組み込まれたゲーム機、及びそのプログラムが格納された記録媒体 - Google Patents

ゲームのキャラクタに画像を投影するプログラム、そのプログラムが組み込まれたゲーム機、及びそのプログラムが格納された記録媒体 Download PDF

Info

Publication number
JP2004246877A
JP2004246877A JP2004011280A JP2004011280A JP2004246877A JP 2004246877 A JP2004246877 A JP 2004246877A JP 2004011280 A JP2004011280 A JP 2004011280A JP 2004011280 A JP2004011280 A JP 2004011280A JP 2004246877 A JP2004246877 A JP 2004246877A
Authority
JP
Japan
Prior art keywords
image
projection
character
program
emblem
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2004011280A
Other languages
English (en)
Other versions
JP2004246877A5 (ja
Inventor
Shoji Katsuragawa
昇治 桂川
Tetsuya Kako
徹也 加来
Kazunori Oyama
和紀 大山
Yoshinori Suzuki
良則 鈴木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nintendo Co Ltd
Sega Corp
Original Assignee
Nintendo Co Ltd
Sega Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nintendo Co Ltd, Sega Corp filed Critical Nintendo Co Ltd
Priority to JP2004011280A priority Critical patent/JP2004246877A/ja
Priority to US10/760,482 priority patent/US7485041B2/en
Publication of JP2004246877A publication Critical patent/JP2004246877A/ja
Publication of JP2004246877A5 publication Critical patent/JP2004246877A5/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/60Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor
    • A63F13/63Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor by the player, e.g. authoring using a level editor
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/52Controlling the output signals based on the game progress involving aspects of the displayed game scene
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/80Special adaptations for executing a specific game genre or game mode
    • A63F13/803Driving vehicles or craft, e.g. cars, airplanes, ships, robots or tanks
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/6009Methods for processing data by generating or executing the game program for importing or creating game content, e.g. authoring tools during game development, adapting content to different platforms, use of a scripting language to create content
    • A63F2300/6018Methods for processing data by generating or executing the game program for importing or creating game content, e.g. authoring tools during game development, adapting content to different platforms, use of a scripting language to create content where the game content is authored by the player, e.g. level editor or by game device at runtime, e.g. level is created from music data on CD
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/66Methods for processing data by generating or executing the game program for rendering three dimensional images

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Processing Or Creating Images (AREA)
  • Image Generation (AREA)

Abstract

【課題】ユーザーが作成した表示を、複雑な操作をせずに、キャラクタが複雑な形でも自由にそのキャラクタに貼り付けることのできるプログラムを提供する。
【解決手段】画面内で所定の操作を行うための操作手段と、所定の演算を行う演算処理手段と、前記操作手段と前記演算処理手段とに接続され前記演算処理手段を制御する制御手段とを有するゲーム機において、ゲームのキャラクタに所定の画像を投影するプログラムであって、前記操作手段の操作により2次元座標からなる画像を前記制御手段により生成する画像作成ステップと、前記操作手段からの入力信号に基づいて、前記画像作成ステップで作成した画像をキャラクタに投影するための仮想光源と、前記画像とを、三次元仮想空間内において前記キャラクタ周囲の任意の位置に配置し、前記投影光源から前記キャラクタに前記画像を投影した投影像を前記キャラクタに貼付するステップと、を実現させるためのプログラム。
【選択図】図4

Description

本発明は、ゲームのキャラクタに所望の画面を自由に貼り付ける投影のプログラム、ゲームのキャラクタに画像を投影するプログラムが組み込まれたゲーム機、及びゲームのキャラクタに画像を投影するプログラムが格納された記録媒体に関する。
従来から、ゲームのキャラクタに対してユーザーが所望の画面を貼り付けたり、キャラクタ自身の色や表示などを変えたりすることが行われている。
例えば、ゲーム内でユーザーが使用するロボットなどのキャラクタにエンブレムと呼ばれる表示(例えば旗や動物などのイメージ)を所定の位置に貼り付けたりする技術がある。さらに、ユーザーがゲーム内で使用する車のキャラクタに色や模様を付したりする技術もある。ユーザー自身の使用するキャラクタに愛着を持たせるためである。
これらは、例えばゲームの開始前に、メインメニューでの所定の選択によりエンブレムの選択画面やエンブレム作成画面、あるいは、色や模様を付したりするための作成画面が選択され、その画面内で作成、選択が行われる。そして、作成後のキャラクタをゲーム機内のメモリなどで保持しておき、ゲーム開始とともに呼び出すことで、ユーザー自身で作成或いは選択したエンブレム等付きのキャラクタが表示され、実際にゲームが開始されることになる。
一方で、いわゆる3次元コンピュータグラフィックスで3次元モデルをレンダリングして2次元画像データを映り込ませることも行われている(例えば特許文献1)。
特許公開公報 特開2001−351121号
しかし、従来では、エンブレムのキャラクタに対する貼り付け位置が固定されており、自身の作成等したエンブレムをキャラクタの様々な場所に自由に貼り付けることができなかった。
キャラクタが固定された位置ではなく様々な位置にエンブレムを自由に貼り付けを行えるようにするために、例えば、固定された位置をそのまま移動させることも考えられる。しかし、移動した位置で、キャラクタの形状が異なりそのエンブレムがキャラクタに貼り付けられたように見せるために、さらに計算を行わなければならず計算量が多くなるという問題があった。キャラクタに対する固定位置と移動した位置とでポリゴン面が異なる場合があるからである。
また、車のキャラクタに対して色や模様を付するような場合、その作成画面は車のキャラクタが平面に展開された画面において行われるため、その画面内で作成して実際に車のキャラクタに貼り付けると、ユーザーの希望する表示とは若干異なる場合がある。実際に車のキャラクタに貼り付けられた表示を予想して作成画面で模様等を作成する必要があるため、何度もやり直したりするなど複雑な操作が必要でかつ熟練した技能を要するという問題があった。
そこで、本発明は上記問題点に鑑みてなされたもので、その目的は、ユーザーが作成した表示を、複雑な操作をせずに、キャラクタが複雑な形でも自由にそのキャラクタに貼り付けることのできるプログラム、当該プログラムが格納されたゲーム機、及び当該プログラムが格納された記録媒体を提供することにある。
上記目的を達成するために、本発明のプログラムは、画面内で所定の操作を行うための操作手段と、所定の演算を行う演算処理手段と、操作手段と演算処理手段とに接続され演算処理手段を制御する制御手段とを有するゲーム機において、ゲームのキャラクタに所定の画像を投影するプログラムであって、操作手段の操作により2次元座標からなる画像を制御手段により生成する画像作成ステップと、操作手段からの入力信号に基づいて、画像作成ステップで作成した画像をキャラクタに投影するための仮想光源と、画像とを、三次元仮想空間内においてキャラクタ周囲の任意の位置に配置し、投影光源からキャラクタに画像を投影した投影像をキャラクタに貼付するステップとを実現させている。
さらに、本発明のかかるキャラクタは、複数のパーツの組み合わせによって構成されており、制御手段に、操作手段の操作に応じてパーツのうち少なくとも一つが画像の投影対象として指定させ、指定されたパーツに対して投影画像を貼り付けさせる、ことを実現させる。
また、上記目的を達成するために、本発明は、画面内で所定の操作を行うための操作手段と、所定の演算を行う演算処理手段と、操作手段と演算処理手段とに接続され演算処理手段を制御する制御手段とを有し、ゲームのキャラクタに所定の画像を投影するプログラムが組み込まれたゲーム機であって、操作手段の操作により2次元座標からなる画像を前記制御手段により生成する画像作成ステップと、操作手段からの入力信号に基づいて、画像作成ステップで作成した画像をキャラクタに投影するための仮想光源と、画像とを、三次元仮想空間内においてキャラクタ周囲の任意の位置に配置し、投影光源からキャラクタに画像を投影した投影像を前記キャラクタに貼付するステップと、を実現させるためのプログラムが組み込まれたゲーム機にある。
さらに、本発明におけるキャラクタは、複数のパーツの組み合わせによって構成されており、制御手段に、操作手段の操作に応じてパーツのうち少なくとも一つが前記画像の投影対象として指定させ、指定されたパーツに対して投影画像を貼り付けさせる、ことを実現させるプログラムがゲーム機に組み込まれている。
また、上記目的を達成するために、本発明は、画面内で所定の操作を行うための操作手段と、所定の演算を行う演算処理手段と、操作手段と演算処理手段とに接続され演算処理手段を制御する制御手段とを有するゲーム機に対してゲームのキャラクタに所定の画像を投影するプログラムが格納された記録媒体であって、操作手段の操作により2次元座標からなる画像を制御手段により生成する画像作成ステップと、操作手段からの入力信号に基づいて、画像作成ステップで作成した画像をキャラクタに投影するための仮想光源と、画像とを、三次元仮想空間内においてキャラクタ周囲の任意の位置に配置し、投影光源からキャラクタに画像を投影した投影像をキャラクタに貼付するステップと、を実現させるためのプログラムが格納された記録媒体にある。
さらに、本発明は、かかる投影像をキャラクタに貼付するステップは、キャラクタを構成する各ポリゴンのα値を所定の値として演算処理手段で演算されるよう制御手段を制御する、ことを実現させるためのプログラムが格納された記録媒体としている。
さらに、本発明は、かかるキャラクタは、複数のパーツの組み合わせによって構成されており、前記制御手段に、前記操作手段の操作に応じて前記パーツのうち少なくとも一つが前記画像の投影対象として指定させ、前記指定されたパーツに対して前記投影画像を貼り付けさせることを実現させるためプログラムが格納された記録媒体にある。
上記目的を達成するために、本発明は、三次元仮想空間内において、三次元座標からなるオブジェクトに所定の投影画像を投影したオブジェクト画像をディスプレイ装置に表示するための画像データを生成する画像データ生成手段としてコンピュータを動作させる画像表示制御プログラムであって、画像表示制御プログラムは、制御手段に、オブジェクトに投影される所定の投影画像データを生成させ、仮想空間内にオブジェクトおよび投影画像を配置させ、操作者の操作に基づいてオブジェクトに対する投影画像の相対位置と、投影画像をオブジェクトに投影する仮想光源の位置を決定させ、仮想光源とオブジェクト上の投影位置を含む投影面の距離を演算し、仮想光源から所定距離以上はなれた投影面を投影対象から除いて、オブジェクトにおいて前記投影画像を投影すべき投影面を演算させ、仮想光源を視点として投影画像を投影面に投影して、投影画像をオブジェクトの前記投影面に貼り付けさせ、投影画像が貼り付けられたオブジェクトについてのオブジェクト画像データを生成させる機能を実現させることを特徴とする画像表示制御プログラムにある。
さらに、本発明は、かかる制御手段に、さらに投影画像の画像データをユーザーが操作手段から入力する操作信号に基づいて生成させる機能を実現させることを特徴とする画像表示制御プログラムにある。
さらに、本発明は、かかる制御手段に、投影画像をオブジェクトと同一ないし近似する形状を備える透明オブジェクトに対して投影して、投影画像を透明オブジェクトに貼り付けさせ、表示装置に投影画像を貼り付けた透明オブジェクトをオブジェクトに重ねて表示させる機能を実現させることを特徴とする画像表示制御プログラムにある。
さらに、本発明は、前記仮想光源と前記投影オブジェクトと前記オブジェクトの位置関係によって、オブジェクトに貼り付けられた投影画像の変形が著しいと判断される場合、投影オブジェクトの透明度を変化させる機能を実現させることを特徴とする画像表示制御プログラムにある。
さらに、本発明は、かかるオブジェクトが複数のパーツの組み合わせによって構成されており、制御部に、操作者の操作に応じてパーツのうち少なくとも一つが投影画像の投影対象として指定させ、指定されたパーツに対して投影画像を貼り付けさせる機能を実現させることを特徴とする画像表示制御プログラムにある。
さらに上記目的を達成するために本発明は、三次元仮想空間内において、三次元座標からなるオブジェクトに所定の投影画像を投影したオブジェクト画像をディスプレイ装置に表示するための画像データを生成する画像データ生成手段としてコンピュータを動作させる画像表示制御プログラムであって、上記画像表示制御プログラムは、制御手段に、オブジェクトに投影される所定の投影画像データを生成させ、仮想空間内にオブジェクトおよび投影画像を配置させ、操作者の操作に基づいてオブジェクトに対する投影画像の相対位置と、投影画像をオブジェクトに投影する仮想光源の位置を決定させ、仮想光源とオブジェクト上の投影位置を含む投影面の距離を画素単位で演算し、仮想光源を視点として投影画像の画素を視点から最も近い投影面上の画素に投影して、投影画像をオブジェクトの投影面に貼り付けさせ、前記投影画像が貼り付けられた前記オブジェクトについてのオブジェクト画像データを生成させる機能を実現させることを特徴としている。これにより、例えば、作成したエンブレム画像がオブジェクトを構成する各表面、裏面に貼り付けられたときに、視点から最も近い投影面にのみエンブレム画像が貼り付けられる。
本発明によれば、ユーザーが作成した表示を、複雑な操作をせずに、キャラクタが複雑な形でも自由にそのキャラクタに貼り付けることのできるプログラムを提供することができる。
次に本発明の実施の形態について図面を参照して詳細に説明する。
図1は、本発明が適用されるゲーム機50の内部構成を示す図である。
ゲーム機50は、CPU1と、操作部2と、主記憶装置3と、記録媒体4と、ジオメトリックプロセッサ5と、ローカルバッファ6と、ディスプレイプロセッサ7と、テクスチャバッファ8と、ディスプレイ9とから構成される。
CPU1は、操作部2と主記憶装置3と記録媒体4、およびテクスチャバッファ8に接続される。操作部2によるユーザーの各種操作に関する制御信号が入力されるとともに、主記憶装置3や記録媒体4に記憶された各種プログラムを実行するためのものである。その詳細は後述する。
操作部2は、CPU1に接続され、ゲーム機50とユーザーとのインターフェースとしての役割を有し、ユーザーが種々の操作を行うことで、後述するエンブレムの作成や、キャラクタの貼り付け、さらにゲーム実行中におけるキャラクタの操作などを行うことができる、そして操作部2は、ユーザーの所定の操作に対応した制御信号をCPU1に出力する。
主記憶装置3は、CPU1に接続されるとともにテクスチャバッファ8に接続されている。主記憶装置3には、エンブレム表示のためのプログラムなど各種プログラムが格納されている。また、CPU1で実行されたプログラムに対する各種データも記憶されることになる。
記録媒体4には、ゲームの種類ごとに異なるプログラムが記録されており、例えばCD−ROMなどの媒体から構成されている。記録媒体4は、ゲーム機50と着脱可能になっており、記録媒体4をゲーム機50に装着させると、記録媒体4に格納されたプログラムがCPU1の制御により、CPU1を経由して主記憶装置3に出力させるようになっている。
ジオメトリックプロセッサ5は、CPU1、ローカルバッファ6、及びディスプレイプロセッサ7に接続されている。ジオメトリックプロセッサ5は、CPU1から出力される各種データが入力され、このデータをもとに画面表示等を行うための演算を行う。演算した結果、演算データは、ディスプレイプロセッサ7に出力される。
ローカルバッファ6は、ジオメトリックプロセッサ5と接続され、ジオメトリックプロセッサ5から出力される演算データを必要に応じて記憶する。
ディスプレイプロセッサ7は、テクスチャバッファ8と接続されとともに、ディスプレイ9に接続されている。ジオメトリックプロセッサ5で演算した演算データをもとに実際にディスプレイ9に表示させるために演算を行い、画面データとしてディプレイ9に出力する。また、ディスプレイプロセッサ7は、ジオメトリックプロセッサ5からの演算データをもとに適宜、テクスチャバッファ8に出力する。
テクスチャバッファ8は、ディスプレイプロセッサ7から出力されるテクスチャを一時記憶するとともに、ディスプレイ9にも接続され、表示画面(フレーム画面)に対する奥行きを示すZ値も一時記憶する。このZ値の記憶については後述する。また、テクスチャバッファ8は、CPU1及び主記憶装置3にも接続され、CPU1からの制御信号が入力されて主記憶装置3から転送されるデータを一時記憶する。
ディプレイ9は、ディスプレイプロセッサ7から出力される画面データをもとに、実際にゲーム画像を表示するためのものである。また、上述のZ値をテクスチャバッファ8に出力する。
次に図2を用いてエンブレムを貼り付ける対象となるキャラクタ(オブジェクト)を表示させる描画の処理について説明する。この描画の処理のためのプログラムは記録媒体4に記録され、記録媒体4がゲーム機50に装着された場合にCPU1の制御により読み出され、主記憶装置3に転送されて、主記憶装置3に記憶されていることが前提となる。もちろん、当該プログラムが予めゲーム機50に組み込まれて主記憶装置3に予め記憶されている場合でも適用できる。
まず、オブジェクトの描画についての処理が開始される(ステップS10)と、CPU1は、カメラの行列を生成する(ステップS11)。ここでは、グローバル座標系(x、y、z)の所定の位置にオブジェクト(キャラクタ)が存在している場合に、その座標系の任意の位置に実際にディスプレイ9の画面に表示される視点の位置が存在する。この視点の位置に“カメラ”が位置するものとして、そのカメラの位置等を行列式で表す。そして、この行列式がカメラの行列なのである。カメラの行列式に含まれるものは、カメラのグローバル座標系の位置座標の他、グローバル座標系の原点からの角度の値も含まれる。カメラの行列は、例えば4行3列の行列式や、4行4列の行列式で表されるが、もちろんその他n行m列の行列式で表すことも可能である。生成した行列式は、主記憶装置3に出力して主記憶装置3で記憶される。
次いで、CPU1は、描画開始のリクエストをジオメトリックプロセッサ5に出力する(ステップS12)。これによりジオメトリックプロセッサ5は、オブジェクト描画のための処理を開始することになる。本実施例では、ディスプレイ9に表示されるゲーム画像の1フレーム単位の時間(1/60秒:1秒で60フレーム表示される場合)ごとにこのリクエストを出力する。オブジェクトを含む画像の描画は1フレーム単位で行われるからである。
次いで、CPU1は、ステップS11で生成したカメラの行例式を主記憶装置3から読み出す(ステップS13)。
次いで、CPU1は、モデルの位置の移動のための処理を行う(ステップS14)。すなわち、ステップS13で読み出したカメラの行列式と、オブジェクト(モデル)の位置とから、カメラの位置からの相対的なオブジェクトの位置を演算する処理を行う。具体的には、ともにグローバル座標系で表されたオブジェクトの位置とカメラの位置とから、カメラの位置を原点とした場合のオブジェクトの位置を演算する処理を行う。これにより、カメラの視点からのオブジェクトの相対位置、すなわち、実際にディスプレイ9の画面上に表示されるオブジェクトの位置を求めることができる。
次いで、CPU1は、モデルデータの転送を行う(ステップS15)。具体的には、CPU1は、ステップS14で演算したオブジェクトの相対位置を示すモデルデータを主記憶装置3に出力する。主記憶装置3は、このモデルデータを一時記憶する。
次いで、CPU1は、1フレームに含まれるすべてのオブジェクトに対してオブジェクトの相対位置を演算したか否か判断する(ステップS16)。まだ、フレーム内に演算していないオブジェクトがあるなら(ステップS16で“No”のとき)、処理は再びステップS13に戻り主記憶装置3からカメラの行列式を呼び出して上述したカメラからの相対位置を各オブジェクトに対して演算処理を行う。
1フレームに含まれるすべてのオブジェクトに対する演算が行われた場合(ステップS16で“Yes”の場合)、CPU1は、描画終了のリクエストをジオメトリックプロセッサ5に出力する(ステップS17)。そして、CPU1は、このリクエストの出力をトリガとして主記憶装置3に記憶した各オブジェクトのモデルデータを読み出して、ジオメトリックプロセッサ5に出力する。これにより、ジオメトリックプロセッサ5は、モデルデータをもとに実際にディスプレイ画面9上にオブジェクトを表示するための演算処理が行われる。
すなわち、ジオメトリックプロセッサ5から出力される演算データをもとに、ディスプレイプロセッサ7は、画面表示のための処理を行い、その出力がディスプレイ9に出力される。そして、ディスプレイ9では画面上でエンブレムを貼り付ける対象のオブジェクトが表示されることになる(ステップS18)。そして、オブジェクト描画のための処理が終了する(ステップS19)。
なお、オブジェクトの描画処理(ステップS18)では、ジオメトリックプロセッサ5において各オブジェクトを表現するポリゴンのα値をすべて“0”(または“1”)にして色表現のない透明なポリゴン面から構成されるオブジェクトを表現している。計算量を減らすためである。
この描画の処理により、実際にディスプレイ9に表示されるオブジェクトの例を図3に示す。ディスプレイ画面15のほぼ中央には、ユーザーがゲーム内に使用するキャラクタ16が表示される。このキャラクタ16がエンブレムを貼付するキャラクタである。図面ではわかりにくいが、実際には透明のキャラクタが表現されている。
画面15の下部には、操作方法17が表示される。操作方法17は、ディスプレイ9の画面上における操作と操作部2との対応関係を示すもので、操作部2の操作によりキャラクタ16の位置を変えたりすることができるようになっている。ちなみに、この画面を表示させるには、例えばメインメニューで個人データ等の選択画面を選択することで表示されるようになっている。
次に、図3のように表示されたキャラクタに対して所望のエンブレムを投影して貼付する処理について図4を参照して説明するが、この処理が開始される前の段階でエンブレムの作成を行うことが前提となっている。
エンブレムの作成画面の例を図5に示す。ここでエンブレムとは、図3に表示されたキャラクタの所望の位置に貼付するイメージである。ユーザーはこの作成画面で、エンブレムを好みの画像にしたり、編集したりすることができる。この作成画面も、ゲームのメインメニューで個人データ等の所定の選択を行うことで表示されるようになっている。
この作成画面(EMBLEM EDIT)は、エンブレム作成ボタン群21と、エンブレム拡大画面23と、表示画面24と、色選択ボタン群25とから主に構成される。
エンブレム作成ボタン群21は、エンブレム28を画面内で作成するための複数のボタン210〜221から構成され、アイコン27を所定の操作部2の操作により画面20上で選択できるようになっている。
ボタン210は、自由に線を拡大画面23上で描くためのボタンである。アイコン27の画面内の操作でボタン21をクリックすると拡大画面23内で自由に線を描くことができるようになっている。
ボタン211は、いわゆる“消しゴム”のためのボタンで、アイコン27の操作により拡大画面23で描いた線を消すことができる。
ボタン212は、ペイントのためのボタンで、このボタンをクリックして拡大画面23内でアイコン27を所定の位置に移動させ、所定の操作を行うことでアイコン27が位置する所定範囲内で色が付されるようになされている。
ボタン213は、四角形を描くためのボタンであり、画面内での操作により拡大画面23内で四角形を描くことができる。
ボタン214は、描いたエンブレム28をプレビューするためのボタンであり、ボタン215は、作成画面を終了させるためのボタンである。
ボタン216は、ペンの太さを設定するためのボタンで、拡大画面23で描くエンブレムの線の太さを設定することができる。
ボタン217は、拡大画面23内で描いたエンブレム28をクリアするためのボタンで、ボタン218は直線を描くためのボタンである。
ボタン219は、円を描くためのボタンであり、ボタン220は、エンブレム28をさらに拡大させるためのボタンである。そして、ボタン221は、いわゆる“Undo”機能のボタンであり、直前の操作を取り消して元に戻すためのボタンである。
拡大画面23には、エンブレム28を拡大表示させ、細かな調整を行うことができるようになっている。
表示画面24は、後述する図10に示す投影を行う画面で表示されるエンブレムの大きさとほぼ等しい大きさでエンブレム28が表示される画面である。ユーザーはこの画面を確認しながら拡大画面23においてエンブレム28を作成することができる。
色選択ボタン群25は、複数の色がボタンとして表示されており、アイコン27を画面20で移動させ所望の色を示すボタンを選択することで、拡大画面23に表示されたエンブレム28に色を付すことができる。
このエンブレム作成画面20は、以下のようにして表示されることになる。すなわち、記録媒体4に記録されたエンブレム作成画面を表示するためのプログラムが格納され、これをCPU1が読み出し、表示のための所定のデータをジオメトリックプロセッサ5に出力する。ジオメトリックプロセッサ5は、表示のための処理を行い、演算データをディスプレイプロセッサ7に出力する。ディスプレイプロセッサ7は演算データをもとに表示のためのデータを生成し、ディスプレイ9に出力され、実際のエンブレム作成画面がディスプレイ9に表示されることになる。
そして、操作部2の所定の操作により、その制御信号がCPU1に出力されその制御データをもとにCPU1は、再びその操作に対応した表示を上述の動作により行う。終了ボタン215の操作によりそれまで作成画面20で作成したエンブレム28、すなわち、ジオメトリックプロセッサ5でエンブレム28の表示の演算を行うためのデータは、主記憶装置3に記憶されることになる。以上がエンブレム作成のための処理である。
再び図4に戻って、上述により作成したエンブレム28をキャラクタ16に貼付する投影の処理について説明する。かかる投影処理のためのプログラムは記録媒体4に記録され、記録媒体4をゲーム機50に装着させた場合にCPU1の制御により読み出され、主記憶装置3に転送され、この主記憶装置3で記憶される。もちろん、当該プログラムが記録媒体4ではなく、主記憶装置3に予め記憶されており、当該プログラムが組み込まれた組み込み型のゲーム機50でも適用される。
投影の処理が開始される(ステップS30)と、CPU1はライト行例の生成を行う。ライト行列の生成とは、グローバル座標系で表示されたキャラクタ16に対して、任意の位置(ライト位置)を示す行列式を生成することである。このライト位置からの視点がエンブレム28をキャラクタ16に貼り付けを行うための画面の視点となる。ちなみに、ここではライトの位置と上述したカメラの位置とは同じである。位置が異なる場合とは、例えば実際にゲームを実行している最中にキャラクタ16自身はカメラからの視点、エンブレム28はライトからの視点とする場合が考えられる。このようにすることで、エンブレム28のみが例えばキャラクタ16の側面に実際の画面からの視点とは異なる視点のエンブレム28を表示することができるようになる。
図6には、グローバル座標系で所定の位置にキャラクタ16とライトの位置30とが存在する図を示す。この場合ライトの位置30は、キャラクタ16に対して右側後方に位置している。このライトの位置30とカメラの位置とが同じ場合には、ライトの位置30からの視点が実際の画面上に表示されることになる。
さらに、図6に示すようにライトの位置30から所定の距離離れた位置にエンブレムテクスチャ面31が存在する。これは上述したエンブレム作成画面20(図5参照)で作成したエンブレム28が表示されるテクスチャ面である。
ライトの位置とカメラの位置とはこの場合同じであるので、ライト行列は上述したカメラの行列と同様の行列式で表現される。作成したライト行列は主記憶装置3に出力し、一時記憶される。
再び図4に戻って、ライト行列を生成したCPU1は、次いで、投影行列を生成する(ステップS32)。この投影行列は、図6に示すエンブレムテクスチャ面31が表示される位置や、テクスチャ面31の大きさを示す行列式である。ここでエンブレムテクスチャ面31の位置は、グローバル座標系ではライトの位置30から一定の距離に位置しているため、この距離やテクスチャ面31の大きさからこの投影行列を作成することができる。エンブレムテクスチャ面31は、初期設定で例えば0.5×0.5で表される。0.5はディスプレイ9に表示される画面の半分であり、0.5×0.5は画面の縦、横それぞれ半分の大きさを示す。生成した投影行列は、主記憶装置3に出力し、一時記憶される。
次いで、CPU1は、ビュー行列の生成を行う(ステップS33)。このビュー行列の生成は、ステップS31で生成したライト行列とステップS32で生成した投影行列とを乗算することで生成できる。すなわち、各ステップで主記憶装置3に記憶されたライト行列と投影行列とをCPU1が読み出し、乗算することで生成される。
次いで、CPU1は、カメラの行列を生成する(ステップS34)。上述したようにカメラの行列は、ディスプレイ9の画面上の視点を示す行列式で、ここではライトの位置30とカメラの位置とは一致しているので、ライト行列と同内容の行列式を生成することになる。生成の具体的処理は、上述した図2のオブジェクトの描画処理におけるカメラの行列の生成(ステップS11)と同様である。
次いで、CPU1は、ジオメトリックプロセッサ5に描画開始のリクエストを出力する(ステップS35)。このリクエストを出力するタイミングも上述したオブジェクトの描画処理(図2)と同様に、1秒で60フレーム表示できる本実施例のゲーム機50では1/60秒ごと(1フレーム表示される時間ごと)に出力する。
次いで、CPU1は、エンブレムテクスチャをテクスチャバッファ8に出力する(ステップS36)。図5で示すエンブレム28は、主記憶装置3に記憶されているので、CPU1は、主記憶装置3からエンブレム28の表示を行うためのデータを読出し、テクスチャバッファ8に出力し、テクスチャバッファ8に記憶される。
次いで、CPU1は、テクスチャ座標の生成を行う(ステップS37)。すなわち、作成したエンブレム28がキャラクタ16の各ポリゴン面に貼付されるように、テクスチャ面31に位置するエンブレムの座標をキャラクタ16の損算する位置に変換する。このテクスチャ座標の生成は、ステップS33で生成したビュー行列とキャラクタ16の3次元座標とを用いて生成する。エンブレム28はテクスチャ面では、2次元座標(いわゆるu―v座標系)であるが、キャラクタ16のポリゴンを形成する各頂点座標は3次元座標であるため、生成するテクスチャ座標は3次元座標として表現される。かかる、テクスチャ座標は、キャラクタ16上の座標に変換された座標であるので、ユーザーの作成したエンブレムがキャラクタ16上に貼付された画像が表示できるようになる。
次いで、CPU1は、カメラの行列をロードする(ステップS38)。すなわち、CPU1は、ステップS34で生成したカメラの行列を主記憶装置3から読み出す処理を行う。
次いで、CPU1は、モデルの位置の移動処理、すなわち、カメラの視点からの相対的なオブジェクト(ここではエンブレム28が貼付されたキャラクタ16)の位置の変換処理を行う(ステップS39)。オブジェクトの描画の処理と同様に、カメラの視点がディスプレイ9の実際の画面からの視点になり、グローバル座標系では任意の位置にあるカメラの位置に対して、このカメラ位置を例えば原点としてオブジェクトの位置の座標を演算する。
次いで、CPU1は、ステップS39で演算した各データを主記憶装置3に出力し(ステップS40)、主記憶装置3はこれらのデータ(モデルデータ)を記憶する。
次いで、1フレーム内のすべてのオブジェクトに対する相対位置の演算を行うと、描画終了のリクエストをジオメトリックプロセッサ5に出力する(ステップS41で“Yes”のとき)。描画終了のリクエストをCPU1がジオメトリックプロセッサ5に出力しないとき(ステップS41で“No”のとき)、すなわち、1フレームに含まれるすべてのオブジェクトに対する演算を終了していないとき、処理は再びステップS35に移行し、上述の処理を繰り返すことになる。
そして、CPU1は、このリクエストの出力をもとにステップS40で主記憶装置3に記憶したモデルデータを読み出して、ジオメトリックプロセッサ5に出力する。これにより、ジオメトリックプロセッサ5は、実際にディスプレイ画面9上にエンブレムが貼付されたオブジェクトを表示するための処理が行われる。さらに、ジオメトリックプロセッサ5から出力される演算データからディスプレイプロセッサ7は、画面表示のための処理を行い、その出力がディスプレイ9に出力される。そして、ディスプレイ9では画面上でエンブレムが貼付されたオブジェクトが表示されることになる(ステップS42)。そして、オブジェクト描画のための処理が終了する(ステップS43)。
この投影の処理により実際にディスプレイ9上に表示される、オブジェクトの例を図7、図8に示す。図7は、キャラクタ16にエンブレムを貼り付ける直前の画面であり、処理としてはテクスチャ座標の生成を行っていない(ステップS37の処理が行なわれていない場合)もので、図8はエンブレムをキャラクタ16に貼り付けた場合(ステップS37でテクスチャ座標の生成が行われた場合)の画面を示す。
図7は、エンブレム28がまだキャラクタ16に貼り付いていないので、エンブレム28は、図5に示すエンブレム作成画面20の実際の表示画面24に表示されたエンブレム28がそのまま画面15に表示されている。画面15の下部には操作方法17が表示され、この記述に基づいてユーザーは操作部2を操作することで、エンブレム28の位置を移動させたり、その大きさを変化させたりすることができる。
操作部2によってエンブレムの大きさを変化させたとき、その変化に対応する制御信号が操作部2からCPU1に出力され、この制御信号に基づいてCPU1は、上述の投影の処理(図4)のステップS32の投影行列の生成で、その大きさに対応した投影行列を生成する。すなわち、大きさが変化すると初期設定の0.5の値が変化してその大きさの値に対応する値を用いて投影行列を生成して上述の投影の処理を行うことになる。
また、エンブレムの位置を変化させたいときは、操作部2によって所定の操作により行われる。すなわち、その変化させた位置に対応する制御信号が操作部2からCPU1に出力される。そしてCPU1は、この制御信号に基づいて画面の視点位置、すなわちグローバル座標系のライトの位置や原点からの角度が変化し、その移動した位置に対応するライト行列をステップS31生成して以後上述の処理(図4参照)を行って、エンブレム28の移動を行うことができる。
また、キャラクタ16の表示位置を変えたい場合は、上述したオブジェクトの描画処理(図2)で表示された画面に対して、操作部2での所望の操作により行われる。すなわち、その操作に対応する制御信号が操作部2からCPU1に出力され、この制御信号に基づいてCPU1は、変化させた表示位置に対応するカメラの行列をステップS11で生成することで、以後の処理を行うことで実現できる。
そして、図7に表示されたエンブレム28のキャラクタ16に対する位置や大きさをユーザーが画面15内で確認して、これでよければ操作部2に所定の操作を行うことで、上述の投影の処理(図4)がすべて行われて図8に示す実際のキャラクタ16にエンブレム28が貼り付いた状態で画面表示される。
このキャラクタ16の視点位置の移動も同様にカメラ行列又はライト行列を移動した位置に対応した行列式を生成する(ステップS30、ステップS34)ことで実現できる。
ここで、エンブレムの貼り付けについて、1つあるいは複数のポリゴンから構成されるキャラクタ16の各パーツごとに行うことも可能である。
また、表示されるキャラクタ16は、透明に表示されるが、キャラクタ16上の貼り付け位置は、最も手前、すなわちカメラからもっとも近いポリゴン面に行うようにしている。
以上のようにして、エンブレム28のキャラクタ16への投影を行うことができる。したがって、画面を見ながら貼り付けたい位置に自由にエンブレム29をキャラクタ16貼り付けることができる。また、エンブレム28が貼付されたキャラクタ16を貼付直後に確認できるので、熟練した技能を必要とせず、だれでも所望のエンブレムを貼付することができる。さらに、操作部2の所定の操作により投影が行われるため、複雑な操作を必要としない。
次に、実際にゲームを行う場合に、エンブレム28が貼付されたキャラクタ16を含むゲームの表示の処理について図9から図11を用いて説明する。かかる表示処理のためのプログラムは記録媒体4に記録され、この記録媒体4をゲーム機50に装着されるとCPU1の制御により主記憶装置3に転送され、主記憶装置3にて記憶され、以後の処理が行われる。もちろん、予めこの処理のためのプログラムが主記憶装置3に記憶されている、プログラム組み込み型のゲーム機でも適用される。
まず、ゲーム表示の処理が開始される(ステップS50)と、CPU1は、ライト行列を生成する(ステップS51)。上述した投影処理(図4)のライト行列の生成(ステップS31)と同様である。すなわち、グローバル座標系での所定の位置(ライトの位置)を行列式で表現したものを生成する。同様にm行n列で表現できる。生成したライト行列は主記憶装置3に出力され、一時記憶される。
次いで、CPU1は、投影行列を生成する処理を行う(ステップS52)。上述の投影処理(図4)の投影行列の生成(ステップS32)と同様である。すなわち、図6で参照したようにライトの視点位置30からエンブレムテクスチャ面31までの距離が一定であるため、エンブレムテクスチャ面31のグローバル座標系の位置、テクスチャ面31の大きさなどを行列式で表現したものを生成する。生成した投影行列は主記憶装置3に出力され、一時記憶される。
次いで、CPU1は、ビュー行列を生成する処理を行う(ステップS53)。すなわち、上述のステップS51及びS52で生成したライト行列と投影行列とを主記憶装置3から読み出してこれらを乗算してビュー行列を生成する。生成したビュー行列は主記憶装置2に出力され、一時記憶される。
次いで、CPU1は、デプス行列を生成する(ステップS54)。これは、予め主記憶装置3に記憶されたデプス用の行列とステップS51で生成したライト行列とを乗算して生成する。生成したデプス行列は、主記憶装置3に出力され一時記憶される。
次いで、CPU1は、現在のカメラの位置から投影行列を生成する(ステップS55)。生成した投影行列は、主記憶装置3に出力され一時記憶される。また、CPU1は、現在のカメラ位置からカメラ行列を生成する。生成したカメラ行列は主記憶装置3に出力され一時記憶される。
次いで、CPU1は、描画開始のリクエストをジオメトリックプロセッサ5に出力する(ステップS56)。これにより、ジオメトリックプロセッサ5は、描画のための処理の準備に移行する。ここでは、いわゆるプリレンダリングの処理のための描画開始のリクエストである。
次いで、CPU1は、ステップS55で生成したカメラ行列を主記憶装置3から読み出す(ステップS57)。
次いで、CPU1は、オブジェクト(モデル)を表示したい位置に移動させる(ステップS58)。具体的には、オブジェクトの描画の処理(図2参照)のステップS14と同様に、ともにグローバル座標系で表されたオブジェクトの位置とカメラの位置とから、カメラの位置を原点とした場合のオブジェクトの位置を演算する処理を行う。これにより、カメラの視点からのオブジェクトの相対位置、すなわち、実際にディスプレイ9の画面上に表示されるオブジェクトの位置を求めることができる。
次いで、CPU1は、モデルデータの転送を行う(ステップS59)。具体的には、CPU1は、ステップS58で演算したオブジェクトの相対位置を示すモデルデータを主記憶装置3に出力され、一時記憶される。
次いで、CPU1は、描画終了のリクエストをジオメトリックプロセッサ5に出力する(ステップS60)。そして、CPU1は、主記憶装置3に記憶されたモデルデータを読み出してジオメトリックプロセッサ5に出力してオブジェクトの描画のための処理が行われる(ステップS60)。
次いで、CPU1は、図10のステップS62に移行して、描画結果のZ値をテクスチャバッファ8に出力させるようジオメトリックプロセッサ5に指示データを出力する。ここでディスプレイ9の画面上にオブジェクトが表示されている場合に、画面上の任意の点(カメラの位置からの相対的なオブジェクトの位置)は2次元座標で表されているものの、グローバル座標系では3次元座標として表されている。そこで、画面上の任意の画素ごとにグローバル座標系でオブジェクトが表された場合のZ値、すなわち奥行きを表す値をテクスチャバッファ8に記憶されるよう、CPU1は指示データを出力する。この指示データを受けたジオメトリックプロセッサ5は、オブジェクトの描画のための演算処理を行っているときに、各Z値を演算してディスプレイプロセッサ7にそのZ値を出力する。Z値はディスプレイプロセッサ7からディスプレイ9を経由してテクスチャバッファ8に出力される。そして、テクスチャバッファ8においてZ値が保存されることになる。
次いで、CPU1は、レンダリングのため描画開始のリクエストをジオメトリックプロセッサ5に出力する(ステップS63)。
次いで、CPU1は、主記憶装置3に記憶したカメラ行列を読み出し(ステップS64)、カメラの位置からの相対的なオブジェクトの位置を演算する(ステップS65)。具体的には、ステップS58と同様にともにグローバル座標系で表されたオブジェクトの位置とカメラの位置とから、カメラの位置を原点とした場合のオブジェクトの位置を演算する処理を行う。そして、CPU1は、演算したモデルデータを主記憶装置3に出力し(ステップS66)、モデルデータは主記憶装置3に記憶される。
次いで、CPU1は、ステップS54で生成したデプス行列を主記憶装置3から読み出す(ステップS67)。
次いで、CPU1は、主記憶装置3に予め記憶された勾配テクスチャとステップS54で生成したデプス行列とを主記憶装置3から読み出して、デプス値を生成する。ここでデプス値とは、投影の処理(図4参照)のステップS39で生成したα値が所定の値(たとえば“0”)である透明なモデルに対する奥行きを示す値である。生成したデプス値は主記憶装置3に出力され一時記憶される。
次いで、CPU1は、ステップS53で生成したビュー行列とステップS62で生成したZ値とをそれぞれ主記憶装置3とテクスチャバッファ8から読み出す(ステップS69)。
次いで、CPU1は、ステップS68で生成したデプス値とステップS69で読み出したZ値とを比較する(ステップS70)。デプス値は、演算により生成したモデルの奥行きを示す値で、Z値は実際にディスプレイ表示されたモデルの奥行きを示す値である。これらを比較することで、画面から見てどちらが手前に位置しているかを判断する。例えば、Z値の方が大きければ白、そうでなければ黒を透明なモデルに描画する。
次いで、CPU1は、主記憶装置3に記憶されたエンブレムのデータがテクスチャバッファ8にコピーされるよう主記憶装置3とテクスチャバッファ8を制御する(ステップS71)。したがって、ユーザーが作成したエンブレムの表示のためのモデルデータは主記憶装置3とテクスチャバッファ8に記憶されることになる。
次いで、CPU1は、エンブレムテクスチャ座標の生成を行う(ステップS72)。この生成も投影の処理(図4参照)と同様に、作成したエンブレムがオブジェクトの各ポリゴン面に貼付されるように、エンブレムの座標を変換する。このテクスチャ座標の生成は、ステップS53で生成したビュー行列とオブジェクトの3次元座標とを用いて生成する。エンブレムはテクスチャ面31では、2次元座標(いわゆるu―v座標系)であるが、オブジェクトのポリゴンを形成する各頂点座標は3次元座標であるため、生成するテクスチャ座標は3次元座標として表現される。かかる、テクスチャ座標は、オブジェクトの座標に変換された座標であるので、ユーザーの作成したエンブレムがキャラクタ上に貼付された画像が表示できるようになる。
次いで、CPU1は、フェードアウト用行列の生成を行う(ステップS73)。フェードアウト用の行列とは、エンブレムがキャラクタ上に貼付された場合に、例えばライトの位置によってはエンブレムが一定の直線や曲線をならずに、のこぎりの刃のように鋭角的な形状が繰り返される場合がある。そこで、かかる形状をオブジェクト上で目立たなくする処理をおこなうためにこの行列を生成する。このフェードアウト用の行列生成のためのデータは予め主記憶装置3に記憶されており、これをCPU1が読み出すことでこの行列を生成する。
次いで、CPU1は、図11にステップS74に移行して、フェードアウト用行列からテクスチャ座標を生成する。具体的には、上述のステップS73で生成したフェードアウト用行列と各オブジェクトのポリゴン面の法線ベクトルとからフェードアウト用の座標を生成する。
次いで、CPU1は、バックフェースのテクスチャを主記憶装置3から読み出す(ステップS75)。バックフェースとは、オブジェクトのうちディスプレイ9の画面上からは見えない部分のオブジェクトである。かかるバックフェースのテクスチャは、予め主記憶装置3に記憶されている。
次いで、CPU1は、色消しの処理を行う(ステップS76)。上述のステップS75で読み出したバックフェーステクスチャに対してα値を所定値にしたり、黒にしたりすることで色消しを行う。
次いで、CPU1は、透明モデルに対するカメラ位置を演算するため、主記憶装置3に記憶されたカメラの行列を読み出す(ステップS77)。そして、CPU1は、読み出したカメラの行列をもとにカメラ位置からの相対的なオブジェクトの位置を演算する(ステップS78)。演算したオブジェクトの位置は一旦主記憶装置3に出力して一時記憶させる(ステップS79)。
次いで、CPU1は、1フレーム分の処理が終了すると描画終了のリクエストをジオメトリックプロセッサ5に出力する(ステップS80で“Yes”のとき)。まだ1フレーム分の処理が終了していないとき(ステップS80で“No”のとき)は、処理は再びステップS63に移行して上述の処理を繰り返す。
描画終了のリクエストを出力した場合には、CPU1は、ステップS81に処理が移行し、オブジェクトの描画の処理を行う(ステップS81)。具体的には、CPU1は、ステップS59、ステップS66、及びステップS79で主記憶装置3に記憶されたモデルデータを読出しジオメトリックプロセッサ5に出力し、実際にエンブレムが貼付されたオブジェクトを含む画面全体の描画をするための演算を行う。
演算したデータは、ディスプレイプロセッサ7からディスプレイ9に出力され、実際にディスプレイ9に表示されることになる。これにより、実際にゲーム実行中、エンブレム28が貼付されたキャラクタ16を含む、1フレームの画像を表示することができる。そして、上述した処理を繰り返すことで連続した画面表示を行うことができる。
ディスプレイに表示された例を図12に示す。画面15内にはユーザーが操作を行うキャラクタ(オブジェクト)16が位置し、上述したエンブレム28が、キャラクタ16の背面に実際に貼り付けられたように位置している。
次に、ユーザーによって作成したエンブレム画像がオブジェクト16の各面の表面、裏面にすべて貼り付けられ、これを視点から最も近い投影面にのみエンブレムを貼り付けることに関して、図13乃至図19を参照して説明する。
この処理は上述したゲーム実行中の表示処理(図9乃至図11参照)でステップS72、S73の段階で、CPU1の制御信号を受けたジオメトリックプロセッサ5によって実行される(図10参照)。
まず、図13(A)に示すようにエンブレム“A”という文字が例えば図5のエンブレム作成画面で作成した場合で説明する。
ここで、3次元空間座標系(グローバル座標系)の任意の位置座標を(x、y、z、1)、エンブレムが存在するテクスチャ空間上の座標を(s、t、1)としたときに、この3次元座標系の位置(x、y、z、1)をテクスチャ空間上の座標(s、t、1)へマッピング(テクスチャマッピング)するための行列式は以下のように表される。
Figure 2004246877
ここで、行列式中の“t”、“b”、“l”、“r”は、テクスチャ面31の大きさを表すためのパラメータで、それぞれテクスチャ空間における原点からの上方向の長さ(top)、下方向の長さ(bottom)、右方向の長さ(left)、左方向の長さ(right)を示す。この関係を図14に示す。ここで、図15(A)は、エンブレムとオブジェクト16との関係を表した図面である。オブジェクト16に対してテクスチャ面31が図のように存在し、その面には予め作成したエンブレム“A”が位置する。ここでテクスチャ面31の大きさを表す4つのパラメータは、テクスチャ空間上における面31の大きさを表すものである。
また、“scaleS”、“scaleT”は、テクスチャ面31で作成したエンブレムをオブジェクト16の位置する3次元空間座標系に位置させたときのエンブレムの大きさを調整するためのパラメータである。それぞれ横方向、縦方向の大きさを調整するものである。これにより、テクスチャ面31で作成したエンブレムの大きさを3次元空間座標系内で調整することができる。図15(A)で説明すると、このエンブレム“A”をオブジェクト16に貼り付けたときの3次元座標空間上のエンブレムの大きさを調整することができる。
さらに、“transS”、“transT”は、テクスチャ面31の原点と3次元空間座標系の原点との位置ずれを補正するためのパラメータである。それぞれ、横方向と縦方向を表す。テクスチャ面31の原点は例えば図14の(0、0)の位置であって、3次元空間座標系の原点位置とは必ずしも一致しない。図15(B)は、図15(A)に対してオブジェクト16の先端を正面としたときの断面図を示す。図15(A)においてテクスチャ面31の中心位置をテクスチャ空間上の原点にとったとき、3次元空間座標系の原点がこの位置にないと、3次元空間座標系にこのエンブレムを貼り付けたときに、図15(B)の面A(オブジェクト16の羽の部分)にエンブレムが位置することができなくなってしまう。この2つのパラメータを調整することで、両座標系の原点位置のずれを補正することができる。
この行列式(1)において、例えば、t=−1.0、b=1.0、l=−1.0、r=1.0(テクスチャ空間上のテクスチャ面の大きさが原点から“1”の大きさ)、scaleS=0.5、scaleT=0.5(3次元空間座標系でのテクスチャ面の大きさはテクスチャ空間座標系の半分)、transS=0.5、transT=0.5(テクスチャ面の原点位置を縦、横0.5づつ、ずらした位置が3次元空間座標系での原点)としたとき、行例式(1)は、
Figure 2004246877
と表される。この行列式(2)から3次元空間座標系の任意の位置(x、y、z、1)に対するテクスチャ空間座標系の任意の位置(s、t、1、1)は、
Figure 2004246877
となる。この2つの式(3)は、x、yが等しい3次元空間座標系の点には同一のテクスチャ座標がマッピングされることを示す。すなわち、3次元空間座標系でx、yの値が等しい点において、この3次元空間座標系で奥行きを示すzの値がどのような値をとっても、テクスチャ座標の同一の点が3次元座標系に位置することになる。このことを、図面を用いて説明すると、図15(B)に示すようにオブジェクト16は、各パーツに対して面Aから面Hが存在する。オブジェクト16の翼の部分には2つの面A、面Bから構成される。このとき、奥行きのzの値をどのようにとってもx、yの位置が等しいと同一のテクスチャ面がマッピングされることになるから、図16(A)に示すようにテクスチャ面31に作成したエンブレム“A”は、オブジェクト16の面Aのみならず、その奥行き(z方向)に向けて、面B、面C、面D、面E、面F、面G、面Hすべての面に貼り付けられることになる(図16(B)も参照)。
本発明では、このようにすべての面に貼り付けられたエンブレムを、視点から最も近い面にのみ貼り付けるようにジオメトリックプロセッサ5(図1参照)において処理を行う。まず、3次元空間上の法線(x、y、z、1)をテクスチャ空間(s、t、1、1)にマッピングするための以下のような行列式を考える。
Figure 2004246877
このとき、s、tは、
Figure 2004246877
を得る。すなわち、テクスチャ空間上の横方向の任意の点sは、どのようなtの値をとってもtには依存せず、また、3次元空間座標系でz成分が“1”(奥行き)のとき、s=1.0、z成分が“−1”のときs=0.0となる。つまり、法線が視点方向のときsの値は、“1.0”、視点と反対方向のときsの値は“0.0”となる値をテクスチャブレンディングのα値(透明度)とすることで、視点と反対方向の面(図16(B)において、面B、面D、面F、面H)に貼り付けられたエンブレムの透明度を“0”にするのである。
図17を用いて説明すると、この図17はテクスチャ空間上の任意の点を示し、式(5)に示すようにsの値はtの値に依存せず、各テクスチャ空間上の任意の点がα値を取るようなエンブレムを作成したテクスチャ面とは異なるテクスチャを用意する。例えば、図1の主記憶装置2に予め格納されていてもよいし、記録媒体4に格納されていてもよい。このテクスチャは、sの値が小さければ小さいほどα値が0に近づくよう、つまり、sの値が小さいほど除々に透明になるように構成している。よって、sの値が“0”のとき透明度を“0”(見えなくする)にすることで、オブジェクト16の背面(面B、面D、面F、面H)に貼り付けられたエンブレムを透明にするのである。
次に、ジオメトリックプロセッサ5は、オブジェクト16の面A、面C、面E、面Gに貼り付けられたエンブレムのうち、視点から最も近い面Aについてのみエンブレムを残すようにする。そのために、ジオメトリックプロセッサ5は各面に対するα値を比較することで、最も視点から近い面を判断する。従って、図19(A)、(B)に示すようにエンブレム“A”がオブジェクト16の視点から最も近い羽の部分に貼り付けられることになる。
なお、このα値の比較であるが、オブジェクト16を構成する画素ごとに比較することで最も近い面を判断している。すなわち、図19(A)に示すようにテクスチャ面31に作成したエンブレム“B”がオブジェクト16の羽の部分からはみ出して位置している場合で考える。この場合も、図20(A)、(B)に示すように各面(面Aから面H)にエンブレム“B”が張り付いて、これを背面(面B、面D、面F、面H)に位置するエンブレムに透明度“0”のテクスチャをマッピングさせて見えないようにし、α値によって最も近い面にエンブレム“B”が貼り付いている。しかし、図21(A)、(B)に示すようにこのα値を各画素で比較すると、エンブレム“B”がはみ出して貼り付いているオブジェクト16の胴体部分は、テクスチャ面31の上部の部分から画素単位にα値を比較すると最も近い位置に位置することになる。よって、はみ出したエンブレムは、視点から最も近いオブジェクト16の位置に貼り付けられることになる。
図1は、本発明が適用されるゲーム機の内部構成を示す図である。 図2は、オブジェクトを描画するための処理を示すフローチャートである。 図3は、エンブレムを貼り付ける対象のオブジェクトを画面表示した場合の一例を示す。 図4は、投影の処理を示すフローチャートである。 図5は、エンブレム作成画面の一例を示す図である。 図6は、投影の概念を説明するための図である。 図7は、実際に投影を行う直前の画面の一例を示す図である。 図8は、実際に投影を行った後の画面の一例を示す図である 図9は、ゲーム内での表示全体の処理を示すフローチャートである。 図10は、ゲーム内での表示全体の処理を示すフローチャートである。 図11は、ゲーム内での表示全体の処理を示すフローチャートである。 図12は、ゲームが実行されている場合の画面表示の一例を示す図である。 図13(A)、(B)ともに、オブジェクト16に貼り付けるエンブレムの例を示す。 図14は、テクスチャ面31の例を示す図である。 図15(A)は、テクスチャ面31とエンブレムとの関係を示す斜視図であり、図15(B)は側面図である。 図16(A)は、テクスチャ面31とエンブレムとの関係を示す斜視図であり、図16(B)は側面図である。 図17は、α値を有するテクスチャの例を示す図である。 図18(A)は、テクスチャ面31とエンブレムとの関係を示す斜視図であり、図18(B)は側面図である。 図19(A)は、テクスチャ面31とエンブレムとの関係を示す斜視図であり、図19(B)は側面図である。 図20(A)は、テクスチャ面31とエンブレムとの関係を示す斜視図であり、図20(B)は側面図である。 図21(A)は、テクスチャ面31とエンブレムとの関係を示す斜視図であり、図21(B)は側面図である。
符号の説明
1 CPU
2 操作部
3 主記憶装置
4 記録媒体
5 ジオメトリックプロセッサ
7 ディスプレイプロセッサ
8 テクスチャバッファ
9 ディスプレイ
15 画面
16 キャラクタ(オブジェクト)
20 エンブレム作成画面
21 エンブレム作成ボタン群
23 拡大画面
24 実際の画面
25 色選択ボタン群
30 ライトの位置
31 エンブレムテクスチャ面

Claims (12)

  1. 画面内で所定の操作を行うための操作手段と、所定の演算を行う演算処理手段と、前記操作手段と前記演算処理手段とに接続され前記演算処理手段を制御する制御手段とを有するゲーム機において、ゲームのキャラクタに所定の画像を投影するプログラムであって、
    前記操作手段の操作により2次元座標からなる画像を前記制御手段により生成する画像作成ステップと、
    前記操作手段からの入力信号に基づいて、前記画像作成ステップで作成した画像をキャラクタに投影するための仮想光源と、前記画像とを、三次元仮想空間内において前記キャラクタ周囲の任意の位置に配置し、前記投影光源から前記キャラクタに前記画像を投影した投影像を前記キャラクタに貼付するステップと、
    を実現させるためのプログラム。
  2. 前記キャラクタは、複数のパーツの組み合わせによって構成されており、前記制御手段に、前記操作手段の操作に応じて前記パーツのうち少なくとも一つが前記画像の投影対象として指定させ、前記指定されたパーツに対して前記投影画像を貼り付けさせる、
    ことを実現させるための請求項1記載のプログラム。
  3. 画面内で所定の操作を行うための操作手段と、所定の演算を行う演算処理手段と、前記操作手段と前記演算処理手段とに接続され前記演算処理手段を制御する制御手段とを有し、ゲームのキャラクタに所定の画像を投影するプログラムが組み込まれたゲーム機であって、
    前記操作手段の操作により2次元座標からなる画像を前記制御手段により生成する画像作成ステップと、
    前記操作手段からの入力信号に基づいて、前記画像作成ステップで作成した画像をキャラクタに投影するための仮想光源と、前記画像とを、三次元仮想空間内において前記キャラクタ周囲の任意の位置に配置し、前記投影光源から前記キャラクタに前記画像を投影した投影像を前記キャラクタに貼付するステップと、
    を実現させるためのプログラムが組み込まれたゲーム機。
  4. 前記キャラクタは、複数のパーツの組み合わせによって構成されており、前記制御手段に、前記操作手段の操作に応じて前記パーツのうち少なくとも一つが前記画像の投影対象として指定させ、前記指定されたパーツに対して前記投影画像を貼り付けさせる、
    ことを実現させるための請求項3記載のプログラムが組み込まれたゲーム機。
  5. 画面内で所定の操作を行うための操作手段と、所定の演算を行う演算処理手段と、前記操作手段と前記演算処理手段とに接続され前記演算処理手段を制御する制御手段とを有するゲーム機に対してゲームのキャラクタに所定の画像を投影するプログラムが格納された記録媒体であって、
    前記操作手段の操作により2次元座標からなる画像を前記制御手段により生成する画像作成ステップと、
    前記操作手段からの入力信号に基づいて、前記画像作成ステップで作成した画像をキャラクタに投影するための仮想光源と、前記画像とを、三次元仮想空間内において前記キャラクタ周囲の任意の位置に配置し、前記投影光源から前記キャラクタに前記画像を投影した投影像を前記キャラクタに貼付するステップと、
    を実現させるためのプログラムが格納された記録媒体。
  6. 前記キャラクタは、複数のパーツの組み合わせによって構成されており、前記制御手段に、前記操作手段の操作に応じて前記パーツのうち少なくとも一つが前記画像の投影対象として指定させ、前記指定されたパーツに対して前記投影画像を貼り付けさせる、
    ことを実現させるための請求項5記載のプログラムが格納された記録媒体。
  7. 三次元仮想空間内において、三次元座標からなるオブジェクトに所定の投影画像を投影したオブジェクト画像をディスプレイ装置に表示するための画像データを生成する画像データ生成手段としてコンピュータを動作させる画像表示制御プログラムであって、
    前記画像表示制御プログラムは、制御手段に、
    前記オブジェクトに投影される所定の投影画像データを生成させ、
    前記仮想空間内に前記オブジェクトおよび前記投影画像を配置させ、
    操作者の操作に基づいて前記オブジェクトに対する前記投影画像の相対位置と、前記投影画像を前記オブジェクトに投影する仮想光源の位置を決定させ、
    前記仮想光源と前記オブジェクト上の投影位置を含む投影面の距離を演算し、前記仮想光源から所定距離以上はなれた投影面を投影対象から除いて、前記オブジェクトにおいて前記投影画像を投影すべき投影面を演算させ、
    前記仮想光源を視点として前記投影画像を前記投影面に投影して、前記投影画像を前記オブジェクトの前記投影面に貼り付けさせ、
    前記投影画像が貼り付けられた前記オブジェクトについてのオブジェクト画像データを生成させる機能を実現させることを特徴とする画像表示制御プログラム。
  8. 前記制御手段に、さらに前記投影画像の画像データをユーザーが操作手段から入力する操作信号に基づいて生成させる機能を実現させることを特徴とする請求項7記載の画像表示制御プログラム。
  9. 前記制御手段に、前記投影画像を前記オブジェクトと同一ないし近似する形状を備える透明オブジェクトに対して投影して、前記投影画像を前記透明オブジェクトに貼り付けさせ、
    前記表示装置に前記投影画像を貼り付けた透明オブジェクトを前記オブジェクトに重ねて表示させる機能を実現させることを特徴とする請求項7又は8記載の画像表示制御プログラム。
  10. 前記仮想光源と前記投影オブジェクトと前記オブジェクトの位置関係によって、前記オブジェクトに貼り付けられた投影画像の変形が著しいと判断される場合、前記投影オブジェクトの透明度を変化させる機能を実現させることを特徴とする請求項7乃至9の画像表示制御プログラム。
  11. 前記オブジェクトが複数のパーツの組み合わせによって構成されており、
    前記制御部に、操作者の操作に応じて前記パーツのうち少なくとも一つが前記投影画像の投影対象として指定させ、前記指定されたパーツに対して前記投影画像を貼り付けさせる機能を実現させることを特徴とする請求項7乃至10記載の画像表示制御プログラム。
  12. 三次元仮想空間内において、三次元座標からなるオブジェクトに所定の投影画像を投影したオブジェクト画像をディスプレイ装置に表示するための画像データを生成する画像データ生成手段としてコンピュータを動作させる画像表示制御プログラムであって、
    前記画像表示制御プログラムは、制御手段に、
    前記オブジェクトに投影される所定の投影画像データを生成させ、
    前記仮想空間内に前記オブジェクトおよび前記投影画像を配置させ、
    操作者の操作に基づいて前記オブジェクトに対する前記投影画像の相対位置と、前記投影画像を前記オブジェクトに投影する仮想光源の位置を決定させ、
    前記仮想光源と前記オブジェクト上の投影位置を含む投影面の距離を画素単位で演算し、前記仮想光源を視点として前記投影画像の画素を前記視点から最も近い前記投影面上の画素に投影して、前記投影画像を前記オブジェクトの前記投影面に貼り付けさせ、
    前記投影画像が貼り付けられた前記オブジェクトについてのオブジェクト画像データを生成させる機能を実現させることを特徴とする画像表示制御プログラム。
JP2004011280A 2003-01-24 2004-01-20 ゲームのキャラクタに画像を投影するプログラム、そのプログラムが組み込まれたゲーム機、及びそのプログラムが格納された記録媒体 Pending JP2004246877A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2004011280A JP2004246877A (ja) 2003-01-24 2004-01-20 ゲームのキャラクタに画像を投影するプログラム、そのプログラムが組み込まれたゲーム機、及びそのプログラムが格納された記録媒体
US10/760,482 US7485041B2 (en) 2003-01-24 2004-01-21 Program for projecting an image onto a character in a game, game machine incorporating the program, and storage medium having the program stored thereon

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2003016638 2003-01-24
JP2004011280A JP2004246877A (ja) 2003-01-24 2004-01-20 ゲームのキャラクタに画像を投影するプログラム、そのプログラムが組み込まれたゲーム機、及びそのプログラムが格納された記録媒体

Publications (2)

Publication Number Publication Date
JP2004246877A true JP2004246877A (ja) 2004-09-02
JP2004246877A5 JP2004246877A5 (ja) 2007-03-08

Family

ID=33032078

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004011280A Pending JP2004246877A (ja) 2003-01-24 2004-01-20 ゲームのキャラクタに画像を投影するプログラム、そのプログラムが組み込まれたゲーム機、及びそのプログラムが格納された記録媒体

Country Status (2)

Country Link
US (1) US7485041B2 (ja)
JP (1) JP2004246877A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011227781A (ja) * 2010-04-21 2011-11-10 Mimaki Engineering Co Ltd プレビュー画像生成装置、プレビュー画像生成方法及びプレビュー画像生成プログラム

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7777761B2 (en) * 2005-02-11 2010-08-17 Deltasphere, Inc. Method and apparatus for specifying and displaying measurements within a 3D rangefinder data set
US7974461B2 (en) * 2005-02-11 2011-07-05 Deltasphere, Inc. Method and apparatus for displaying a calculated geometric entity within one or more 3D rangefinder data sets
JP4247218B2 (ja) * 2005-08-26 2009-04-02 株式会社コナミデジタルエンタテインメント ゲーム装置、ゲーム装置の制御方法及びプログラム
JP2010092263A (ja) * 2008-10-08 2010-04-22 Sony Corp 情報処理装置、情報処理方法、プログラム
CN114100160A (zh) * 2021-09-30 2022-03-01 成都博物馆 皮影戏增强展示方法、系统和可读储存介质

Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6488887A (en) * 1987-09-30 1989-04-03 Sony Corp Video special effect device
JPH07110873A (ja) * 1993-10-13 1995-04-25 Canon Inc 画像処理装置
JPH10134205A (ja) * 1996-10-31 1998-05-22 Toyota Motor Corp コンピュータグラフィックの影付け方法
JPH1165806A (ja) * 1997-08-12 1999-03-09 Matsushita Electric Ind Co Ltd マルチウィンドウ表示装置
JPH11272882A (ja) * 1998-03-19 1999-10-08 Konami Co Ltd 画像作成装置、画像作成方法、画像作成プログラムが記録された可読記録媒体およびビデオゲーム装置
JP2000076488A (ja) * 1998-08-26 2000-03-14 Mitsubishi Electric Corp 3次元仮想空間表示装置及びテクスチャオブジェクト設定情報作成装置
JP2000353251A (ja) * 1999-06-11 2000-12-19 Namco Ltd 画像生成システム及び情報記憶媒体
JP2001043392A (ja) * 1999-08-03 2001-02-16 Dainippon Printing Co Ltd 画像作成方法および装置
JP2001276417A (ja) * 2000-03-29 2001-10-09 Namco Ltd ゲーム装置及び情報記憶媒体
JP2002042162A (ja) * 2000-07-27 2002-02-08 Namco Ltd ゲームシステム及び情報記憶媒体
JP2002045566A (ja) * 2000-08-03 2002-02-12 Namco Ltd ゲーム装置および情報記憶媒体
JP2002157604A (ja) * 2000-11-16 2002-05-31 Sony Computer Entertainment Inc テクスチャ描画方法、エンタテインメント装置および記録媒体
JP2002260016A (ja) * 2001-02-28 2002-09-13 Konami Computer Entertainment Japan Inc 画像の描画方法及びそれに用いるプログラム

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1994029813A1 (fr) * 1993-06-10 1994-12-22 Namco Ltd. Synthetiseur d'image et appareil de jeu pourvu d'un tel synthetiseur
US5687307A (en) * 1993-09-21 1997-11-11 Canon Kabushiki Kaisha Computer graphic animation in which texture animation is independently performed on a plurality of objects in three-dimensional space
US5651104A (en) * 1995-04-25 1997-07-22 Evans & Sutherland Computer Corporation Computer graphics system and process for adaptive supersampling
US6256040B1 (en) * 1996-06-21 2001-07-03 Namco, Ltd. Three-dimensional game machine and information storage medium
JP3310257B2 (ja) * 2000-03-24 2002-08-05 株式会社コナミコンピュータエンタテインメントジャパン ゲームシステム及びゲーム用プログラムを記録したコンピュータ読み取り可能な記録媒体
JP3705739B2 (ja) * 2000-12-11 2005-10-12 株式会社ナムコ 情報記憶媒体及びゲーム装置
US7131907B2 (en) * 2001-02-22 2006-11-07 Kabushiki Kaisha Sega System and method for superimposing an image on another image in a video game
US6887157B2 (en) * 2001-08-09 2005-05-03 Igt Virtual cameras and 3-D gaming environments in a gaming machine
JP2003067767A (ja) * 2001-08-30 2003-03-07 Yukes:Kk ビデオゲーム用キャラクタ編集プログラム、その記録媒体及びビデオゲーム装置
JP4000812B2 (ja) * 2001-10-11 2007-10-31 株式会社セガ 画像生成システム及び画像生成プログラム
US6816164B2 (en) * 2002-12-04 2004-11-09 Konami Computer Entertainment America, Inc. Texture creating method, texture creating apparatus and computer-readable recording medium containing texture creating program

Patent Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6488887A (en) * 1987-09-30 1989-04-03 Sony Corp Video special effect device
JPH07110873A (ja) * 1993-10-13 1995-04-25 Canon Inc 画像処理装置
JPH10134205A (ja) * 1996-10-31 1998-05-22 Toyota Motor Corp コンピュータグラフィックの影付け方法
JPH1165806A (ja) * 1997-08-12 1999-03-09 Matsushita Electric Ind Co Ltd マルチウィンドウ表示装置
JPH11272882A (ja) * 1998-03-19 1999-10-08 Konami Co Ltd 画像作成装置、画像作成方法、画像作成プログラムが記録された可読記録媒体およびビデオゲーム装置
JP2000076488A (ja) * 1998-08-26 2000-03-14 Mitsubishi Electric Corp 3次元仮想空間表示装置及びテクスチャオブジェクト設定情報作成装置
JP2000353251A (ja) * 1999-06-11 2000-12-19 Namco Ltd 画像生成システム及び情報記憶媒体
JP2001043392A (ja) * 1999-08-03 2001-02-16 Dainippon Printing Co Ltd 画像作成方法および装置
JP2001276417A (ja) * 2000-03-29 2001-10-09 Namco Ltd ゲーム装置及び情報記憶媒体
JP2002042162A (ja) * 2000-07-27 2002-02-08 Namco Ltd ゲームシステム及び情報記憶媒体
JP2002045566A (ja) * 2000-08-03 2002-02-12 Namco Ltd ゲーム装置および情報記憶媒体
JP2002157604A (ja) * 2000-11-16 2002-05-31 Sony Computer Entertainment Inc テクスチャ描画方法、エンタテインメント装置および記録媒体
JP2002260016A (ja) * 2001-02-28 2002-09-13 Konami Computer Entertainment Japan Inc 画像の描画方法及びそれに用いるプログラム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011227781A (ja) * 2010-04-21 2011-11-10 Mimaki Engineering Co Ltd プレビュー画像生成装置、プレビュー画像生成方法及びプレビュー画像生成プログラム

Also Published As

Publication number Publication date
US7485041B2 (en) 2009-02-03
US20050119049A1 (en) 2005-06-02

Similar Documents

Publication Publication Date Title
JP3294149B2 (ja) 立体テクスチャマッピング処理装置及びそれを用いた3次元画像生成装置
JP2009237680A (ja) プログラム、情報記憶媒体および画像生成システム
JP2006068138A (ja) ゲーム装置および画像処理プログラム
JP2000090290A (ja) 画像処理装置および画像処理方法、並びに媒体
JP3744039B2 (ja) 透視図作成支援方法
JP4343207B2 (ja) ゲーム装置および画像処理プログラム
JP3352982B2 (ja) レンダリング方法及び装置、ゲーム装置、並びに立体モデルをレンダリングするプログラムを格納するコンピュータ読み取り可能な記録媒体
JP2004246877A (ja) ゲームのキャラクタに画像を投影するプログラム、そのプログラムが組み込まれたゲーム機、及びそのプログラムが格納された記録媒体
JP2006202083A (ja) 画像データ生成装置、および印刷装置
JP2003115055A (ja) 画像生成装置
US20170161918A1 (en) Recording medium, information processing apparatus, and depth definition method
JP3807654B2 (ja) ビデオゲーム用のプログラムを記録したコンピュータ読み取り可能な記録媒体、ビデオゲームにおけるオブジェクト描画方法及びビデオゲーム装置
KR20030068445A (ko) 화상 처리 방법
KR20150107747A (ko) 영상 생성 장치, 영상 생성 프로그램, 및 영상 생성 방법
JP4425589B2 (ja) 画像生成プログラム、画像生成方法及び画像生成装置
JP4106917B2 (ja) アニメーション生成プログラム及びこれを用いた画像処置装置
US6633291B1 (en) Method and apparatus for displaying an image
JP2000057376A (ja) 新視点画像生成方法
JP4839760B2 (ja) 画像生成装置、画像生成方法等
JP3596959B2 (ja) テクスチャ編集システム
JP2005208867A (ja) 3次元コンピュータ・グラフィックス・モデリング・システム
JP2968210B2 (ja) 三次元グラフィックス編集装置
JP4204114B2 (ja) ポリゴンデータの処理方法
JP2968209B2 (ja) 三次元グラフィックス編集装置および方法
JP3872469B2 (ja) データ処理方法、データ処理装置

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070122

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070122

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090728

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090925

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20091117