JP2003085592A - 画像生成システム、プログラム及び情報記憶媒体 - Google Patents
画像生成システム、プログラム及び情報記憶媒体Info
- Publication number
- JP2003085592A JP2003085592A JP2001273539A JP2001273539A JP2003085592A JP 2003085592 A JP2003085592 A JP 2003085592A JP 2001273539 A JP2001273539 A JP 2001273539A JP 2001273539 A JP2001273539 A JP 2001273539A JP 2003085592 A JP2003085592 A JP 2003085592A
- Authority
- JP
- Japan
- Prior art keywords
- motion
- character
- motion data
- screen
- interpolated
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Processing Or Creating Images (AREA)
Abstract
(57)【要約】
【課題】 そのモーションデータに基づきモーションが
再生されるキャラクタの動作に、インタラクティブ性を
与えてリアルな画像を生成することができる画像生成シ
ステム、プログラム及び情報記憶媒体を提供する。 【解決手段】 キャラクタ400について、現在再生中
のモーションが生成されているとき、攻撃方向を検知す
ると、当該キャラクタについて予め用意された第1及び
第2のモーションのキャラクタ402、404を生成す
るための第1及び第2のモーションデータを補間した補
間モーションデータ(図示せず)を生成する。そして、
現在再生中のモーションのモーションデータと、この補
間モーションのモーションデータを補間して、新たな防
御モーションを生成する。この際、フレーム進行に伴っ
て次第に補間モーションデータの影響が強くなるような
補間レートを用いて補間する。
再生されるキャラクタの動作に、インタラクティブ性を
与えてリアルな画像を生成することができる画像生成シ
ステム、プログラム及び情報記憶媒体を提供する。 【解決手段】 キャラクタ400について、現在再生中
のモーションが生成されているとき、攻撃方向を検知す
ると、当該キャラクタについて予め用意された第1及び
第2のモーションのキャラクタ402、404を生成す
るための第1及び第2のモーションデータを補間した補
間モーションデータ(図示せず)を生成する。そして、
現在再生中のモーションのモーションデータと、この補
間モーションのモーションデータを補間して、新たな防
御モーションを生成する。この際、フレーム進行に伴っ
て次第に補間モーションデータの影響が強くなるような
補間レートを用いて補間する。
Description
【0001】
【発明の属する技術分野】本発明は、画像生成システ
ム、プログラム及び情報記憶媒体に関する。
ム、プログラム及び情報記憶媒体に関する。
【0002】
【背景技術及び発明が解決しようとする課題】従来よ
り、仮想的な3次元空間であるオブジェクト空間内にお
いて仮想カメラ(所与の視点)から見える画像を生成す
る画像生成システム(ゲームシステム)が知られてお
り、いわゆる仮想現実を体験できるものとして人気が高
い。ガンゲームを楽しむことができる画像生成システム
を例にとれば、プレーヤは、銃などを模して作られたガ
ン型コントローラ(シューティングデバイス)を用い
て、画面に映し出される敵キャラクタ(オブジェクト)
などの標的オブジェクトをシューティングすることで、
敵キャラクタとの間で攻防を繰り返すことができる3次
元ゲームを楽しむ。
り、仮想的な3次元空間であるオブジェクト空間内にお
いて仮想カメラ(所与の視点)から見える画像を生成す
る画像生成システム(ゲームシステム)が知られてお
り、いわゆる仮想現実を体験できるものとして人気が高
い。ガンゲームを楽しむことができる画像生成システム
を例にとれば、プレーヤは、銃などを模して作られたガ
ン型コントローラ(シューティングデバイス)を用い
て、画面に映し出される敵キャラクタ(オブジェクト)
などの標的オブジェクトをシューティングすることで、
敵キャラクタとの間で攻防を繰り返すことができる3次
元ゲームを楽しむ。
【0003】また、ガン型コントローラに限らず、プレ
ーヤが刀や剣などの武器を操作入力部として用いて、画
面上に現れる敵キャラクタと斬り合うことで3次元ゲー
ムを楽しむことも考えることができる。この場合、プレ
ーヤの仮想現実感を向上させるため、画面上の敵キャラ
クタを相手にリアルに斬り合う動作を入力することがで
きることが望ましい。
ーヤが刀や剣などの武器を操作入力部として用いて、画
面上に現れる敵キャラクタと斬り合うことで3次元ゲー
ムを楽しむことも考えることができる。この場合、プレ
ーヤの仮想現実感を向上させるため、画面上の敵キャラ
クタを相手にリアルに斬り合う動作を入力することがで
きることが望ましい。
【0004】そして、この斬り合う動作の中で、敵キャ
ラクタは、複雑でリアルな動作を行わせることが望まし
い。この場合、敵キャラクタの動作を、例えばモーショ
ンキャプチャ等で計測したモーションデータに基づいて
制御することができる。
ラクタは、複雑でリアルな動作を行わせることが望まし
い。この場合、敵キャラクタの動作を、例えばモーショ
ンキャプチャ等で計測したモーションデータに基づいて
制御することができる。
【0005】しかしながら、敵キャラクタの動作のリア
ルさが高まるほど、あらかじめ用意すべきモーションデ
ータのデータ量が増大してしまうという問題がある。
ルさが高まるほど、あらかじめ用意すべきモーションデ
ータのデータ量が増大してしまうという問題がある。
【0006】また、このようなデータ量の増大を回避す
るために複数のモーションを補間する技術の適用が考え
られる。しかし、単に2つのモーションを補間しただけ
では、プレーヤが敵キャラクタに対して行った斬る動作
に対してインタラクティブに反応するためには、無数に
存在するモーションを予め用意しておく必要があるとい
う問題がある。
るために複数のモーションを補間する技術の適用が考え
られる。しかし、単に2つのモーションを補間しただけ
では、プレーヤが敵キャラクタに対して行った斬る動作
に対してインタラクティブに反応するためには、無数に
存在するモーションを予め用意しておく必要があるとい
う問題がある。
【0007】本発明は、以上のような課題に鑑みてなさ
れたものであり、その目的とするところは、そのモーシ
ョンデータに基づきモーションが再生されるキャラクタ
の動作に、インタラクティブ性を与えてリアルな画像を
生成することができる画像生成システム、プログラム及
び情報記憶媒体を提供することにある。
れたものであり、その目的とするところは、そのモーシ
ョンデータに基づきモーションが再生されるキャラクタ
の動作に、インタラクティブ性を与えてリアルな画像を
生成することができる画像生成システム、プログラム及
び情報記憶媒体を提供することにある。
【0008】
【課題を解決するための手段】上記課題を解決するため
に、画像生成を行う画像生成システムであって、そのモ
ーションデータに基づきモーションが再生されるキャラ
クタの基準位置と所与の入力装置を介して指定された画
面上での位置との距離、及び前記基準位置を基準とした
前記画面上での位置の方向に基づいて、所与の複数のモ
ーションデータを補間した補間モーションデータを生成
する第1の補間手段と、前記補間モーションデータと、
前記キャラクタの再生中のモーションデータとを補間す
る第2の補間手段と、前記第2の補間手段により補間さ
れたモーションデータに基づいて前記キャラクタの画像
を生成する画像生成手段とを含むことを特徴とする。ま
た本発明に係るプログラムは、上記手段としてコンピュ
ータを機能させることを特徴とする。また本発明に係る
情報記憶媒体は、コンピュータにより読み取り可能な情
報記憶媒体であって、上記手段としてコンピュータを機
能させるためのプログラムを記憶することを特徴とす
る。
に、画像生成を行う画像生成システムであって、そのモ
ーションデータに基づきモーションが再生されるキャラ
クタの基準位置と所与の入力装置を介して指定された画
面上での位置との距離、及び前記基準位置を基準とした
前記画面上での位置の方向に基づいて、所与の複数のモ
ーションデータを補間した補間モーションデータを生成
する第1の補間手段と、前記補間モーションデータと、
前記キャラクタの再生中のモーションデータとを補間す
る第2の補間手段と、前記第2の補間手段により補間さ
れたモーションデータに基づいて前記キャラクタの画像
を生成する画像生成手段とを含むことを特徴とする。ま
た本発明に係るプログラムは、上記手段としてコンピュ
ータを機能させることを特徴とする。また本発明に係る
情報記憶媒体は、コンピュータにより読み取り可能な情
報記憶媒体であって、上記手段としてコンピュータを機
能させるためのプログラムを記憶することを特徴とす
る。
【0009】ここで、モーションデータは、モーション
キャプチャで計測されたモーションを再生するためのモ
ーションデータのみならず、物理シミュレーション(物
理計算を利用したシミュレーション。擬似的な物理計算
でもよい)やモーションデータ同士の補間などによりリ
アルタイムに生成したモーションデータであってもよ
い。
キャプチャで計測されたモーションを再生するためのモ
ーションデータのみならず、物理シミュレーション(物
理計算を利用したシミュレーション。擬似的な物理計算
でもよい)やモーションデータ同士の補間などによりリ
アルタイムに生成したモーションデータであってもよ
い。
【0010】本発明においては、そのモーションデータ
に基づきモーションが再生されるキャラクタの基準位置
と、所与の入力装置を介して指定された画面上での位置
との距離、及びそのキャラクタの基準位置を基準とした
画面上での位置の方向に基づいて、該キャラクタが対応
すべきモーションを、所与の複数のモーションから補間
し、さらに在再生中のモーションデータと補間を行っ
て、キャラクタ画像を生成することができる。したがっ
て、該キャラクタのモーションについては、想定される
全方向それぞれに対応したモーションを用意しておく必
要がなくなり、データ量を大幅に削減することができ
る。
に基づきモーションが再生されるキャラクタの基準位置
と、所与の入力装置を介して指定された画面上での位置
との距離、及びそのキャラクタの基準位置を基準とした
画面上での位置の方向に基づいて、該キャラクタが対応
すべきモーションを、所与の複数のモーションから補間
し、さらに在再生中のモーションデータと補間を行っ
て、キャラクタ画像を生成することができる。したがっ
て、該キャラクタのモーションについては、想定される
全方向それぞれに対応したモーションを用意しておく必
要がなくなり、データ量を大幅に削減することができ
る。
【0011】また、例えばキャラクタが立ちモーション
で再生されている場合に、指定された画面上での位置と
該位置の変化する向きとキャラクタとの位置とに基づい
て、該キャラクタに対して斜め上方向から該キャラクタ
に対する攻撃があったことを判別することができる。こ
のとき、上方向からの攻撃に対する該キャラクタの防御
モーションと、横方向からの攻撃に対する該キャラクタ
の防御モーションとを補間して、斜め上方向からの攻撃
に対する該キャラクタの防御モーション(補間モーショ
ンデータに基づくモーション)を生成することにより、
新たな防御モーションで、該キャラクタの画像を生成す
ることができる。すなわち、該キャラクタのモーション
については、想定される全方向それぞれに対応したモー
ションを用意しておく必要がなくなり、データ量を大幅
に削減することができる。
で再生されている場合に、指定された画面上での位置と
該位置の変化する向きとキャラクタとの位置とに基づい
て、該キャラクタに対して斜め上方向から該キャラクタ
に対する攻撃があったことを判別することができる。こ
のとき、上方向からの攻撃に対する該キャラクタの防御
モーションと、横方向からの攻撃に対する該キャラクタ
の防御モーションとを補間して、斜め上方向からの攻撃
に対する該キャラクタの防御モーション(補間モーショ
ンデータに基づくモーション)を生成することにより、
新たな防御モーションで、該キャラクタの画像を生成す
ることができる。すなわち、該キャラクタのモーション
については、想定される全方向それぞれに対応したモー
ションを用意しておく必要がなくなり、データ量を大幅
に削減することができる。
【0012】また本発明に係る画像生成システム、プロ
グラム及び情報記憶媒体は、前記第2の補間手段により
補間されたモーションデータに基づいて、前記キャラク
タの特定部位の座標を求め、該座標に基づいてヒットチ
ェックを行うことを特徴とする。
グラム及び情報記憶媒体は、前記第2の補間手段により
補間されたモーションデータに基づいて、前記キャラク
タの特定部位の座標を求め、該座標に基づいてヒットチ
ェックを行うことを特徴とする。
【0013】本発明によれば、補間したモーションデー
タに基づいて特定したキャラクタの部位の座標を用いて
ヒットチェックを行うようにしたので、キャラクタを相
手に、より少ないモーションデータでインタラクティブ
に反応する画像による仮想現実感を向上させることがで
きる。
タに基づいて特定したキャラクタの部位の座標を用いて
ヒットチェックを行うようにしたので、キャラクタを相
手に、より少ないモーションデータでインタラクティブ
に反応する画像による仮想現実感を向上させることがで
きる。
【0014】また本発明に係る画像生成システム、プロ
グラム及び情報記憶媒体は、ヒットチェックの結果に基
づいて、前記キャラクタに関連付けられたパラメータを
変化させることを特徴とする。
グラム及び情報記憶媒体は、ヒットチェックの結果に基
づいて、前記キャラクタに関連付けられたパラメータを
変化させることを特徴とする。
【0015】本発明によれば、ヒットチェック後のキャ
ラクタの画像等を変化させることができるので、これま
でにない多彩なモーション再生を、より少ないデータ量
で実現することができる。
ラクタの画像等を変化させることができるので、これま
でにない多彩なモーション再生を、より少ないデータ量
で実現することができる。
【0016】また本発明に係る画像生成システム、プロ
グラム及び情報記憶媒体は、前記所与の入力装置は、各
位置が画面上の位置と対応付けられた1又は複数のセン
サ面を有し、少なくとも前記画面上での位置は、操作者
が移動させる被検出物をセンサ面が横切る位置に基づい
て求められることを特徴とする。
グラム及び情報記憶媒体は、前記所与の入力装置は、各
位置が画面上の位置と対応付けられた1又は複数のセン
サ面を有し、少なくとも前記画面上での位置は、操作者
が移動させる被検出物をセンサ面が横切る位置に基づい
て求められることを特徴とする。
【0017】本発明によれば、本来必要となるべき画面
上での位置を指定するための操作入力手段自体にセンサ
等を設ける必要がなくなり、該操作入力手段からの検出
情報を装置側に伝送するための配線を不要として、低コ
スト化が可能となる。さらに、該操作入力手段にセンサ
等を設けて画面上での位置を特定する場合に比べて、一
般的に、精度よく画面上での位置を特定することが可能
となる。
上での位置を指定するための操作入力手段自体にセンサ
等を設ける必要がなくなり、該操作入力手段からの検出
情報を装置側に伝送するための配線を不要として、低コ
スト化が可能となる。さらに、該操作入力手段にセンサ
等を設けて画面上での位置を特定する場合に比べて、一
般的に、精度よく画面上での位置を特定することが可能
となる。
【0018】
【発明の実施の形態】以下、本発明の好適な実施形態に
ついて図面を用いて説明する。
ついて図面を用いて説明する。
【0019】なお、以下に説明する本実施形態は、特許
請求の範囲に記載された本発明の内容を何ら限定するも
のではない。また本実施形態で説明される構成の全てが
本発明の必須構成要件とは限らない。
請求の範囲に記載された本発明の内容を何ら限定するも
のではない。また本実施形態で説明される構成の全てが
本発明の必須構成要件とは限らない。
【0020】また、以下に説明する実施形態では、プレ
ーヤによって操作される刀型コントローラ(広義には、
操作入力部、被検出物)の位置等を検出して、画面上に
現れる敵キャラクタと斬り合う刀ゲームに適用した場合
を例にとり説明するが、本発明はこれに限定されず、種
々の画像生成システムに適用することができる。
ーヤによって操作される刀型コントローラ(広義には、
操作入力部、被検出物)の位置等を検出して、画面上に
現れる敵キャラクタと斬り合う刀ゲームに適用した場合
を例にとり説明するが、本発明はこれに限定されず、種
々の画像生成システムに適用することができる。
【0021】1. 構成
図1に、本実施形態の画像生成システムを業務用のゲー
ムシステムに適用した場合の外観斜視図を模式的に示
す。
ムシステムに適用した場合の外観斜視図を模式的に示
す。
【0022】このゲームシステム10では、本実施形態
における画像生成システムにより生成された画像が、筐
体20に収められた表示装置(表示部)の画面30に表
示される。画面30は、所与のエリア内で操作入力部と
しての刀型コントローラ40を操作するプレーヤが注視
できるように配置されている。以下では、画面30の横
方向をx軸、画面30の縦方向をy軸、画面30に対し
て垂直な画面の奥行き方向をz軸とする。
における画像生成システムにより生成された画像が、筐
体20に収められた表示装置(表示部)の画面30に表
示される。画面30は、所与のエリア内で操作入力部と
しての刀型コントローラ40を操作するプレーヤが注視
できるように配置されている。以下では、画面30の横
方向をx軸、画面30の縦方向をy軸、画面30に対し
て垂直な画面の奥行き方向をz軸とする。
【0023】ゲームシステム10は、プレーヤが操作す
る刀型コントローラ40を用いて、画面30に映し出さ
れる敵キャラクタ(オブジェクト)と斬り合うゲームを
実現する。このゲームシステム10は、仮想現実感を向
上させるため、プレーヤが操作する(例えば、振り回
す)刀型コントローラ40の操作状況をそのまま反映さ
せて、画面30に映し出される敵キャラクタを斬りつけ
たり、プレーヤに対して斬りつけようとする敵キャラク
タに対して防御を行ったりして、攻防の駆け引きを楽し
むことができるようになっている。
る刀型コントローラ40を用いて、画面30に映し出さ
れる敵キャラクタ(オブジェクト)と斬り合うゲームを
実現する。このゲームシステム10は、仮想現実感を向
上させるため、プレーヤが操作する(例えば、振り回
す)刀型コントローラ40の操作状況をそのまま反映さ
せて、画面30に映し出される敵キャラクタを斬りつけ
たり、プレーヤに対して斬りつけようとする敵キャラク
タに対して防御を行ったりして、攻防の駆け引きを楽し
むことができるようになっている。
【0024】そのため、ゲームシステム10では、所与
のエリア内でプレーヤによって操作される刀型コントロ
ーラ40の画面30での位置を検出し、その検出された
位置に基づいてゲームのエフェクト効果(エフェクト画
像(広義には、画像)、効果音(広義には、音)、振
動、風、光などの各種エフェクト)を与えたり、プレー
ヤが操作するキャラクタの攻撃力や防御力などの能力値
(広義には、エフェクト効果(画像、音、振動など)を
変化させるためのパラメータ)を変化させるといったゲ
ーム応答を変化させる処理を行う。
のエリア内でプレーヤによって操作される刀型コントロ
ーラ40の画面30での位置を検出し、その検出された
位置に基づいてゲームのエフェクト効果(エフェクト画
像(広義には、画像)、効果音(広義には、音)、振
動、風、光などの各種エフェクト)を与えたり、プレー
ヤが操作するキャラクタの攻撃力や防御力などの能力値
(広義には、エフェクト効果(画像、音、振動など)を
変化させるためのパラメータ)を変化させるといったゲ
ーム応答を変化させる処理を行う。
【0025】そこで、ゲームシステム10は、2つのタ
ブレットセンサ(第1及び第2のセンサ)により形成さ
れる互いに平行な2つのセンサ面(広義には、エリア)
を用いて、プレーヤが操作する刀型コントローラ40の
位置や向き等を検出する検出装置(所与の入力装置)を
備えている。
ブレットセンサ(第1及び第2のセンサ)により形成さ
れる互いに平行な2つのセンサ面(広義には、エリア)
を用いて、プレーヤが操作する刀型コントローラ40の
位置や向き等を検出する検出装置(所与の入力装置)を
備えている。
【0026】この検出装置は、第1及び第2のセンサ5
0、60を含む。第1のセンサ50は、1組のセンサに
より第1のセンサ面52を形成する。第1のセンサ面5
2の各位置は、画面30の各位置に1対1で対応付けら
れている。第2のセンサ60は、1組のセンサにより第
2のセンサ面62を形成する。第2のセンサ面62の各
位置は、画面30の各位置に1対1で対応付けられてい
る。第1及び第2のセンサ面62は、所与の間隔dを置
いて形成される。
0、60を含む。第1のセンサ50は、1組のセンサに
より第1のセンサ面52を形成する。第1のセンサ面5
2の各位置は、画面30の各位置に1対1で対応付けら
れている。第2のセンサ60は、1組のセンサにより第
2のセンサ面62を形成する。第2のセンサ面62の各
位置は、画面30の各位置に1対1で対応付けられてい
る。第1及び第2のセンサ面62は、所与の間隔dを置
いて形成される。
【0027】第1のセンサ50は、プレーヤによって操
作される刀型コントローラ(広義には、被検出物)40
が第1のセンサ面52を横切る第1の位置を特定するこ
とができる。また、第2のセンサ60は、この刀型コン
トローラ(広義には、被検出物)40が第2のセンサ面
62を横切る第2の位置を特定することができる。
作される刀型コントローラ(広義には、被検出物)40
が第1のセンサ面52を横切る第1の位置を特定するこ
とができる。また、第2のセンサ60は、この刀型コン
トローラ(広義には、被検出物)40が第2のセンサ面
62を横切る第2の位置を特定することができる。
【0028】本実施形態における画像生成システムは、
第1及び第2のセンサ50、60によって特定された刀
型コントローラ40の第1及び第2のセンサ面52、6
2における第1及び第2の位置(或いは、第1及び第2
の位置を特定するための情報。広義には、検出装置から
の入力情報)に基づいて、第1及び第2のセンサ面にお
ける刀型コントローラの位置に対応する画面30上での
位置を特定する。そして、この特定された画面30上で
の位置に基づき、プレーヤに種々のエフェクト効果を与
える処理等を行う。
第1及び第2のセンサ50、60によって特定された刀
型コントローラ40の第1及び第2のセンサ面52、6
2における第1及び第2の位置(或いは、第1及び第2
の位置を特定するための情報。広義には、検出装置から
の入力情報)に基づいて、第1及び第2のセンサ面にお
ける刀型コントローラの位置に対応する画面30上での
位置を特定する。そして、この特定された画面30上で
の位置に基づき、プレーヤに種々のエフェクト効果を与
える処理等を行う。
【0029】こうすることで、本実施形態における画像
生成システムでは、プレーヤが刀型コントローラ40を
振った位置(画面30上での位置)や、振る速さ(広義
には、単位時間当たりの位置の変化量)、振り幅(広義
には、位置の変化量の絶対値)、振る向き(広義には、
位置が変化する向き)或いは第1及び第2のセンサ面に
おける刀型コントローラ40の画面方向に対する向き等
に応じて、刀(剣)を用いたゲームとしてプレーヤが仮
想現実感を向上させるようなエフェクト効果を適切に与
えることができるようになる。
生成システムでは、プレーヤが刀型コントローラ40を
振った位置(画面30上での位置)や、振る速さ(広義
には、単位時間当たりの位置の変化量)、振り幅(広義
には、位置の変化量の絶対値)、振る向き(広義には、
位置が変化する向き)或いは第1及び第2のセンサ面に
おける刀型コントローラ40の画面方向に対する向き等
に応じて、刀(剣)を用いたゲームとしてプレーヤが仮
想現実感を向上させるようなエフェクト効果を適切に与
えることができるようになる。
【0030】このように、第1及び第2のセンサ50、
60により第1及び第2のセンサ面52、62を横切る
第1及び第2の位置を、画面30上での位置に対応付け
ることができるため、プレーヤによって操作される刀型
コントローラ40の各部にセンサを設ける必要がなくな
る。したがって、プレーヤが操作する操作入力部として
は、刀型コントローラに限定されるものではなく、セン
サ面を横切らせることができる物体であれば何でもよ
く、例えばプレーヤの身体の一部(プレーヤの拳、足、
頭など)であってもよい。
60により第1及び第2のセンサ面52、62を横切る
第1及び第2の位置を、画面30上での位置に対応付け
ることができるため、プレーヤによって操作される刀型
コントローラ40の各部にセンサを設ける必要がなくな
る。したがって、プレーヤが操作する操作入力部として
は、刀型コントローラに限定されるものではなく、セン
サ面を横切らせることができる物体であれば何でもよ
く、例えばプレーヤの身体の一部(プレーヤの拳、足、
頭など)であってもよい。
【0031】すなわち、このようなセンサを用いること
で、操作入力部の低コスト化が可能となるばかりでな
く、操作入力部からの検出情報を筐体20に伝送するた
めの配線を不要とすることができる。さらに、センサ面
で特定した位置と画面30上での位置を精度よく特定す
ることができる。
で、操作入力部の低コスト化が可能となるばかりでな
く、操作入力部からの検出情報を筐体20に伝送するた
めの配線を不要とすることができる。さらに、センサ面
で特定した位置と画面30上での位置を精度よく特定す
ることができる。
【0032】図2に、本実施形態における画像生成シス
テムのブロック図の一例を示す。
テムのブロック図の一例を示す。
【0033】なお図2において、本実施形態は少なくと
も処理部100を含めばよく(或いは処理部100と入
力情報受付部162と記憶部170、或いは処理部10
0と入力情報受付部162と記憶部170と情報記憶媒
体180を含めばよく)、それ以外のブロック(例え
ば、操作部160、表示部190、音出力部192、携
帯型情報記憶装置194、通信部196)については、
任意の構成要素とすることができる。
も処理部100を含めばよく(或いは処理部100と入
力情報受付部162と記憶部170、或いは処理部10
0と入力情報受付部162と記憶部170と情報記憶媒
体180を含めばよく)、それ以外のブロック(例え
ば、操作部160、表示部190、音出力部192、携
帯型情報記憶装置194、通信部196)については、
任意の構成要素とすることができる。
【0034】ここで処理部100は、システム全体の制
御、システム内の各ブロックへの命令の指示、ゲーム処
理、画像処理、又は音処理などの各種の処理を行うもの
であり、その機能は、各種プロセッサ(CPU、DSP
等)、或いはASIC(ゲートアレイ等)などのハード
ウェアや、所与のプログラム(ゲームプログラム)によ
り実現できる。
御、システム内の各ブロックへの命令の指示、ゲーム処
理、画像処理、又は音処理などの各種の処理を行うもの
であり、その機能は、各種プロセッサ(CPU、DSP
等)、或いはASIC(ゲートアレイ等)などのハード
ウェアや、所与のプログラム(ゲームプログラム)によ
り実現できる。
【0035】操作部160は、プレーヤがゲームの設定
などを行う操作データを入力するためのものであり、そ
の機能は、レバー、ボタン、筐体などのハードウェアに
より実現できる。
などを行う操作データを入力するためのものであり、そ
の機能は、レバー、ボタン、筐体などのハードウェアに
より実現できる。
【0036】入力情報受付部162は、プレーヤが操作
する操作部160とは別の刀型コントローラ等の操作入
力部の操作状況を検出するための検出装置からの入力情
報を受け付けるものであり、その機能はASICなどの
ハードウェアや、所与のプログラムにより実現できる。
例えば図1に示す検出装置が接続される場合、入力情報
として第1及び第2のセンサ50、60によって検出さ
れた第1及び第2のセンサ面52、62における第1及
び第2の位置の座標(或いは、第1及び第2の位置の座
標を特定するための情報)を受け付ける。
する操作部160とは別の刀型コントローラ等の操作入
力部の操作状況を検出するための検出装置からの入力情
報を受け付けるものであり、その機能はASICなどの
ハードウェアや、所与のプログラムにより実現できる。
例えば図1に示す検出装置が接続される場合、入力情報
として第1及び第2のセンサ50、60によって検出さ
れた第1及び第2のセンサ面52、62における第1及
び第2の位置の座標(或いは、第1及び第2の位置の座
標を特定するための情報)を受け付ける。
【0037】記憶部170は、処理部100や通信部1
96などのワーク領域となるもので、その機能はRAM
などのハードウェアにより実現できる。
96などのワーク領域となるもので、その機能はRAM
などのハードウェアにより実現できる。
【0038】記憶部170は、モーションデータ記憶部
176を含む。モーションデータ記憶部176は、プレ
ーヤが刀型コントローラを駆使して画面上で対戦する敵
キャラクタの各種態勢に対応した複数のモーションデー
タを記憶する。より具体的には、モーションデータ記憶
部176は、プレーヤがオブジェクト空間内を移動しな
がら一人称視点位置から見た敵キャラクタの攻撃態勢の
モーションデータや、プレーヤの複数の攻撃方向に対応
した防御態勢のモーションデータを記憶する。ここで、
一人称視点とは、プレーヤが操作するキャラクタ自身の
目の位置に、視点位置および視線方向を設定したものを
いう。
176を含む。モーションデータ記憶部176は、プレ
ーヤが刀型コントローラを駆使して画面上で対戦する敵
キャラクタの各種態勢に対応した複数のモーションデー
タを記憶する。より具体的には、モーションデータ記憶
部176は、プレーヤがオブジェクト空間内を移動しな
がら一人称視点位置から見た敵キャラクタの攻撃態勢の
モーションデータや、プレーヤの複数の攻撃方向に対応
した防御態勢のモーションデータを記憶する。ここで、
一人称視点とは、プレーヤが操作するキャラクタ自身の
目の位置に、視点位置および視線方向を設定したものを
いう。
【0039】情報記憶媒体(コンピュータにより読み取
り可能な記憶媒体)180は、プログラムやデータなど
の情報を格納するものであり、その機能は、光ディスク
(CD、DVD)、光磁気ディスク(MO)、磁気ディ
スク、ハードディスク、磁気テープ、或いはメモリ(R
OM)などのハードウェアにより実現できる。処理部1
00は、この情報記憶媒体180に格納される情報に基
づいて本発明(本実施形態)の種々の処理を行う。すな
わち、情報記憶媒体180には、本発明(本実施形態)
の手段(特に処理部100に含まれるブロック)を実行
するための情報(プログラム或いはデータ)が格納され
る。
り可能な記憶媒体)180は、プログラムやデータなど
の情報を格納するものであり、その機能は、光ディスク
(CD、DVD)、光磁気ディスク(MO)、磁気ディ
スク、ハードディスク、磁気テープ、或いはメモリ(R
OM)などのハードウェアにより実現できる。処理部1
00は、この情報記憶媒体180に格納される情報に基
づいて本発明(本実施形態)の種々の処理を行う。すな
わち、情報記憶媒体180には、本発明(本実施形態)
の手段(特に処理部100に含まれるブロック)を実行
するための情報(プログラム或いはデータ)が格納され
る。
【0040】なお、情報記憶媒体180に格納される情
報の一部又は全部は、システムへの電源投入時等に記憶
部170に転送されることになる。また情報記憶媒体1
80に記憶される情報は、本実施形態の処理を行うため
のプログラムコード、画像データ、音データ、表示物の
形状データ、テーブルデータ、リストデータ、本実施形
態の処理を指示するたえの情報、その指示に従って処理
を行うための情報等の少なくとも1つを含むものであ
る。
報の一部又は全部は、システムへの電源投入時等に記憶
部170に転送されることになる。また情報記憶媒体1
80に記憶される情報は、本実施形態の処理を行うため
のプログラムコード、画像データ、音データ、表示物の
形状データ、テーブルデータ、リストデータ、本実施形
態の処理を指示するたえの情報、その指示に従って処理
を行うための情報等の少なくとも1つを含むものであ
る。
【0041】表示部190は、本実施形態により生成さ
れた画像を出力するものであり、その機能は、CRT、
LCD、或いはHMD(ヘッドマウントディスプレイ)
などのハードウェアにより実現できる。
れた画像を出力するものであり、その機能は、CRT、
LCD、或いはHMD(ヘッドマウントディスプレイ)
などのハードウェアにより実現できる。
【0042】音出力部192は、本実施形態により生成
された音を出力するものであり、その機能は、スピーカ
などのハードウェアにより実現できる。
された音を出力するものであり、その機能は、スピーカ
などのハードウェアにより実現できる。
【0043】携帯型情報記憶装置194は、プレーヤの
個人データやセーブデータなどが記憶されるものであ
り、この携帯型情報記憶装置194としては、メモリカ
ードや携帯型ゲーム装置などを考えることができる。
個人データやセーブデータなどが記憶されるものであ
り、この携帯型情報記憶装置194としては、メモリカ
ードや携帯型ゲーム装置などを考えることができる。
【0044】通信部196は、外部(例えばホスト装置
や他の画像生成システム)との間で通信を行うための各
種の制御を行うものであり、その機能は、各種プロセッ
サ、或いは通信用ASICなどのハードウェアや、プロ
グラムなどにより実現できる。
や他の画像生成システム)との間で通信を行うための各
種の制御を行うものであり、その機能は、各種プロセッ
サ、或いは通信用ASICなどのハードウェアや、プロ
グラムなどにより実現できる。
【0045】なお本発明(本実施形態)の手段を実行す
るためのプログラム或いはデータは、ホスト装置(サー
バ)が有する情報記憶媒体からネットワーク及び通信部
196を介して情報記憶媒体180に配信するようにし
てもよい。このようなホスト装置(サーバ)の情報記憶
媒体の使用も本発明の範囲内に含まれる。
るためのプログラム或いはデータは、ホスト装置(サー
バ)が有する情報記憶媒体からネットワーク及び通信部
196を介して情報記憶媒体180に配信するようにし
てもよい。このようなホスト装置(サーバ)の情報記憶
媒体の使用も本発明の範囲内に含まれる。
【0046】処理部(プロセッサ)100は、操作部1
60又は入力情報受付部162からの操作データ又は入
力情報やプログラムなどに基づいて、ゲーム処理、画像
生成処理、或いは音生成処理などの各種の処理を行う。
この場合、処理部100は、記憶部170内の主記憶部
をワーク領域として各種の処理を行う。
60又は入力情報受付部162からの操作データ又は入
力情報やプログラムなどに基づいて、ゲーム処理、画像
生成処理、或いは音生成処理などの各種の処理を行う。
この場合、処理部100は、記憶部170内の主記憶部
をワーク領域として各種の処理を行う。
【0047】ここで、処理部100が行うゲーム処理と
しては、コイン(代価)の受け付け処理、各種モードの
設定処理、ゲームの進行処理、プレーヤが操作するキャ
ラクタに付与された攻撃力や防御力といった各種パラメ
ータ(広義には、エフェクト画像を変化させるための各
種パラメータ)をゲームの進行に応じて更新する処理、
選択画面の設定処理、オブジェクト(1又は複数のプリ
ミティブ面)の位置や回転角度(X、Y又はZ軸回りの
回転角度)を求める処理、オブジェクトを動作させる処
理(モーション処理)、視点の位置(仮想カメラの位
置)や視線角度(仮想カメラの回転角度)を求める処
理、マップオブジェクトなどのオブジェクトをオブジェ
クト空間へ配置する処理、ヒット判定処理、ゲーム結果
(成果、成績)を演算する処理、複数のプレーヤが共通
のゲーム空間でプレイするための処理、或いはゲームオ
ーバ処理などを考えることができる。
しては、コイン(代価)の受け付け処理、各種モードの
設定処理、ゲームの進行処理、プレーヤが操作するキャ
ラクタに付与された攻撃力や防御力といった各種パラメ
ータ(広義には、エフェクト画像を変化させるための各
種パラメータ)をゲームの進行に応じて更新する処理、
選択画面の設定処理、オブジェクト(1又は複数のプリ
ミティブ面)の位置や回転角度(X、Y又はZ軸回りの
回転角度)を求める処理、オブジェクトを動作させる処
理(モーション処理)、視点の位置(仮想カメラの位
置)や視線角度(仮想カメラの回転角度)を求める処
理、マップオブジェクトなどのオブジェクトをオブジェ
クト空間へ配置する処理、ヒット判定処理、ゲーム結果
(成果、成績)を演算する処理、複数のプレーヤが共通
のゲーム空間でプレイするための処理、或いはゲームオ
ーバ処理などを考えることができる。
【0048】処理部100は、位置演算部110、オブ
ジェクト空間設定部120、画像生成部140、音生成
部150を含む。なお、処理部100に、これらの全て
の機能ブロック110〜150を含ませる必要はなく、
一部の機能ブロックを省略する構成にしてもよい。
ジェクト空間設定部120、画像生成部140、音生成
部150を含む。なお、処理部100に、これらの全て
の機能ブロック110〜150を含ませる必要はなく、
一部の機能ブロックを省略する構成にしてもよい。
【0049】ここで位置演算部110は、入力情報受付
部162によって受け付けられた検出装置からの入力情
報に基づいて、表示部190の画面上での位置等を求め
る処理を行う。より具体的には、位置演算部110は、
検出装置で検出された被検出物(図1では、刀型コント
ローラ40)の第1及び第2のセンサ面における第1及
び第2の位置の座標に基づいて、第1及び第2のセンサ
面と対応付けられている表示部190の画面上での位置
を求める。さらに、位置演算部110は、求められた画
面上での位置の単位時間当たりの変化量(絶対値)、画
面上での位置の変化量(絶対値)、画面上での位置の変
化する向き、第1及び第2のセンサ面における被検出物
の画面方向に対する向きを求めることができる。
部162によって受け付けられた検出装置からの入力情
報に基づいて、表示部190の画面上での位置等を求め
る処理を行う。より具体的には、位置演算部110は、
検出装置で検出された被検出物(図1では、刀型コント
ローラ40)の第1及び第2のセンサ面における第1及
び第2の位置の座標に基づいて、第1及び第2のセンサ
面と対応付けられている表示部190の画面上での位置
を求める。さらに、位置演算部110は、求められた画
面上での位置の単位時間当たりの変化量(絶対値)、画
面上での位置の変化量(絶対値)、画面上での位置の変
化する向き、第1及び第2のセンサ面における被検出物
の画面方向に対する向きを求めることができる。
【0050】オブジェクト空間設定部120は、位置演
算部110によって求められた画面30上での位置に基
づいて所与のゲーム処理を行い、その処理結果に基づい
てキャラクタ、マップなどの各種オブジェクト(モデ
ル)をオブジェクト空間内に設定するための処理を行
う。ゲーム処理とは、ゲーム画像を生成するための情報
やゲーム音を生成するための情報を生成する処理をい
う。より具体的には、オブジェクト空間設定部120
は、ワールド座標系でのオブジェクト空間の位置や回転
角度(方向)を決定し、その位置にその回転角度(X、
Y、Z軸回転)でオブジェクトを配置する。
算部110によって求められた画面30上での位置に基
づいて所与のゲーム処理を行い、その処理結果に基づい
てキャラクタ、マップなどの各種オブジェクト(モデ
ル)をオブジェクト空間内に設定するための処理を行
う。ゲーム処理とは、ゲーム画像を生成するための情報
やゲーム音を生成するための情報を生成する処理をい
う。より具体的には、オブジェクト空間設定部120
は、ワールド座標系でのオブジェクト空間の位置や回転
角度(方向)を決定し、その位置にその回転角度(X、
Y、Z軸回転)でオブジェクトを配置する。
【0051】オブジェクト空間設定部120は、モーシ
ョン生成部122を含む。
ョン生成部122を含む。
【0052】モーション生成部122は、位置演算部1
10によって求められた画面30上での位置とその変化
する向き(広義には、位置情報)を用いて、所与のモー
ションを生成する処理を行う。
10によって求められた画面30上での位置とその変化
する向き(広義には、位置情報)を用いて、所与のモー
ションを生成する処理を行う。
【0053】モーション生成部122は、モーションデ
ータ補間部(第1及び第2の補間手段)124を含む。
ータ補間部(第1及び第2の補間手段)124を含む。
【0054】モーションデータ補間部124は、モーシ
ョンを生成するためのモーションデータを補間する処理
を行う。このモーションデータ補間部124は、第1の
補間手段として、上述の位置演算部110によって求め
られた画面上で指定された位置及び該位置の変化する向
きと、そのモーションデータに基づきモーションが再生
されるキャラクタの位置とに基づき(画面上で指定され
た位置及び該位置の変化する向きと、そのモーションデ
ータに基づきモーションが再生されるキャラクタとの位
置関係に基づき)、モーションデータ記憶部176に記
憶された所与の複数の動作パターンに対応したモーショ
ンデータから1のモーションデータを補間した補間モー
ションデータを生成する。また、モーションデータ補間
部124は、第2の補間手段として、フレームの進行に
伴って、現在再生中のモーションデータに基づくモーシ
ョンから、この補間モーションデータに基づくモーショ
ンに近付くような補間を行う。すなわち、モーションデ
ータ補間部124は、フレームの進行に伴って、現在再
生中のモーションデータに基づくモーションの影響が次
第に弱まり、補間モーションデータに基づくモーション
の影響が次第に高まるような補間レートでモーションデ
ータの補間を行う。
ョンを生成するためのモーションデータを補間する処理
を行う。このモーションデータ補間部124は、第1の
補間手段として、上述の位置演算部110によって求め
られた画面上で指定された位置及び該位置の変化する向
きと、そのモーションデータに基づきモーションが再生
されるキャラクタの位置とに基づき(画面上で指定され
た位置及び該位置の変化する向きと、そのモーションデ
ータに基づきモーションが再生されるキャラクタとの位
置関係に基づき)、モーションデータ記憶部176に記
憶された所与の複数の動作パターンに対応したモーショ
ンデータから1のモーションデータを補間した補間モー
ションデータを生成する。また、モーションデータ補間
部124は、第2の補間手段として、フレームの進行に
伴って、現在再生中のモーションデータに基づくモーシ
ョンから、この補間モーションデータに基づくモーショ
ンに近付くような補間を行う。すなわち、モーションデ
ータ補間部124は、フレームの進行に伴って、現在再
生中のモーションデータに基づくモーションの影響が次
第に弱まり、補間モーションデータに基づくモーション
の影響が次第に高まるような補間レートでモーションデ
ータの補間を行う。
【0055】画像生成部140は、ゲーム処理結果等に
基づいて、オブジェクト空間内において所与の視点(仮
想カメラ)から見える画像を生成し、表示部190に出
力する。
基づいて、オブジェクト空間内において所与の視点(仮
想カメラ)から見える画像を生成し、表示部190に出
力する。
【0056】より具体的には、画像生成部140では、
まず座標変換、クリッピング処理、透視変換、或いは光
源計算等のジオメトリ処理が行われ、その処理結果に基
づいて、描画データ(頂点に付与される位置座標、テク
スチャ座標、色(輝度)データ、法線ベクトル或いはα
値等を含むデータ)が作成される。
まず座標変換、クリッピング処理、透視変換、或いは光
源計算等のジオメトリ処理が行われ、その処理結果に基
づいて、描画データ(頂点に付与される位置座標、テク
スチャ座標、色(輝度)データ、法線ベクトル或いはα
値等を含むデータ)が作成される。
【0057】そして、画像生成部140は、この描画デ
ータに基づいて、ジオメトリ処理後のオブジェクト(1
又は複数のプリミティブ面)の画像を、記憶部170内
の描画領域(フレームバッファ、ワークバッファ等のピ
クセル単位で画像情報を記憶できる領域)に描画する。
この際、画像生成部140は、テクスチャをオブジェク
トにマッピング処理等も行う。
ータに基づいて、ジオメトリ処理後のオブジェクト(1
又は複数のプリミティブ面)の画像を、記憶部170内
の描画領域(フレームバッファ、ワークバッファ等のピ
クセル単位で画像情報を記憶できる領域)に描画する。
この際、画像生成部140は、テクスチャをオブジェク
トにマッピング処理等も行う。
【0058】音生成部150は、ゲーム処理結果等に基
づいて、各種の音処理を行い、BGM、効果音、又は音
声などの音を生成し、音出力部192に出力する。
づいて、各種の音処理を行い、BGM、効果音、又は音
声などの音を生成し、音出力部192に出力する。
【0059】なお、本実施形態の画像生成システムを適
用したゲームシステムについては、1人のみがプレイで
きるシングルプレーヤモード専用のシステムにしてもよ
いし、このようなシングルプレーヤモードのみならず、
複数のプレーヤがプレイできるマルチプレーヤモードも
備えるシステムにしてもよい。
用したゲームシステムについては、1人のみがプレイで
きるシングルプレーヤモード専用のシステムにしてもよ
いし、このようなシングルプレーヤモードのみならず、
複数のプレーヤがプレイできるマルチプレーヤモードも
備えるシステムにしてもよい。
【0060】また複数のプレーヤがプレイする場合に、
これらの複数のプレーヤに提供するゲーム画像やゲーム
音を、1つの端末を用いて生成してもよいし、ネットワ
ーク(伝送ライン、通信回線)などで接続された複数の
端末(ゲーム機、携帯電話)を用いて生成してもよい。
これらの複数のプレーヤに提供するゲーム画像やゲーム
音を、1つの端末を用いて生成してもよいし、ネットワ
ーク(伝送ライン、通信回線)などで接続された複数の
端末(ゲーム機、携帯電話)を用いて生成してもよい。
【0061】2. 検出装置
本実施形態における画像生成システムは、図1に示した
検出装置により形成されたセンサ面における操作入力部
(被検出物)の位置から、表示部の画面上での位置を求
め、その位置又はその位置から求められる位置の変化に
基づいて、インタラクティブに反応するキャラクタのモ
ーションを生成する。
検出装置により形成されたセンサ面における操作入力部
(被検出物)の位置から、表示部の画面上での位置を求
め、その位置又はその位置から求められる位置の変化に
基づいて、インタラクティブに反応するキャラクタのモ
ーションを生成する。
【0062】そのため、まず、画像生成システムにおい
て、プレーヤによって操作される操作入力部の位置等を
検出する原理について説明する。
て、プレーヤによって操作される操作入力部の位置等を
検出する原理について説明する。
【0063】2.1 操作入力部の位置の検出
本実施形態では、画像生成システムが生成する画像を表
示する画面上の各位置と、上述した検出装置により形成
されるセンサ面上の各位置とを1対1に対応付けてい
る。したがって、操作入力部がセンサ面上を横切る位置
が検出できれば、操作入力部の画面上での位置を容易に
特定することができる。
示する画面上の各位置と、上述した検出装置により形成
されるセンサ面上の各位置とを1対1に対応付けてい
る。したがって、操作入力部がセンサ面上を横切る位置
が検出できれば、操作入力部の画面上での位置を容易に
特定することができる。
【0064】図3(A)、(B)に、上述した検出装置
により形成されるセンサ面における操作入力部の位置の
検出原理について説明するための図を示す。
により形成されるセンサ面における操作入力部の位置の
検出原理について説明するための図を示す。
【0065】ここでは、第1のセンサ50による第1の
位置の検出原理ついてのみ説明するが、第2のセンサ6
0による第2の位置の検出原理についても同様である。
位置の検出原理ついてのみ説明するが、第2のセンサ6
0による第2の位置の検出原理についても同様である。
【0066】第1のセンサ50は、図3(A)に示すよ
うに、第1のセンサ面形成枠200内に、2次元の第1
のセンサ面52を形成する。第1のセンサ面形成枠20
0の第1の辺SD1の両角部には、1組のセンサS1、
S2が設けられている。
うに、第1のセンサ面形成枠200内に、2次元の第1
のセンサ面52を形成する。第1のセンサ面形成枠20
0の第1の辺SD1の両角部には、1組のセンサS1、
S2が設けられている。
【0067】センサS1は、発光部と受光部とを有して
いる。発光部は、角度θが0度〜90度の間で赤外線を
出力し、その戻り光を受光部で受光するようになってい
る。そのため、第1のセンサ面形成枠200の各辺SD
1〜SD4には、反射板を配置し、センサの発光部から
の赤外線を受光部に反射させるようにしている。
いる。発光部は、角度θが0度〜90度の間で赤外線を
出力し、その戻り光を受光部で受光するようになってい
る。そのため、第1のセンサ面形成枠200の各辺SD
1〜SD4には、反射板を配置し、センサの発光部から
の赤外線を受光部に反射させるようにしている。
【0068】センサS2も、センサS1と同様に発光部
と受光部とを有し、角度θが0度〜90度の間で自ら発
光した赤外線の戻り光を受光する。
と受光部とを有し、角度θが0度〜90度の間で自ら発
光した赤外線の戻り光を受光する。
【0069】このようなセンサS1、S2は、角度θが
0度となる方向が、互いに逆方向になるように設けられ
ている。こうすることで、センサS1、S2により2次
元平面の第1のセンサ面52が第1のセンサ面形成枠2
00内に形成される。
0度となる方向が、互いに逆方向になるように設けられ
ている。こうすることで、センサS1、S2により2次
元平面の第1のセンサ面52が第1のセンサ面形成枠2
00内に形成される。
【0070】センサS1によって角度θが0度〜90度
の間で受光された結果は、第1のセンサ50において結
像IM1として得られる。センサS2によって角度θが
0度〜90度の間で受光された結果は、第1のセンサ5
0において結像IM2として得られる。
の間で受光された結果は、第1のセンサ50において結
像IM1として得られる。センサS2によって角度θが
0度〜90度の間で受光された結果は、第1のセンサ5
0において結像IM2として得られる。
【0071】結像IM1、IM2では、プレーヤによっ
て操作される操作入力部が被検出物として第1のセンサ
面52を横切ると、被検出物により発光した赤外線が遮
られない部分は各辺に設けられた反射板により反射して
受光部で受光されるが、被検出物により発光した赤外線
が遮られる部分は各辺に設けられた反射板により反射さ
れることがない。したがって、結像IM1、IM2で
は、被検出物の部分のみが影となって表現される。すな
わち、結像IM1、IM2において、影となった部分
を、角度θ1、θ2として判別することができる。
て操作される操作入力部が被検出物として第1のセンサ
面52を横切ると、被検出物により発光した赤外線が遮
られない部分は各辺に設けられた反射板により反射して
受光部で受光されるが、被検出物により発光した赤外線
が遮られる部分は各辺に設けられた反射板により反射さ
れることがない。したがって、結像IM1、IM2で
は、被検出物の部分のみが影となって表現される。すな
わち、結像IM1、IM2において、影となった部分
を、角度θ1、θ2として判別することができる。
【0072】なお、第1のセンサ面形成枠200の各辺
に反射板を設けずに、操作入力部の方に反射板を設ける
ようにしてもよい。この場合、結像IM1、IM2で
は、被検出物として操作入力部が第1のセンサ面52を
横切ると、被検出物に遮られない部分が影となって表現
されるので、結像IM1、IM2において、影とならな
い部分を、角度θ1、θ2として判別することができ
る。
に反射板を設けずに、操作入力部の方に反射板を設ける
ようにしてもよい。この場合、結像IM1、IM2で
は、被検出物として操作入力部が第1のセンサ面52を
横切ると、被検出物に遮られない部分が影となって表現
されるので、結像IM1、IM2において、影とならな
い部分を、角度θ1、θ2として判別することができ
る。
【0073】センサS1、S2の位置が固定されている
ため、角度θ1、θ2から操作入力部が第1のセンサ面
52を横切る位置をP(x,y)を特定することができ
る。
ため、角度θ1、θ2から操作入力部が第1のセンサ面
52を横切る位置をP(x,y)を特定することができ
る。
【0074】ここで、図3(B)に示すように第1のセ
ンサ面形成枠200の第1の辺SD1の中点を原点O
(0,0)とし、第1の辺SD1の長さを2×Lとし、
センサS1、S2の座標をそれぞれ(−L,0)、
(L,0)とする。この場合、Pの座標(x,y)は
(1)式、(2)式より求めることができる。
ンサ面形成枠200の第1の辺SD1の中点を原点O
(0,0)とし、第1の辺SD1の長さを2×Lとし、
センサS1、S2の座標をそれぞれ(−L,0)、
(L,0)とする。この場合、Pの座標(x,y)は
(1)式、(2)式より求めることができる。
【0075】
tanθ1=y/(x+L) ・・・(1)
tanθ2=y/(L−x) ・・・(2)
以上より、操作入力部が第1のセンサ面52を横切る位
置Pの座標を特定することができる。同様に、操作入力
部が第2のセンサ面62を横切る位置も特定することが
できる。
置Pの座標を特定することができる。同様に、操作入力
部が第2のセンサ面62を横切る位置も特定することが
できる。
【0076】したがって、第1のセンサ面形成枠200
内に形成される第1のセンサ面52の各位置と、本実施
形態において生成される画像が表示される画面の各位置
とを1対1に対応付けておくことで、本実施形態におけ
る画像生成システムは操作入力部が第1のセンサ面52
を横切る位置に対応した画面上での位置を容易に特定す
ることができる。
内に形成される第1のセンサ面52の各位置と、本実施
形態において生成される画像が表示される画面の各位置
とを1対1に対応付けておくことで、本実施形態におけ
る画像生成システムは操作入力部が第1のセンサ面52
を横切る位置に対応した画面上での位置を容易に特定す
ることができる。
【0077】なお、本実施形態では、第1及び第2のセ
ンサ50、60により、第1及び第2のセンサ面52、
62における第1及び第2の位置を特定し、その位置を
入力情報として画像生成システムに供給するものとして
説明したが、これに限定されるものではない。例えば、
第1及び第2のセンサ50、60における結像IM1、
IM2から求められる角度θ1、θ2を入力情報として
画像生成システムに供給し、画像生成システムにおい
て、上述したように第1及び第2のセンサ面52、62
における位置を求めた後、画面上での位置を特定するよ
うにしてもよい。
ンサ50、60により、第1及び第2のセンサ面52、
62における第1及び第2の位置を特定し、その位置を
入力情報として画像生成システムに供給するものとして
説明したが、これに限定されるものではない。例えば、
第1及び第2のセンサ50、60における結像IM1、
IM2から求められる角度θ1、θ2を入力情報として
画像生成システムに供給し、画像生成システムにおい
て、上述したように第1及び第2のセンサ面52、62
における位置を求めた後、画面上での位置を特定するよ
うにしてもよい。
【0078】また、操作入力部の画面上での位置の特定
は、上述した1つのセンサ面のみで可能となるため、第
1及び第2のセンサ面52、62のいずれかの検出され
た位置を代表値として用いることができる。本実施形態
では、第1のセンサ面52における位置を代表値として
用いる。
は、上述した1つのセンサ面のみで可能となるため、第
1及び第2のセンサ面52、62のいずれかの検出され
た位置を代表値として用いることができる。本実施形態
では、第1のセンサ面52における位置を代表値として
用いる。
【0079】2.2 操作入力部が移動する速さの検出
図4に、本実施形態において、上述した検出装置により
形成されるセンサ面における操作入力部が移動する速さ
の検出原理について説明するための図を示す。
形成されるセンサ面における操作入力部が移動する速さ
の検出原理について説明するための図を示す。
【0080】本実施形態では、リアルタイムに画像を生
成し、例えば所与のフレーム周期(例えば、1/60
秒、1/30秒)で画像を生成する。したがって、この
フレーム周期を単位時間とすることで、所与のフレーム
f1において求められた第1のセンサ面52における位
置Pf1(x1,y1)と、次のフレームf2(=f1+
1)において求められた第1のセンサ面52におけるP
f2(x2,y2)の変化量を求めることで、第1のセン
サ面52における単位時間当たりの変化量を求めること
ができる。
成し、例えば所与のフレーム周期(例えば、1/60
秒、1/30秒)で画像を生成する。したがって、この
フレーム周期を単位時間とすることで、所与のフレーム
f1において求められた第1のセンサ面52における位
置Pf1(x1,y1)と、次のフレームf2(=f1+
1)において求められた第1のセンサ面52におけるP
f2(x2,y2)の変化量を求めることで、第1のセン
サ面52における単位時間当たりの変化量を求めること
ができる。
【0081】この単位時間当たりの変化量を、操作入力
部が移動する速さ(例えば、刀型コントローラの振る速
さ)とすることができる。
部が移動する速さ(例えば、刀型コントローラの振る速
さ)とすることができる。
【0082】また、第1のセンサ面52における位置P
f1(x1,y1)から、次のフレームf2(=f1+
1)において求められた第1のセンサ面52におけるP
f2(x2,y2)の変化する向きを求めることで、操作
入力部が移動する向き(例えば、刀型コントローラの振
る向き)とすることができる。
f1(x1,y1)から、次のフレームf2(=f1+
1)において求められた第1のセンサ面52におけるP
f2(x2,y2)の変化する向きを求めることで、操作
入力部が移動する向き(例えば、刀型コントローラの振
る向き)とすることができる。
【0083】さらに、第1のセンサ面52における位置
Pf1(x1,y1)から、次のフレーム(f1+1)に
おいて求められた第1のセンサ面52におけるPf2(x
2,y2)の変化する量の絶対値を求めることで、操作
入力部の移動距離(例えば、刀型コントローラの振り
幅)とすることができる。
Pf1(x1,y1)から、次のフレーム(f1+1)に
おいて求められた第1のセンサ面52におけるPf2(x
2,y2)の変化する量の絶対値を求めることで、操作
入力部の移動距離(例えば、刀型コントローラの振り
幅)とすることができる。
【0084】また、操作入力部の移動する速さ、向き及
び距離は、上述した1つのセンサ面のみで可能となるた
め、第1及び第2のセンサ面52、62のいずれかのみ
を用いて求めるようにしてもよい。第1及び第2のセン
サ面52、62を用いる場合は、いずれかのセンサ面で
求められた値を代表値として用いることができる。本実
施形態では、第1のセンサ面52における値を代表値と
して用いる。
び距離は、上述した1つのセンサ面のみで可能となるた
め、第1及び第2のセンサ面52、62のいずれかのみ
を用いて求めるようにしてもよい。第1及び第2のセン
サ面52、62を用いる場合は、いずれかのセンサ面で
求められた値を代表値として用いることができる。本実
施形態では、第1のセンサ面52における値を代表値と
して用いる。
【0085】2.3 操作入力部の画面に対する向きの
検出 図5(A)、(B)に、上述した検出装置による操作入
力部の画面に対する向きの検出原理について説明するた
めの図を示す。
検出 図5(A)、(B)に、上述した検出装置による操作入
力部の画面に対する向きの検出原理について説明するた
めの図を示す。
【0086】図5(A)に示すように、検出装置の2つ
のタブレットセンサにより、間隔dをおいて第1及び第
2のセンサ面52、62が形成される。ここで、プレー
ヤによって操作される操作入力部が、第1のセンサ面5
2を横切る位置をPS1、第2のセンサ面62を横切る位
置をPS2とする。
のタブレットセンサにより、間隔dをおいて第1及び第
2のセンサ面52、62が形成される。ここで、プレー
ヤによって操作される操作入力部が、第1のセンサ面5
2を横切る位置をPS1、第2のセンサ面62を横切る位
置をPS2とする。
【0087】このとき、操作入力部の画面に対する向き
は、第1のセンサ面52を横切る位置をPS1と第2のセ
ンサ面62を横切る位置をPS2とを結ぶ線が、第1又は
第2のセンサ面52、62となす角となる。
は、第1のセンサ面52を横切る位置をPS1と第2のセ
ンサ面62を横切る位置をPS2とを結ぶ線が、第1又は
第2のセンサ面52、62となす角となる。
【0088】すなわち、第1のセンサ面52を横切る位
置PS1(xs1,ys1)、第2のセンサ面62を横切
る位置PS2(xs2,ys2)とすると、図5(B)に
示すように、操作入力部の画面に対する向きφのx成分
をφx、y成分をφyは、次の(3)式、(4)式によ
り求められる。
置PS1(xs1,ys1)、第2のセンサ面62を横切
る位置PS2(xs2,ys2)とすると、図5(B)に
示すように、操作入力部の画面に対する向きφのx成分
をφx、y成分をφyは、次の(3)式、(4)式によ
り求められる。
【0089】
tanφx=(xs1−xs2)/d ・・・(3)
tanφy=(ys1−ys2)/d ・・・(4)
このように、センサ面における操作入力部が横切る位置
が特定できれば、第1及び第2のセンサ面における位置
から、操作入力部の画面に対する向きを容易に求めるこ
とができるようになる。
が特定できれば、第1及び第2のセンサ面における位置
から、操作入力部の画面に対する向きを容易に求めるこ
とができるようになる。
【0090】3. 本実施形態の特徴
本実施形態は、上述した検出装置等からの入力情報に基
づいて指定された画面上での位置情報(狭義には、位置
とその位置が変化する向き)に基づき、所与の複数のモ
ーションを補間した補間モーションを生成することがで
きる。さらに、この補間モーションに移行していくよう
に、現在再生中のキャラクタ(オブジェクト)のモーシ
ョンとの補間を行うことで、指定された画面上での位置
情報に基づいて決められたモーションに、リアルに移行
していくキャラクタ(オブジェクト)の画像を生成する
ことができる。したがって、プレーヤによって攻撃され
るキャラクタ(オブジェクト)のモーションを再生する
ためのモーションデータを無数に用意しておく必要がな
くなる。
づいて指定された画面上での位置情報(狭義には、位置
とその位置が変化する向き)に基づき、所与の複数のモ
ーションを補間した補間モーションを生成することがで
きる。さらに、この補間モーションに移行していくよう
に、現在再生中のキャラクタ(オブジェクト)のモーシ
ョンとの補間を行うことで、指定された画面上での位置
情報に基づいて決められたモーションに、リアルに移行
していくキャラクタ(オブジェクト)の画像を生成する
ことができる。したがって、プレーヤによって攻撃され
るキャラクタ(オブジェクト)のモーションを再生する
ためのモーションデータを無数に用意しておく必要がな
くなる。
【0091】そこで、まず、図6〜図10を用いてモー
ション補間(モーションブレンド)の原理について説明
する。
ション補間(モーションブレンド)の原理について説明
する。
【0092】3.1 モーション補間の原理
図6に、モーションが生成されるオブジェクトの基準状
態を示す。
態を示す。
【0093】このオブジェクトは、パーツ1(PA
1)、パーツ2(PA2)、パーツ3(PA3)の3つ
のパーツから構成されており、X、Y、Z軸で定義され
るオブジェクト空間内に配置されている。
1)、パーツ2(PA2)、パーツ3(PA3)の3つ
のパーツから構成されており、X、Y、Z軸で定義され
るオブジェクト空間内に配置されている。
【0094】パーツ1(PA1)は、パーツ2(PA
2)の親であり、パーツ2(PA2)はパーツ3(PA
3)の親である。また、K1、K2、K3は、それぞれ
パーツ1(PA1)、パーツ2(PA2)、パーツ3
(PA3)に対応した関節(モーション骨)である。
2)の親であり、パーツ2(PA2)はパーツ3(PA
3)の親である。また、K1、K2、K3は、それぞれ
パーツ1(PA1)、パーツ2(PA2)、パーツ3
(PA3)に対応した関節(モーション骨)である。
【0095】一般にm個の関節を有するオブジェクトの
所与のモーションを、第1〜第nのフレームのnフレー
ムで生成する場合、例えば各フレームごとに、当該フレ
ームにおける各関節の位置データ及び回転データをモー
ションデータとして与える。
所与のモーションを、第1〜第nのフレームのnフレー
ムで生成する場合、例えば各フレームごとに、当該フレ
ームにおける各関節の位置データ及び回転データをモー
ションデータとして与える。
【0096】ここで、位置データは、X、Y、Z軸上の
座標(tx,ty,tz)であり、親関節の始点に対す
る当該関節の始点位置を相対的な(ローカル座標系にお
ける)位置情報で与えたものである。
座標(tx,ty,tz)であり、親関節の始点に対す
る当該関節の始点位置を相対的な(ローカル座標系にお
ける)位置情報で与えたものである。
【0097】例えばパーツ2(PA2)の位置データ
は、親関節であるK1の始点SP1に対する当該関節K
2の始点SP2の相対的な位置データ(0,5,0)で
与えられる。
は、親関節であるK1の始点SP1に対する当該関節K
2の始点SP2の相対的な位置データ(0,5,0)で
与えられる。
【0098】またパーツ3(PA3)の位置データは、
親関節であるK2の始点SP2に対する当該関節K3の
始点SP3の相対的な位置データ(0,4.5,0)で
与えられる。
親関節であるK2の始点SP2に対する当該関節K3の
始点SP3の相対的な位置データ(0,4.5,0)で
与えられる。
【0099】また最も上位のパーツ1(PA1)の位置
データは、オブジェクトの基準位置(図6では原点O)
に対する当該関節K1の始点SP1の相対的な位置デー
タ(0,0,0)で与えられる。
データは、オブジェクトの基準位置(図6では原点O)
に対する当該関節K1の始点SP1の相対的な位置デー
タ(0,0,0)で与えられる。
【0100】一方、回転データは、例えば当該関節が接
続されている上位関節に対する当該関節の3軸方向に対
する回転データ(rx,ry,rz)で与えられる。
続されている上位関節に対する当該関節の3軸方向に対
する回転データ(rx,ry,rz)で与えられる。
【0101】図7(A)、(B)、(C)に、全フレー
ムが3フレームで構成されるモーションでオブジェクト
を動作させた場合の様子を模式的に表した図を示す。
ムが3フレームで構成されるモーションでオブジェクト
を動作させた場合の様子を模式的に表した図を示す。
【0102】図7(A)は、1フレーム目のモーション
210と当該モーションを生成するためのモーションデ
ータ212を表している。図7(B)は、2フレーム目
のモーション220と当該モーションを生成するための
モーションデータ222を表している。図7(C)は、
3フレーム目のモーション230と当該モーションを生
成するためのモーションデータ232を表している。
210と当該モーションを生成するためのモーションデ
ータ212を表している。図7(B)は、2フレーム目
のモーション220と当該モーションを生成するための
モーションデータ222を表している。図7(C)は、
3フレーム目のモーション230と当該モーションを生
成するためのモーションデータ232を表している。
【0103】これらモーションデータは、モーションデ
ータ記憶部176に記憶される。キャラクタのモーショ
ン処理は、モーションデータ記憶部176に記憶されて
いるモーションデータに基づいて再生することで実現で
きる。
ータ記憶部176に記憶される。キャラクタのモーショ
ン処理は、モーションデータ記憶部176に記憶されて
いるモーションデータに基づいて再生することで実現で
きる。
【0104】このようなモーションデータを用いたモー
ション同士の補間は、以下のように行うことができる。
ション同士の補間は、以下のように行うことができる。
【0105】図8に、モーションデータを補間して生成
されるモーションの一例を示す。
されるモーションの一例を示す。
【0106】モーションA(250)は、あらかじめ用
意されたモーションデータaによって再生されるキャラ
クタの動作を表している。キャラクタ251〜259
は、n−8フレーム目〜nフレーム目(最終フレーム)
における当該キャラクタのモーションを示している。
意されたモーションデータaによって再生されるキャラ
クタの動作を表している。キャラクタ251〜259
は、n−8フレーム目〜nフレーム目(最終フレーム)
における当該キャラクタのモーションを示している。
【0107】一方、モーションB(270)も、あらか
じめ用意されたモーションデータbによって再生される
キャラクタの動作を表している。キャラクタ271〜2
79は、1フレーム目(先頭フレーム)〜9フレーム目
における当該キャラクタのモーションを示している。
じめ用意されたモーションデータbによって再生される
キャラクタの動作を表している。キャラクタ271〜2
79は、1フレーム目(先頭フレーム)〜9フレーム目
における当該キャラクタのモーションを示している。
【0108】モーションA(250)とモーションB
(270)とは、別個に作成された連続性を有しないモ
ーションであり、モーションAとモーションBとを連続
して再生した場合、モーションAの最終フレームのキャ
ラクタ259と、モーションBの先頭フレームのキャラ
クタ271のモーションは滑らかにつながらず、プレー
ヤに違和感や不自然さを与えてしまい、画像のリアリテ
ィが損なわれてしまう。
(270)とは、別個に作成された連続性を有しないモ
ーションであり、モーションAとモーションBとを連続
して再生した場合、モーションAの最終フレームのキャ
ラクタ259と、モーションBの先頭フレームのキャラ
クタ271のモーションは滑らかにつながらず、プレー
ヤに違和感や不自然さを与えてしまい、画像のリアリテ
ィが損なわれてしまう。
【0109】そこで、モーションAとモーションBとを
補間した繋ぎモーション290を生成し、当該繋ぎモー
ション290を用いてモーション同士が滑らかに繋げる
場合を考える。
補間した繋ぎモーション290を生成し、当該繋ぎモー
ション290を用いてモーション同士が滑らかに繋げる
場合を考える。
【0110】キャラクタ291のモーションは、モーシ
ョンAの(n−4)フレーム目のキャラクタ255のモ
ーションと、モーションBの1フレーム目のキャラクタ
271のモーションとを、補間レート1で補間して生成
された繋ぎモーションである。キャラクタ292のモー
ションは、モーションAの(n−3)フレーム目のキャ
ラクタ256のモーションと、モーションBの2フレー
ム目のキャラクタ272のモーションとを、補間レート
2で補間して生成された繋ぎモーションである。キャラ
クタ293のモーションは、モーションAの(n−2)
フレーム目のキャラクタ257のモーションと、モーシ
ョンBの3フレーム目のキャラクタ273のモーション
とを、補間レート3で補間して生成された繋ぎモーショ
ンである。キャラクタ294のモーションは、モーショ
ンAの(n−1)フレーム目のキャラクタ258のモー
ションと、モーションBの4フレーム目のキャラクタ2
74のモーションとを、補間レート4で補間して生成さ
れた繋ぎモーションである。キャラクタ295のモーシ
ョンは、モーションAのnフレーム目のキャラクタ25
9のモーションと、モーションBの5フレーム目のキャ
ラクタ275のモーションとを、補間レート5で補間し
て生成された繋ぎモーションである。
ョンAの(n−4)フレーム目のキャラクタ255のモ
ーションと、モーションBの1フレーム目のキャラクタ
271のモーションとを、補間レート1で補間して生成
された繋ぎモーションである。キャラクタ292のモー
ションは、モーションAの(n−3)フレーム目のキャ
ラクタ256のモーションと、モーションBの2フレー
ム目のキャラクタ272のモーションとを、補間レート
2で補間して生成された繋ぎモーションである。キャラ
クタ293のモーションは、モーションAの(n−2)
フレーム目のキャラクタ257のモーションと、モーシ
ョンBの3フレーム目のキャラクタ273のモーション
とを、補間レート3で補間して生成された繋ぎモーショ
ンである。キャラクタ294のモーションは、モーショ
ンAの(n−1)フレーム目のキャラクタ258のモー
ションと、モーションBの4フレーム目のキャラクタ2
74のモーションとを、補間レート4で補間して生成さ
れた繋ぎモーションである。キャラクタ295のモーシ
ョンは、モーションAのnフレーム目のキャラクタ25
9のモーションと、モーションBの5フレーム目のキャ
ラクタ275のモーションとを、補間レート5で補間し
て生成された繋ぎモーションである。
【0111】ここでは、フレームの進行に伴い、モーシ
ョンBの比率が増加するような補間レートで補間して繋
ぎモーションを生成する。すなわち、キャラクタ291
のモーションは、モーションAの影響が強い補間レート
1を用い、キャラクタ292のモーション、・・・、キ
ャラクタ295のモーションとフレームが進行するにつ
れて、モーションAの影響が弱くなって反対にモーショ
ンBの影響が強くなるような補間レートを用いる。
ョンBの比率が増加するような補間レートで補間して繋
ぎモーションを生成する。すなわち、キャラクタ291
のモーションは、モーションAの影響が強い補間レート
1を用い、キャラクタ292のモーション、・・・、キ
ャラクタ295のモーションとフレームが進行するにつ
れて、モーションAの影響が弱くなって反対にモーショ
ンBの影響が強くなるような補間レートを用いる。
【0112】図9に、このような補間レートについて説
明するための図を示す。
明するための図を示す。
【0113】ここで、αは、各フレームにおけるモーシ
ョンAを補間する割合を示し、βは、各フレームにおけ
るモーションBを補間する割合を示している。ここで
は、α+β=1の関係を有するものとして説明するが、
これに限定されるものはない。なお、縦軸は補間レート
を表す軸で、横軸はフレーム進行を表す時間軸である。
ョンAを補間する割合を示し、βは、各フレームにおけ
るモーションBを補間する割合を示している。ここで
は、α+β=1の関係を有するものとして説明するが、
これに限定されるものはない。なお、縦軸は補間レート
を表す軸で、横軸はフレーム進行を表す時間軸である。
【0114】第1の区間300では、モーションAの開
始からモーションBの開始までの区間である。ここで
は、モーションAの先頭フレームから所定のフレームの
近傍(例えば図8では、n−5フレーム目)まで生成さ
れる。
始からモーションBの開始までの区間である。ここで
は、モーションAの先頭フレームから所定のフレームの
近傍(例えば図8では、n−5フレーム目)まで生成さ
れる。
【0115】第1の区間300に続く繋ぎ区間310
は、モーションBの開始からモーションAの終了までの
区間である。この区間では、モーションAとモーション
Bが各フレームに対応したα:βの補間レートで補間さ
れる。
は、モーションBの開始からモーションAの終了までの
区間である。この区間では、モーションAとモーション
Bが各フレームに対応したα:βの補間レートで補間さ
れる。
【0116】例えばあるパーツのモーションAの位置デ
ータ(txa,tya,tza)、回転データ(rx
a,rya,rza)として、対応するフレームのモー
ションBの位置データ(txb,tyb,tzb)、回
転データ(rxb,ryb,rzb)とする。このと
き、モーションAとモーションBの補間により生成され
る繋ぎモーションの位置データ(txc,tyc,tz
c)、回転データ(rxc,ryc,rzc)は、次の
式のようになる。
ータ(txa,tya,tza)、回転データ(rx
a,rya,rza)として、対応するフレームのモー
ションBの位置データ(txb,tyb,tzb)、回
転データ(rxb,ryb,rzb)とする。このと
き、モーションAとモーションBの補間により生成され
る繋ぎモーションの位置データ(txc,tyc,tz
c)、回転データ(rxc,ryc,rzc)は、次の
式のようになる。
【0117】
txc=α×txa+(1−α)×txb ・・・(5)
tyc=α×tya+(1−α)×tyb ・・・(6)
tzc=α×tza+(1−α)×tzb ・・・(7)
rxc=α×rxa+(1−α)×rxb ・・・(8)
ryc=α×rya+(1−α)×ryb ・・・(9)
rzc=α×rza+(1−α)×rzb ・・・(10)
例えば、図8に示すキャラクタ291〜295のモーシ
ョンの生成に適用した補間レート1〜補間レート5は、
図9におけるtt1〜tt5のαの値を採用している。
ョンの生成に適用した補間レート1〜補間レート5は、
図9におけるtt1〜tt5のαの値を採用している。
【0118】繋ぎ区間310に続く第2の区間320で
は、モーションAの終了後からモーションBの終了する
までの区間である。ここでは、モーションBの所定のフ
レームの近傍(例えば、図8の6フレーム目)からモー
ションBの最終フレーム目まで生成される。
は、モーションAの終了後からモーションBの終了する
までの区間である。ここでは、モーションBの所定のフ
レームの近傍(例えば、図8の6フレーム目)からモー
ションBの最終フレーム目まで生成される。
【0119】以上より、第1の区間300ではモーショ
ンAの先頭フレームから(n−5)フレーム目までを生
成し、繋ぎ区間310では上述の補間によりキャラクタ
291〜295の補間モーションを生成し、第2の区間
320ではモーションBの6フレーム目からモーション
Bの最終フレームまでを生成する。こうすることで、モ
ーションAからモーションBに移行する際に、キャラク
タ254、291〜295、276のモーションは滑ら
かに繋がり、違和感のない自然なモーションを生成する
ことができる。
ンAの先頭フレームから(n−5)フレーム目までを生
成し、繋ぎ区間310では上述の補間によりキャラクタ
291〜295の補間モーションを生成し、第2の区間
320ではモーションBの6フレーム目からモーション
Bの最終フレームまでを生成する。こうすることで、モ
ーションAからモーションBに移行する際に、キャラク
タ254、291〜295、276のモーションは滑ら
かに繋がり、違和感のない自然なモーションを生成する
ことができる。
【0120】このように、モーションAとモーションB
の両方の時間を進めながら、互いのモーションの割合を
徐々に変化させていくことで、滑らかにモーションAと
モーションBとを繋ぐことができる。
の両方の時間を進めながら、互いのモーションの割合を
徐々に変化させていくことで、滑らかにモーションAと
モーションBとを繋ぐことができる。
【0121】また、モーション補間は、上述したものに
限定されるものではない。例えば、モーションA及びモ
ーションBのうち少なくとも1つが1フレーム分のモー
ションであっても同様に行うことができる。
限定されるものではない。例えば、モーションA及びモ
ーションBのうち少なくとも1つが1フレーム分のモー
ションであっても同様に行うことができる。
【0122】3.2 モーションの予測生成
本実施形態は、上述した補間を、検出装置等からの入力
情報により指定された画面上での位置情報(狭義には、
位置とその位置が変化する向き)を用いて決められる複
数のモーションについて行うことで、モーションの予測
生成を行う。そして、この予測生成された(補間)モー
ションを最終目標として、現在再生中のモーションから
次第に移行させていく。
情報により指定された画面上での位置情報(狭義には、
位置とその位置が変化する向き)を用いて決められる複
数のモーションについて行うことで、モーションの予測
生成を行う。そして、この予測生成された(補間)モー
ションを最終目標として、現在再生中のモーションから
次第に移行させていく。
【0123】図10に、本実施形態におけるモーション
の予測生成の原理を説明するための図を示す。
の予測生成の原理を説明するための図を示す。
【0124】ここでは、キャラクタ400について、現
在再生中のモーションが生成されているものとする。
在再生中のモーションが生成されているものとする。
【0125】このとき、例えば検出装置等から画面上で
指定された刀型コントローラの位置及び該位置の変化す
る向き(位置情報)を用いて、当該キャラクタについて
予め用意された複数のモーションから、例えば第1及び
第2のモーションが決められる。例えば、画面上で指定
された刀型コントローラの位置情報が、斜め上方向から
の攻撃であると判別されると、キャラクタ400は斜め
上方向からの攻撃に対する防御モーションを生成するた
めに、予め用意された第1のモーション(上方向からの
防御モーション)と第2のモーション(横方向からの防
御モーション)とを補間して、補間モーションデータ
(図示せず)を生成する。
指定された刀型コントローラの位置及び該位置の変化す
る向き(位置情報)を用いて、当該キャラクタについて
予め用意された複数のモーションから、例えば第1及び
第2のモーションが決められる。例えば、画面上で指定
された刀型コントローラの位置情報が、斜め上方向から
の攻撃であると判別されると、キャラクタ400は斜め
上方向からの攻撃に対する防御モーションを生成するた
めに、予め用意された第1のモーション(上方向からの
防御モーション)と第2のモーション(横方向からの防
御モーション)とを補間して、補間モーションデータ
(図示せず)を生成する。
【0126】例えば図11に示すように、画面450
に、プレーヤがオブジェクト空間内を移動しながら一人
称視点位置から見たキャラクタ452のオブジェクト画
像と、プレーヤが操作する刀型コントローラに対応する
刀オブジェクト454の画像とが表示されているものと
する。
に、プレーヤがオブジェクト空間内を移動しながら一人
称視点位置から見たキャラクタ452のオブジェクト画
像と、プレーヤが操作する刀型コントローラに対応する
刀オブジェクト454の画像とが表示されているものと
する。
【0127】キャラクタ452には、例えばへそ辺りに
基準位置Qが設定されている。刀454には、その先端
部に基準位置Pcが設定されている。
基準位置Qが設定されている。刀454には、その先端
部に基準位置Pcが設定されている。
【0128】キャラクタ452には、図12に示すよう
に例えばその基準位置Qを中心に半径Rの攻撃検知範囲
460が設定されている。攻撃検知範囲460は、例え
ばプレーヤの攻撃方向を6分割して、RG1〜RG6を
有する。
に例えばその基準位置Qを中心に半径Rの攻撃検知範囲
460が設定されている。攻撃検知範囲460は、例え
ばプレーヤの攻撃方向を6分割して、RG1〜RG6を
有する。
【0129】このとき、例えば刀の基準位置Pcの変化
する向きが、キャラクタの基準位置Qに向かっており、
その変化後の位置が攻撃検知範囲460内に存在する場
合に、当該キャラクタに対する刀による防御可能な攻撃
があったと判別する。
する向きが、キャラクタの基準位置Qに向かっており、
その変化後の位置が攻撃検知範囲460内に存在する場
合に、当該キャラクタに対する刀による防御可能な攻撃
があったと判別する。
【0130】例えば、基準位置Pcが矢印462の方向
に移動した場合には、攻撃があったと判別する。
に移動した場合には、攻撃があったと判別する。
【0131】RG1〜6には、それぞれの攻撃方向に対
応する防御モーションが予め用意されている。例えば、
RG1には上方向からの攻撃に対する防御モーション、
RG4には下方向からの防御モーションが用意されてい
る。
応する防御モーションが予め用意されている。例えば、
RG1には上方向からの攻撃に対する防御モーション、
RG4には下方向からの防御モーションが用意されてい
る。
【0132】ここで、攻撃検知範囲460において、キ
ャラクタの斜め上方向470の方向から攻撃があったこ
とが判別されると、RG1及びRG2に対応して設けら
れた防御モーションが所与の補間レートで補間された補
間モーションが生成される。
ャラクタの斜め上方向470の方向から攻撃があったこ
とが判別されると、RG1及びRG2に対応して設けら
れた防御モーションが所与の補間レートで補間された補
間モーションが生成される。
【0133】すなわち、図13に示すように、RG1に
対応して設けられた上防御用の第1のモーションG
[1]と、RG2に対応して設けられた横防御用の第2
のモーションG[2]から、その攻撃方向に対応する補
間レートを用いて、斜め上防御用の補間モーションG´
(480)が生成される。
対応して設けられた上防御用の第1のモーションG
[1]と、RG2に対応して設けられた横防御用の第2
のモーションG[2]から、その攻撃方向に対応する補
間レートを用いて、斜め上防御用の補間モーションG´
(480)が生成される。
【0134】そして、図10に示すように、現在再生中
のモーションと、この補間モーションを補間して、攻撃
方向に対応してインタラクティブに反応する新たな防御
モーションを生成する。
のモーションと、この補間モーションを補間して、攻撃
方向に対応してインタラクティブに反応する新たな防御
モーションを生成する。
【0135】この際、図14に示すように、フレーム進
行に伴って、次第に補間モーションG´の影響が強くな
り、現在再生中のモーションMの影響が弱くなるような
補間レートを用いて補間する。
行に伴って、次第に補間モーションG´の影響が強くな
り、現在再生中のモーションMの影響が弱くなるような
補間レートを用いて補間する。
【0136】例えば、図14に示すキャラクタ400、
500、502、504、406のモーションをM´と
すると、モーションM´は、所与のフレームにける補間
レートαを用いて次のように表すことができる。
500、502、504、406のモーションをM´と
すると、モーションM´は、所与のフレームにける補間
レートαを用いて次のように表すことができる。
【0137】
M´=α×M+(1−α)×G´ ・・・(11)
ここで、αはフレームの進行に伴い、1.00から0.
00に次第に減っていくようにすることで、次第に補間
モーションG´の影響が強くなるように補間することが
可能となる。
00に次第に減っていくようにすることで、次第に補間
モーションG´の影響が強くなるように補間することが
可能となる。
【0138】この結果、キャラクタ406について、第
1及び第2のモーションを補間した補間モーションG´
が最終的に生成される。
1及び第2のモーションを補間した補間モーションG´
が最終的に生成される。
【0139】このように、本実施形態では、まず画面上
で指定された位置及び該位置の変化する向き(位置情
報)に基づいて、予め用意されたモーションから選択し
たモーション同士を補間し、これを最終的に移行するモ
ーションとする。
で指定された位置及び該位置の変化する向き(位置情
報)に基づいて、予め用意されたモーションから選択し
たモーション同士を補間し、これを最終的に移行するモ
ーションとする。
【0140】したがって、例えば(敵)キャラクタは、
プレーヤが刀で攻撃してくる方向を予測し、その予測結
果に基づくモーションに移行させる用に表現することが
できる。さらに、当該キャラクタのモーションについて
は、攻撃される全方向それぞれに対応したモーションを
用意しておく必要がなくなり、データ量を大幅に削減す
ることができる。
プレーヤが刀で攻撃してくる方向を予測し、その予測結
果に基づくモーションに移行させる用に表現することが
できる。さらに、当該キャラクタのモーションについて
は、攻撃される全方向それぞれに対応したモーションを
用意しておく必要がなくなり、データ量を大幅に削減す
ることができる。
【0141】さらに、本実施形態では、このようにして
補間された補間モーションと、現在再生中のモーション
とを補間して、次第にキャラクタのモーションを補間モ
ーションに移行させる。
補間された補間モーションと、現在再生中のモーション
とを補間して、次第にキャラクタのモーションを補間モ
ーションに移行させる。
【0142】したがって、例えばキャラクタ400のモ
ーションが再生中に、方向410からの攻撃があった場
合に、次第に方向410の攻撃に対応する防御モーショ
ンに移行させることができるようになる。
ーションが再生中に、方向410からの攻撃があった場
合に、次第に方向410の攻撃に対応する防御モーショ
ンに移行させることができるようになる。
【0143】これにより、現在再生中のモーションか
ら、任意の方向からの攻撃に対応する防御モーションへ
移行させることができ、攻撃に対しインタラクティブに
反応するキャラクタのモーションを容易に作成すること
ができるようになる。例えば、斜め右下方向からの攻撃
に対する防御モーションから斜め左上方向からの攻撃に
対する防御モーションへ滑らかに移行させたり、攻撃モ
ーションから横方向からの攻撃に対する防御モーション
へ滑らかに移行させたりすることができ、これら無数の
パターンのモーションデータを予め用意しておく必要が
なくなる。
ら、任意の方向からの攻撃に対応する防御モーションへ
移行させることができ、攻撃に対しインタラクティブに
反応するキャラクタのモーションを容易に作成すること
ができるようになる。例えば、斜め右下方向からの攻撃
に対する防御モーションから斜め左上方向からの攻撃に
対する防御モーションへ滑らかに移行させたり、攻撃モ
ーションから横方向からの攻撃に対する防御モーション
へ滑らかに移行させたりすることができ、これら無数の
パターンのモーションデータを予め用意しておく必要が
なくなる。
【0144】また、最終的に移行させた防御モーション
にしたがって、キャラクタが所持する武器等の特定部位
の座標を求め、この座標を用いて刀とのヒットチェック
を行うことで、より少ないモーションデータを用いてイ
ンタラクティブに反応するキャラクタとの斬り合いをよ
りリアルに表現することができる。
にしたがって、キャラクタが所持する武器等の特定部位
の座標を求め、この座標を用いて刀とのヒットチェック
を行うことで、より少ないモーションデータを用いてイ
ンタラクティブに反応するキャラクタとの斬り合いをよ
りリアルに表現することができる。
【0145】ここでは、補間モーションを2つのモーシ
ョンから補間して生成しているものとして説明している
が、3以上のモーションを補間して生成することもでき
る。
ョンから補間して生成しているものとして説明している
が、3以上のモーションを補間して生成することもでき
る。
【0146】また、予め用意しておくモーションデータ
は、1フレーム分であってもよいし、2フレーム以上の
複数フレーム分であってもよい。
は、1フレーム分であってもよいし、2フレーム以上の
複数フレーム分であってもよい。
【0147】このように予め用意しておくモーションデ
ータは、現在再生中のモーションデータと補間する時点
で用意されていればよく、予めモーションキャプチャ等
で計測して作成したモーションデータを記憶部に記憶さ
せておいてもよいし、一連のゲーム処理途中に生成した
モーションデータを記憶部に記憶させておいてもよい。
ータは、現在再生中のモーションデータと補間する時点
で用意されていればよく、予めモーションキャプチャ等
で計測して作成したモーションデータを記憶部に記憶さ
せておいてもよいし、一連のゲーム処理途中に生成した
モーションデータを記憶部に記憶させておいてもよい。
【0148】4. 本実施形態の処理
次に、図15〜図17を用いて、本実施形態の処理例に
ついて説明する。
ついて説明する。
【0149】以下では、予め用意された防御モーション
の数をNとして、360度/Nごとの方向それぞれに対
応して用意された防御モーションをG[0]〜G[N]
とする。また、通常の現在再生中のモーションをM、攻
撃を察知して合成された補間モーションをG´とし、攻
撃にインタラクティブに反応して現在再生中のモーショ
ンMから補間モーションG´に移行するモーションをM
´とする。
の数をNとして、360度/Nごとの方向それぞれに対
応して用意された防御モーションをG[0]〜G[N]
とする。また、通常の現在再生中のモーションをM、攻
撃を察知して合成された補間モーションをG´とし、攻
撃にインタラクティブに反応して現在再生中のモーショ
ンMから補間モーションG´に移行するモーションをM
´とする。
【0150】図15に、本実施形態により補間されたモ
ーションのキャラクタについて説明するためのフローチ
ャートを示す。
ーションのキャラクタについて説明するためのフローチ
ャートを示す。
【0151】まず、モーションの再生対象のキャラクタ
を初期化する(ステップS10)。より具体的には、モ
ーションM´と補間モーションG´との補間レートf
と、予め用意された防御モーションG[i]、G[i
´](1≦i,i´≦N、i、i´は自然数)の補間レ
ートをgとを、それぞれ0.0に初期化する。
を初期化する(ステップS10)。より具体的には、モ
ーションM´と補間モーションG´との補間レートf
と、予め用意された防御モーションG[i]、G[i
´](1≦i,i´≦N、i、i´は自然数)の補間レ
ートをgとを、それぞれ0.0に初期化する。
【0152】次に、図1に示した検出装置等からの入力
情報に基づき、プレーヤによって操作される刀型コント
ローラにより指定される刀の画面上での基準位置Pc
と、その変化する向きとを、ベクトルPcとして読み込
む(ステップS11)。
情報に基づき、プレーヤによって操作される刀型コント
ローラにより指定される刀の画面上での基準位置Pc
と、その変化する向きとを、ベクトルPcとして読み込
む(ステップS11)。
【0153】プレーヤの攻撃対象のキャラクタが画面内
に存在するとき(ステップS12:Y)、キャラクタの
基準位置Qを、ベクトルQとして読み込む(ステップS
13)。
に存在するとき(ステップS12:Y)、キャラクタの
基準位置Qを、ベクトルQとして読み込む(ステップS
13)。
【0154】そして、キャラクタの基準位置Qと、画面
上での刀の基準位置Pcとの位置関係のうち、互いの距
離を判別する(ステップS14)。すなわち、ベクトル
PcとベクトルQの差分の絶対値が、攻撃検知範囲の半
径Rより小さいか否かを判別する。
上での刀の基準位置Pcとの位置関係のうち、互いの距
離を判別する(ステップS14)。すなわち、ベクトル
PcとベクトルQの差分の絶対値が、攻撃検知範囲の半
径Rより小さいか否かを判別する。
【0155】ベクトルPcとベクトルQの差分の絶対値
が、半径Rより小さいとき(ステップS14:Y)、当
該キャラクタは防御可能な攻撃があったと判断し、上述
したように攻撃方向に対応する補間モーションを生成
し、現在再生中のモーションと補間して、補間後のモー
ション(防御モーション)を生成する。
が、半径Rより小さいとき(ステップS14:Y)、当
該キャラクタは防御可能な攻撃があったと判断し、上述
したように攻撃方向に対応する補間モーションを生成
し、現在再生中のモーションと補間して、補間後のモー
ション(防御モーション)を生成する。
【0156】一方、ステップS12で、キャラクタが画
面内に存在しないとき(ステップS12:N)、或いは
ベクトルPcとベクトルQの差分の絶対値が半径R以上
のとき(ステップS14:N)、通常の現在再生中のキ
ャラクタのモーションMを再生し(ステップS16)、
モーションM´をモーションMとするとともに、補間レ
ートfに0を設定する(ステップS17)。
面内に存在しないとき(ステップS12:N)、或いは
ベクトルPcとベクトルQの差分の絶対値が半径R以上
のとき(ステップS14:N)、通常の現在再生中のキ
ャラクタのモーションMを再生し(ステップS16)、
モーションM´をモーションMとするとともに、補間レ
ートfに0を設定する(ステップS17)。
【0157】ステップS15で防御モーションが生成さ
れた後、或いはステップS17で補間レートfに0が設
定等が行われた後、モーションM´のモーションデータ
に基づいて、キャラクタを構成するパーツの位置を設定
し(ステップS18)、さらに各パーツ位置に基づいて
キャラクタが保持する武器の位置を求める(ステップS
19)。
れた後、或いはステップS17で補間レートfに0が設
定等が行われた後、モーションM´のモーションデータ
に基づいて、キャラクタを構成するパーツの位置を設定
し(ステップS18)、さらに各パーツ位置に基づいて
キャラクタが保持する武器の位置を求める(ステップS
19)。
【0158】その後、キャラクタの武器と、プレーヤの
操作状況を反映して画面上に表示される刀のヒットチェ
ックを行い(ステップS20)、ヒットと判定されたと
き(ステップS21:Y)、プレーヤの攻撃をキャンセ
ルする処理を行う(ステップS22)。
操作状況を反映して画面上に表示される刀のヒットチェ
ックを行い(ステップS20)、ヒットと判定されたと
き(ステップS21:Y)、プレーヤの攻撃をキャンセ
ルする処理を行う(ステップS22)。
【0159】ステップS21でヒットと判定されなかっ
たとき(ステップS21:N)、或いはステップS22
で攻撃をキャンセルする処理が行われた後、当該キャラ
クタの表示を行って(ステップS23)、所与の終了条
件を満たしたことを条件に(ステップS24:Y)、一
連の処理を終了する(エンド)。
たとき(ステップS21:N)、或いはステップS22
で攻撃をキャンセルする処理が行われた後、当該キャラ
クタの表示を行って(ステップS23)、所与の終了条
件を満たしたことを条件に(ステップS24:Y)、一
連の処理を終了する(エンド)。
【0160】一方、ステップS24で所与の終了条件を
満たしていないとき(ステップS24:N)、ステップ
S11に戻ってベクトルPcの読み込みを行う。
満たしていないとき(ステップS24:N)、ステップ
S11に戻ってベクトルPcの読み込みを行う。
【0161】以上のようにすることで、当該キャラクタ
について、攻撃方向に対応した防御モーションを生成す
ることができ、攻撃方向に対応してインタラクティブに
反応することができる。
について、攻撃方向に対応した防御モーションを生成す
ることができ、攻撃方向に対応してインタラクティブに
反応することができる。
【0162】特に、現在再生中のモーションから移行し
た補間後のモーションのモーションデータを用いて、攻
撃された刀とのヒットチェックを行うことで、よりリア
ルな攻防を表現することができる。
た補間後のモーションのモーションデータを用いて、攻
撃された刀とのヒットチェックを行うことで、よりリア
ルな攻防を表現することができる。
【0163】図16に、図15で示した防御モーション
データ生成処理の一例を示すフローチャートを示す。
データ生成処理の一例を示すフローチャートを示す。
【0164】防御モーションデータ生成処理において
は、まずキャラクタの基準位置Qと、画面上での刀の基
準位置Pcとの位置関係のうち、基準位置Qに対する、
刀の基準位置Pcの変化する向きθを求める(ステップ
S30)。例えば、θは図17に示すように求めること
ができる。
は、まずキャラクタの基準位置Qと、画面上での刀の基
準位置Pcとの位置関係のうち、基準位置Qに対する、
刀の基準位置Pcの変化する向きθを求める(ステップ
S30)。例えば、θは図17に示すように求めること
ができる。
【0165】また、このθを用いて、攻撃検知範囲内を
N分割した各分割領域を特定するための番号nを求め
る。
N分割した各分割領域を特定するための番号nを求め
る。
【0166】
n=(int)(N×θ/360) ・・・(12)
ここで、(int)は後続する演算結果の整数部を求め
る演算子である。
る演算子である。
【0167】そして、このnを用いて補間レートgを求
める。
める。
【0168】
g=N×θ/360−N ・・・(13)
続いて、この補間レートgを用いて、予め用意された防
御モーションG[1]〜G[N]のうち、nで特定され
る防御モーションG[n]、G[n+1]を選び出し、
次の式に従って合成し、補間モーションG´を生成する
(ステップS31)。
御モーションG[1]〜G[N]のうち、nで特定され
る防御モーションG[n]、G[n+1]を選び出し、
次の式に従って合成し、補間モーションG´を生成する
(ステップS31)。
【0169】
G´=G[n]×(1.0−g)+G[n]×g ・・・(14)
その後、補間レートfを0.1だけ加算して(ステップ
S32)、fが1.0より大きいか否かを判別する(ス
テップS33)。
S32)、fが1.0より大きいか否かを判別する(ス
テップS33)。
【0170】補間レートfが1.0より大きいとき(ス
テップS33:Y)、補間レートfに1.0を設定する
(ステップS34)。
テップS33:Y)、補間レートfに1.0を設定する
(ステップS34)。
【0171】ステップS33で補間レートfが1.0以
下のとき(ステップS33:N)、或いはステップS3
4で補間レートfが1.0に設定されたとき、この補間
レートfを用いて、現在再生中のモーションMと、補間
モーションG´とを、次の式に従って合成し、新たなモ
ーションM´を生成する(ステップS35)。
下のとき(ステップS33:N)、或いはステップS3
4で補間レートfが1.0に設定されたとき、この補間
レートfを用いて、現在再生中のモーションMと、補間
モーションG´とを、次の式に従って合成し、新たなモ
ーションM´を生成する(ステップS35)。
【0172】
M´=M×(1.0−f)+G´×f ・・・(15)
そして、一連の処理を終了する(エンド)。
【0173】以上のようにすることで、図13に示すよ
うに、予め用意された少ない種類のモーションの中か
ら、攻撃方向に応じた複数の防御モーションを選んで補
間し、最終的に任意の攻撃方向に対応した防御モーショ
ンとなる補間モーションを生成することができる。
うに、予め用意された少ない種類のモーションの中か
ら、攻撃方向に応じた複数の防御モーションを選んで補
間し、最終的に任意の攻撃方向に対応した防御モーショ
ンとなる補間モーションを生成することができる。
【0174】そして、図14に示すように、この補間モ
ーションを最終目標として現在再生中のモーションから
次第に移行していく補間処理を行う。
ーションを最終目標として現在再生中のモーションから
次第に移行していく補間処理を行う。
【0175】これにより、攻撃方向に対応してインタラ
クティブに反応することができキャラクタのモーション
を生成することができる。
クティブに反応することができキャラクタのモーション
を生成することができる。
【0176】5. ハードウェア構成
次に、本実施形態を実現できるハードウェア構成の一例
について図18を用いて説明する。
について図18を用いて説明する。
【0177】メインプロセッサ900は、CD982
(情報記憶媒体)に格納されたプログラム、通信インタ
フェース990を介して転送されたプログラム、或いは
ROM950(情報記憶媒体の1つ)に格納されたプロ
グラムなどに基づき動作し、ゲーム処理、画像処理、音
処理などの種々の処理を実行する。
(情報記憶媒体)に格納されたプログラム、通信インタ
フェース990を介して転送されたプログラム、或いは
ROM950(情報記憶媒体の1つ)に格納されたプロ
グラムなどに基づき動作し、ゲーム処理、画像処理、音
処理などの種々の処理を実行する。
【0178】コプロセッサ902は、メインプロセッサ
900の処理を補助するものであり、高速並列演算が可
能な積和算器や除算器を有し、マトリクス演算(ベクト
ル演算)を高速に実行する。例えば、オブジェクトを移
動させたり動作(モーション)させるための物理シミュ
レーションに、マトリクス演算などの処理が必要な場合
には、メインプロセッサ900上で動作するプログラム
が、その処理をコプロセッサ902に指示(依頼)す
る。
900の処理を補助するものであり、高速並列演算が可
能な積和算器や除算器を有し、マトリクス演算(ベクト
ル演算)を高速に実行する。例えば、オブジェクトを移
動させたり動作(モーション)させるための物理シミュ
レーションに、マトリクス演算などの処理が必要な場合
には、メインプロセッサ900上で動作するプログラム
が、その処理をコプロセッサ902に指示(依頼)す
る。
【0179】ジオメトリプロセッサ904は、座標変
換、透視変換、光源計算、曲面生成などのジオメトリ処
理を行うものであり、高速並列演算が可能な積和算器や
除算器を有し、マトリクス演算(ベクトル演算)を高速
に実行する。例えば、座標変換、透視変換、光源計算な
どの処理を行う場合には、メインプロセッサ900で動
作するプログラムが、その処理をジオメトリプロセッサ
904に指示する。
換、透視変換、光源計算、曲面生成などのジオメトリ処
理を行うものであり、高速並列演算が可能な積和算器や
除算器を有し、マトリクス演算(ベクトル演算)を高速
に実行する。例えば、座標変換、透視変換、光源計算な
どの処理を行う場合には、メインプロセッサ900で動
作するプログラムが、その処理をジオメトリプロセッサ
904に指示する。
【0180】データ伸張プロセッサ906は、圧縮され
た画像データや音データを伸張するデコード処理を行っ
たり、メインプロセッサ900のデコード処理をアクセ
レートする処理を行う。これにより、オープニング画
面、インターミッション画面、エンディング画面、或い
はゲーム画面などにおいて、MPEG方式等で圧縮され
た動画像を表示できるようになる。なお、デコード処理
の対象となる画像データや音データは、ROM950、
CD982に格納されたり、或いは通信インタフェース
990を介して外部から転送される。
た画像データや音データを伸張するデコード処理を行っ
たり、メインプロセッサ900のデコード処理をアクセ
レートする処理を行う。これにより、オープニング画
面、インターミッション画面、エンディング画面、或い
はゲーム画面などにおいて、MPEG方式等で圧縮され
た動画像を表示できるようになる。なお、デコード処理
の対象となる画像データや音データは、ROM950、
CD982に格納されたり、或いは通信インタフェース
990を介して外部から転送される。
【0181】描画プロセッサ910は、ポリゴンや曲面
などのプリミティブ(プリミティブ面)で構成されるオ
ブジェクトの描画(レンダリング)処理を高速に実行す
るものである。オブジェクトの描画の際には、メインプ
ロセッサ900は、DMAコントローラ970の機能を
利用して、オブジェクトデータを描画プロセッサ910
に渡すとともに、必要であればテクスチャ記憶部924
にテクスチャを転送する。すると、描画プロセッサ91
0は、これらのオブジェクトデータやテクスチャに基づ
いて、Zバッファなどを利用した陰面消去を行いなが
ら、オブジェクトをフレームバッファ922に高速に描
画する。また、描画プロセッサ910は、痺uレンディ
ング(半透明処理)、デプスキューイング、ミップマッ
ピング、フォグ処理、バイリニア・フィルタリング、ト
ライリニア・フィルタリング、アンチエリアシング、シ
ェーディング処理なども行うことができる。そして、1
フレーム分の画像がフレームバッファ922に書き込ま
れると、その画像はディスプレイ912に表示される。
などのプリミティブ(プリミティブ面)で構成されるオ
ブジェクトの描画(レンダリング)処理を高速に実行す
るものである。オブジェクトの描画の際には、メインプ
ロセッサ900は、DMAコントローラ970の機能を
利用して、オブジェクトデータを描画プロセッサ910
に渡すとともに、必要であればテクスチャ記憶部924
にテクスチャを転送する。すると、描画プロセッサ91
0は、これらのオブジェクトデータやテクスチャに基づ
いて、Zバッファなどを利用した陰面消去を行いなが
ら、オブジェクトをフレームバッファ922に高速に描
画する。また、描画プロセッサ910は、痺uレンディ
ング(半透明処理)、デプスキューイング、ミップマッ
ピング、フォグ処理、バイリニア・フィルタリング、ト
ライリニア・フィルタリング、アンチエリアシング、シ
ェーディング処理なども行うことができる。そして、1
フレーム分の画像がフレームバッファ922に書き込ま
れると、その画像はディスプレイ912に表示される。
【0182】サウンドプロセッサ930は、多チャンネ
ルのADPCM音源などを内蔵し、BGM、効果音、音
声などの高品位のゲーム音を生成する。生成されたゲー
ム音は、スピーカ932から出力される。
ルのADPCM音源などを内蔵し、BGM、効果音、音
声などの高品位のゲーム音を生成する。生成されたゲー
ム音は、スピーカ932から出力される。
【0183】ゲームコントローラ942(レバー、ボタ
ン、筺体、パッド型コントローラ又はガン型コントロー
ラ等)からの操作データや、メモリカード944からの
セーブデータ、個人データは、シリアルインターフェー
ス940を介してデータ転送される。
ン、筺体、パッド型コントローラ又はガン型コントロー
ラ等)からの操作データや、メモリカード944からの
セーブデータ、個人データは、シリアルインターフェー
ス940を介してデータ転送される。
【0184】ROM950にはシステムプログラムなど
が格納される。なお、業務用ゲームシステムの場合に
は、ROM950が情報記憶媒体として機能し、ROM
950に各種プログラムが格納されることになる。な
お、ROM950の代わりにハードディスクを利用する
ようにしてもよい。
が格納される。なお、業務用ゲームシステムの場合に
は、ROM950が情報記憶媒体として機能し、ROM
950に各種プログラムが格納されることになる。な
お、ROM950の代わりにハードディスクを利用する
ようにしてもよい。
【0185】RAM960は、各種プロセッサの作業領
域として用いられる。
域として用いられる。
【0186】DMAコントローラ970は、プロセッ
サ、メモリ(RAM、VRAM、ROM等)間でのDM
A転送を制御するものである。
サ、メモリ(RAM、VRAM、ROM等)間でのDM
A転送を制御するものである。
【0187】CDドライブ980は、プログラム、画像
データ、或いは音データなどが格納されるCD982
(情報記憶媒体)を駆動し、これらのプログラム、デー
タへのアクセスを可能にする。
データ、或いは音データなどが格納されるCD982
(情報記憶媒体)を駆動し、これらのプログラム、デー
タへのアクセスを可能にする。
【0188】通信インタフェース990は、ネットワー
クを介して外部との間でデータ転送を行うためのインタ
フェースである。この場合に、通信インタフェース99
0に接続されるネットワークとしては、通信回線(アナ
ログ電話回線、ISDN)、高速シリアルバスなどを考
えることができる。そして、通信回線を利用することで
インターネットを介したデータ転送が可能になる。ま
た、高速シリアルバスを利用することで、他の画像生成
システムとの間でのデータ転送が可能になる。
クを介して外部との間でデータ転送を行うためのインタ
フェースである。この場合に、通信インタフェース99
0に接続されるネットワークとしては、通信回線(アナ
ログ電話回線、ISDN)、高速シリアルバスなどを考
えることができる。そして、通信回線を利用することで
インターネットを介したデータ転送が可能になる。ま
た、高速シリアルバスを利用することで、他の画像生成
システムとの間でのデータ転送が可能になる。
【0189】或いは通信インタフェース990を介し
て、図示しない検出装置におけるセンサ面における操作
入力部の位置等を特定するための入力情報を受け付ける
ようにすることが考えられる。
て、図示しない検出装置におけるセンサ面における操作
入力部の位置等を特定するための入力情報を受け付ける
ようにすることが考えられる。
【0190】なお、本発明の各手段は、その全てを、ハ
ードウェアのみにより実現(実行)してもよいし、情報
記憶媒体に格納されるプログラムや通信インタフェース
を介して配信されるプログラムのみにより実現してもよ
い。或いは、ハードウェアとプログラムの両方により実
現してもよい。
ードウェアのみにより実現(実行)してもよいし、情報
記憶媒体に格納されるプログラムや通信インタフェース
を介して配信されるプログラムのみにより実現してもよ
い。或いは、ハードウェアとプログラムの両方により実
現してもよい。
【0191】そして、本発明の各手段をハードウェアと
プログラムの両方により実現する場合には、情報記憶媒
体には、本発明の各手段をハードウェアを利用して実現
するためのプログラムが格納されることになる。より具
体的には、上記プログラムが、ハードウェアである各プ
ロセッサ902、904、906、910、930等に
処理を指示するとともに、必要であればデータを渡す。
そして、各プロセッサ902、904、906、91
0、930等は、その指示と渡されたデータとに基づい
て、本発明の各手段を実現することになる。
プログラムの両方により実現する場合には、情報記憶媒
体には、本発明の各手段をハードウェアを利用して実現
するためのプログラムが格納されることになる。より具
体的には、上記プログラムが、ハードウェアである各プ
ロセッサ902、904、906、910、930等に
処理を指示するとともに、必要であればデータを渡す。
そして、各プロセッサ902、904、906、91
0、930等は、その指示と渡されたデータとに基づい
て、本発明の各手段を実現することになる。
【0192】なお本発明は、上記実施形態で説明したも
のに限らず、種々の変形実施が可能である。
のに限らず、種々の変形実施が可能である。
【0193】例えば、検出装置は図1、図3乃至図5で
説明した検出手法に限定されない。検出装置としては、
赤外線を超音波に替えて操作入力部の位置を検出するよ
うにしてもよいし、画像認識や、モーションキャプチャ
リングの原理を用いて、操作入力部の位置を検出するよ
うにしてもよい。要は、表示部の画面上の位置に各位置
が1対1に対応付けられた所与の空間(エリア)におい
て、プレーヤの身体の一部又はプレーヤによって操作さ
れる操作入力部の位置若しくは位置を特定するための情
報を検出できる検出装置であればよい。
説明した検出手法に限定されない。検出装置としては、
赤外線を超音波に替えて操作入力部の位置を検出するよ
うにしてもよいし、画像認識や、モーションキャプチャ
リングの原理を用いて、操作入力部の位置を検出するよ
うにしてもよい。要は、表示部の画面上の位置に各位置
が1対1に対応付けられた所与の空間(エリア)におい
て、プレーヤの身体の一部又はプレーヤによって操作さ
れる操作入力部の位置若しくは位置を特定するための情
報を検出できる検出装置であればよい。
【0194】また本実施形態では、操作入力部として刀
型コントローラを例に説明したがこれに限定されるもの
ではなく、槍やこん棒などの武器に限らず、指揮棒やゴ
ルフクラブ、料理に使う包丁などを考えることができ
る。
型コントローラを例に説明したがこれに限定されるもの
ではなく、槍やこん棒などの武器に限らず、指揮棒やゴ
ルフクラブ、料理に使う包丁などを考えることができ
る。
【0195】また、本発明のうち従属請求項に係る発明
においては、従属先の請求項の構成要件の一部を省略す
る構成とすることもできる。また、本発明の1の独立請
求項に係る発明の要部を、他の独立請求項に従属させる
こともできる。
においては、従属先の請求項の構成要件の一部を省略す
る構成とすることもできる。また、本発明の1の独立請
求項に係る発明の要部を、他の独立請求項に従属させる
こともできる。
【0196】また、本発明は種々のゲーム(格闘ゲー
ム、シューティングゲーム、ロボット対戦ゲーム、スポ
ーツゲーム、競争ゲーム、ロールプレイングゲーム、音
楽演奏ゲーム、ダンスゲーム等)に適用できる。
ム、シューティングゲーム、ロボット対戦ゲーム、スポ
ーツゲーム、競争ゲーム、ロールプレイングゲーム、音
楽演奏ゲーム、ダンスゲーム等)に適用できる。
【0197】また本発明は、業務用ゲームシステム、家
庭用ゲームシステム、多数のプレーヤが参加する大型ア
トラクションシステム、シミュレータ、マルチメディア
端末、ゲーム画像を生成するシステムボード等の種々の
画像生成システム(ゲームシステム)に適用できる。
庭用ゲームシステム、多数のプレーヤが参加する大型ア
トラクションシステム、シミュレータ、マルチメディア
端末、ゲーム画像を生成するシステムボード等の種々の
画像生成システム(ゲームシステム)に適用できる。
【図1】本実施形態の画像生成システムを業務用のゲー
ムシステムに適用した場合の模式的な外観斜視図であ
る。
ムシステムに適用した場合の模式的な外観斜視図であ
る。
【図2】本実施形態における画像生成システムのブロッ
ク図の一例である。
ク図の一例である。
【図3】図3(A)、(B)は、検出装置により形成さ
れるセンサ面における操作入力部の位置の検出原理につ
いて説明するための説明図である。
れるセンサ面における操作入力部の位置の検出原理につ
いて説明するための説明図である。
【図4】本実施形態において、検出装置により形成され
るセンサ面における操作入力部が移動する速さの検出原
理について説明するための説明図である。
るセンサ面における操作入力部が移動する速さの検出原
理について説明するための説明図である。
【図5】図5(A)、(B)は、検出装置による操作入
力部の画面に対する向きの検出原理について説明するた
めの説明図である。
力部の画面に対する向きの検出原理について説明するた
めの説明図である。
【図6】モーションが生成されるオブジェクトの基準状
態を示す説明図である。
態を示す説明図である。
【図7】図7(A)、(B)、(C)は、全フレームが
3フレームで構成されるモーションでオブジェクトを動
作させた場合の様子を模式的に表した説明図である。
3フレームで構成されるモーションでオブジェクトを動
作させた場合の様子を模式的に表した説明図である。
【図8】モーションデータを補間して生成されるモーシ
ョンの一例を示す説明図である。
ョンの一例を示す説明図である。
【図9】補間レートについて説明するための説明図であ
る。
る。
【図10】本実施形態におけるモーションの予測生成の
原理を説明するための説明図である。
原理を説明するための説明図である。
【図11】本実施形態におけるキャラクタの基準位置
と、刀の基準位置とを説明するための説明図である。
と、刀の基準位置とを説明するための説明図である。
【図12】本実施形態において、攻撃方向を予測して防
御モーションを生成するための攻撃検知範囲を説明する
ための説明図である。
御モーションを生成するための攻撃検知範囲を説明する
ための説明図である。
【図13】本実施形態における攻撃方向に対応して生成
された補間モーションを説明するための説明図である。
された補間モーションを説明するための説明図である。
【図14】本実施形態において、現在再生中のモーショ
ンから次第に補間モーションに移行するモーションの一
例を示す説明図である。
ンから次第に補間モーションに移行するモーションの一
例を示す説明図である。
【図15】本実施形態により補間されたモーションのキ
ャラクタについて説明するためのフローチャートであ
る。
ャラクタについて説明するためのフローチャートであ
る。
【図16】本実施形態における防御モーションデータ生
成処理の一例を示すフローチャートである。
成処理の一例を示すフローチャートである。
【図17】本実施形態における基準位置Qに対する、刀
の基準位置Pcの変化する向きθを説明するための説明
図である。
の基準位置Pcの変化する向きθを説明するための説明
図である。
【図18】本実施形態を実現できるハードウェアの構成
の一例を示す図である。
の一例を示す図である。
10 ゲームシステム
20 筐体
30 画面
40 刀型コントローラ
50 第1のセンサ
52 第1のセンサ面
60 第2のセンサ
62 第2のセンサ面
100 処理部
110 位置演算部
120 オブジェクト空間設定部
122 モーション生成部
124 モーションデータ補間部
140 画像生成部
150 音生成部
160 操作部
162 入力情報受付部
170 記憶部
176 モーションデータ記憶部
180 情報記憶媒体
190 表示部
192 音出力部
194 携帯型情報記憶装置
196 通信部
400 現在再生中のモーションのキャラクタ
402 上防御用のモーションのキャラクタ
404 横防御用のモーションのキャラクタ
406 補間されたモーションのキャラクタ
─────────────────────────────────────────────────────
フロントページの続き
(72)発明者 西村 典洋
東京都大田区多摩川2丁目8番5号 株式
会社ナムコ内
Fターム(参考) 2C001 AA07 BA06 BC05 CA08 CB01
CB04 CB06 CC02
5B050 BA08 BA09 CA07 EA24 EA26
FA02
Claims (9)
- 【請求項1】 画像生成を行う画像生成システムであっ
て、 そのモーションデータに基づきモーションが再生される
キャラクタの基準位置と所与の入力装置を介して指定さ
れた画面上での位置との距離、及び前記基準位置を基準
とした前記画面上での位置の方向に基づいて、所与の複
数のモーションデータを補間した補間モーションデータ
を生成する第1の補間手段と、 前記補間モーションデータと、前記キャラクタの再生中
のモーションデータとを補間する第2の補間手段と、 前記第2の補間手段により補間されたモーションデータ
に基づいて前記キャラクタの画像を生成する画像生成手
段と、 を含むことを特徴とする画像生成システム。 - 【請求項2】 請求項1において、 前記第2の補間手段により補間されたモーションデータ
に基づいて、前記キャラクタの特定部位の座標を求め、
該座標に基づいてヒットチェックを行うことを特徴とす
る画像生成システム。 - 【請求項3】 請求項2において、 ヒットチェックの結果に基づいて、前記キャラクタに関
連付けられたパラメータを変化させることを特徴とする
画像生成システム。 - 【請求項4】 請求項1乃至3のいずれかにおいて、 前記所与の入力装置は、 各位置が画面上の位置と対応付けられた1又は複数のセ
ンサ面を有し、 少なくとも前記画面上での位置は、 操作者が移動させる被検出物をセンサ面が横切る位置に
基づいて求められることを特徴とする画像生成システ
ム。 - 【請求項5】 そのモーションデータに基づきモーショ
ンが再生されるキャラクタの基準位置と所与の入力装置
を介して指定された画面上での位置との距離、及び前記
基準位置を基準とした前記画面上での位置の方向に基づ
いて、所与の複数のモーションデータを補間した補間モ
ーションデータを生成する第1の補間手段と、 前記補間モーションデータと、前記キャラクタの再生中
のモーションデータとを補間する第2の補間手段と、 前記第2の補間手段により補間されたモーションデータ
に基づいて前記キャラクタの画像を生成する画像生成手
段としてコンピュータを機能させることを特徴とするプ
ログラム。 - 【請求項6】 請求項5において、 前記第2の補間手段により補間されたモーションデータ
に基づいて、前記キャラクタの特定部位の座標を求め、
該座標に基づいてヒットチェックを行うことを特徴とす
るプログラム。 - 【請求項7】 請求項6において、 ヒットチェックの結果に基づいて、前記キャラクタに関
連付けられたパラメータを変化させることを特徴とする
プログラム。 - 【請求項8】 請求項5乃至7のいずれかにおいて、 前記所与の入力装置は、 各位置が画面上の位置と対応付けられた1又は複数のセ
ンサ面を有し、 少なくとも前記画面上での位置は、 操作者が移動させる被検出物をセンサ面が横切る位置に
基づいて求められることを特徴とするプログラム。 - 【請求項9】 コンピュータにより読み取り可能な情報
記憶媒体であって、請求項5乃至8のいずれかのプログ
ラムを記憶することを特徴とする情報記憶媒体。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2001273539A JP2003085592A (ja) | 2001-09-10 | 2001-09-10 | 画像生成システム、プログラム及び情報記憶媒体 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2001273539A JP2003085592A (ja) | 2001-09-10 | 2001-09-10 | 画像生成システム、プログラム及び情報記憶媒体 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2003085592A true JP2003085592A (ja) | 2003-03-20 |
Family
ID=19098738
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2001273539A Pending JP2003085592A (ja) | 2001-09-10 | 2001-09-10 | 画像生成システム、プログラム及び情報記憶媒体 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2003085592A (ja) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006280524A (ja) * | 2005-03-31 | 2006-10-19 | Namco Bandai Games Inc | プログラム、情報記憶媒体および画像生成システム |
JP2007058709A (ja) * | 2005-08-26 | 2007-03-08 | Light Weight:Kk | 画像処理装置、画像処理方法及びプログラム |
JP2007190194A (ja) * | 2006-01-19 | 2007-08-02 | Konami Digital Entertainment:Kk | ゲーム装置、ゲーム装置の制御方法及びプログラム |
JP2007528797A (ja) * | 2004-03-12 | 2007-10-18 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | オブジェクトを動画化するのを可能にする電子装置及び方法 |
JP2010044484A (ja) * | 2008-08-11 | 2010-02-25 | Kddi Corp | 映像コンテンツ生成装置及びコンピュータプログラム |
JP2010158463A (ja) * | 2009-01-09 | 2010-07-22 | Nintendo Co Ltd | ゲーム装置およびゲームプログラム |
JP2012521038A (ja) * | 2009-03-20 | 2012-09-10 | マイクロソフト コーポレーション | 連鎖アニメーション |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH08196745A (ja) * | 1995-01-23 | 1996-08-06 | Namco Ltd | 3次元ゲーム装置及びヒットチェック方法 |
JPH10302088A (ja) * | 1997-02-28 | 1998-11-13 | Namco Ltd | 画像生成装置及び情報記憶媒体 |
JPH11175753A (ja) * | 1997-12-05 | 1999-07-02 | Namco Ltd | 画像生成装置及び情報記憶媒体 |
JP2000057364A (ja) * | 1998-08-03 | 2000-02-25 | Konami Co Ltd | ビデオゲームにおけるアニメーション表示方法及びこれを用いたビデオゲーム装置並びにビデオゲームにおけるアニメーション表示プログラムを記録したコンピュータ読み取り可能な媒体 |
JP2000300839A (ja) * | 1999-04-16 | 2000-10-31 | Namco Ltd | 操作入力装置及びゲーム装置 |
-
2001
- 2001-09-10 JP JP2001273539A patent/JP2003085592A/ja active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH08196745A (ja) * | 1995-01-23 | 1996-08-06 | Namco Ltd | 3次元ゲーム装置及びヒットチェック方法 |
JPH10302088A (ja) * | 1997-02-28 | 1998-11-13 | Namco Ltd | 画像生成装置及び情報記憶媒体 |
JPH11175753A (ja) * | 1997-12-05 | 1999-07-02 | Namco Ltd | 画像生成装置及び情報記憶媒体 |
JP2000057364A (ja) * | 1998-08-03 | 2000-02-25 | Konami Co Ltd | ビデオゲームにおけるアニメーション表示方法及びこれを用いたビデオゲーム装置並びにビデオゲームにおけるアニメーション表示プログラムを記録したコンピュータ読み取り可能な媒体 |
JP2000300839A (ja) * | 1999-04-16 | 2000-10-31 | Namco Ltd | 操作入力装置及びゲーム装置 |
Non-Patent Citations (1)
Title |
---|
""モーションキャプチャ大解剖 活用しやすくなったモーションデータ モーション編集・加工ソフトが相次ぎ", 2000年版 最新CGソフト購入ガイド, JPN6010075135, 10 October 1999 (1999-10-10), JP, pages 72 - 73, ISSN: 0001815363 * |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007528797A (ja) * | 2004-03-12 | 2007-10-18 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | オブジェクトを動画化するのを可能にする電子装置及び方法 |
JP2006280524A (ja) * | 2005-03-31 | 2006-10-19 | Namco Bandai Games Inc | プログラム、情報記憶媒体および画像生成システム |
JP2007058709A (ja) * | 2005-08-26 | 2007-03-08 | Light Weight:Kk | 画像処理装置、画像処理方法及びプログラム |
JP2007190194A (ja) * | 2006-01-19 | 2007-08-02 | Konami Digital Entertainment:Kk | ゲーム装置、ゲーム装置の制御方法及びプログラム |
JP2010044484A (ja) * | 2008-08-11 | 2010-02-25 | Kddi Corp | 映像コンテンツ生成装置及びコンピュータプログラム |
JP2010158463A (ja) * | 2009-01-09 | 2010-07-22 | Nintendo Co Ltd | ゲーム装置およびゲームプログラム |
JP2012521038A (ja) * | 2009-03-20 | 2012-09-10 | マイクロソフト コーポレーション | 連鎖アニメーション |
US8988437B2 (en) | 2009-03-20 | 2015-03-24 | Microsoft Technology Licensing, Llc | Chaining animations |
US9478057B2 (en) | 2009-03-20 | 2016-10-25 | Microsoft Technology Licensing, Llc | Chaining animations |
US9824480B2 (en) | 2009-03-20 | 2017-11-21 | Microsoft Technology Licensing, Llc | Chaining animations |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP3990252B2 (ja) | ゲームシステム、プログラム及び情報記憶媒体 | |
JP4974319B2 (ja) | 画像生成システム、プログラム及び情報記憶媒体 | |
JP2006268676A (ja) | プログラム、情報記憶媒体、及び画像生成システム | |
JP2007105499A (ja) | ゲームシステム、プログラム及び情報記憶媒体 | |
JP2003085592A (ja) | 画像生成システム、プログラム及び情報記憶媒体 | |
JP3280355B2 (ja) | 画像生成システム及び情報記憶媒体 | |
JP4632596B2 (ja) | 画像生成システム、プログラム及び情報記憶媒体 | |
JP4367804B2 (ja) | 画像生成システム及び情報記憶媒体 | |
JP4651204B2 (ja) | 画像生成システム、プログラム及び情報記憶媒体 | |
JP4187192B2 (ja) | 画像生成システム、プログラム及び情報記憶媒体 | |
JP4245356B2 (ja) | ゲームシステム及び情報記憶媒体 | |
JP2003210837A (ja) | 画像生成システム、プログラム及び情報記憶媒体 | |
JP4266121B2 (ja) | 画像生成システム、プログラム及び情報記憶媒体 | |
JP4577968B2 (ja) | ゲームシステム及び情報記憶媒体 | |
JP2005209217A (ja) | ゲームシステム及び情報記憶媒体 | |
JP4574058B2 (ja) | 画像生成システム、プログラム及び情報記憶媒体 | |
JP4698701B2 (ja) | 画像生成システム、プログラム及び情報記憶媒体 | |
JP2002035409A (ja) | ゲームシステム及び情報記憶媒体 | |
JP3614340B2 (ja) | ゲームシステム及び情報記憶媒体 | |
JP3420987B2 (ja) | ゲームシステム及び情報記憶媒体 | |
JP4641602B2 (ja) | ゲームシステム及び情報記憶媒体 | |
JP4632521B2 (ja) | ゲームシステム及び情報記憶媒体 | |
JP2002042176A (ja) | ゲームシステム及び情報記憶媒体 | |
JP4162125B2 (ja) | 画像生成システム、プログラム及び情報記憶媒体 | |
JP2002216151A (ja) | 画像生成システム、プログラム及び情報記憶媒体 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20080808 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20101221 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20110105 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20110427 |