JP4785163B2 - Image generation system, program, and information storage medium - Google Patents

Image generation system, program, and information storage medium Download PDF

Info

Publication number
JP4785163B2
JP4785163B2 JP2001161191A JP2001161191A JP4785163B2 JP 4785163 B2 JP4785163 B2 JP 4785163B2 JP 2001161191 A JP2001161191 A JP 2001161191A JP 2001161191 A JP2001161191 A JP 2001161191A JP 4785163 B2 JP4785163 B2 JP 4785163B2
Authority
JP
Japan
Prior art keywords
motion
character
processing
captured
processing unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP2001161191A
Other languages
Japanese (ja)
Other versions
JP2002346208A (en
Inventor
勝弘 原田
賢司 尾崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Namco Ltd
Bandai Namco Entertainment Inc
Original Assignee
Namco Ltd
Namco Bandai Games Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Namco Ltd, Namco Bandai Games Inc filed Critical Namco Ltd
Priority to JP2001161191A priority Critical patent/JP4785163B2/en
Publication of JP2002346208A publication Critical patent/JP2002346208A/en
Application granted granted Critical
Publication of JP4785163B2 publication Critical patent/JP4785163B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、画像生成システム、プログラム及び情報記憶媒体に関する。
【0002】
【背景技術及び発明が解決しようとする課題】
従来より、仮想的な3次元空間であるオブジェクト空間内において仮想カメラ(所与の視点)から見える画像を生成する画像生成システム(ゲームシステム)が知られており、いわゆる仮想現実を体験できるものとして人気が高い。格闘ゲームを楽しむことができる画像生成システムを例にとれば、プレーヤは、キャラクタを操作し、相手プレーヤやコンピュータが操作する相手キャラクタと対戦することでゲームを楽しむ。
【0003】
さて、ロールプレイングゲームなどでは、例えば特開平2000−84247号公報に開示されるように、相手キャラクタの能力を自己の能力として使用できるようにした従来技術が知られている。
【0004】
しかしながら、この従来技術は、いわゆるターン制の戦闘における敵の能力の習得には効果的であるが、格闘ゲームなどのようにキャラクタのモーションがリアルタイムに変化するゲームへの適用は困難であるという課題がある。
【0005】
また、キャラクタのモーションがリアルタイムに変化し、任意のタイミングで攻撃を出すことができる格闘ゲームなどのゲームでは、モーションのデータ量を、なるべく少なくできることが望まれる。
【0006】
本発明は、以上のような課題に鑑みてなされたものであり、その目的とするところは、少ないデータ量で効果的なゲーム演出を実現できる画像生成システム、プログラム及び情報記憶媒体を提供することにある。
【0007】
【課題を解決するための手段】
上記課題を解決するために、本発明は、画像生成を行う画像生成システムであって、キャラクタのモーション処理を行う手段と、モーション処理により動作するキャラクタの画像を含むゲーム画像を生成する手段とを含み、所与の条件が成立した場合に、第2のキャラクタのモーションがキャプチャされて、第1のキャラクタのモーションとして割り当てられることを特徴とする。また本発明に係るプログラムは、コンピュータにより使用可能なプログラム(情報記憶媒体又は搬送波に具現化されるプログラム)であって、上記手段をコンピュータに実現させる(上記手段としてコンピュータを機能させる)ことを特徴とする。また本発明に係る情報記憶媒体は、コンピュータにより読み取り可能(使用可能)な情報記憶媒体であって、上記手段をコンピュータに実現させる(上記手段としてコンピュータを機能させる)ためのプログラムを含むことを特徴とする。
【0008】
本発明によれば、モーションデータ等を用いたモーション処理により第1、第2のキャラクタのモーションがリアルタイムに変化する。そして所与の条件が成立すると、第2のキャラクタのモーションがキャプチャ(習得)されて、第1のキャラクタのモーションとして割り当てられる。これにより、第1のキャラクタは、キャプチャされたモーションに基づいて動作することが可能になり、モーション画像のバラエティ度を増すことができる。
【0009】
また本発明に係る画像生成システム、プログラム及び情報記憶媒体は、第2のキャラクタ用に用意されたモーションデータを第1のキャラクタ用のモーションデータとして使用許可にすることで、第2のキャラクタのモーションが第1のキャラクタのモーションとして割り当てられることを特徴する。
【0010】
このようにすれば、モーションの総データ量を増すことなく、第1のキャラクタのモーション画像のバラエティ度を増すことでき、少ない使用記憶容量でリアルな画像を生成できる。
【0011】
また本発明に係る画像生成システム、プログラム及び情報記憶媒体は、第2のキャラクタ用に用意されたモーションデータが補正されて、第1のキャラクタ用のモーションデータとして使用されることを特徴とする。
【0012】
このようにすれば、第2のキャラクタ用に用意されたモーションデータを、第1のキャラクタの特徴や形状に適合したモーションデータに変更して、第1のキャラクタに割り当てることが可能になり、より自然で矛盾のないリアルな画像を生成できる。
【0013】
また本発明に係る画像生成システム、プログラム及び情報記憶媒体は、キャプチャされた第2のキャラクタのモーションを第1のキャラクタに行わせるためのモーションデータを、第1のキャラクタ用のモーションデータとして用意しておくことを特徴とする。
【0014】
このようにすれば、予め用意された第1のキャラクタ用のモーションデータを用いて、第1のキャラクタに、キャプチャされたモーションを行わせることが可能になる。これにより、モーションデータの不適合を原因とするバグの発生を効果的に防止できる。また、キャプチャされたモーションを、第1のキャラクタ用にアレンジして再生することも容易になる。
【0015】
また本発明に係る画像生成システム、プログラム及び情報記憶媒体は、第2のキャラクタがモーションを行っている期間に第1のキャラクタを操作するプレーヤが所与の動作指示コマンドを入力した場合に、第2のキャラクタのモーションが、第1のキャラクタのモーションとしてキャプチャされることを特徴とする。
【0016】
このようにすれば、プレーヤが習得したいと思っている第2のキャラクタのモーションを、そのモーションを第2のキャラクタが行っているタイミングで、キャプチャすることが可能になる。これにより、相手キャラクタのモーションを習得するという新たな楽しみをプレーヤに提供することが可能になる。
【0017】
また本発明に係る画像生成システム、プログラム及び情報記憶媒体は、第2のキャラクタのモーションが第1のキャラクタのモーションとしてキャプチャされた後に、第1のキャラクタを操作するプレーヤが所与の動作指示コマンドを入力した場合に、第1のキャラクタがキャプチャされたモーションを行うことを特徴とする。
【0018】
このようにすれば、所与の動作指示コマンドを入力するだけという簡素な操作で、キャプチャされたモーションを第1のキャラクタに行わせることが可能になり、プレーヤにとって扱い易い操作環境(インターフェース環境)を提供できる。
【0019】
また本発明に係る画像生成システム、プログラム及び情報記憶媒体は、キャプチャされたモーションを第1のキャラクタに行わせる動作指示コマンドが、第2のキャラクタに該モーションを行わせる動作指示コマンドとは異なる操作手順を有するコマンドであることを特徴とする。
【0020】
このようにすれば、キャプチャ対象モーションを第2のキャラクタに行わせる動作指示コマンドの操作手順よりも、例えば簡素な操作手順で第1のキャラクタにそのモーションを行わせることが可能になり、より扱い易い操作環境をプレーヤに提供できる。
【0021】
また本発明に係る画像生成システム、プログラム及び情報記憶媒体は、第2のキャラクタのモーションが第1のキャラクタのモーションとしてキャプチャされたことをプレーヤに知らせる手段を含むこと(該手段をコンピュータに実現させるためのプログラム、情報記憶媒体であること)を特徴とする。
【0022】
このようにすれば、モーションのキャプチャに成功したか否かがわからなくなり、プレーヤが混乱する事態を防止できる。
【0023】
また本発明に係る画像生成システム、プログラム及び情報記憶媒体は、第2のキャラクタのモーションが第1のキャラクタのモーションとしてキャプチャされたことを、第1のキャラクタの一部又は全部の画像を変化させることでプレーヤに知らせることを特徴とする。
【0024】
このようにすれば、モーションのキャプチャに成功したことをプレーヤに効果的に知らせることが可能になる。
【0025】
なお、画像を変化させる部分は、第1のキャラクタの各部分のうち、キャプチャしたモーションに関連した部分であることが望ましい。
【0026】
また本発明に係る画像生成システム、プログラム及び情報記憶媒体は、第1のキャラクタを操作するプレーヤが、一連の第1〜第Nのモーションの連続により構成されるコンボモーションのうちの第M(1≦M≦N)のモーションのキャプチャに成功し、その後に所与の動作指示コマンドを入力した場合に、第1のキャラクタが一連の第1〜第Mのモーションを行うことを特徴とする。
【0027】
このようにすれば、複数のモーションにより構成されるコンボモーション(連続モーション)を、例えば簡素な操作手順の動作指示コマンドで、第1のキャラクタに行わせることが可能になり、よりスムーズな操作環境をプレーヤに提供できる。
【0028】
また本発明に係る画像生成システム、プログラム及び情報記憶媒体は、第1のキャラクタがキャプチャされたモーションを行う場合と、第2のキャラクタが該モーションを行う場合とで、モーションデータを共通にしてモーションデータ以外のパラメータの値を異ならせることを特徴とする。
【0029】
このようにすれば、使用データ量をそれほど増すことなく、モーション画像のバラエティ度を増すことが可能になる。
【0030】
また本発明に係る画像生成システム、プログラム及び情報記憶媒体は、第1のキャラクタがキャプチャされたモーションを行う場合と、第2のキャラクタが該モーションを行う場合とで、該モーションによる攻撃が加えられた時の他方のキャラクタの反応モーションを異ならせることを特徴とする。
【0031】
このようにすれば、攻撃が加えられた時のキャラクタの反応モーションの画像のバラエティ度を増すことができ、よりリアルな画像を生成できる。
【0032】
なお、反応モーションは、予め用意された複数の反応モーションの中から、各攻撃に対応した反応モーションを選択して割り当てるようにしてもよい。
【0033】
また本発明に係る画像生成システム、プログラム及び情報記憶媒体は、第1のキャラクタが、キャプチャされたモーションを行ったことを条件に、第1のキャラクタによる新たなモーションのキャプチャが許可されることを特徴とする。
【0034】
このようにすれば、キャプチャされたモーションを第1のキャラクタに行わせることが容易でなくなる事態や、プレーヤが操作に混乱してしまう事態を効果的に防止できる。
【0035】
また本発明に係る画像生成システム、プログラム及び情報記憶媒体は、第2のキャラクタのモーションのうち、第1のキャラクタに既に割り当てられているモーションについては、キャプチャ対象から除かれることを特徴とする。
【0036】
このようにすれば、既に第1のキャラクタに割り当てられているモーションについては、キャプチャ処理が行われないようになるため、無駄なキャプチャ処理が行われるのを防止できる。これにより、処理の無駄を省くことができると共に、プレーヤが混乱するなどの事態も防止できる。
【0037】
【発明の実施の形態】
以下、本実施形態について図面を用いて説明する。
【0038】
なお、以下に説明する本実施形態は、特許請求の範囲に記載された本発明の内容を何ら限定するものではない。また本実施形態で説明される構成の全てが本発明の解決手段として必須であるとは限らない。
【0039】
1.構成
図1に、本実施形態の画像生成システム(ゲームシステム)の機能ブロック図の一例を示す。なお同図において本実施形態は、少なくとも処理部100を含めばよく(或いは処理部100と記憶部170を含めばよく)、それ以外のブロックについては任意の構成要素とすることができる。
【0040】
操作部160は、プレーヤが操作データを入力するためのものであり、その機能は、レバー、ボタン、マイク、或いは筺体などのハードウェアにより実現できる。
【0041】
記憶部170は、処理部100や通信部196などのワーク領域となるもので、その機能はRAMなどのハードウェアにより実現できる。
【0042】
情報記憶媒体180(コンピュータにより読み取り可能な媒体)は、プログラムやデータなどを格納するものであり、その機能は、光ディスク(CD、DVD)、光磁気ディスク(MO)、磁気ディスク、ハードディスク、磁気テープ、或いはメモリ(ROM)などのハードウェアにより実現できる。処理部100は、この情報記憶媒体180に格納されるプログラム(データ)に基づいて本発明(本実施形態)の種々の処理を行う。即ち情報記憶媒体180には、本発明(本実施形態)の手段(特に処理部100に含まれるブロック)をコンピュータに実現(実行、機能)させるためのプログラムが格納され、このプログラムは、例えば1又は複数のモジュール(オブジェクト指向におけるオブジェクトも含む)を含む。
【0043】
なお、情報記憶媒体180に格納される情報の一部又は全部は、システムへの電源投入時等に記憶部170に転送されることになる。また情報記憶媒体180には、本発明の処理を行うためのプログラム、画像データ、音データ、表示物の形状データ、本発明の処理を指示するための情報、或いはその指示に従って処理を行うための情報などを含ませることができる。
【0044】
表示部190は、本実施形態により生成された画像を出力するものであり、その機能は、CRT、LCD、或いはHMD(ヘッドマウントディスプレイ)などのハードウェアにより実現できる。
【0045】
音出力部192は、本実施形態により生成された音を出力するものであり、その機能は、スピーカなどのハードウェアにより実現できる。
【0046】
携帯型情報記憶装置194は、プレーヤの個人データやゲームのセーブデータなどが記憶されるものであり、この携帯型情報記憶装置194としては、メモリカードや携帯型ゲーム装置などを考えることができる。
【0047】
通信部196は、外部(例えばホスト装置や他の画像生成システム)との間で通信を行うための各種の制御を行うものであり、その機能は、各種プロセッサ、或いは通信用ASICなどのハードウェアや、プログラムなどにより実現できる。
【0048】
なお本発明(本実施形態)の各手段を実現(実行、機能)するためのプログラム(データ)は、ホスト装置(サーバー)が有する情報記憶媒体からネットワーク及び通信部196を介して情報記憶媒体180に配信するようにしてもよい。このようなホスト装置(サーバー)の情報記憶媒体の使用も本発明の範囲内に含まれる。
【0049】
処理部100(プロセッサ)は、操作部160からの操作データやプログラムなどに基づいて、ゲーム処理、画像生成処理、或いは音生成処理などの各種の処理を行う。この場合、処理部100は、記憶部170内の主記憶部172をワーク領域として使用して、各種の処理を行う。
【0050】
ここで、処理部100が行う処理としては、コイン(代価)の受け付け処理、各種モードの設定処理、ゲームの進行処理、選択画面の設定処理、オブジェクト(1又は複数のプリミティブ)の位置や回転角度(X、Y又はZ軸回り回転角度)を求める処理、オブジェクトを動作させる処理(モーション処理)、視点の位置(仮想カメラの位置)や視線角度(仮想カメラの回転角度)を求める処理、マップオブジェクトなどのオブジェクトをオブジェクト空間へ配置する処理、ヒットチェック処理、ゲーム結果(成果、成績)を演算する処理、複数のプレーヤが共通のゲーム空間でプレイするための処理、或いはゲームオーバー処理などを考えることができる。
【0051】
処理部100は、動作制御部110、キャプチャ処理部116、画像生成部120、音生成部130を含む。なお、処理部100は、これらの全ての機能ブロックを含む必要はない。
【0052】
ここで動作制御部110は、キャラクタ(人、ロボット、車又は戦車等のゲームに登場する移動オブジェクト)の動作を制御する処理を行うものであり、移動処理部112、モーション処理部114を含む。
【0053】
移動処理部112は、キャラクタをゲーム空間(オブジェクト空間)で移動(並進移動、回転移動)させる処理を行う。そして、このキャラクタの移動処理は、操作部160からの操作データ(プレーヤからの入力データ)や前のフレーム(インター)でのキャラクタの位置、回転角度等に基づいて、現在のフレームでのキャラクタの位置、回転角度を求めることで実現できる。
【0054】
またモーション処理部114は、キャラクタにモーション(アニメーション)を行わせる処理(モーション再生、モーション生成)を行う。そして、このキャラクタのモーション処理は、キャラクタ(オブジェクト)のモーションを、モーションデータ記憶部176に記憶されているモーションデータに基づいて再生することで実現できる。
【0055】
より具体的には、モーションデータ記憶部176には、キャラクタ(スケルトン)を構成する各パーツオブジェクト(スケルトンを構成するモーション骨)の位置又は回転角度等を含むモーションデータが記憶されている。モーション処理部114は、このモーションデータを読み出し、このモーションデータに基づいてキャラクタの各パーツオブジェクト(モーション骨)を動かすことで(キャラクタのスケルトン形状を変形させることで)、キャラクタのモーションを再生する。
【0056】
なお、モーションデータ記憶部176に記憶されるモーションデータは、現実世界の人にセンサをつけてモーションキャプチャを行うことで作成したものであることが望ましいが、モーションデータを、物理シミュレーション(物理計算を利用したシミュレーション。物理計算は擬似的な物理計算でもよい)などによりリアルタイムに生成するようにしてもよい。
【0057】
また、少ないモーションデータ量でリアルなモーションを再生するために、モーション補間やインバース・キネマティクスを用いてモーション再生を行うことが望ましい。
【0058】
キャプチャ処理部116は、キャラクタのモーションをキャプチャするための処理を行う。
【0059】
より具体的には、所与の条件が成立した場合(例えば第2のキャラクタがモーションを行っている期間にプレーヤがキャプチャ動作を指示するコマンドを入力した場合)に、第2のキャラクタのモーションをキャプチャして、第1のキャラクタのモーションとして割り当てる。このモーションのキャプチャは、例えば、第2のキャラクタ用に用意されたモーションデータを第1のキャラクタ用のモーションデータとして使用許可にすることにより実現できる。
【0060】
そして、このキャプチャされたモーションは、プレーヤが、キャプチャ再生コマンド(キャプチャモーションの動作を指示するコマンド)を入力することで再生される。
【0061】
なお、キャプチャコマンドとキャプチャ再生コマンドを同じ操作手順のコマンドにしてもよい。また、キャプチャ再生コマンドの操作手順を、そのモーションを第2のキャラクタに行わせるコマンドの操作手順とは異ならせ、より簡素な操作手順にすることが望ましい。
【0062】
また、キャプチャされたモーションを第1のキャラクタに行わせる場合と、そのモーションを第2のキャラクタに行わせる場合とで、同じモーションデータを用いるようにする一方で、モーション処理に使用するパラメータ値(攻撃力、ヒットフレーム、攻撃時のキャラクタの音声等)を異ならせることが望ましい。更に、キャプチャされたモーションを第1のキャラクタに行わせる場合と、そのモーションを第2のキャラクタに行わせる場合とで、そのモーションによる攻撃がヒットした場合の他方のキャラクタ(第1のキャラクタが攻撃する場合は第2のキャラクタ。第2のキャラクタが攻撃する場合は第1のキャラクタ)の反応モーションを異ならせるようにしてもよい。
【0063】
画像生成部120は、処理部100で行われる種々の処理の結果に基づいて画像処理を行い、ゲーム画像を生成し、表示部190に出力する。例えば、いわゆる3次元のゲーム画像を生成する場合には、まず、座標変換、クリッピング処理、透視変換、或いは光源計算等のジオメトリ処理が行われ、その処理結果に基づいて、描画データ(プリミティブ面の頂点(構成点)に付与される位置座標、テクスチャ座標、色(輝度)データ、法線ベクトル或いはα値等)が作成される。そして、この描画データ(プリミティブ面データ)に基づいて、ジオメトリ処理後のオブジェクト(1又は複数プリミティブ面)の画像が、描画バッファ174(フレームバッファ、ワークバッファ等のピクセル単位で画像情報を記憶できるバッファ)に描画される。これにより、オブジェクト空間内において仮想カメラ(所与の視点)から見える画像が生成されるようになる。
【0064】
音生成部130は、処理部100で行われる種々の処理の結果に基づいて音処理を行い、BGM、効果音、又は音声などのゲーム音を生成し、音出力部192に出力する。
【0065】
なお、本実施形態の画像生成システムは、1人のプレーヤのみがプレイできるシングルプレーヤモード専用のシステムにしてもよいし、このようなシングルプレーヤモードのみならず、複数のプレーヤがプレイできるマルチプレーヤモードも備えるシステムにしてもよい。
【0066】
また複数のプレーヤがプレイする場合に、これらの複数のプレーヤに提供するゲーム画像やゲーム音を、1つの端末を用いて生成してもよいし、ネットワーク(伝送ライン、通信回線)などで接続された複数の端末(ゲーム機、携帯電話)を用いて生成してもよい。
【0067】
2.本実施形態の特徴
次に本実施形態の特徴について図面を用いて説明する。なお、以下では、格闘ゲームに本実施形態を適用した場合を主に例にとり説明するが、本実施形態は、格闘ゲーム以外の他のゲームにも広く適用できる。
【0068】
2.1 モーションのキャプチャ
さて、これまでの格闘ゲームでは、各キャラクタの技のモーションは、各キャラクタ毎に決められていた。例えば、キャラクタPのモーション(技)は、M1P、M2P、M3P・・・・、キャラクタQのモーションはM1Q、M2Q、M3Q・・・・、キャラクタRのモーションはM1R、M2R、M3R・・・・というように、各キャラクタ毎に固有のモーションが用意されていた。
【0069】
従って、生成される画像の多様度やリアル度を向上するためにキャラクタのモーション数を増やそうとすると、モーションのデータ量がその分だけ増えてしまい、メモリの使用記憶容量が圧迫されてしまうという問題があった。
【0070】
そこでこのような従来の問題点を解決するために本願発明者は、例えばキャラクタP用に用意されたモーション(モーションデータ)を、キャラクタQ用のモーションとして使用しても、矛盾の無い画像が生成できる点に着目した。そして、キャラクタP用のモーションをキャラクタQ用のモーションとして使用すれば、キャラクタのスケルトン(骨格)の動きは同じになるが、キャラクタP、Qの姿形や衣服が違うため、異なった印象のモーション画像を生成できるということを見い出した。
【0071】
そこで本実施形態では、所与の条件が成立した場合に、一方のキャラクタのモーションを他方のキャラクタのモーションとして割り当てる手法を採用している。
【0072】
より具体的には図2に示すように、所与の条件が成立した場合に、キャラクタCH2用に用意されたモーションH(モーションデータH)を、キャラクタCH1用のモーションとして使用可能にする。なお、以下の本実施形態では、説明の便宜のために、キャラクタCH2のモーションをキャラクタCH1に割り当てる場合を例にとり説明するが、本発明は、CH1のモーションをCH2に割り当てる場合にも当然に適用できる。
【0073】
ここで、所与の条件としては、キャラクタCH1を操作するプレーヤ(第1のプレーヤ)によるキャプチャコマンド(広義には動作指示コマンド)の入力(操作手段を用いた入力)を考えることができる。或いは、所与のイベントの発生や時間(ゲーム時間、実時間)の経過を所与の条件として、CH2のモーションをCH1のモーションとして使用するようにしてもよい。
【0074】
図2に示すように、キャラクタCH2のモーションHをキャラクタCH1のモーションとして使用するようにすれば、モーションの総データ量を増やすことなく、キャラクタのモーション画像のバラエティ度を増すことができる。
【0075】
即ち、図2において、モーションHをキャラクタCH1用に使用しても、モーションHは元々キャラクタCH2用に使用されていたモーションであるため、モーションの総データ量は変わらない。そして、モーションHに基づいてキャラクタCH1を動作させれば、モーションA〜Dを用いたモーション処理では表現できなかったキャラクタCH1を動きを表現でき、モーション画像のバラエティ度を増すことができる。
【0076】
なお、キャラクタCH2のモーションのCH1への割り当ては、キャラクタCH2用に用意されたモーションデータをキャラクタCH1用のモーションデータとして使用許可にすることで実現できる。
【0077】
即ち、キャラクタCH1、CH2用のモーションデータは、ゲームの開始時(CH1、CH2間の対戦開始時、ゲームステージの最初)に情報記憶媒体等から記憶部(RAM)に読み込まれる。この場合、図3(A)に示すように、初期状態時においては、記憶部に記憶されるモーションデータAD〜DDはキャラクタCH1に割り当てられ、モーションデータED〜HDはキャラクタCH2に割り当てられている。
【0078】
このような場合に、キャラクタCH1を操作するプレーヤが、キャプチャコマンドを入力し、キャラクタCH2のモーションHのキャプチャに成功すると、図3(B)に示すように、モーションデータHDがキャラクタCH1用に割り当てられ、CH1のモーション処理における使用が許可される。これにより、キャラクタCH1をモーションデータHDにより動作させることが可能になる。また、図3(A)、(B)を比較すれば明らかなように、記憶部でのモーションの総データ量は変化しないため、記憶部の使用記憶容量が増すことを防止できる。
【0079】
図4(A)〜図6(B)に本実施形態により生成されるゲーム画像の例を示す。
【0080】
図4(A)、(B)では、キャラクタCH2がチョップモーションを行いチョップ技を繰り出している場面のゲーム画像である。このチョップモーションは、初期状態(ゲーム開始時に記憶部にモーションデータを読み込んだ状態)では、キャラクタCH2だけが使用でき、キャラクタCH1は使用できないモーション(技)である。
【0081】
図5(A)、(B)、(C)は、キャラクタCH2のチョップモーションをキャラクタCH1がキャプチャ(習得、盗む、コピー)する様子を示すゲーム画像である。図5(A)のようにキャラクタCH2がチョップモーションを行っている最中に、図5(B)に示すように、キャラクタCH1を操作するプレーヤがゲームコントローラ10(操作手段)を用いてキャプチャコマンド(動作指示コマンド)を入力すると、CH2のチョップモーションが、CH1のモーションとしてキャプチャされ、CH1に割り当てられるようになる。
【0082】
この場合に図5(B)では、プレーヤがゲームコントローラ10のボタンX、Y、Zを同時に押すことで、キャプチャコマンドが入力される。また、キャラクタCH1は、相手キャラクタCH2のモーションを盗んでいることを示す見切りモーションを行っている。
【0083】
そして、キャラクタCH2のチョップモーションのキャプチャに成功すると、モーションがキャプチャされたことをプレーヤに知らせるために、キャラクタCH1の一部又は全部の画像を変化させる。具体的には図5(C)に示すように、キャラクタCH1の刀の画像が点滅し、キャラクタCH2のチョップモーションがキャプチャ(習得)されたことをプレーヤに知らせる。
【0084】
この種の格闘ゲームでは、プレーヤは、自身のキャラクタの操作に手一杯であり、自身が操作するキャラクタ以外の表示物に目を配る余裕がない。従って、図5(C)に示すように、キャラクタCH1の画像を変化させることでキャプチャの成功を知らせるようにすれば、操作に熱中していて余裕のないプレーヤでも、モーションがキャプチャされたことを確実且つ容易に知ることができるようになる。
【0085】
なお、図5(C)では、キャラクタCH1の刀の画像を変化させているが、CH1の他の部分(手、足、顔又は胴体等)の画像を変化させてもよい。この場合、キャラクタの部分のうち、そのモーション(技)が主に使う部分(そのモーションに最も関連する部分)の画像を変化させることが望ましい。例えば左手を主に使うモーション(技)をキャプチャした場合には、左手(左手が持つ剣)の画像を変化させる。同様に、右手、左足、右足を主に使うモーションをキャプチャした場合には、各々、キャラクタの右手、左足、右足の画像を変化させる。
【0086】
このようにすれば、キャプチャされたモーションがどのようなモーションなのかをプレーヤに効果的に知らせることができ、プレーヤにとって、より扱い易い操作環境(インターフェース環境)を提供できる。また、モーションをキャプチャしたキャラクタCH1は、その画像が変化している部分(図5(C)の剣)を使ってキャラクタCH2に攻撃を加えることになるため、ゲームの演出効果も高めることができる。
【0087】
図6(A)、(B)は、キャプチャ(コピー)されたモーションをキャラクタCH1が行っている様子を示すゲーム画像である。
【0088】
キャラクタCH2のモーションがキャラクタCH1のモーションとしてキャプチャされた後に、キャラクタCH1を操作するプレーヤがキャプチャ再生コマンド(動作指示コマンド)を入力すると、図6(A)、(B)に示すように、キャラクタCH1がキャプチャされたチョップモーションを行う。
【0089】
この場合に図6(B)では、プレーヤがゲームコントローラ10のボタンX、Y、Zを同時に押すことで、キャプチャ再生コマンドが入力される。
【0090】
なお、図5(B)、図6(A)に示すように本実施形態では、モーションのキャプチャを指示するキャプチャコマンドとキャプチャされたモーションの再生を指示するキャプチャ再生コマンドとが、同じ操作手順(ボタンX、Y、Zの同時押し)のコマンドになっている。このようにキャプチャコマンドとキャプチャ再生コマンドを同じ操作手順にすれば、モーションのキャプチャ後に、キャプチャ時と同じ手順の操作を行って、キャプチャしたモーションを直ぐに繰り出せるようになる。これによりプレーヤの操作環境を向上できる。但し、これらのキャプチャコマンドとキャプチャ再生コマンドの操作手順を異ならせるようにしてもよい。
【0091】
図6(A)、(B)に示すように本実施形態によれば、本来はキャラクタCH2しか使用できなかったチョップモーションを、キャラクタCH1も使用できるようになる。従って、モーションの総データ量を増やすことなく、キャラクタのモーションのバラエティを増すことができる。
【0092】
しかも、図4(A)、(B)、図6(A)、(B)から明らかなように、キャラクタCH1とCH2は姿形や衣服が異なるため、CH1とCH2が同じチョップモーションを行っていても、プレーヤには違った印象の画像に見える。従って、本実施形態によれば、より多様なゲーム画像をプレーヤに提供できるようになる。
【0093】
また、キャプチャ対象となるキャラクタCH2のモーションが、例えば図7に示すように複雑な操作手順を要求するものであった場合を考える。即ち図7では、キャプチャ対象のモーションを繰り出すのに、ボタンXを押した後、ボタンX、Yを同時に押し、その後にレバーを下、下、右の順に倒すという操作手順が必要となる。
【0094】
本実施形態によれば、このような複雑な操作手順を要求するモーションであっても、予め決められた一定の操作手順のキャプチャ再生コマンド(図7ではボタンX、Y、Zの同時押し)を入力することで、そのモーションをキャラクタCH1に行わせることができる。従って、キャラクタCH1を操作するプレーヤは、キャプチャしようとしているモーションの操作手順をその都度に覚える必要はない。従って、それほど煩雑な操作を要求されることなく、敵のモーションを盗み、盗んだモーションによる攻撃を敵に対して加えることが可能になる。
【0095】
なお、モーションをキャプチャできたか否かの判定は、例えば図8(A)、(B)に示すような手法で実現できる。即ちキャラクタCH2のモーション(キャプチャ対象のモーション)のヒットフレーム期間THとキャラクタCH1のキャプチャフレーム期間TCとの間に重なり期間がある場合に、CH2のモーションのキャプチャに成功したと判定する。
【0096】
このようにすれば、図8(A)に示すようにキャラクタCH2のモーション(キャプチャ対象モーション)が開始した後にキャプチャコマンドを入力した場合のみならず、図8(B)に示すようにCH2のモーションが開始する前にキャプチャコマンドを入力した場合にも、CH2のモーションをキャプチャできるようになる。従って、プレーヤは、それほどシビアなタイミングでキャプチャコマンドを入力しなくても、相手キャラクタのモーションをキャプチャできるようになり、より扱い易い操作環境を実現できる。
【0097】
なお、図8(A)、(B)のヒットフレーム期間THは、キャラクタのモーションによる攻撃と相手キャラクタとのヒット判定が行われる期間である。このヒットフレーム期間THの時に、キャラクタの一部(手、足、剣等)が相手キャラクタに交差していると判定されると、攻撃がヒットしたと判断される。また、キャプチャフレーム期間TCは、キャラクタの見切りモーション(モーションをキャプチャしていることを示すモーション)の再生期間において、相手キャラクタのモーションのキャプチャが可能な期間として設定された期間である。
【0098】
2.2 コンボモーションのキャプチャ
格闘ゲームでは、一連の複数のモーション(攻撃)の連続で構成されるコンボモーション(コンボ攻撃)と呼ばれるものが知られている。即ちプレーヤが、特定の操作手順を適切なタイミングで入力すると、一連の複数のモーションによる連続攻撃が相手キャラクタにヒットするようになる。これにより相手キャラクタに大きなダメージを与えることができる。
【0099】
本実施形態では、このようなコンボモーションのキャプチャを以下に説明するような手法で実現している。
【0100】
例えば図9のG1に示すように、コンボモーションC1、C2、C3(第1〜第Nのモーション)を構成する最初のモーションC1の再生中に、プレーヤがC1のキャプチャに成功したとする。この場合にはその後にプレーヤがキャプチャ再生コマンドを入力すると、モーションC1がキャプチャモーションとして再生される。
【0101】
また図9のG2に示すように、コンボモーションC1、C2、C3を構成するモーションC2の再生中に、プレーヤがC2のキャプチャに成功したとする。この場合にはその後にプレーヤがキャプチャ再生コマンドを入力すると、モーションC1、C2がキャプチャモーションとして再生される。
【0102】
また図9のG3に示すように、コンボモーションC1、C2、C3を構成する最後のモーションC3の再生中に、プレーヤがC3のキャプチャに成功したとする。この場合にはその後にプレーヤがキャプチャ再生コマンドを入力すると、モーションC1、C2、C3の全てがキャプチャモーションとして再生される。即ちコンボモーションの全てをキャプチャして再生できるようになる。
【0103】
図10(A)、(B)、(C)、図11(A)、(B)、(C)に、本実施形態により生成されるゲーム画像の例を示す。
【0104】
図10(A)、(B)は、キャラクタCH2がコンボモーション(コンボ攻撃、連続技)を行っている様子を示すゲーム画像である。キャラクタCH2は、チョップモーションを行い、その後に直ぐに足払いモーションを行っている。このコンボモーションを行うには、例えば、まずボタンXを押し(チョップ)、その後にレバーを下に倒しながらボタンYを押す(足払い)というような複雑で煩雑な操作が必要になる。
【0105】
図10(C)は、このようなコンボモーションをキャラクタCH1が見切りモーションにより習得(キャプチャ)している様子を示すゲーム画像である。この場合にコンボモーションの全てをキャプチャするためには、コンボモーションの最後のモーション(足払い)をキャラクタCH2が行っている時に、キャプチャコマンド(ボタンX、Y、Zの同時押し)を入力する必要がある。
【0106】
図11(A)、(B)、(C)は、このようにしてキャプチャされた相手のコンボモーションを、キャラクタCH1が行っている様子を示すゲーム画像である。
【0107】
キャプチャの成功後に、プレーヤがキャプチャ再生コマンド(ボタンX、Y、Zの同時押し)を入力すると、キャプチャされたコンボモーションをキャラクタCH1が行う。即ち、まずチョップモーションを行い、次に足払いモーションを行う。そして、キャプチャされたモーションによる攻撃がキャラクタCH2にヒットすると、図11(A)、(B)、(C)に示すように、キャラクタCH2はその攻撃に対応する反応モーション(やられモーション)を行う。
【0108】
なお、プレーヤが図10(A)のタイミングでキャプチャコマンドを入力してモーションをキャプチャしたとすると、キャラクタCH1は図11(A)のチョップモーションしか行わないことになる。
【0109】
このように本実施形態によれば、第1〜第Nのモーションにより構成されるコンボモーションの第Mのモーションのキャプチャに成功し、その後にキャプチャ再生コマンドを入力すると、第1〜第Mのモーションが再生されるようになる。例えば最後のモーションのキャプチャに成功すれば、コンボモーションの全てを繰り出すことができる。これにより、コンボモーションを盗んだプレーヤは、そのコンボモーションを繰り出すための複雑で煩雑な操作手順を覚えることなく、自分のキャラクタにそのコンボモーションを行わせることが可能になる。
【0110】
この場合に、コンボモーションの全てを盗もうとして、コンボモーションの最後のモーションをキャプチャしようとすると、コンボモーションの前半のモーションによる攻撃により多大なダメージを受ける恐れがある。
【0111】
一方、前半のモーションによる攻撃を上手くかわして、最後のモーションのキャプチャに成功すれば、その後にキャプチャ再生コマンドを入力することで、コンボモーションの全てを繰り出すことができ、相手キャラクタに多大なダメージを与えることができる。従って、プレーヤは、危険を冒して相手キャラクタのコンボモーションの全てを盗んだり、安全策を採って前半のモーションだけを盗んだりする等の戦略を立てるようになる。
【0112】
このように本実施形態によれば、モーションのキャプチャに関する複雑で高度な駆け引きをプレーヤ間に生み出すことができ、ゲームの面白みを倍増できる。
【0113】
2.3 パラメータ値、反応モーションの変更
本実施形態では、再生されるモーション画像の多様度を増すために、キャプチャされたモーションのパラメータ値や、そのモーションによる攻撃がヒットした時の反応(やられ)モーションを変更するようにしている。
【0114】
例えば図12(A)は、キャプチャ対象となるモーションのオリジナルのパラメータ値及び反応モーションの例である。図12(A)に示すように、モーションA、B、C1、C2(C1、C2はコンボ)がヒットした時の攻撃力は10、20、30、10に設定されている。また、ヒットフレーム期間(ヒット判定が行われる期間)は2〜7、3〜8、5〜12、5〜12に設定されている。また、モーションA、B、C1、C2がヒットした時の相手キャラクタの反応(やられ)モーション(図11(A)、(B)、(C)参照)は、各々、RA、RB、RC、RCに設定されている。
【0115】
一方、キャプチャ後のモーションでは、攻撃力、ヒットフレーム期間などのパラメータ値やヒット時の相手の反応モーションは図12(B)に示すように変更される。即ち、モーションA、B、C1、C2の攻撃力は20、10、30、20に設定され、ヒットフレーム期間は3〜8、3〜8、4〜9、5〜12に設定される。また、モーションA、B、C1、C2がヒットした時の相手キャラクタの反応モーションは、各々、RA、RB、RC、RBに設定される。
【0116】
そして本実施形態では、図12(A)のオリジナルの場合でも、図12(B)のキャプチャ後の場合でも、使用するモーションデータは共通となる。即ち、図12(A)の場合でも図12(B)の場合でも、モーションA、B、C1、C2を再生するためのモーションデータとしてAD、BD、C1D、C2Dが使用される。
【0117】
モーションデータの量は一般的に非常に大きい。従って、モーション画像のバラエティ度を増すためにモーションデータの量を増やすと、モーションデータを記憶する記憶部の使用記憶量を圧迫してしまう。
【0118】
一方、パラメータ値(攻撃力又はヒットフレーム期間等)のデータ量は、モーションデータの量に比べてると非常に小さい。従って、モーション画像のバラエティ度を増すために、パラメータ値のデータ量を増やしても、記憶部の使用記憶容量をそれほど圧迫しない。そして、キャプチャされたモーションを再生する際に、パラメータ値を図12(B)に示すように変更すれば、同じモーションデータを使用していても、生成される画像やゲームの演出効果を異ならせることができる。
【0119】
従って、図12(A)、(B)に示すように、キャプチャされたモーションの再生の際にモーションデータを共通にしてパラメータを異ならせることで、記憶部の使用記憶容量をそれほど圧迫することなく、リアルで多様なゲーム画像を生成できるようになる。
【0120】
更に図12(A)、(B)に示すように、キャプチャされたモーションの攻撃時における相手キャラクタの反応モーションを異ならせれば、更にリアルで多様なゲーム画像を生成できる。この場合に、元々ある反応モーション(初期状態時に読み込んだ反応モーション)から適宜選択して、各モーションに割り当てるようにすれば、反応モーションの総データ量を増すことなく多様な画像表現を実現できる。
【0121】
例えば、図12(A)、(B)では、モーションC2に対する反応モーションがRCからRBに変更されている。しかしながら、このRBは、モーションBに対する反応モーションとして元々存在していたものである。従って、このようにモーションC2に対する反応モーションをRCからRBに変更しても、反応モーションの総データ量は結局変わらないことになる。そして、モーションC2に対する反応モーションを、オリジナルの場合とキャプチャ後の場合とで異ならせることで、攻撃がヒットした時の相手キャラクタのモーション画像(図11(A)、(B)、(C)参照)も異なるようになり、多様な画像表現を実現できる。
【0122】
2.4 モーションの再生を条件とするキャプチャの許可
本実施形態では、キャプチャされたモーションをキャラクタが行ったことを条件に、そのキャラクタによる新たなモーションのキャプチャ(習得)を許可している。
【0123】
例えば図13(A)に示すように、キャラクタCH2がモーションA、B、Cを繰り出している場合を考える。これらのモーションA、B、Cは全てキャプチャ可能なモーションになっている。
【0124】
この場合に、キャラクタCH1を操作するプレーヤが、図13(A)のH1のタイミングでゲームコントローラのボタンX、Y、Zを同時に押して、キャプチャコマンドを入力すると、キャラクタCH2のモーションAがキャプチャされる。
【0125】
その後に、図13(A)のH2のタイミングでプレーヤがボタンX、Y、Zを同時に押して、コマンドを入力したとする。すると、このH2のタイミングでは、キャプチャ可能なモーションBをキャラクタCH2が行っているため、ボタンX、Y、Zの同時押しで入力されたコマンドは、キャプチャ再生コマンドではなく、キャプチャコマンドであると解釈されてしまう。従って、プレーヤの意思は、キャプチャされたモーションAを再生する意思であったとしても、プレーヤの意思に反してモーションBがキャプチャされてしまう。
【0126】
同様に、図13(A)のH3のタイミングでボタンX、Y、Zを同時に押した場合にも、プレーヤの意思に反してモーションCがキャプチャされてしまう。
【0127】
このように、モーションのキャプチャを常に許可する手法では、いつまでたっても、キャプチャされたモーションを再生できないという事態が生じる可能性がある。或いは、入力したコマンドが、キャプチャコマンドとして解釈されたのか、キャプチャ再生コマンドとして解釈されたのかがわからなくなり、プレーヤが混乱してしまう事態が生じる。
【0128】
そこで本実施形態では、キャプチャされたモーションが再生されたことを条件に、次の新たなモーションのキャプチャを許可する手法を採用している。より具体的には、キャプチャ情報(キャプチャされたモーションの指定情報等)を記憶する領域を1つにして、キャプチャされたモーションが再生され、その領域のキャプチャ情報がクリアされたことを条件に、その領域への新たなキャプチャ情報の書き込みを許可する。
【0129】
例えば図13(B)のH4のタイミングで、キャラクタCH1を操作するプレーヤがゲームコントローラのボタンX、Y、Zを同時に押すと、キャラクタCH2のモーションAがキャプチャされる。
【0130】
その後に、図13(B)のH5のタイミングでプレーヤがボタンX、Y、Zを同時に押すと、図13(A)のH2の場合とは異なり、H4でキャプチャされたモーションAが再生される。これは、H5のタイミングでは、キャプチャされたモーションAは未だ再生されておらず、新たなモーションのキャプチャは許可されなかったからである。
【0131】
そして図13(B)のH6のタイミングでプレーヤがボタンX、Y、Zを同時に押すと、今度は、キャラクタCH2のモーションCがキャプチャされる。これは、H6のタイミングでは、キャプチャされたモーションAは既に再生済みであり、新たなモーションのキャプチャが許可されているからである。
【0132】
このように、キャプチャされたモーションの再生を条件に新たなモーションのキャプチャを許可するようにすれば、キャプチャされたモーションを、いつまでたっても再生できないというような事態を防止できる。また、キャプチャされたモーションは確実に再生されるようになるため、プレーヤが混乱してしまう事態も防止できる。
【0133】
3.本実施形態の処理
次に、本実施形態の処理の詳細例について、図14〜図16のフローチャートを用いて説明する。
【0134】
当該フレームの処理が開始すると、図14に示すように、まず、ゲームコントローラにより入力されたコマンドを解析する(ステップS1)。そして、入力されたコマンドがキャプチャコマンド(ボタンX、Y、Zの同時押し)か否かを判断する(ステップS2)。そして、キャプチャコマンドであった場合にはキャプチャ処理(ステップS3)に移行し、キャプチャコマンドではなかった場合にはステップS3を飛ばしてステップS4に移行する。
【0135】
ステップS4に移行した場合には、フレームを1つ進める(ステップS4)。そして、キャプチャモーションが終了したか否かを判断し(ステップS5)、終了していない場合にはステップS3に戻り、終了している場合にはステップS1に戻る。
【0136】
図15は、図14のステップS3のキャプチャ処理についてのフローチャートである。
【0137】
まず、キャプチャ情報がセットされているか否かを判断し(ステップS11)、セットされている場合にはキャプチャモーションの再生処理(ステップS12)に移行する。
【0138】
図17にキャプチャ情報の一例を示す。図17に示すように、キャプチャ情報を(000)にクリアすると、キャプチャされているモーションが無いことが、キャプチャ情報により示されるようになる。また、キャプチャ情報に(001)〜(111)のいずれかがセットされると、モーションA〜Gのいずれかがキャプチャされたことが、キャプチャ情報により示されるようになる。
【0139】
図15のステップS11でキャプチャ情報がセットされていないと判断された場合(キャプチャ情報が(000)の場合)には、相手キャラクタのモーションがキャプチャ可能か否かが判断され(ステップS13)、キャプチャ可能ではない場合には、図14の処理にリターンする。
【0140】
即ち、全てのモーションをキャプチャ可能にすると、プレーヤが習得を望まないようなモーションもキャプチャされるようになってしまい、ゲームプレイが煩雑化する。従って、キャプチャが可能でないモーションも設けるようにすることが望ましい。
【0141】
相手キャラクタのモーションがキャプチャ可能な場合には、現在のフレームが、相手キャラクタのヒットフレーム期間内か否かを判断し(ステップS14)、ヒットフレーム期間内ではない場合には、図14の処理にリターンする。一方、ヒットフレーム期間内の場合には、当該フレームが自キャラクタのキャプチャフレーム期間内か否かを判断し(ステップS15)、キャプチャフレーム期間内ではない場合には、図14の処理にリターンする。これらのステップS14、S15の処理により、図8(A)、(B)で説明したように、ヒットフレーム期間とキャプチャフレーム期間に重なりがあるか否かを判断できる。
【0142】
現在のフレームがキャプチャフレーム期間内であると判断された場合には、図17で説明したキャプチャ情報をセットする(ステップS16)。この場合、相手キャラクタが行っているモーションの指定情報がキャプチャ情報としてセットされることになる。
【0143】
次に、キャプチャエフェクトをセットする(ステップS17)。より具体的には、図5(C)に示すように自キャラクタの剣等を点滅させて、モーションのキャプチャに成功したことをプレーヤに知らせる。そして図14の処理にリターンする。
【0144】
図16は、図15のステップS12のキャプチャモーションの再生処理についてのフローチャートである。
【0145】
まず、キャプチャされたモーションがコンボモーションか否かを判断し(ステップS21)、コンボモーションではない場合には、キャプチャされたモーションの再生処理を行う(ステップS22)。一方、コンボモーションの場合には、コンボモーションの最初のモーションC1をキャプチャしたのか否かを判断する(ステップS23)。そして、モーションC1をキャプチャした場合には、モーションC1の再生処理を行い(ステップS24)、C1ではなくC2をキャプチャした場合には、モーションC1、C2の再生処理を行う(ステップS25)。
【0146】
次に、図12(A)、(B)で説明したパラメータ(ステータスパラメータ)のセットを行う(ステップS26)。そして、キャプチャ情報、キャプチャエフェクトをクリアする(ステップS27、S28)。
【0147】
次に、自キャラクタのモーションによる攻撃がヒットしたか否かを判断し(ステップS29)、ヒットした場合には、相手キャラクタのモーションを、攻撃に対応する反応モーション(図12(A)、(B)参照)に変更する(ステップS30)。
【0148】
図16に示すように、本実施形態では、キャプチャされたモーションが再生されたことを条件に(ステップS21〜S25)、キャプチャ情報がクリアされる(ステップS27)。そして図15に示すように、キャプチャ情報がクリアされていることを条件に(ステップS11)、キャプチャ情報のセットが許可される(ステップS16)。このようにすることで、キャプチャされたモーションが再生されたことを条件に新たなモーションのキャプチャを許可する手法(図13(B)参照)を実現できるようになる。
【0149】
4.ハードウェア構成
次に、本実施形態を実現できるハードウェアの構成の一例について図18を用いて説明する。
【0150】
メインプロセッサ900は、CD982(情報記憶媒体)に格納されたプログラム、通信インターフェース990を介して転送されたプログラム、或いはROM950(情報記憶媒体の1つ)に格納されたプログラムなどに基づき動作し、ゲーム処理、画像処理、音処理などの種々の処理を実行する。
【0151】
コプロセッサ902は、メインプロセッサ900の処理を補助するものであり、高速並列演算が可能な積和算器や除算器を有し、マトリクス演算(ベクトル演算)を高速に実行する。例えば、オブジェクトを移動させたり動作(モーション)させるための物理シミュレーションに、マトリクス演算などの処理が必要な場合には、メインプロセッサ900上で動作するプログラムが、その処理をコプロセッサ902に指示(依頼)する。
【0152】
ジオメトリプロセッサ904は、座標変換、透視変換、光源計算、曲面生成などのジオメトリ処理を行うものであり、高速並列演算が可能な積和算器や除算器を有し、マトリクス演算(ベクトル演算)を高速に実行する。例えば、座標変換、透視変換、光源計算などの処理を行う場合には、メインプロセッサ900で動作するプログラムが、その処理をジオメトリプロセッサ904に指示する。
【0153】
データ伸張プロセッサ906は、圧縮された画像データや音データを伸張するデコード処理を行ったり、メインプロセッサ900のデコード処理をアクセレートする処理を行う。これにより、オープニング画面、インターミッション画面、エンディング画面、或いはゲーム画面などにおいて、MPEG方式等で圧縮された動画像を表示できるようになる。なお、デコード処理の対象となる画像データや音データは、ROM950、CD982に格納されたり、或いは通信インターフェース990を介して外部から転送される。
【0154】
描画プロセッサ910は、ポリゴンや曲面などのプリミティブ(プリミティブ面)で構成されるオブジェクトの描画(レンダリング)処理を高速に実行するものである。オブジェクトの描画の際には、メインプロセッサ900は、DMAコントローラ970の機能を利用して、オブジェクトデータを描画プロセッサ910に渡すと共に、必要であればテクスチャ記憶部924にテクスチャを転送する。すると、描画プロセッサ910は、これらのオブジェクトデータやテクスチャに基づいて、Zバッファなどを利用した陰面消去を行いながら、オブジェクトをフレームバッファ922に高速に描画する。また、描画プロセッサ910は、αブレンディング(半透明処理)、デプスキューイング、ミップマッピング、フォグ処理、バイリニア・フィルタリング、トライリニア・フィルタリング、アンチエリアシング、シェーディング処理なども行うことができる。そして、1フレーム分の画像がフレームバッファ922に書き込まれると、その画像はディスプレイ912に表示される。
【0155】
サウンドプロセッサ930は、多チャンネルのADPCM音源などを内蔵し、BGM、効果音、音声などの高品位のゲーム音を生成する。生成されたゲーム音は、スピーカ932から出力される。
【0156】
ゲームコントローラ942(レバー、ボタン、筺体、パッド型コントローラ又はガン型コントローラ等)からの操作データや、メモリカード944からのセーブデータ、個人データは、シリアルインターフェース940を介してデータ転送される。
【0157】
ROM950にはシステムプログラムなどが格納される。なお、業務用ゲームシステムの場合には、ROM950が情報記憶媒体として機能し、ROM950に各種プログラムが格納されることになる。なお、ROM950の代わりにハードディスクを利用するようにしてもよい。
【0158】
RAM960は、各種プロセッサの作業領域として用いられる。
【0159】
DMAコントローラ970は、プロセッサ、メモリ(RAM、VRAM、ROM等)間でのDMA転送を制御するものである。
【0160】
CDドライブ980は、プログラム、画像データ、或いは音データなどが格納されるCD982(情報記憶媒体)を駆動し、これらのプログラム、データへのアクセスを可能にする。
【0161】
通信インターフェース990は、ネットワークを介して外部との間でデータ転送を行うためのインターフェースである。この場合に、通信インターフェース990に接続されるネットワークとしては、通信回線(アナログ電話回線、ISDN)、高速シリアルバスなどを考えることができる。そして、通信回線を利用することでインターネットを介したデータ転送が可能になる。また、高速シリアルバスを利用することで、他の画像生成システムとの間でのデータ転送が可能になる。
【0162】
なお、本発明の各手段は、その全てを、ハードウェアのみにより実現(実行)してもよいし、情報記憶媒体に格納されるプログラムや通信インターフェースを介して配信されるプログラムのみにより実現してもよい。或いは、ハードウェアとプログラムの両方により実現してもよい。
【0163】
そして、本発明の各手段をハードウェアとプログラムの両方により実現する場合には、情報記憶媒体には、本発明の各手段をハードウェアを利用して実現するためのプログラムが格納されることになる。より具体的には、上記プログラムが、ハードウェアである各プロセッサ902、904、906、910、930等に処理を指示すると共に、必要であればデータを渡す。そして、各プロセッサ902、904、906、910、930等は、その指示と渡されたデータとに基づいて、本発明の各手段を実現することになる。
【0164】
図19(A)に、本実施形態を業務用ゲームシステム(画像生成システム)に適用した場合の例を示す。プレーヤは、ディスプレイ1100、1101上に映し出されたゲーム画像を見ながら、ガン型コントローラ1102、1103などを操作してゲームを楽しむ。内蔵されるシステムボード(サーキットボード)1106には、各種プロセッサ、各種メモリなどが実装される。そして、本発明の各手段を実現するためのプログラム(データ)は、システムボード1106上の情報記憶媒体であるメモリ1108に格納される。以下、このプログラムを格納プログラム(格納情報)と呼ぶ。
【0165】
図19(B)に、本実施形態を家庭用のゲームシステム(画像生成システム)に適用した場合の例を示す。プレーヤはディスプレイ1200に映し出されたゲーム画像を見ながら、ガン型コントローラ1202、1204などを操作してゲームを楽しむ。この場合、上記格納プログラム(格納情報)は、本体システムに着脱自在な情報記憶媒体であるCD1206、或いはメモリカード1208、1209などに格納されている。
【0166】
図19(C)に、ホスト装置1300と、このホスト装置1300とネットワーク1302(LANのような小規模ネットワークや、インターネットのような広域ネットワーク)を介して接続される端末1304-1〜1304-n(ゲーム機、携帯電話)とを含むシステムに本実施形態を適用した場合の例を示す。この場合、上記格納プログラム(格納情報)は、例えばホスト装置1300が制御可能な磁気ディスク装置、磁気テープ装置、メモリなどの情報記憶媒体1306に格納されている。端末1304-1〜1304-nが、スタンドアロンでゲーム画像、ゲーム音を生成できるものである場合には、ホスト装置1300からは、ゲーム画像、ゲーム音を生成するためのゲームプログラム等が端末1304-1〜1304-nに配送される。一方、スタンドアロンで生成できない場合には、ホスト装置1300がゲーム画像、ゲーム音を生成し、これを端末1304-1〜1304-nに伝送し端末において出力することになる。
【0167】
なお、図19(C)の構成の場合に、本発明の各手段を、ホスト装置(サーバー)と端末とで分散して実現するようにしてもよい。また、本発明の各手段を実現するための上記格納プログラム(格納情報)を、ホスト装置(サーバー)の情報記憶媒体と端末の情報記憶媒体に分散して格納するようにしてもよい。
【0168】
またネットワークに接続する端末は、家庭用ゲームシステムであってもよいし業務用ゲームシステムであってもよい。そして、業務用ゲームシステムをネットワークに接続する場合には、業務用ゲームシステムとの間で情報のやり取りが可能であると共に家庭用ゲームシステムとの間でも情報のやり取りが可能なセーブ用情報記憶装置(メモリカード、携帯型ゲーム装置)を用いることが望ましい。
【0169】
なお本発明は、上記実施形態で説明したものに限らず、種々の変形実施が可能である。
【0170】
例えば、第2のキャラクタのモーションをキャプチャする手法や、キャプチャされたモーションを第1のキャラクタに行わせる手法は、図1〜図17で説明した手法に限定されず、種々の変形実施が可能である。
【0171】
また、モーションのキャプチャを指示する動作指示コマンドと、キャプチャされたモーションの再生を指示する動作指示コマンドは、同じ操作手順のコマンドであってもよいし、異なる操作手順のコマンドであってもよい。
【0172】
また動作指示コマンドの操作手順も、本実施形態で説明した操作手順に限定されない。更に動作指示コマンドの入力タイミングについても種々の変形実施が可能である。
【0173】
また本実施形態では、キャプチャできるモーションが1個の場合を例にとり説明したが、複数個のモーションをキャプチャできるようにしてもよい。この場合には、再生するキャプチャモーションを選択する選択手段(再生キャプチャモーションの選択画面等)を設けることが望ましい。
【0174】
また本実施形態の図3(A)、(B)では、キャラクタCH2(第2のキャラクタ)用に用意されたモーションデータをキャラクタCH1(第1のキャラクタ)用のモーションデータとして使用許可にすることで、CH2のモーションをCH1のモーションに割り当てている。
【0175】
しかしながら、キャプチャされたモーションをキャラクタCH1に行わせるためのモーションデータを、CH1用のモーションデータとして予め用意するようにしてもよい。即ち図2において、モーションE、F、G、Hを再生するためのモーションデータを、CH1用のモーションデータED’、FD’、GD’、HD’として予め用意しておく(例えば特定のキャラクタにだけ、このような専用のモーションデータを用意しておく)。
【0176】
このような手法を採用すると、メモリの使用記憶容量はモーションデータED’、FD’、GD’、HD’の分だけ増えてしまう。しかしながら、ED’、FD’、GD’、HD’は、キャラクタCH1の専用のモーションデータとして用意できるため、モーションデータの不適合等を原因とするバグの発生を効果的に防止できる。また、モーションデータED’、FD’、GD’、HD’をキャラクタCH1用にアレンジできるため、キャラクタCH2がモーションE、F、G、Hを行った場合とは印象の異なるモーション画像を生成できるようになる。
【0177】
なお、図3(A)、(B)のようにキャラクタCH2用のモーションデータをCH1用として使用許可にする手法においては、モーションデータの不適合によるバグの発生を防止するために、CH2用のモーションデータを補正してCH1用に使用するようにしてもよい。
【0178】
例えば、痩せていて動きの素早いキャラクタCH2のモーションデータを、太っていて動きの遅いキャラクタCH1のモーションデータとしてそのまま使用すると、キャラクタCH1の動きが不必要に素早くなってしまい、不自然な画像になってしまう。従って、この場合には、キャラクタCH1のモーション再生速度が適度に遅くなるように、モーションデータを補正する。また、キャラクタCH2のモーションデータをキャラクタCH1のモーションデータとしてそのまま使用すると、関節部分等の画像に矛盾が生じる場合には、キャラクタのスケルトンを構成する骨(アーク)の長さや、骨間のなす角度を補正するようにしてもよい。
【0179】
また本実施形態の図5(C)では、キャラクタCH1の一部又は全部の画像(刀の画像)を変化させることで、モーションがキャプチャされたことをプレーヤに知らせていたが、本発明はこれに限定されない。
【0180】
例えば、モーションのキャプチャに成功した場合に、キャラクタCH1の画像以外の情報(例えばキャラクタCH1の音声などの、CH1に関連する情報)を変化させてもよい。或いは、モーションがキャプチャされたことを、ゲームコントローラ(操作手段)の振動などにより伝えてもよい。具体的には、キャプチャされたモーションの再生コマンドを入力する際に、ゲームコントローラ自体やゲームコントローラのボタン等を振動させる。或いは、モーションがキャプチャされていることを示すアイコン等を、ゲーム画面(例えばステータスゲージの近く)に表示してもよい。
【0181】
また、キャラクタCH2の全てのモーションをキャプチャ対象にする必要はなく、既にキャラクタCH1に割り当てられているモーションについては、キャプチャ対象から除くようにしてもよい。例えば、キャラクタCH1が既に持っているモーションをキャラクタCH2が行っている場合には、CH1を操作するプレーヤがキャプチャコマンドを入力しても、CH2のモーションをキャプチャしないようにする(キャプチャ処理を省略する)。即ち、盗もうとするキャラクタCH2の技が、キャラクタCH1が既に持っている技と同一の場合には、その技を盗まないようにする。
【0182】
このようにすれば、無駄なキャプチャ処理が行われるのを防止でき、処理の無駄を省くことが可能になる。
【0183】
また、本発明のうち従属請求項に係る発明においては、従属先の請求項の構成要件の一部を省略する構成とすることもできる。また、本発明の1の独立請求項に係る発明の要部を、他の独立請求項に従属させることもできる。
【0184】
また、本発明は種々のゲーム(格闘ゲーム、シューティングゲーム、ロボット対戦ゲーム、スポーツゲーム、競争ゲーム、ロールプレイングゲーム、音楽演奏ゲーム、ダンスゲーム等)に適用できる。
【0185】
また本発明は、業務用ゲームシステム、家庭用ゲームシステム、多数のプレーヤが参加する大型アトラクションシステム、シミュレータ、マルチメディア端末、ゲーム画像を生成するシステムボード等の種々の画像生成システム(ゲームシステム)に適用できる。
【図面の簡単な説明】
【図1】本実施形態の画像生成システムの機能ブロック図の例である。
【図2】相手キャラクタのモーションをキャプチャして自キャラクタのモーションとして割り当てる手法について説明するための図である。
【図3】図3(A)、(B)は、モーションデータの使用の許可・不許可でモーションの割り当てを行う手法について説明するための図である。
【図4】図4(A)、(B)は、本実施形態により生成されるゲーム画像の例である。
【図5】図5(A)、(B)、(C)は、本実施形態により生成されるゲーム画像の例である。
【図6】図6(A)、(B)は、本実施形態により生成されるゲーム画像の例である。
【図7】複雑な操作手順を要するモーションを簡素な操作手順のコマンドで再生する手法について説明するための図である。
【図8】図8(A)、(B)は、モーションがキャプチャされたか否かの判定手法について説明するための図である。
【図9】コンボモーションのキャプチャ手法について説明するための図である。
【図10】図10(A)、(B)、(C)は、本実施形態により生成されるゲーム画像の例である。
【図11】図11(A)、(B)、(C)は、本実施形態により生成されるゲーム画像の例である。
【図12】図12(A)、(B)は、モーション処理のパラメータの設定手法について説明するための図である。
【図13】図13(A)、(B)は、キャプチャされたモーションの再生を条件に新たなモーションのキャプチャを許可する手法について説明するための図である。
【図14】本実施形態の処理の詳細例について示すフローチャートである。
【図15】本実施形態の処理の詳細例について示すフローチャートである。
【図16】本実施形態の処理の詳細例について示すフローチャートである。
【図17】キャプチャ情報について説明するための図である。
【図18】本実施形態を実現できるハードウェアの構成の一例を示す図である。
【図19】図19(A)、(B)、(C)は、本実施形態が適用される種々の形態のシステムの例を示す図である。
【符号の説明】
100 処理部
110 動作制御部
112 移動処理部
114 モーション処理部
116 キャプチャ処理部
120 画像生成部
130 音生成部
160 操作部
170 記憶部
172 主記憶部
174 描画バッファ
176 モーションデータ記憶部
180 情報記憶媒体
190 表示部
192 音出力部
194 携帯型情報記憶装置
196 通信部
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an image generation system, a program, and an information storage medium.
[0002]
[Background Art and Problems to be Solved by the Invention]
Conventionally, an image generation system (game system) that generates an image that can be seen from a virtual camera (a given viewpoint) in an object space that is a virtual three-dimensional space is known. Popular. Taking an image generation system capable of enjoying a fighting game as an example, the player enjoys the game by operating the character and playing against the opponent character operated by the opponent player or the computer.
[0003]
In a role playing game or the like, as disclosed in, for example, Japanese Patent Application Laid-Open No. 2000-84247, a conventional technique is known in which an opponent character's ability can be used as its own ability.
[0004]
However, although this conventional technique is effective for learning the enemy's ability in so-called turn-based battles, it is difficult to apply it to a game in which the motion of the character changes in real time, such as a fighting game. There is.
[0005]
In games such as a fighting game in which the motion of the character changes in real time and an attack can be made at an arbitrary timing, it is desired that the amount of motion data can be reduced as much as possible.
[0006]
The present invention has been made in view of the above problems, and an object of the present invention is to provide an image generation system, a program, and an information storage medium capable of realizing an effective game effect with a small amount of data. It is in.
[0007]
[Means for Solving the Problems]
In order to solve the above-described problems, the present invention provides an image generation system for generating an image, comprising: means for performing character motion processing; and means for generating a game image including an image of a character operated by the motion processing. In addition, when a given condition is satisfied, the motion of the second character is captured and assigned as the motion of the first character. The program according to the present invention is a program usable by a computer (a program embodied in an information storage medium or a carrier wave), and causes the computer to realize the above means (makes the computer function as the above means). And An information storage medium according to the present invention is an information storage medium readable (usable) by a computer, and includes a program for causing the computer to realize the above means (functioning the computer as the above means). And
[0008]
According to the present invention, the motions of the first and second characters change in real time by motion processing using motion data or the like. When a given condition is satisfied, the motion of the second character is captured (acquired) and assigned as the motion of the first character. Thus, the first character can move based on the captured motion, and the variety of motion images can be increased.
[0009]
Further, the image generation system, the program, and the information storage medium according to the present invention allow the motion data of the second character to be used as the motion data for the first character by allowing the motion data prepared for the second character to be used. Is assigned as the motion of the first character.
[0010]
In this way, the variety of the motion image of the first character can be increased without increasing the total amount of motion data, and a realistic image can be generated with a small storage capacity.
[0011]
The image generation system, the program, and the information storage medium according to the present invention are characterized in that the motion data prepared for the second character is corrected and used as the motion data for the first character.
[0012]
If it does in this way, it will become possible to change the motion data prepared for the 2nd character into the motion data suitable for the characteristic and shape of the 1st character, and to assign to the 1st character, Realistic and consistent images can be generated.
[0013]
The image generation system, the program, and the information storage medium according to the present invention prepare motion data for causing the first character to perform the motion of the captured second character as motion data for the first character. It is characterized by keeping.
[0014]
In this way, it is possible to cause the first character to perform the captured motion using the motion data for the first character prepared in advance. As a result, it is possible to effectively prevent bugs caused by motion data incompatibility. It is also easy to arrange and reproduce the captured motion for the first character.
[0015]
The image generation system, the program, and the information storage medium according to the present invention can be used when the player who operates the first character inputs a given motion instruction command while the second character is performing a motion. The motion of the second character is captured as the motion of the first character.
[0016]
In this way, it is possible to capture the motion of the second character that the player wants to learn at the timing when the second character is performing the motion. This makes it possible to provide the player with new enjoyment of learning the motion of the opponent character.
[0017]
The image generation system, the program, and the information storage medium according to the present invention also provide a motion instruction command given by a player operating the first character after the motion of the second character is captured as the motion of the first character. Is input, the first character performs a captured motion.
[0018]
In this way, it is possible to cause the first character to perform the captured motion by a simple operation of simply inputting a given motion instruction command, and an operation environment (interface environment) that is easy for the player to handle. Can provide.
[0019]
In the image generation system, the program, and the information storage medium according to the present invention, the operation instruction command for causing the first character to perform the captured motion is different from the operation instruction command for causing the second character to perform the motion. A command having a procedure.
[0020]
In this way, it is possible to cause the first character to perform the motion with a simple operation procedure, for example, rather than the operation procedure of the motion instruction command that causes the second character to perform the capture target motion. An easy operating environment can be provided to the player.
[0021]
The image generation system, the program, and the information storage medium according to the present invention include means for notifying the player that the motion of the second character is captured as the motion of the first character (this means is realized by a computer). And an information storage medium).
[0022]
In this way, it is not possible to know whether or not the motion has been successfully captured, so that the player can be prevented from being confused.
[0023]
In addition, the image generation system, the program, and the information storage medium according to the present invention change the image of a part or all of the first character that the motion of the second character is captured as the motion of the first character. This is characterized by notifying the player.
[0024]
In this way, it is possible to effectively notify the player that the motion has been successfully captured.
[0025]
In addition, it is preferable that the part which changes an image is a part relevant to the captured motion among each part of a 1st character.
[0026]
The image generation system, the program, and the information storage medium according to the present invention include the M (1) of combo motions in which a player operating the first character is configured by a series of first to Nth motions. ≦ M ≦ N) When the capture of a motion is successful, and then a given motion instruction command is input, the first character performs a series of first to Mth motions.
[0027]
In this way, it becomes possible to cause the first character to perform a combo motion (continuous motion) composed of a plurality of motions, for example, with an operation instruction command of a simple operation procedure, and a smoother operating environment Can be provided to the player.
[0028]
In addition, the image generation system, the program, and the information storage medium according to the present invention have the motion data in common when the first character performs the captured motion and when the second character performs the motion. It is characterized by different values of parameters other than data.
[0029]
In this way, it is possible to increase the variety of motion images without increasing the amount of data used.
[0030]
The image generation system, the program, and the information storage medium according to the present invention are attacked by the motion when the first character performs the captured motion and when the second character performs the motion. It is characterized in that the reaction motion of the other character is different.
[0031]
In this way, the variety of the reaction motion image of the character when an attack is applied can be increased, and a more realistic image can be generated.
[0032]
The reaction motion may be selected and assigned from among a plurality of reaction motions prepared in advance, corresponding to each attack.
[0033]
In addition, the image generation system, the program, and the information storage medium according to the present invention permit a new motion to be captured by the first character on the condition that the first character has performed the captured motion. Features.
[0034]
In this way, it is possible to effectively prevent a situation in which it is not easy for the first character to perform the captured motion or a situation in which the player is confused by the operation.
[0035]
The image generation system, the program, and the information storage medium according to the present invention are characterized in that, among the motions of the second character, motions already assigned to the first character are excluded from capture targets.
[0036]
In this way, since the capture process is not performed for the motion already assigned to the first character, it is possible to prevent the unnecessary capture process from being performed. As a result, waste of processing can be eliminated, and a situation where the player is confused can be prevented.
[0037]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, the present embodiment will be described with reference to the drawings.
[0038]
In addition, this embodiment demonstrated below does not limit the content of this invention described in the claim at all. Further, not all of the configurations described in the present embodiment are essential as a solution means of the present invention.
[0039]
1. Constitution
FIG. 1 shows an example of a functional block diagram of the image generation system (game system) of the present embodiment. In this figure, the present embodiment only needs to include at least the processing unit 100 (or include the processing unit 100 and the storage unit 170), and the other blocks can be optional components.
[0040]
The operation unit 160 is for a player to input operation data, and the function can be realized by hardware such as a lever, a button, a microphone, or a housing.
[0041]
The storage unit 170 serves as a work area such as the processing unit 100 or the communication unit 196, and its function can be realized by hardware such as a RAM.
[0042]
The information storage medium 180 (computer-readable medium) stores programs, data, and the like, and functions as an optical disk (CD, DVD), magneto-optical disk (MO), magnetic disk, hard disk, and magnetic tape. Alternatively, it can be realized by hardware such as a memory (ROM). The processing unit 100 performs various processes of the present invention (this embodiment) based on a program (data) stored in the information storage medium 180. That is, the information storage medium 180 stores a program for causing a computer to implement (execute, function) the means of the present invention (this embodiment) (particularly, the blocks included in the processing unit 100). Or a plurality of modules (including objects in object orientation) are included.
[0043]
Part or all of the information stored in the information storage medium 180 is transferred to the storage unit 170 when the system is powered on. The information storage medium 180 also includes a program for performing the processing of the present invention, image data, sound data, shape data of the display object, information for instructing the processing of the present invention, or processing in accordance with the instructions Information etc. can be included.
[0044]
The display unit 190 outputs an image generated according to the present embodiment, and the function thereof can be realized by hardware such as a CRT, LCD, or HMD (head mounted display).
[0045]
The sound output unit 192 outputs the sound generated by the present embodiment, and its function can be realized by hardware such as a speaker.
[0046]
The portable information storage device 194 stores player personal data, game save data, and the like. As the portable information storage device 194, a memory card, a portable game device, and the like can be considered.
[0047]
The communication unit 196 performs various controls for communicating with the outside (for example, a host device or other image generation system), and functions as hardware such as various processors or a communication ASIC. Or by a program.
[0048]
Note that a program (data) for realizing (executing and functioning) each unit of the present invention (this embodiment) is transmitted from the information storage medium of the host device (server) via the network and the communication unit 196. You may make it deliver to. Use of such an information storage medium of the host device (server) is also included in the scope of the present invention.
[0049]
The processing unit 100 (processor) performs various processes such as a game process, an image generation process, and a sound generation process based on operation data from the operation unit 160, a program, and the like. In this case, the processing unit 100 performs various processes using the main storage unit 172 in the storage unit 170 as a work area.
[0050]
Here, the processing performed by the processing unit 100 includes coin (price) acceptance processing, various mode setting processing, game progress processing, selection screen setting processing, and the position and rotation angle of an object (one or a plurality of primitives). Processing for obtaining (rotation angle around X, Y or Z axis), processing for moving an object (motion processing), processing for obtaining a viewpoint position (virtual camera position) and line of sight angle (virtual camera rotation angle), map object Consider processing such as placing objects in the object space, hit check processing, computing game results (results, results), processing for multiple players to play in a common game space, or game over processing, etc. Can do.
[0051]
The processing unit 100 includes an operation control unit 110, a capture processing unit 116, an image generation unit 120, and a sound generation unit 130. Note that the processing unit 100 need not include all these functional blocks.
[0052]
Here, the motion control unit 110 performs processing for controlling the motion of a character (a moving object appearing in a game such as a person, a robot, a car, or a tank), and includes a movement processing unit 112 and a motion processing unit 114.
[0053]
The movement processing unit 112 performs a process of moving (translating and rotating) the character in the game space (object space). This character movement process is performed based on the operation data from the operation unit 160 (input data from the player), the character position in the previous frame (inter), the rotation angle, and the like. This can be realized by obtaining the position and rotation angle.
[0054]
In addition, the motion processing unit 114 performs processing (motion reproduction, motion generation) for causing the character to perform motion (animation). The motion processing of the character can be realized by reproducing the motion of the character (object) based on the motion data stored in the motion data storage unit 176.
[0055]
More specifically, the motion data storage unit 176 stores motion data including the position or rotation angle of each part object (motion bone constituting the skeleton) constituting the character (skeleton). The motion processing unit 114 reads out the motion data, and reproduces the motion of the character by moving each part object (motion bone) of the character based on the motion data (by deforming the skeleton shape of the character).
[0056]
The motion data stored in the motion data storage unit 176 is preferably created by attaching a sensor to a person in the real world and performing motion capture. However, the motion data is stored in a physical simulation (physical calculation is performed). It may be generated in real time by using a simulation (physical calculation may be pseudo physical calculation).
[0057]
In order to reproduce realistic motion with a small amount of motion data, it is desirable to perform motion reproduction using motion interpolation and inverse kinematics.
[0058]
The capture processing unit 116 performs processing for capturing the motion of the character.
[0059]
More specifically, when a given condition is satisfied (for example, when a player inputs a command for instructing a capture operation during a period in which the second character is performing a motion), the motion of the second character is determined. Capture and assign as first character motion. This motion capture can be realized, for example, by permitting the use of the motion data prepared for the second character as the motion data for the first character.
[0060]
The captured motion is reproduced by the player inputting a capture reproduction command (command for instructing the capture motion operation).
[0061]
Note that the capture command and the capture playback command may be commands having the same operation procedure. In addition, it is desirable to make the operation procedure of the capture reproduction command different from the operation procedure of the command for causing the second character to perform the motion, and to make the operation procedure simpler.
[0062]
In addition, the same motion data is used when the first character performs the captured motion and when the second character performs the motion, while the parameter value ( It is desirable that attack power, hit frame, character voice at the time of attack, etc. be different. Further, when the first character performs the captured motion and when the second character performs the motion, the other character when the attack by the motion hits (the first character attacks) If the second character attacks, the reaction motion of the second character may vary.
[0063]
The image generation unit 120 performs image processing based on the results of various processes performed by the processing unit 100, generates a game image, and outputs the game image to the display unit 190. For example, when generating a so-called three-dimensional game image, first, geometric processing such as coordinate transformation, clipping processing, perspective transformation, or light source calculation is performed, and drawing data (primitive surface Position coordinates, texture coordinates, color (brightness) data, normal vectors, α values, etc.) given to the vertices (composition points) are created. Based on the drawing data (primitive surface data), the image of the object (one or a plurality of primitive surfaces) after the geometry processing is stored in the drawing buffer 174 (frame buffer, work buffer, or other pixel unit image information). ) Is drawn. Thereby, an image that can be seen from the virtual camera (given viewpoint) in the object space is generated.
[0064]
The sound generation unit 130 performs sound processing based on the results of various processes performed by the processing unit 100, generates game sounds such as BGM, sound effects, or sounds, and outputs the game sounds to the sound output unit 192.
[0065]
Note that the image generation system of the present embodiment may be a system dedicated to the single player mode in which only one player can play, or not only the single player mode but also a multiplayer mode in which a plurality of players can play. The system may also be provided.
[0066]
Further, when a plurality of players play, game images and game sounds to be provided to the plurality of players may be generated using one terminal, or connected via a network (transmission line, communication line) or the like. Alternatively, it may be generated using a plurality of terminals (game machine, mobile phone).
[0067]
2. Features of this embodiment
Next, features of the present embodiment will be described with reference to the drawings. In the following, the case where the present embodiment is applied to a fighting game will be mainly described as an example, but the present embodiment can be widely applied to other games other than the fighting game.
[0068]
2.1 Capture motion
Now, in conventional fighting games, the motion of each character's technique is determined for each character. For example, the motion (skill) of the character P is M1P, M2P, M3P,..., The motion of the character Q is M1Q, M2Q, M3Q,..., The motion of the character R is M1R, M2R, M3R,. Thus, a unique motion was prepared for each character.
[0069]
Therefore, if you try to increase the number of motions of a character in order to improve the variety and realism of the generated image, the amount of motion data will increase by that amount, and the used memory capacity of the memory will be compressed. was there.
[0070]
Therefore, in order to solve such a conventional problem, the inventor of the present application generates, for example, a consistent image even if the motion (motion data) prepared for the character P is used as the motion for the character Q. We focused on what we can do. If the motion for the character P is used as the motion for the character Q, the motion of the character's skeleton (skeleton) will be the same, but the motion and the impression of the character P and Q will be different because of different shapes and clothes. I found that I can generate images.
[0071]
Therefore, in the present embodiment, when a given condition is satisfied, a method of assigning the motion of one character as the motion of the other character is adopted.
[0072]
More specifically, as shown in FIG. 2, when a given condition is satisfied, the motion H (motion data H) prepared for the character CH2 can be used as the motion for the character CH1. In the following embodiment, for convenience of explanation, the case where the motion of the character CH2 is assigned to the character CH1 will be described as an example. However, the present invention is naturally applicable to the case where the motion of the CH1 is assigned to CH2. it can.
[0073]
Here, as a given condition, input of a capture command (an operation instruction command in a broad sense) by a player operating the character CH1 (first player) (input using an operation unit) can be considered. Alternatively, the occurrence of a given event and the passage of time (game time, real time) may be used as a given condition, and the motion of CH2 may be used as the motion of CH1.
[0074]
As shown in FIG. 2, if the motion H of the character CH2 is used as the motion of the character CH1, the variety of the motion image of the character can be increased without increasing the total amount of motion data.
[0075]
That is, in FIG. 2, even if the motion H is used for the character CH1, the total data amount of the motion does not change because the motion H is a motion originally used for the character CH2. If the character CH1 is operated based on the motion H, the character CH1 that could not be expressed by the motion processing using the motions A to D can be expressed, and the variety of motion images can be increased.
[0076]
The assignment of the motion of character CH2 to CH1 can be realized by permitting the use of the motion data prepared for character CH2 as the motion data for character CH1.
[0077]
That is, the motion data for the characters CH1 and CH2 are read from the information storage medium or the like into the storage unit (RAM) at the start of the game (when the battle between CH1 and CH2 starts, at the beginning of the game stage). In this case, as shown in FIG. 3A, in the initial state, the motion data AD to DD stored in the storage unit are assigned to the character CH1, and the motion data ED to HD are assigned to the character CH2. .
[0078]
In such a case, when the player operating the character CH1 inputs a capture command and succeeds in capturing the motion H of the character CH2, motion data HD is assigned to the character CH1 as shown in FIG. And use in the motion processing of CH1 is permitted. Thereby, the character CH1 can be operated by the motion data HD. Further, as apparent from a comparison between FIGS. 3A and 3B, since the total amount of motion data in the storage unit does not change, it is possible to prevent the use storage capacity of the storage unit from increasing.
[0079]
FIG. 4A to FIG. 6B show examples of game images generated by this embodiment.
[0080]
4A and 4B are game images of a scene in which the character CH2 performs a chop motion and pays out a chop technique. This chop motion is a motion (technique) that can be used only by the character CH2 and cannot be used by the character CH1 in an initial state (a state in which motion data is read into the storage unit at the start of the game).
[0081]
5A, 5B, and 5C are game images showing how the character CH1 captures (learns, steals, copies) the chop motion of the character CH2. While the character CH2 is performing the chop motion as shown in FIG. 5A, the player operating the character CH1 uses the game controller 10 (operation means) to perform a capture command as shown in FIG. 5B. When (operation instruction command) is input, the chop motion of CH2 is captured as the motion of CH1, and is assigned to CH1.
[0082]
In this case, in FIG. 5B, when the player simultaneously presses the buttons X, Y, and Z of the game controller 10, a capture command is input. Further, the character CH1 performs a parting motion indicating that the motion of the opponent character CH2 is being stolen.
[0083]
When the chop motion of the character CH2 is successfully captured, a part or all of the image of the character CH1 is changed to notify the player that the motion has been captured. Specifically, as shown in FIG. 5C, the image of the sword of the character CH1 blinks to notify the player that the chop motion of the character CH2 has been captured (learned).
[0084]
In this type of fighting game, the player is full of operations of his / her character, and cannot afford to pay attention to display objects other than the character operated by the player. Therefore, as shown in FIG. 5C, if the success of the capture is notified by changing the image of the character CH1, even a player who is enthusiastic about the operation and has no margin can capture that the motion has been captured. You will be able to know it reliably and easily.
[0085]
In FIG. 5C, the image of the sword of the character CH1 is changed, but the image of other parts of CH1 (hands, feet, face, torso, etc.) may be changed. In this case, it is desirable to change the image of the portion of the character that is mainly used by the motion (technique) (the portion most relevant to the motion). For example, when a motion (technique) mainly using the left hand is captured, the image of the left hand (sword held by the left hand) is changed. Similarly, when a motion mainly using the right hand, left foot, and right foot is captured, the images of the character's right hand, left foot, and right foot are changed.
[0086]
In this way, it is possible to effectively inform the player what kind of motion the captured motion is, and it is possible to provide an operation environment (interface environment) that is easier for the player to handle. In addition, since the character CH1 that captured the motion will attack the character CH2 using the portion where the image has changed (the sword in FIG. 5C), the effect of the game can be enhanced. .
[0087]
6A and 6B are game images showing a state in which the character CH1 is performing the captured (copied) motion.
[0088]
When the player operating the character CH1 inputs a capture reproduction command (motion instruction command) after the motion of the character CH2 is captured as the motion of the character CH1, as shown in FIGS. 6A and 6B, the character CH1 Do captured chop motion.
[0089]
In this case, in FIG. 6B, when the player simultaneously presses the buttons X, Y, and Z of the game controller 10, a capture reproduction command is input.
[0090]
As shown in FIGS. 5B and 6A, in this embodiment, the capture command for instructing motion capture and the capture playback command for instructing playback of the captured motion are the same operation procedure ( The buttons X, Y, and Z are simultaneously pressed). In this way, if the capture command and the capture playback command have the same operation procedure, after the motion is captured, the same procedure as that at the time of capture can be performed, and the captured motion can be sent out immediately. Thereby, the operating environment of the player can be improved. However, the operation procedures of these capture commands and capture playback commands may be different.
[0091]
As shown in FIGS. 6A and 6B, according to the present embodiment, the chop motion that can originally be used only by the character CH2 can be used by the character CH1. Therefore, it is possible to increase the variety of character motion without increasing the total amount of motion data.
[0092]
Moreover, as is apparent from FIGS. 4A, 4B, 6A, and 6B, the characters CH1 and CH2 have different shapes and clothes, so that CH1 and CH2 perform the same chop motion. However, the image looks different to the player. Therefore, according to the present embodiment, more various game images can be provided to the player.
[0093]
Further, consider the case where the motion of the character CH2 to be captured is a request for a complicated operation procedure as shown in FIG. That is, in FIG. 7, in order to send out the motion to be captured, the operation procedure of pressing the button X, pressing the buttons X and Y at the same time, and then tilting the lever down, down, and right is necessary.
[0094]
According to the present embodiment, even with a motion that requires such a complicated operation procedure, a capture reproduction command (a simultaneous pressing of buttons X, Y, and Z in FIG. 7) of a predetermined operation procedure is performed. By inputting, the character CH1 can perform the motion. Therefore, the player who operates the character CH1 does not need to learn the operation procedure of the motion to be captured each time. Accordingly, it is possible to steal the enemy motion and apply an attack based on the stolen motion to the enemy without requiring a complicated operation.
[0095]
Note that the determination of whether or not the motion has been captured can be realized by a technique as shown in FIGS. 8A and 8B, for example. In other words, when there is an overlap period between the hit frame period TH of the motion of the character CH2 (capture target motion) and the capture frame period TC of the character CH1, it is determined that the capture of the motion of CH2 has been successful.
[0096]
In this way, not only when the capture command is input after the motion of the character CH2 (capture target motion) starts as shown in FIG. 8A, but also the motion of CH2 as shown in FIG. 8B. Even when a capture command is input before the start of CH2, motion of CH2 can be captured. Therefore, the player can capture the motion of the opponent character without inputting a capture command at such a severe timing, and can realize an easier-to-handle operation environment.
[0097]
Note that the hit frame period TH in FIGS. 8A and 8B is a period in which an attack based on the motion of the character and a hit determination with the opponent character are performed. If it is determined that part of the character (hand, foot, sword, etc.) intersects the opponent character during the hit frame period TH, it is determined that the attack has hit. The capture frame period TC is a period set as a period during which the motion of the opponent character can be captured in the reproduction period of the character parting motion (motion indicating that the motion is captured).
[0098]
2.2 Combo motion capture
In the fighting game, a so-called combo motion (combo attack) composed of a series of a plurality of motions (attack) is known. That is, when the player inputs a specific operation procedure at an appropriate timing, a continuous attack by a series of a plurality of motions hits the opponent character. As a result, the opponent character can be greatly damaged.
[0099]
In the present embodiment, such combo motion capture is realized by a method described below.
[0100]
For example, as indicated by G1 in FIG. 9, it is assumed that the player has successfully captured C1 during the reproduction of the first motion C1 constituting the combo motions C1, C2, and C3 (first to Nth motions). In this case, when the player subsequently inputs a capture reproduction command, the motion C1 is reproduced as a capture motion.
[0101]
Further, as indicated by G2 in FIG. 9, it is assumed that the player has successfully captured C2 during the reproduction of the motion C2 constituting the combo motions C1, C2, and C3. In this case, when the player subsequently inputs a capture reproduction command, the motions C1 and C2 are reproduced as capture motions.
[0102]
Further, as indicated by G3 in FIG. 9, it is assumed that the player has successfully captured C3 during the reproduction of the last motion C3 constituting the combo motions C1, C2, and C3. In this case, when the player subsequently inputs a capture reproduction command, all of the motions C1, C2, and C3 are reproduced as capture motions. That is, all the combo motion can be captured and played back.
[0103]
FIGS. 10A, 10B, 10C, 11A, 11B, and 11C show examples of game images generated by this embodiment.
[0104]
FIGS. 10A and 10B are game images showing a state in which the character CH2 is performing a combo motion (combo attack, continuous technique). The character CH2 performs a chop motion, and immediately thereafter performs a foot removal motion. In order to perform this combo motion, for example, a complicated and complicated operation such as first pressing the button X (chopping) and then pressing the button Y while pushing down the lever (foot removal) is required.
[0105]
FIG. 10C is a game image showing that the character CH1 learns (captures) such a combo motion by a parting motion. In this case, in order to capture all of the combo motion, it is necessary to input a capture command (simultaneously pressing the buttons X, Y, and Z) when the character CH2 is performing the last motion (foot removal) of the combo motion. There is.
[0106]
FIGS. 11A, 11B, and 11C are game images showing the character CH1 performing the opponent's combo motion captured in this manner.
[0107]
When the player inputs a capture playback command (simultaneously pressing the buttons X, Y, and Z) after successful capture, the character CH1 performs the captured combo motion. That is, a chop motion is first performed, and then a foot removal motion is performed. When the attack by the captured motion hits the character CH2, as shown in FIGS. 11A, 11B, and 11C, the character CH2 performs a reaction motion (a beaten motion) corresponding to the attack.
[0108]
If the player inputs a capture command at the timing of FIG. 10A and captures a motion, the character CH1 performs only the chop motion of FIG. 11A.
[0109]
As described above, according to the present embodiment, when the capture of the Mth motion of the combo motion composed of the first to Nth motions is successful and the capture playback command is subsequently input, the first to Mth motions Will be played. For example, if the last motion is captured successfully, all of the combo motion can be sent out. Thereby, the player who stole the combo motion can cause his / her character to perform the combo motion without learning a complicated and complicated operation procedure for sending out the combo motion.
[0110]
In this case, if it is attempted to steal all of the combo motion and capture the last motion of the combo motion, there is a possibility that the attack by the motion of the first half of the combo motion may receive a great deal of damage.
[0111]
On the other hand, if you succeed in attacking the first half of the motion and succeeded in capturing the last motion, you can enter all of the combo motion by entering the capture playback command after that, causing a lot of damage to the opponent character. Can be given. Therefore, the player takes a strategy such as taking all the combo motions of the opponent character at risk or taking a safety measure to steal only the first half of the motion.
[0112]
As described above, according to the present embodiment, it is possible to create a complicated and advanced game for capturing motion between players, and to double the fun of the game.
[0113]
2.3 Change of parameter value and reaction motion
In this embodiment, in order to increase the diversity of the motion image to be reproduced, the parameter value of the captured motion and the reaction (done) motion when an attack by the motion is hit are changed.
[0114]
For example, FIG. 12A shows an example of the original parameter value of the motion to be captured and the reaction motion. As shown in FIG. 12A, the attack power when the motions A, B, C1, and C2 (C1 and C2 are combos) are hit is set to 10, 20, 30, and 10, respectively. The hit frame period (period in which hit determination is performed) is set to 2 to 7, 3 to 8, 5 to 12, and 5 to 12. In addition, the reaction (defeated) motion of the opponent character when the motions A, B, C1, and C2 are hit (see FIGS. 11A, 11B, and 11C) is RA, RB, RC, and RC, respectively. Is set to
[0115]
On the other hand, in the post-capture motion, parameter values such as attack power and hit frame period and the reaction motion of the opponent at the time of hit are changed as shown in FIG. That is, the attack powers of the motions A, B, C1, and C2 are set to 20, 10, 30, and 20, and the hit frame period is set to 3 to 8, 3 to 8, 4 to 9, and 5 to 12. The reaction motion of the opponent character when the motions A, B, C1, and C2 are hit is set to RA, RB, RC, and RB, respectively.
[0116]
In this embodiment, the motion data to be used is common in both the original case of FIG. 12A and the post-capture state of FIG. That is, in the case of FIG. 12A and FIG. 12B, AD, BD, C1D, and C2D are used as motion data for reproducing the motions A, B, C1, and C2.
[0117]
The amount of motion data is generally very large. Therefore, if the amount of motion data is increased in order to increase the variety of motion images, the use storage amount of the storage unit that stores the motion data is compressed.
[0118]
On the other hand, the data amount of parameter values (attack power or hit frame period, etc.) is very small compared to the amount of motion data. Therefore, even if the data amount of the parameter value is increased in order to increase the degree of variety of motion images, the used storage capacity of the storage unit is not so much reduced. Then, when reproducing the captured motion, if the parameter value is changed as shown in FIG. 12B, even if the same motion data is used, the generated image and the effect of the game are made different. be able to.
[0119]
Therefore, as shown in FIGS. 12A and 12B, when reproducing the captured motion, the motion data is made common and the parameters are made different so that the used storage capacity of the storage unit is not so much pressed. Realistic and diverse game images can be generated.
[0120]
Furthermore, as shown in FIGS. 12A and 12B, if the reaction motion of the opponent character at the time of the attack of the captured motion is made different, more realistic and diverse game images can be generated. In this case, various image expressions can be realized without increasing the total amount of data of reaction motion by appropriately selecting from the original reaction motion (reaction motion read in the initial state) and assigning it to each motion.
[0121]
For example, in FIGS. 12A and 12B, the reaction motion for the motion C2 is changed from RC to RB. However, this RB originally existed as a reaction motion to the motion B. Therefore, even if the reaction motion for the motion C2 is changed from RC to RB in this way, the total data amount of the reaction motion does not change after all. Then, by making the reaction motion for the motion C2 different between the original case and the post-capture case, the motion image of the opponent character when the attack is hit (see FIGS. 11A, 11B, and 11C). ) Will also be different, and various image expressions can be realized.
[0122]
2.4 Capturing on condition of motion playback
In the present embodiment, on the condition that the character has performed the captured motion, a new motion capture (learning) by the character is permitted.
[0123]
For example, as shown in FIG. 13A, consider a case where the character CH2 is feeding out motions A, B, and C. These motions A, B, and C are all motions that can be captured.
[0124]
In this case, when the player operating the character CH1 simultaneously presses the buttons X, Y, and Z of the game controller at the timing of H1 in FIG. 13A and inputs a capture command, the motion A of the character CH2 is captured. .
[0125]
Thereafter, it is assumed that the player presses the buttons X, Y, and Z at the same time at the timing H2 in FIG. 13A and inputs a command. Then, since the character CH2 is performing motion B that can be captured at the timing of H2, the command input by simultaneously pressing the buttons X, Y, and Z is interpreted as a capture command, not a capture playback command. Will be. Therefore, even if the player's intention is to reproduce the captured motion A, the motion B is captured against the player's intention.
[0126]
Similarly, when the buttons X, Y, and Z are simultaneously pressed at the timing of H3 in FIG. 13A, the motion C is captured against the player's intention.
[0127]
As described above, in the method of always permitting the capture of motion, there is a possibility that the captured motion cannot be reproduced indefinitely. Alternatively, it is not possible to know whether the input command is interpreted as a capture command or a capture playback command, and the player is confused.
[0128]
Therefore, in the present embodiment, a technique for permitting the capture of the next new motion on condition that the captured motion is reproduced is adopted. More specifically, on the condition that the capture information (captured motion designation information, etc.) is stored in one area, the captured motion is played back, and the capture information in that area is cleared. Allow writing of new capture information to the area.
[0129]
For example, when the player operating the character CH1 simultaneously presses the buttons X, Y, and Z of the game controller at the timing of H4 in FIG. 13B, the motion A of the character CH2 is captured.
[0130]
After that, when the player simultaneously presses the buttons X, Y, and Z at the timing of H5 in FIG. 13B, unlike the case of H2 in FIG. 13A, the motion A captured by H4 is reproduced. . This is because at the timing of H5, the captured motion A has not been reproduced yet, and the capture of a new motion has not been permitted.
[0131]
When the player simultaneously presses the buttons X, Y, and Z at the timing of H6 in FIG. 13B, the motion C of the character CH2 is captured this time. This is because the captured motion A has already been reproduced at the timing of H6, and capture of a new motion is permitted.
[0132]
In this way, if the capture of a new motion is permitted on the condition that the captured motion is reproduced, a situation in which the captured motion cannot be reproduced indefinitely can be prevented. In addition, since the captured motion is surely reproduced, it is possible to prevent the player from being confused.
[0133]
3. Processing of this embodiment
Next, a detailed example of the processing of the present embodiment will be described using the flowcharts of FIGS.
[0134]
When the processing of the frame starts, as shown in FIG. 14, first, a command input by the game controller is analyzed (step S1). Then, it is determined whether or not the input command is a capture command (buttons X, Y, and Z are simultaneously pressed) (step S2). If it is a capture command, the process proceeds to capture processing (step S3). If it is not a capture command, step S3 is skipped and the process proceeds to step S4.
[0135]
When the process proceeds to step S4, the frame is advanced by one (step S4). Then, it is determined whether or not the capture motion has ended (step S5). If it has not ended, the process returns to step S3, and if it has ended, the process returns to step S1.
[0136]
FIG. 15 is a flowchart of the capture process in step S3 of FIG.
[0137]
First, it is determined whether or not capture information is set (step S11). If it is set, the process proceeds to capture motion reproduction processing (step S12).
[0138]
FIG. 17 shows an example of the capture information. As shown in FIG. 17, when the capture information is cleared to (000), it is indicated by the capture information that there is no captured motion. When any of (001) to (111) is set in the capture information, it is indicated by the capture information that any of the motions A to G is captured.
[0139]
When it is determined in step S11 in FIG. 15 that the capture information is not set (when the capture information is (000)), it is determined whether or not the opponent character's motion can be captured (step S13). If not possible, the process returns to the process of FIG.
[0140]
That is, if all motions can be captured, motions that the player does not want to learn are also captured, which complicates the game play. Therefore, it is desirable to provide motion that cannot be captured.
[0141]
If it is possible to capture the motion of the opponent character, it is determined whether or not the current frame is within the hit frame period of the opponent character (step S14). Return. On the other hand, if it is within the hit frame period, it is determined whether or not the frame is within the capture frame period of the player character (step S15). If not within the capture frame period, the process returns to the process of FIG. With the processing of these steps S14 and S15, it is possible to determine whether or not there is an overlap between the hit frame period and the capture frame period, as described in FIGS. 8A and 8B.
[0142]
If it is determined that the current frame is within the capture frame period, the capture information described with reference to FIG. 17 is set (step S16). In this case, the designation information of the motion performed by the opponent character is set as capture information.
[0143]
Next, a capture effect is set (step S17). More specifically, as shown in FIG. 5C, the player's sword or the like is blinked to notify the player that the motion has been successfully captured. Then, the process returns to the process of FIG.
[0144]
FIG. 16 is a flowchart of the capture motion reproduction process in step S12 of FIG.
[0145]
First, it is determined whether or not the captured motion is a combo motion (step S21). If it is not a combo motion, the captured motion is reproduced (step S22). On the other hand, in the case of a combo motion, it is determined whether or not the first motion C1 of the combo motion has been captured (step S23). When the motion C1 is captured, the reproduction process of the motion C1 is performed (step S24), and when C2 is captured instead of C1, the reproduction process of the motions C1 and C2 is performed (step S25).
[0146]
Next, the parameters (status parameters) described with reference to FIGS. 12A and 12B are set (step S26). Then, the capture information and the capture effect are cleared (steps S27 and S28).
[0147]
Next, it is determined whether or not an attack due to the motion of the player character has been hit (step S29). If there is a hit, the motion of the opponent character is changed to a reaction motion corresponding to the attack (FIGS. 12A and 12B). ))) (Step S30).
[0148]
As shown in FIG. 16, in the present embodiment, the capture information is cleared (step S27) on the condition that the captured motion has been reproduced (steps S21 to S25). Then, as shown in FIG. 15, on the condition that the capture information is cleared (step S11), the setting of the capture information is permitted (step S16). In this way, it is possible to realize a technique (see FIG. 13B) that permits capture of a new motion on condition that the captured motion has been reproduced.
[0149]
4). Hardware configuration
Next, an example of a hardware configuration capable of realizing the present embodiment will be described with reference to FIG.
[0150]
The main processor 900 operates based on a program stored in the CD 982 (information storage medium), a program transferred via the communication interface 990, or a program stored in the ROM 950 (one of information storage media). Various processes such as processing, image processing, and sound processing are executed.
[0151]
The coprocessor 902 assists the processing of the main processor 900, has a product-sum calculator and a divider capable of high-speed parallel calculation, and executes matrix calculation (vector calculation) at high speed. For example, if a physical simulation for moving or moving an object requires processing such as matrix operation, a program operating on the main processor 900 instructs (requests) the processing to the coprocessor 902. )
[0152]
The geometry processor 904 performs geometry processing such as coordinate transformation, perspective transformation, light source calculation, and curved surface generation, has a product-sum calculator and a divider capable of high-speed parallel computation, and performs matrix computation (vector computation). Run fast. For example, when processing such as coordinate transformation, perspective transformation, and light source calculation is performed, a program operating on the main processor 900 instructs the geometry processor 904 to perform the processing.
[0153]
The data decompression processor 906 performs a decoding process for decompressing the compressed image data and sound data, and a process for accelerating the decoding process of the main processor 900. As a result, a moving image compressed by the MPEG method or the like can be displayed on the opening screen, the intermission screen, the ending screen, or the game screen. Note that the image data and sound data to be decoded are stored in the ROM 950 and the CD 982 or transferred from the outside via the communication interface 990.
[0154]
The drawing processor 910 performs drawing (rendering) processing of an object composed of primitives (primitive surfaces) such as polygons and curved surfaces at high speed. When drawing an object, the main processor 900 uses the function of the DMA controller 970 to pass the object data to the drawing processor 910 and transfer the texture to the texture storage unit 924 if necessary. Then, the rendering processor 910 renders the object in the frame buffer 922 at high speed while performing hidden surface removal using a Z buffer or the like based on the object data and texture. The drawing processor 910 can also perform α blending (translucent processing), depth cueing, mip mapping, fog processing, bilinear filtering, trilinear filtering, anti-aliasing, shading processing, and the like. When an image for one frame is written in the frame buffer 922, the image is displayed on the display 912.
[0155]
The sound processor 930 includes a multi-channel ADPCM sound source and the like, and generates high-quality game sounds such as BGM, sound effects, and sounds. The generated game sound is output from the speaker 932.
[0156]
Operation data from the game controller 942 (lever, button, chassis, pad type controller, gun type controller, etc.), save data from the memory card 944, and personal data are transferred via the serial interface 940.
[0157]
The ROM 950 stores system programs and the like. In the case of an arcade game system, the ROM 950 functions as an information storage medium, and various programs are stored in the ROM 950. A hard disk may be used instead of the ROM 950.
[0158]
The RAM 960 is used as a work area for various processors.
[0159]
The DMA controller 970 controls DMA transfer between the processor and memory (RAM, VRAM, ROM, etc.).
[0160]
The CD drive 980 drives a CD 982 (information storage medium) in which programs, image data, sound data, and the like are stored, and enables access to these programs and data.
[0161]
The communication interface 990 is an interface for transferring data to and from the outside via a network. In this case, as a network connected to the communication interface 990, a communication line (analog telephone line, ISDN), a high-speed serial bus, or the like can be considered. By using a communication line, data transfer via the Internet becomes possible. Further, by using the high-speed serial bus, data transfer with other image generation systems becomes possible.
[0162]
All of the means of the present invention may be realized (executed) only by hardware, or only by a program stored in an information storage medium or a program distributed via a communication interface. Also good. Alternatively, it may be realized by both hardware and a program.
[0163]
When each means of the present invention is realized by both hardware and a program, the information storage medium stores a program for realizing each means of the present invention using hardware. Become. More specifically, the program instructs each processor 902, 904, 906, 910, 930, etc., which is hardware, and passes data if necessary. Each of the processors 902, 904, 906, 910, 930 and the like implements each unit of the present invention based on the instruction and the passed data.
[0164]
FIG. 19A shows an example in which the present embodiment is applied to an arcade game system (image generation system). The player enjoys the game by operating the gun-type controllers 1102 and 1103 and the like while viewing the game images displayed on the displays 1100 and 1101. Various processors and various memories are mounted on the built-in system board (circuit board) 1106. A program (data) for realizing each means of the present invention is stored in a memory 1108 which is an information storage medium on the system board 1106. Hereinafter, this program is referred to as a storage program (storage information).
[0165]
FIG. 19B shows an example in which this embodiment is applied to a home game system (image generation system). The player enjoys the game by operating the gun-type controllers 1202 and 1204 while watching the game image displayed on the display 1200. In this case, the stored program (stored information) is stored in a CD 1206, which is an information storage medium that is detachable from the main system, or in memory cards 1208, 1209, and the like.
[0166]
FIG. 19C shows a host device 1300 and terminals 1304-1 to 1304-n connected to the host device 1300 via a network 1302 (a small-scale network such as a LAN or a wide area network such as the Internet). An example in which the present embodiment is applied to a system including (game machine, mobile phone) is shown. In this case, the storage program (storage information) is stored in an information storage medium 1306 such as a magnetic disk device, a magnetic tape device, or a memory that can be controlled by the host device 1300, for example. When the terminals 1304-1 to 1304-n can generate game images and game sounds stand-alone, the host device 1300 receives a game program and the like for generating game images and game sounds from the terminal 1304-. 1 to 1304-n. On the other hand, if it cannot be generated stand-alone, the host device 1300 generates game images and game sounds, which are transmitted to the terminals 1304-1 to 1304-n and output at the terminals.
[0167]
In the case of the configuration of FIG. 19C, each unit of the present invention may be realized by being distributed between the host device (server) and the terminal. Further, the above storage program (storage information) for realizing each means of the present invention may be distributed and stored in the information storage medium of the host device (server) and the information storage medium of the terminal.
[0168]
The terminal connected to the network may be a home game system or an arcade game system. When the arcade game system is connected to a network, the save information storage device can exchange information with the arcade game system and exchange information with the home game system. It is desirable to use (memory card, portable game device).
[0169]
The present invention is not limited to that described in the above embodiment, and various modifications can be made.
[0170]
For example, the method for capturing the motion of the second character and the method for causing the first character to perform the captured motion are not limited to the methods described with reference to FIGS. 1 to 17, and various modifications can be made. is there.
[0171]
Further, the operation instruction command for instructing the capture of motion and the operation instruction command for instructing the reproduction of the captured motion may be commands having the same operation procedure or commands having different operation procedures.
[0172]
Further, the operation procedure of the operation instruction command is not limited to the operation procedure described in the present embodiment. Further, various modifications can be made to the input timing of the operation instruction command.
[0173]
In this embodiment, the case where the number of motions that can be captured is one has been described as an example. However, a plurality of motions may be captured. In this case, it is desirable to provide selection means (such as a reproduction capture motion selection screen) for selecting a capture motion to be reproduced.
[0174]
In FIGS. 3A and 3B of the present embodiment, the use of the motion data prepared for the character CH2 (second character) is permitted as the motion data for the character CH1 (first character). Thus, the motion of CH2 is assigned to the motion of CH1.
[0175]
However, motion data for causing the character CH1 to perform the captured motion may be prepared in advance as motion data for CH1. That is, in FIG. 2, motion data for reproducing motions E, F, G, and H are prepared in advance as motion data ED ′, FD ′, GD ′, and HD ′ for CH1 (for example, for a specific character). Only have such dedicated motion data).
[0176]
When such a method is employed, the memory usage capacity increases by the amount of motion data ED ′, FD ′, GD ′, and HD ′. However, since ED ′, FD ′, GD ′, and HD ′ can be prepared as dedicated motion data for the character CH1, it is possible to effectively prevent the occurrence of bugs caused by motion data incompatibility. Further, since the motion data ED ′, FD ′, GD ′, and HD ′ can be arranged for the character CH1, it is possible to generate a motion image having a different impression from the case where the character CH2 performs the motions E, F, G, and H. become.
[0177]
In the method of permitting the use of the motion data for the character CH2 as for CH1 as shown in FIGS. 3A and 3B, in order to prevent the occurrence of bugs due to incompatibility of the motion data, the motion for CH2 is used. The data may be corrected and used for CH1.
[0178]
For example, if the motion data of the thin and fast-moving character CH2 is used as it is as the motion data of the fat and slow-moving character CH1, the movement of the character CH1 becomes unnecessarily quick, resulting in an unnatural image. End up. Therefore, in this case, the motion data is corrected so that the motion playback speed of the character CH1 is moderately slowed. Further, if the motion data of the character CH2 is used as the motion data of the character CH1 as it is, if there is a contradiction in the image of the joint portion or the like, the length of the bone (arc) constituting the character's skeleton and the angle between the bones May be corrected.
[0179]
In FIG. 5C of the present embodiment, the player is informed that the motion has been captured by changing a part or all of the image of the character CH1 (sword image). It is not limited to.
[0180]
For example, when the motion capture is successful, information other than the image of the character CH1 (for example, information related to CH1, such as the voice of the character CH1) may be changed. Alternatively, the fact that the motion is captured may be transmitted by vibration of the game controller (operation means). Specifically, when a captured motion playback command is input, the game controller itself, the buttons of the game controller, and the like are vibrated. Alternatively, an icon or the like indicating that the motion is captured may be displayed on the game screen (for example, near the status gauge).
[0181]
Further, it is not necessary to set all the motions of the character CH2 as capture targets, and the motions already assigned to the character CH1 may be excluded from capture targets. For example, if the character CH2 is performing a motion that the character CH1 already has, the motion of the CH2 is not captured even if the player operating the CH1 inputs a capture command (the capture process is omitted). ). That is, when the technique of the character CH2 to be stolen is the same as the technique already possessed by the character CH1, the technique is prevented from being stolen.
[0182]
In this way, it is possible to prevent unnecessary capture processing from being performed, and it is possible to eliminate processing waste.
[0183]
In the invention according to the dependent claims of the present invention, a part of the constituent features of the dependent claims can be omitted. Moreover, the principal part of the invention according to one independent claim of the present invention can be made dependent on another independent claim.
[0184]
The present invention can also be applied to various games (such as fighting games, shooting games, robot battle games, sports games, competitive games, role playing games, music playing games, dance games, etc.).
[0185]
The present invention is also applicable to various image generation systems (game systems) such as a business game system, a home game system, a large attraction system in which a large number of players participate, a simulator, a multimedia terminal, and a system board for generating game images. Applicable.
[Brief description of the drawings]
FIG. 1 is an example of a functional block diagram of an image generation system according to an embodiment.
FIG. 2 is a diagram for explaining a method of capturing a motion of an opponent character and assigning it as a motion of the own character.
FIGS. 3A and 3B are diagrams for explaining a technique for assigning motions with permission / non-permission of use of motion data. FIGS.
FIGS. 4A and 4B are examples of game images generated according to the present embodiment.
FIGS. 5A, 5B, and 5C are examples of game images generated according to the present embodiment.
6A and 6B are examples of game images generated according to the present embodiment.
FIG. 7 is a diagram for explaining a technique for reproducing a motion that requires a complicated operation procedure with a command of a simple operation procedure.
FIGS. 8A and 8B are diagrams for explaining a method for determining whether or not a motion has been captured.
FIG. 9 is a diagram for explaining a combo motion capture method;
FIGS. 10A, 10B, and 10C are examples of game images generated according to the present embodiment.
11A, 11B, and 11C are examples of game images generated according to the present embodiment.
FIGS. 12A and 12B are diagrams for explaining a parameter setting method for motion processing.
FIGS. 13A and 13B are diagrams for explaining a technique for permitting the capture of a new motion on condition that the captured motion is reproduced.
FIG. 14 is a flowchart illustrating a detailed example of processing according to the embodiment.
FIG. 15 is a flowchart illustrating a detailed example of processing according to the embodiment.
FIG. 16 is a flowchart illustrating a detailed example of processing according to the embodiment.
FIG. 17 is a diagram for describing capture information;
FIG. 18 is a diagram illustrating an example of a hardware configuration capable of realizing the present embodiment.
FIGS. 19A, 19B, and 19C are diagrams illustrating examples of various types of systems to which this embodiment is applied.
[Explanation of symbols]
100 processor
110 Operation control unit
112 Movement processing unit
114 Motion processor
116 Capture processing unit
120 Image generator
130 Sound generator
160 Operation unit
170 Storage unit
172 Main memory
174 Drawing buffer
176 Motion data storage
180 Information storage medium
190 Display
192 sound output section
194 Portable information storage device
196 Communication Department

Claims (17)

画像生成処理を行うプログラムであって、
キャラクタのモーション処理を行うモーション処理部と、
モーション処理により動作するキャラクタの画像を含むゲーム画像を生成する画像生成部と、
所与の条件が成立した場合に、第2のキャラクタのモーションをキャプチャし、第1のキャラクタのモーションとして割り当てるキャプチャ処理部として、コンピュータを機能させ、
前記モーション処理部が、
一連の第1〜第Nのモーションの連続により構成されるコンボモーションのうちの第M(1≦M≦N)のモーションのキャプチャに成功し、その後に操作部から第1のキャラクタに対する所与の動作指示コマンドが入力された場合に、第1のキャラクタ一連の第1〜第Mのモーションを行わせる処理を実行することを特徴とするプログラム。
A program for performing image generation processing,
A motion processing unit that performs character motion processing;
An image generation unit that generates a game image including an image of a character that operates by motion processing;
When a given condition is satisfied, the computer functions as a capture processing unit that captures the motion of the second character and assigns it as the motion of the first character,
The motion processing unit
Successful capture of the Mth (1 ≦ M ≦ N) motion of the combo motion composed of a series of the first to Nth motions, and then the operation unit gives a given to the first character operation when the instruction command is input, the program and executes the processing for causing the motion of the first series the character first to M.
画像生成処理を行うプログラムであって、
キャラクタのモーション処理を行うモーション処理部と、
モーション処理により動作するキャラクタの画像を含むゲーム画像を生成する画像生成部と、
所与の条件が成立した場合に、第2のキャラクタのモーションをキャプチャし、第1のキャラクタのモーションとして割り当てるキャプチャ処理部として、コンピュータを機能させ、
前記キャプチャ処理部が、
第1のキャラクタキャプチャされたモーションを行わせる処理を実行したことを条件に、第1のキャラクタによる新たなモーションのキャプチャを許可する処理を実行することを特徴とするプログラム。
A program for performing image generation processing,
A motion processing unit that performs character motion processing;
An image generation unit that generates a game image including an image of a character that operates by motion processing;
When a given condition is satisfied, the computer functions as a capture processing unit that captures the motion of the second character and assigns it as the motion of the first character,
The capture processing unit
On condition that execution of the processing to perform the captured motion to the first character, the program and executes the process to allow capture of a new motion of the first character.
請求項1又は2において、
前記キャプチャ処理部が、
第2のキャラクタ用に用意されたモーションデータを第1のキャラクタ用のモーションデータとして使用許可にすることで、第2のキャラクタのモーションを第1のキャラクタのモーションとして割り当てる処理を実行することを特徴するプログラム。
In claim 1 or 2 ,
The capture processing unit
The processing for assigning the motion of the second character as the motion of the first character is executed by permitting the use of the motion data prepared for the second character as motion data for the first character. Program to do.
請求項1又は2において、
前記モーション処理部が、
キャプチャされた第2のキャラクタのモーションを第1のキャラクタに行わせるための第1のキャラクタ用のモーションデータに基づいて、第1のキャラクタにモーションを行わせる処理を実行することを特徴とするプログラム。
In claim 1 or 2 ,
The motion processing unit
A program for executing a process for causing a first character to perform a motion based on motion data for the first character for causing the first character to perform a motion of the captured second character. .
請求項1〜のいずれかにおいて、
前記キャプチャ処理部が、
第2のキャラクタモーションを行わせている期間に操作部から第1のキャラクタに対する所与の動作指示コマンドが入力された場合に、第2のキャラクタのモーションを、第1のキャラクタのモーションとしてキャプチャする処理を実行することを特徴とするプログラム。
In any one of Claims 1-4 ,
The capture processing unit
If the given operation instruction command for the first character from the operation unit motion to the second character in a period are line Align is input, the motion of the second character, captured as a motion of the first character A program characterized by executing processing to be performed .
請求項1〜のいずれかにおいて、
第2のキャラクタのモーションが第1のキャラクタのモーションとしてキャプチャされたことをプレーヤに知らせる処理を行う処理部として、コンピュータを更に機能させることを特徴とするプログラム。
In any one of Claims 1-5 ,
A program that further causes a computer to function as a processing unit that performs processing for notifying a player that a motion of a second character has been captured as a motion of a first character.
請求項1〜のいずれかにおいて、
第1のキャラクタキャプチャされたモーションを行わせる場合と、第2のキャラクタ該モーションを行わせる場合とで、モーションデータ以外のパラメータの値を異ならせる処理を行うパラメータ処理部として、コンピュータを更に機能させることを特徴とするプログラム。
In any one of Claims 1-6 ,
And if so I line the captured motion to the first character, in the case of the motion to I line in the second character, the parameter processing unit for performing processing to vary the values of the parameters other than motion data, computer A program characterized by further functioning.
請求項1〜のいずれかにおいて、
前記モーション処理部が、
第1のキャラクタキャプチャされたモーションを行わせる場合と、第2のキャラクタ該モーションを行わせる場合とで、該モーションによる攻撃が加えられた時の他方のキャラクタの反応モーションを異ならせる処理を実行することを特徴とするプログラム。
In any of the claims 1-7,
The motion processing unit
And if so I line the captured motion to the first character, in the case of the motion to I line in the second character, varying the reaction motion of the other character when the attack by said motion is applied A program characterized by executing processing .
請求項1〜のいずれかにおいて、
前記キャプチャ処理部が、
第2のキャラクタのモーションのうち、第1のキャラクタに既に割り当てられているモーション、キャプチャ対象から除く処理を実行することを特徴とするプログラム。
In any one of Claims 1-8 ,
The capture processing unit
Of Motion of the second character, the motion already assigned to the first character, the program and executes a process of excluding from the captured object.
画像生成処理を行うプログラムであって、A program for performing image generation processing,
キャラクタのモーション処理を行うモーション処理部と、A motion processing unit that performs character motion processing;
モーション処理により動作するキャラクタの画像を含むゲーム画像を生成する画像生成部と、An image generation unit that generates a game image including an image of a character that operates by motion processing;
所与の条件が成立した場合に、第2のキャラクタのモーションをキャプチャし、第1のキャラクタのモーションとして割り当てるキャプチャ処理部として、コンピュータを機能させ、When a given condition is satisfied, the computer functions as a capture processing unit that captures the motion of the second character and assigns it as the motion of the first character,
前記キャプチャ処理部が、The capture processing unit
第2のキャラクタ用に用意されたモーションデータを第1のキャラクタ用のモーションデータとして使用許可にすることで、第2のキャラクタのモーションを第1のキャラクタのモーションとして割り当てる処理を実行し、  Executing the process of assigning the motion of the second character as the motion of the first character by permitting the use of the motion data prepared for the second character as the motion data of the first character;
前記モーション処理部が、The motion processing unit
第1のキャラクタと第2のキャラクタとが同一のゲーム空間に存在する期間内において第2のキャラクタのモーションが第1のキャラクタのモーションとしてキャプチャされた後に、当該期間内に操作部から第1のキャラクタに対する所与の動作指示コマンドが入力された場合に、当該期間内に第1のキャラクタにキャプチャされたモーションを行わせる処理を実行することを特徴するプログラム。After the motion of the second character is captured as the motion of the first character within the period in which the first character and the second character exist in the same game space, the first character is moved from the operation unit within the period. A program that, when a given motion instruction command for a character is input, executes a process for causing the first character to perform a captured motion within the period.
画像生成処理を行うプログラムであって、A program for performing image generation processing,
キャラクタのモーション処理を行うモーション処理部と、A motion processing unit that performs character motion processing;
モーション処理により動作するキャラクタの画像を含むゲーム画像を生成する画像生成部と、An image generation unit that generates a game image including an image of a character that operates by motion processing;
所与の条件が成立した場合に、第2のキャラクタのモーションをキャプチャし、第1のキャラクタのモーションとして割り当てるキャプチャ処理部として、コンピュータを機能させ、When a given condition is satisfied, the computer functions as a capture processing unit that captures the motion of the second character and assigns it as the motion of the first character,
前記モーション処理部が、The motion processing unit
第1のキャラクタと第2のキャラクタとが同一のゲーム空間に存在する期間内において第2のキャラクタのモーションが第1のキャラクタのモーションとしてキャプチャされた後に、当該期間内に操作部から第1のキャラクタに対する所与の動作指示コマンドが入力された場合に、当該期間内に、キャプチャされた第2のキャラクタのモーションを第1のキャラクタに行わせるための第1のキャラクタ用のモーションデータに基づいて、第1のキャラクタにモーションを行わせる処理を実行することを特徴とするプログラム。After the motion of the second character is captured as the motion of the first character within the period in which the first character and the second character exist in the same game space, the first character is moved from the operation unit within the period. Based on the motion data for the first character for causing the first character to perform the motion of the second character captured within the period when a given motion instruction command for the character is input. A program for executing a process for causing the first character to perform a motion.
画像生成処理を行うプログラムであって、A program for performing image generation processing,
キャラクタのモーション処理を行うモーション処理部と、A motion processing unit that performs character motion processing;
モーション処理により動作するキャラクタの画像を含むゲーム画像を生成する画像生成部と、An image generation unit that generates a game image including an image of a character that operates by motion processing;
所与の条件が成立した場合に、第2のキャラクタのモーションをキャプチャし、第1のキャラクタのモーションとして割り当てるキャプチャ処理部として、コンピュータを機能させ、When a given condition is satisfied, the computer functions as a capture processing unit that captures the motion of the second character and assigns it as the motion of the first character,
前記キャプチャ処理部が、The capture processing unit
第2のキャラクタにモーションを行わせている期間に操作部から第1のキャラクタに対する所与の動作指示コマンドが入力された場合に、第2のキャラクタのモーションを、第1のキャラクタのモーションとしてキャプチャする処理を実行し、When a given motion instruction command for the first character is input from the operation unit during a period in which the second character is performing a motion, the second character's motion is captured as the first character's motion. Execute the process to
前記モーション処理部が、The motion processing unit
第1のキャラクタと第2のキャラクタとが同一のゲーム空間に存在する期間内において第2のキャラクタのモーションが第1のキャラクタのモーションとしてキャプチャされた後に、当該期間内に操作部から第1のキャラクタに対する所与の動作指示コマンドが入力された場合に、当該期間内に第1のキャラクタにキャプチャされたモーションを行わせる処理を実行することを特徴とするプログラム。After the motion of the second character is captured as the motion of the first character within the period in which the first character and the second character exist in the same game space, the first character is moved from the operation unit within the period. A program that, when a given motion instruction command for a character is input, executes a process for causing the first character to perform a captured motion within the period.
画像生成処理を行うプログラムであって、A program for performing image generation processing,
キャラクタのモーション処理を行うモーション処理部と、A motion processing unit that performs character motion processing;
モーション処理により動作するキャラクタの画像を含むゲーム画像を生成する画像生成部と、An image generation unit that generates a game image including an image of a character that operates by motion processing;
所与の条件が成立した場合に、第2のキャラクタのモーションをキャプチャし、第1のキャラクタのモーションとして割り当てるキャプチャ処理部と、A capture processing unit that captures the motion of the second character and assigns it as the motion of the first character when a given condition is satisfied;
第2のキャラクタのモーションが第1のキャラクタのモーションとしてキャプチャされたことをプレーヤに知らせる処理を行う処理部として、コンピュータを機能させ、Causing the computer to function as a processing unit that performs processing for notifying the player that the motion of the second character has been captured as the motion of the first character;
前記モーション処理部が、The motion processing unit
第1のキャラクタと第2のキャラクタとが同一のゲーム空間に存在する期間内において第2のキャラクタのモーションが第1のキャラクタのモーションとしてキャプチャされた後に、当該期間内に操作部から第1のキャラクタに対する所与の動作指示コマンドが入力された場合に、当該期間内に第1のキャラクタにキャプチャされたモーションを行わせる処理を実行することを特徴とするプログラム。After the motion of the second character is captured as the motion of the first character within the period in which the first character and the second character exist in the same game space, the first character is moved from the operation unit within the period. A program that, when a given motion instruction command for a character is input, executes a process for causing the first character to perform a captured motion within the period.
画像生成処理を行うプログラムであって、A program for performing image generation processing,
キャラクタのモーション処理を行うモーション処理部と、A motion processing unit that performs character motion processing;
モーション処理により動作するキャラクタの画像を含むゲーム画像を生成する画像生成部と、An image generation unit that generates a game image including an image of a character that operates by motion processing;
所与の条件が成立した場合に、第2のキャラクタのモーションをキャプチャし、第1のキャラクタのモーションとして割り当てるキャプチャ処理部と、A capture processing unit that captures the motion of the second character and assigns it as the motion of the first character when a given condition is satisfied;
第1のキャラクタにキャプチャされたモーションを行わせる場合と、第2のキャラクタに該モーションを行わせる場合とで、モーションデータ以外のパラメータの値を異ならせる処理を行うパラメータ処理部として、コンピュータを機能させ、The computer functions as a parameter processing unit that performs processing for different values of parameters other than motion data when the first character performs captured motion and when the second character performs the motion. Let
前記モーション処理部が、The motion processing unit
第1のキャラクタと第2のキャラクタとが同一のゲーム空間に存在する期間内において第2のキャラクタのモーションが第1のキャラクタのモーションとしてキャプチャされた後に、当該期間内に操作部から第1のキャラクタに対する所与の動作指示コマンドが入力された場合に、当該期間内に第1のキャラクタにキャプチャされたモーションを行わせる処理を実行することを特徴とするプログラム。After the motion of the second character is captured as the motion of the first character within the period in which the first character and the second character exist in the same game space, the first character is moved from the operation unit within the period. A program that, when a given motion instruction command for a character is input, executes a process for causing the first character to perform a captured motion within the period.
画像生成処理を行うプログラムであって、A program for performing image generation processing,
キャラクタのモーション処理を行うモーション処理部と、A motion processing unit that performs character motion processing;
モーション処理により動作するキャラクタの画像を含むゲーム画像を生成する画像生成部と、An image generation unit that generates a game image including an image of a character that operates by motion processing;
所与の条件が成立した場合に、第2のキャラクタのモーションをキャプチャし、第1のキャラクタのモーションとして割り当てるキャプチャ処理部として、コンピュータを機能させ、When a given condition is satisfied, the computer functions as a capture processing unit that captures the motion of the second character and assigns it as the motion of the first character,
前記モーション処理部が、The motion processing unit
第1のキャラクタと第2のキャラクタとが同一のゲーム空間に存在する期間内において第2のキャラクタのモーションが第1のキャラクタのモーションとしてキャプチャされた後に、当該期間内に操作部から第1のキャラクタに対する所与の動作指示コマンドが入力された場合に、当該期間内に第1のキャラクタにキャプチャされたモーションを行わせる処理を実行し、After the motion of the second character is captured as the motion of the first character within the period in which the first character and the second character exist in the same game space, the first character is moved from the operation unit within the period. When a given motion instruction command for a character is input, a process for causing the first character to perform a captured motion within the period is executed.
第1のキャラクタにキャプチャされたモーションを行わせる場合と、第2のキャラクタに該モーションを行わせる場合とで、該モーションによる攻撃が加えられた時の他方のキャラクタの反応モーションを異ならせる処理を実行することを特徴とするプログラム。A process of making the reaction motion of the other character different when the attack by the motion is applied, when the first character performs the captured motion and when the second character performs the motion A program characterized by being executed.
画像生成処理を行うプログラムであって、A program for performing image generation processing,
キャラクタのモーション処理を行うモーション処理部と、A motion processing unit that performs character motion processing;
モーション処理により動作するキャラクタの画像を含むゲーム画像を生成する画像生成部と、An image generation unit that generates a game image including an image of a character that operates by motion processing;
所与の条件が成立した場合に、第2のキャラクタのモーションをキャプチャし、第1のキャラクタのモーションとして割り当てるキャプチャ処理部として、コンピュータを機能させ、When a given condition is satisfied, the computer functions as a capture processing unit that captures the motion of the second character and assigns it as the motion of the first character,
前記モーション処理部が、The motion processing unit
第1のキャラクタと第2のキャラクタとが同一のゲーム空間に存在する期間内において第2のキャラクタのモーションが第1のキャラクタのモーションとしてキャプチャされた後に、当該期間内に操作部から第1のキャラクタに対する所与の動作指示コマンドが入力された場合に、当該期間内に第1のキャラクタにキャプチャされたモーションを行わせる処理を実行し、After the motion of the second character is captured as the motion of the first character within the period in which the first character and the second character exist in the same game space, the first character is moved from the operation unit within the period. When a given motion instruction command for a character is input, a process for causing the first character to perform a captured motion within the period is executed.
前記キャプチャ処理部が、The capture processing unit
第2のキャラクタのモーションのうち、第1のキャラクタに既に割り当てられているモーションを、キャプチャ対象から除く処理を実行することを特徴とするプログラム。A program for executing a process of excluding a motion already assigned to the first character from the capture targets among the motions of the second character.
コンピュータにより読み取り可能な情報記憶媒体であって、請求項1〜16のいずれかのプログラムを含むことを特徴とする情報記憶媒体。An information storage medium readable by a computer, the information storage medium characterized by comprising any of the programs of claims 1-16.
JP2001161191A 2001-05-29 2001-05-29 Image generation system, program, and information storage medium Expired - Lifetime JP4785163B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001161191A JP4785163B2 (en) 2001-05-29 2001-05-29 Image generation system, program, and information storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001161191A JP4785163B2 (en) 2001-05-29 2001-05-29 Image generation system, program, and information storage medium

Publications (2)

Publication Number Publication Date
JP2002346208A JP2002346208A (en) 2002-12-03
JP4785163B2 true JP4785163B2 (en) 2011-10-05

Family

ID=19004506

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001161191A Expired - Lifetime JP4785163B2 (en) 2001-05-29 2001-05-29 Image generation system, program, and information storage medium

Country Status (1)

Country Link
JP (1) JP4785163B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5037712B2 (en) * 2004-06-29 2012-10-03 株式会社バンダイナムコゲームス Computer, program, and information storage medium
JP6321925B2 (en) * 2013-06-25 2018-05-09 株式会社ソフイア Game machine
CN110227264B (en) * 2019-06-06 2023-07-11 腾讯科技(成都)有限公司 Virtual object control method, device, readable storage medium and computer equipment

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100517856B1 (en) * 1996-06-05 2005-09-30 가부시키가이샤 세가 Image processor for games
JP3825201B2 (en) * 1998-07-15 2006-09-27 株式会社スクウェア・エニックス GAME DEVICE, COMBAT PROCESSING METHOD, AND COMPUTER-READABLE RECORDING MEDIUM CONTAINING THE PROGRAM

Also Published As

Publication number Publication date
JP2002346208A (en) 2002-12-03

Similar Documents

Publication Publication Date Title
JP3990252B2 (en) GAME SYSTEM, PROGRAM, AND INFORMATION STORAGE MEDIUM
JP4187182B2 (en) Image generation system, program, and information storage medium
JP4610747B2 (en) Image generation system, program, and information storage medium
JP4775989B2 (en) Image generation system, program, and information storage medium
JP3145064B2 (en) Video game machine and medium recording video game program
JP3747050B1 (en) Program, information storage medium, and image generation system
JP3965111B2 (en) Image generation system, program, and information storage medium
JP2001300143A (en) Game system and information storage medium
JP3350654B2 (en) Image generation system and information storage medium
JP2007105499A (en) Game system, program and information storage medium
JP3990258B2 (en) Image generation system, program, and information storage medium
JP4785163B2 (en) Image generation system, program, and information storage medium
JP4447000B2 (en) Image generation system, program, and information storage medium
JP4721384B2 (en) Image generation system, program, and information storage medium
JP4544555B2 (en) GAME SYSTEM AND INFORMATION STORAGE MEDIUM
JP2002085828A (en) Game system and information storage medium
JP4656622B2 (en) Image generation system, program, and information storage medium
JP4245356B2 (en) GAME SYSTEM AND INFORMATION STORAGE MEDIUM
JP2003051024A (en) Image generation system and information storage medium
JP2005209217A (en) Game system and information storage medium
JP4212015B2 (en) Image generating apparatus and information storage medium
JP2004057797A (en) Game system, program, and information storage medium
JP2011031050A (en) Image generation system, program and information storage medium
JP3420987B2 (en) GAME SYSTEM AND INFORMATION STORAGE MEDIUM
JP4632521B2 (en) GAME SYSTEM AND INFORMATION STORAGE MEDIUM

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080331

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100915

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101112

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110126

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110328

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110706

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110711

R150 Certificate of patent or registration of utility model

Ref document number: 4785163

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140722

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140722

Year of fee payment: 3

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

EXPY Cancellation because of completion of term