JP2004208894A - Game device, game control program and recording medium recording the program - Google Patents

Game device, game control program and recording medium recording the program Download PDF

Info

Publication number
JP2004208894A
JP2004208894A JP2002381080A JP2002381080A JP2004208894A JP 2004208894 A JP2004208894 A JP 2004208894A JP 2002381080 A JP2002381080 A JP 2002381080A JP 2002381080 A JP2002381080 A JP 2002381080A JP 2004208894 A JP2004208894 A JP 2004208894A
Authority
JP
Japan
Prior art keywords
character
game
screen
instruction input
function
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2002381080A
Other languages
Japanese (ja)
Other versions
JP3961419B2 (en
Inventor
Naomiki Yanagisawa
直幹 柳沢
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Namco Ltd
Original Assignee
Namco Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Namco Ltd filed Critical Namco Ltd
Priority to JP2002381080A priority Critical patent/JP3961419B2/en
Publication of JP2004208894A publication Critical patent/JP2004208894A/en
Application granted granted Critical
Publication of JP3961419B2 publication Critical patent/JP3961419B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To propose a game that is played by moving characters displayed on a screen and that adopts a new input method as a method for inputting an operation when directing the characters to perform prescribed actions. <P>SOLUTION: A direction input area is defined on a site of a character (e.g., head, shoulder) and an action control process for the character is stored correspondingly to the direction input area. In a site specification screen 8, the character is displayed and a player is made to specify a site of the character. In a touch screen 9, the action of a player character is controlled to ensure that the hand or the like of the player character corresponding to the other self of the player touches the specified site of the character. When the site that the player character touches is a site defined as a direction input area, in a process performance screen 10, an action control process corresponding thereto is performed and the player character is made to take an action directed. <P>COPYRIGHT: (C)2004,JPO&NCIPI

Description

【0001】
【発明の属する技術分野】
本発明は、画面に表示されるキャラクタの動きを指定して遊ぶゲームのゲーム装置およびゲーム制御プログラムに関する。
【0002】
【従来の技術】
画面に表示されるキャラクタを動かして遊ぶタイプのゲームでは、ゲーム機に接続されている操作入力機器(以下、コントローラと称する)を用いて、キャラクタの向きや移動方向を指定したり、画面に表示される選択メニューからキャラクタがとるべき行動あるいはポーズを選択したりすることで、そのキャラクタの動きを指定する。
【0003】
例えば、ロールプレイングゲームの戦闘シーンでキャラクタに戦闘を行わせる場合、ゲームのプレイヤは、「戦う」、「逃げる」などの選択肢が並べられたコマンド選択メニューの中から「戦う」コマンドを選択し、さらにその後画面に表示される技リストあるいは武器リストの中から使用する技や武器を選択する。選択操作が完了すると、画面に表示されているキャラクタは、選択された技あるいは武器を用いた戦闘行動を行う(特許文献1参照)。
【0004】
この他、キャラクタを動かして遊ぶゲームとしては、画面に表示されるキャラクタを動かして所望のポーズをとらせ、画面ショットを記録するカメラマン体験シミュレーションゲームなども知られている。
【0005】
【特許文献1】
特許第2794230号公報
【0006】
【発明が解決しようとする課題】
本発明は、前述のようなゲームで、画面表示されるキャラクタに所定の行動を指示する場合の新しい操作方法を提案するものであり、その操作方法により行動を指示するゲームのゲーム装置およびゲーム制御プログラムを提供することを目的とする。
【0007】
【課題を解決するための手段】
本発明は、仮想空間に配置されたキャラクタの動きを制御するゲーム装置を提供することを目的とする。このゲーム装置は、以下に説明する記憶手段、部位指定手段および処理実行手段を備えることを特徴とする。
【0008】
記憶手段は、所定の制御処理を、第1のキャラクタの所定の部位上に定義された指示入力領域と対応付けて記憶する手段である。「部位」は、例えば頭、腕などキャラクタの一部分のことであるが、任意の範囲を1つの部位と定義することができる。よって、例えば、肩から指先までを1つの部位として定義してもよいし、手のひらの一部分のみを1つの部位として定義してもよい。
【0009】
指示入力領域は、例えば、第1のキャラクタを、3次元コンピュータグラフィクスにより立体モデルとして作成し、その立体モデルの輪郭を構成する面上に所定の制御用オブジェクトを配置して、その配置された範囲を指示入力領域と定義すればよい。これにより、オブジェクト同士の交差として、接触の有無を判定することができる。
【0010】
「所定の制御処理」とは、ゲームの進行、演出に関わるあらゆる制御処理を指す。具体的には、例えば、第1のキャラクタが所定の動作を行うように制御する処理、映像や音声を出力する処理、仮想空間を画面表示する際の視点を変更する処理などが考えられる。あるいは、ゲームの制御に用いられる制御パラメータの値を設定または更新する処理でもよい。設定または更新の対象となる制御パラメータとしては、ゲームの各場面におけるシナリオを設定するパラメータ、あるいはゲームが進行する過程でプレイヤが獲得するゲームポイントなどが考えられる。
【0011】
記憶手段は、第1のキャラクタの複数の部位上にそれぞれ指示入力領域を定義して、各指示入力領域に互いに異なる制御処理を対応付けて記憶することが好ましい。また、1つの指示入力領域に複数種類の制御処理を対応付けて記憶してもよい。さらには、複数の指示入力領域の組み合わせに対し1つの制御処理を対応付けて記憶してもよい。
【0012】
部位指定手段は、第1のキャラクタを画面に表示するとともに、第1のキャラクタの部位の指定を意味する第1の操作信号の入力を受け付ける手段である。具体的には、例えば、所定の照準範囲が定められた画面に、第1のキャラクタを移動、回転させながら表示し、第1の操作信号を受け付けた時点で照準範囲に入っていた部位を、指定された部位と判断する手段とする。
【0013】
この際、第1のキャラクタの移動や回転は、ゲーム装置が自動的に行ってもよいが、外部から入力される第2の操作信号に基づいて行う方法も考えられる。すなわち、プレイヤが、表示されたキャラクタをコントローラ操作により自由に移動、回転できるようにしてもよい。また、部位指定手段は、第1のキャラクタを画面に表示する際に、指定できる部位が一目でわかるように、指示入力領域として定義された部位のうち指定可能な部位を強調表示する機能を備えていてもよい。
【0014】
このゲーム装置は、以下に説明する接触動作制御手段をさらに備えることが好ましい。接触動作制御手段は、第2のキャラクタの少なくとも一部を画面に表示し、部位指定手段が第1の操作信号の入力を受け付けた場合に、第2のキャラクタが第1のキャラクタの指定された部位に接触するように第2のキャラクタの動きを制御する手段である。ここで、第2のキャラクタは、プレイヤの分身とみなされたキャラクタであることが好ましい。具体的には、例えば、第2のキャラクタの手が第1のキャラクタの肩をたたいたり、頭をなでたりするように、第2のキャラクタの動きが制御される。
【0015】
なお、部位指定手段により、第1の操作信号として2種類以上の信号を受け付けて、接触動作制御手段により、信号の種類に応じて第2のキャラクタに異なる接触動作を行わせてもよい。例えば、同じ部位(例えば頭)が指定された場合であっても、ボタン1が押された場合には頭を叩く動作が行われ、ボタン2が押された場合には頭をなでる動作が行われるようにする。あるいは、信号を発生させる操作入力の手順に応じて、接触動作を異ならせてもよい。例えば、キャラクタをドラッグ(ボタンを押したままキャラクタを移動させる)操作が行われた場合には、なでる動作が行われるようにする。
【0016】
また、記憶手段が、複数の指示入力領域の組み合わせに対し1つの制御処理を対応付けて記憶している場合には、部位指定手段は、第1の操作信号の連続入力により、複数の部位の指定を受け付けてもよい。これにより、例えば、頭、腕、背中というように複数の部位を予め決められた順番で連続して指定した場合に、キャラクタに特別な動作を行わせることができる機能を実現できる。
【0017】
処理実行手段は、部位指定手段が受け付けた第1の操作信号により指定された部位が、指示入力領域として定義された部位である場合に、その指示入力領域と対応付けられて記憶されている制御処理を実行する手段である。指示入力領域として定義された部位か否かは、例えば接触動作制御手段により制御される第2のキャラクタを構成するオブジェクト(例えば手)と、指示入力領域として貼り付けられた制御用オブジェクトとの交差の有無を判定することにより判断する。
【0018】
なお、処理実行手段は、ゲームが進行する過程でプレイヤが獲得した所定のゲームポイントの値に基づいて、制御処理の実行を制限してもよい。例えば、所定のゲームポイントが高い場合には処理を実行するが、低い場合には実行しないようにしてもよい。
【0019】
このように、キャラクタの部位への接触という動作と、キャラクタに対する行動指示とを関連付けることにより、選択メニューによる行動指示とは異なる感覚で、キャラクタに行動を指示することができる。また、接触動作を通じて他の制御処理を実行させてもよい。
【0020】
なお、本発明のゲーム制御プログラムは、コンピュータを上記本発明のゲーム装置として機能させるプログラムである。詳細には、上記記憶手段、部位指定手段および処理実行手段にそれぞれ対応する記憶機能、部位指定機能、処理実行機能をコンピュータに実装するためのプログラムである。上記接触動作制御手段に対応する接触動作制御機能もコンピュータに実装するようなプログラムとすれば、さらに好ましい。このプログラムは、DVD(Digital Versatile Disk)、CD−ROM、メモリ・カードなどのコンピュータ読み取り可能な記録媒体に記録して提供することができる。あるいは、サーバ上で提供し、プレイヤが、必要に応じてネットワークを介してダウンロードできるようにしてもよい。
【0021】
【発明の実施の形態】
以下、本発明の一実施の形態として、本発明に基づく行動指示の操作を取り入れた恋愛シミュレーションゲームの例を示す。
【0022】
一般に、恋愛シミュレーションの分野に分類されるゲームは、プレイヤと、ゲームに登場するキャラクタ(人間の女性のキャラクタであることが多い)との関係を恋愛関係に発展させ、さらにはその関係を維持することをゲームの目標とする。以下に説明するゲームは、そのような一般的な恋愛シミュレーションゲームに、さらに謎解きの要素を加えたものである。具体的には、謎の敵の正体をつかみ、その敵を倒すことをゲームのもう1つの目標とする。
【0023】
図1は、このゲームの概要を説明するための図である。このゲームでは、キャラクタが動き回る仮想空間として、日常世界と非日常世界の2つの世界が設定されている。日常世界は例えば学校、街中などであり、非日常世界は謎の敵と戦う対戦の場である。図1(a)の画面1は、日常世界の一場面が表示された画面の例であり、図1(b)の画面2は、非日常世界の一場面が表示された画面の例である。プレイヤはゲームに登場するキャラクタ3とともに2つの仮想空間を行き来しながらゲームを進行させる。
【0024】
画面に日常世界が表示されている間は、ゲームは、一般的な恋愛シミュレーションゲームと同様に、次のように進行する。プレイヤは、仮想空間を捉えるプレイヤの視点を移動あるいは回転させる操作を行うことによって仮想空間内を擬似的に動き回る。その結果、プレイヤが仮想空間内に配置されているキャラクタに遭遇すれば、そのキャラクタとプレイヤの間で何らかのコミュニケーションが図られる。図1(a)に示すように、キャラクタ3がプレイヤに対して発する言葉あるいはプレイヤに対してとる態度は、文字表示4あるいは音声として出力される。一方、プレイヤがキャラクタ3に対して発する言葉あるいはキャラクタ3に対してとる態度は、同図に示すように、表示された選択メニュー5の中からプレイヤが選択する。
【0025】
キャラクタ3とプレイヤとの人間関係は、プレイヤが選択メニュー5の中からいずれの応答を選択するかによって変化する。詳細には、キャラクタ3がプレイヤに対して抱く好感度が、ゲーム装置(あるいは制御プログラム)の中でポイント値(数値)として管理されている。
【0026】
ポイント値は、プレイヤが選択した応答によって増減する。すなわち、選択メニュー5で挙げられた各応答には、それぞれプラス、ゼロあるいはマイナスの点数がついており、選択した応答に応じた点数が、ポイント値に加算されたり、ポイント値から引かれたりする。ゲーム装置(あるいは制御プログラム)は、通常、個々の場面について恋愛関係の進行具合に応じた複数の物語のシナリオおよびエンディングを記憶しており、ポイント値に基づいて、その中のどのシナリオ、エンディングを選択するかを決定する。これにより、キャラクタへの応答のしかたによってキャラクタとの人間関係が変化することとなる。
【0027】
画面は、日常世界において所定のイベントが発生した場合あるいはプレイヤが所定の行動を選択した場合などに、非日常世界の画面に切り換わる。非日常世界が画面に表示されている間は、図1(b)に示すように、ロールプレイングゲームの戦闘場面に類似した場面が展開される。すなわち、日常世界でプレイヤが人間関係を築き上げてきたキャラクタ3のほかに、プレイヤの分身に相当するキャラクタ6と敵のキャラクタ7が現れる。プレイヤは、キャラクタ3がとるべき行動、使用する武器、発動すべき技などを指定することによって、キャラクタ3に敵のキャラクタ7を攻撃させる。
【0028】
なお、日常世界でかかわりを持ったキャラクタが複数いる場合には、プレイヤは、ゲームの場が日常世界から非日常世界へと切り替わるタイミングで、戦闘に参加させるキャラクタを選択することができる。また、戦闘に参加させるキャラクタは必ずしも1人でなくてもよく、図1(b)は例示にすぎない。
【0029】
画面2では、従来のゲームと同様、選択メニューによりキャラクタの行動を指定することができる。但し、このゲームでは、選択メニューにより指定できる行動の種類は限定されている。キャラクタがとり得る行動のうち、必殺技の発動など一部の行動は、従来と異なる特別な操作を行って指示しなければならない。本発明は、この特別な操作による行動指示に関する発明である。
【0030】
具体的には、必殺技の発動などは、プレイヤの分身であるキャラクタ6がキャラクタ3の所定の部位に接触することをもって指示される。この「接触」という動作は、ゲームの物語上は、例えばキャラクタ6がキャラクタ3に必殺技を使うのに十分なエネルギーあるいは動機付けを与えることを意味する。例えば背中や肩を軽く叩いたり、頭をなでたりすることで相手を元気づけ、必殺技の発動を促すということである。
【0031】
接触することにより必殺技を発動させることができる部位は、キャラクタごとに予め定義されている。以下、この定義された部位を「指示入力領域」と称する。1キャラクタ上に定義される指示入力領域は、1つには限定されない。本実施の形態では、1キャラクタについて、3つの指示入力領域が定義されている。
【0032】
図2は、行動を指示する過程で表示される画面の遷移を表すフローチャートである。部位指定画面8は、プレイヤにキャラクタ3の部位を指定させる画面である。接触画面9は、キャラクタ6がキャラクタ3の指定された部位に接触する場面を動画として表示する画面である。また、処理実行画面10は、キャラクタ3に指示された必殺技を発動させる画面である。
【0033】
部位指定画面8では、図3に示すように、固定ポーズをとったキャラクタ3が画面に表示される。なお、説明を容易にするため、図ではキャラクタ3の表現を簡素化しているが、実際には、表情もあり、衣服も着用しており、武器などの持ち物を所持した状態のキャラクタを表示することが好ましい。
【0034】
プレイヤは、表示されるキャラクタ3を見ながら所定の操作を行うことにより、キャラクタ3の部位を指定することができる。但し、キャラクタの向きによっては、所望の部位を指定できない場合もある。例えばキャラクタが正面を向いて表示されている場合、背中を指定することはできない。このため、部位の指定は、指定しようとする部位が画面上に現れるような向きでキャラクタが表示され、かつその部位が画面内の所定位置にある照準と重なったタイミングで、コントローラの所定ボタンを押すことにより行う。
【0035】
照準の位置は、図3に示すように、画面中央部の点線で示された範囲11とする。照準の位置は、ゲームルールの1つとしてプレイヤに認知されているため、画面には範囲11は表示されない。
【0036】
一方、図4に示すように、視認できるマーク12を照準の位置に表示する画面仕様も考えられる。
【0037】
また、2次元のマーク12を表示することで画面の美観が損なわれるおそれがある場合には、図5に示すように、焦点が絞られた細い光が画面中央に照射される場合を想定したグラフィック処理を行ってもよい。キャラクタ3が画面の中央を横切るように移動すると光がキャラクタ3の体にあたり、照準位置は光のポインタ13として示される。このような画面は、例えば、キャラクタ3が配置されている仮想空間内に、光の線を形作る円柱のオブジェクトを配置し、移動、回転するキャラクタの輪郭面と円柱オブジェクトとの交差面を随時判定して、その交差面に色をつけることにより構成することができる。
【0038】
キャラクタ3の回転あるいは移動は、ゲーム装置あるいは制御プログラムにより自動的に行われる。よって、プレイヤは、自動的に移動・回転するキャラクタ3の動きを観察しながら、所望の部位が画面上に現れ、かつ範囲11(あるいは照準マーク12や照射光13)と重なったタイミングを見計らってコントローラのボタンを押せばよい。あるいは、プレイヤがコントローラ操作により、画面内のキャラクタを回転あるいは移動させるようにしてもよい。その場合には、プレイヤはキャラクタの所望の部位が範囲11などと重なるように、キャラクタを回転、移動させ、コントローラのボタンを押す。
【0039】
なお、上述のように照準の位置を固定してキャラクタを移動、回転させる代わりに、キャラクタの位置および向きを固定して、照準マーク12や照射光13を移動させてもよい。但しこの場合には、指示入力領域として定義された部位が、すべて画面上に現れるようにする必要がある。例えば、キャラクタの腹と背中が指定領域として定義されている場合には、腹と背中の両方が見えるような向きでキャラクタを表示しなければならない。
【0040】
次に、接触画面について、図6を参照して説明する。接触画面9では、部位指定画面8でプレイヤが指定したキャラクタ3の部位に、プレイヤの分身を表すキャラクタ6が接触する場面が動画として表示される。キャラクタ6やキャラクタ3の動きは、部位指定画面8でプレイヤから入力された操作信号に基づいて、ゲーム装置あるいはゲーム制御プログラムが自動的に制御する。
【0041】
本実施の形態では、最初の時点ではキャラクタ3のみが表示されており、次に図6(a)に示すように画面の端からキャラクタ6の手14が現れる。この手14がキャラクタ3に近づくにつれて、図6(b)に示すようにキャラクタ6の体全体が現れ、最後に、手14がキャラクタ3の指定された部位に接触する。
【0042】
なお、キャラクタ6の表示は、接触の動作パターンにより異なる。例えば、「蹴る」動作であれば足から表示され、「体当たりする」動作であれば、はじめからキャラクタ6の体全体が表示される。すなわち、表示される動画は、「接触」という動作が行われたことを効果的に表現できるようなものであれば、どのような内容であってもよい。
【0043】
このような動画の表示により、プレイヤは、実際に自分の手でキャラクタ3に触れたような気分を味わうことができ、無味乾燥な選択メニューでキャラクタに指示を与える場合に比べて、スキンシップをとりながらキャラクタに話しかけているような暖かな気分を感じることができる。
【0044】
次に、処理実行画面10では、キャラクタ3がプレイヤから指定された必殺技を発動する場面が表示される。本実施の形態では、図7に例示するようにキャラクタ3の動画イメージが拡大表示されるが、図1(b)のように戦場全体が表示されていてもよいことはいうまでもない。
【0045】
以上に説明したように、このゲームでは、プレイヤが部位指定画面8でキャラクタの部位を指定すると、接触画面9でプレイヤの分身であるキャラクタ6の手(あるいは他の部位)が指定した部位に接触し、接触した部位が指示入力領域である場合には、処理実行画面10でキャラクタ3がその指示入力領域に対応付けられた必殺技を発動する。以下、指示入力領域と必殺技の対応付け、および上記画面を制御するためのゲーム装置あるいはゲーム制御プログラムの処理の詳細について説明する。
【0046】
はじめに、指示入力領域の定義方法について説明する。図8は、キャラクタの部位上に指示入力領域を定義する例を示す図である。
【0047】
指示入力領域の大きさ、形状、位置は、任意に定義することができる。例えば、図8に示す例は、頭、左腕、右足を指示入力領域として定義した例である。より広い範囲(例えば上半身)を1つの指示入力領域として定義してもよく、また反対に、狭い範囲(例えば手の指1本ずつ)を1つの指示入力領域として定義することもできる。
【0048】
本実施の形態のゲームでは、キャラクタは、3次元コンピュータグラフィクス技術を用いて構成された立体モデルとして制作され、立体モデルの動きは動作制御用データに基づいて制御される。
【0049】
キャラクタの立体モデルは、例えば、多角形ポリゴンあるいはそれらを変形して得られる自由曲面によりキャラクタの輪郭を構成し、さらにその輪郭を構成する各面に色、模様をつけて、表情、服装などキャラクタの個性を形作る。また、動作制御用データは、シミュレーションあるいはモーションキャプチャなどにより動きを表すデータを取得し、これを利用する。
【0050】
本実施の形態では、指示入力領域の定義は、上記のようなキャラクタモデルの制作過程で、キャラクタの個性を形作るためのオブジェクトとは別に、図8に示すように指示入力領域として機能する制御用のオブジェクト17をモデルの構成要素として別途追加することにより行う。但し、他の方法により指示入力領域を定義してもよいことはいうまでもない。
【0051】
指示入力領域として機能する制御用のオブジェクト17は、キャラクタの部位と同じ形状で、色は無色透明もしくはキャラクタの部位と同じ色(模様)にする。つまり、このオブジェクトの存在によりキャラクタの外観が変化することがない色などを選択する。
【0052】
なお、制御用のオブジェクトの形状は必ずしもキャラクタの輪郭面と完全に一致させる必要はなく、オブジェクト同士の交差により接触を判定できる形状、配置であればよい。
【0053】
また、キャラクタが所持する武器、防具などもキャラクタの部位の1つとして扱うこととし、そのような所持品上に指示入力領域を定義してもよい。
【0054】
この制御用オブジェクト17には、そのオブジェクトが指示入力領域として指定された際に実行される単位処理プログラムが1つまたは複数個、対応付けられて記憶されている。
【0055】
図9は、この指示入力領域とプログラムの対応付けの例を示した表である。例示するキャラクタAは、頭、背中、左腕の3箇所が指示入力領域として定義されたキャラクタである。制御用のオブジェクトは、少なくともこの3箇所に貼り付けられており、頭に貼り付けられたオブジェクトには、映像Aを表示する単位プログラム、技Xを発動する単位プログラム、前述した好感度ポイントの値を2増加させる単位プログラムの3つのプログラムが対応付けられて記憶されている。映像Aは、例えば、キャラクタが頭をなでられて喜ぶ様子や、プレイヤの分身のキャラクタに抱き上げられて少しはにかむ様子などを表す映像を動画形式のデータとして記憶しておく。同様に、背中、左腕の制御用オブジェクトについても、各種単位プログラムを予め対応付けて記憶しておく。
【0056】
これにより、例えば、プレイヤが部位指定画面でキャラクタAの頭を指定すると、接触画面でプレイヤの分身キャラクタの手がキャラクタAの頭に触れる映像が表示され、その後、映像A(例えば、頭をなでられて喜ぶキャラクタの映像)が表示され、キャラクタAが技Xを発動することにより敵にダメージが与えられ(敵のキャラクタの状態パラメータが更新される)、さらにキャラクタAの好感度ポイントが2増加する。
【0057】
指示入力領域に対応付けて記憶する処理としては、この他、戦闘場面のカメラアングルを変更する処理なども考えられる。また、戦闘場面において実行する処理以外にも、前述の好感度ポイントの増減処理のように、ゲームの進行に影響するパラメータの値を書換える処理を行って、戦闘場面の終了後に何らかの効果が生じるようにしてもよい。
【0058】
ここで、本実施の形態では、例えばキャラクタAの頭が指示入力領域として定義されていても、部位指定画面においてプレイヤがキャラクタAの頭を指定したときに技Xが発動されないケースがある。これは、本実施の形態のゲーム装置あるいはゲーム制御プログラムが、プレイヤが獲得した好感度ポイントに基づいて指示入力領域の機能に制限を加えているためである。
【0059】
図10に例示する表は、複数のキャラクタA〜Fについて、それぞれ指示入力領域として定義された部位と、その指示入力領域が機能するようになる順番を示したものである。×印は指示入力領域として定義されていない部位である。数字(1)(2)(3)は、指示入力領域として定義されている部位であり、括弧内の数字が大きいほど、その指示入力領域を有効に機能させるために必要な好感度ポイントは高くなる。例えば好感度ポイント10で、(1)の部位が有効な指示入力領域となり、好感度ポイント50で(2)の部位が有効になり、好感度ポイント100で(3)の部位が有効になる。
【0060】
例えば、プレイヤとキャラクタAの親密度が低い状態では、プレイヤはキャラクタAの左腕を指定することによってキャラクタAに「逃げる」という行動を指示することはできるが、頭を指定して必殺技Xを発動させることはできない。キャラクタAの頭に配置された制御用オブジェクトの機能は、プレイヤが所定の好感度ポイントを獲得するまでの間、利用を制限される。
【0061】
好感度ポイント50以上で指定できる背中に対応付けられた必殺技Yと、好感度ポイント100以上で指定できる頭に対応付けられた必殺技Xとを比較した場合、技の威力は必殺技Xのほうが大きくなるように技を設計することが好ましい。物語の構図を、キャラクタとの親密度が増すほど(高い好感度ポイントを取得するほど)、威力のある高度な技の発動できるという構図にするためである。
【0062】
なお、好感度ポイントが上昇した場合のみならず、例えばプレイ時間の長さに応じて、あるいはゲームの物語の中で所定のイベントが発生したタイミングで、上記制限を解除し、指定できる指示入力領域の数を増加させてもよい。具体的には、例えば所定時間以上継続してプレイした場合に、指定できる指示入力領域の数が増加するようにする。
【0063】
また、上記のような所定の条件が満たされた場合に、各指示入力領域に対応付けられた処理を入れ替えたり、変更したりしてもよい。具体的には、例えば物語の中で、キャラクタが新たな武器を入手した場合に、その武器を使用した必殺技を発動する処理を、新たに、いずれかの指示入力領域に対応付ける。この仕様は、例えば、指示入力領域と処理との対応付けを予め複数記憶しておき、条件発生とともに参照する対応付けを切り換えることにより実現できる。
【0064】
上記機能の制限を設ける場合には、どの指示入力領域が有効で、どの指示入力領域が無効かを、部位指定画面において明示的に表示することが好ましい。例えば図11に示すように、指定できる指示入力領域のみを光らせる画面仕様が考えられる。この画面は、例えば指定できる指示入力領域に配置されている制御用オブジェクトの色属性を無色透明から蛍光色に変更することにより実現できる。
【0065】
図12は、上記処理の一例を示すフローチャートである。ゲーム装置あるいはゲーム制御プログラムは、まずステップS101において、そのキャラクタについてプレイヤが獲得済みの好感度ポイントのデータをメモリから読み出す。前述のように、好感度ポイントの値に応じて有効に指定できる部位を異ならせるためである。
【0066】
次に、ステップS102において、キャラクタモデルを移動あるいは回転させながら表示する。この際、ステップS101で読み出した好感度ポイントの値に基づいて、図11に例示したように有効な指示入力領域のみ光らせて表示する。さらには、好感度ポイントの値が高い場合には、キャラクタモデルをゆっくり移動、回転させて部位指定を容易にし、反対に好感度ポイントの値が低い場合にはキャラクタモデルを高速に移動、回転させて、部位指定をやりにくくしてもよい。
【0067】
ゲーム装置あるいはゲーム制御プログラムは、ステップS103においてボタン操作を検出するまで、ステップS102のキャラクタモデルの表示を続ける。ステップS103においてボタン操作、すなわち部位の指定を意味する操作信号の入力を受け付けた場合には、次に、ステップS104において画面上にプレイヤの分身キャラクタ6の手を表示し、さらに手および体全体の動きを制御して、手がキャラクタモデルの指定された部位に触れるようにする。
【0068】
次に、ステップS105において、接触が有効か否かを判定する。この判定は、プレイヤの分身キャラクタ6の手のオブジェクトモデルと、指示入力領域として機能する制御用オブジェクトとの交差の有無に基づいて、接触された部位が指示入力領域か否かを判定する。さらに、指示入力領域であった場合には、ステップS101で読み出した好感度ポイントに基づき、プレイヤがその指示入力領域を指定できるか否かを判定する。指定できる領域であれば、その接触は有効と判定される。接触した部位が指示入力領域でなかった場合、また指示入力領域ではあるがプレイヤが指定できない領域である場合には、その接触は無効と判定される。
【0069】
接触が有効であれば、次にステップS106において、その指示入力領域(オブジェクト)に対応付けられて記憶されている映像、音声の出力処理を実行する。なお、この映像、音声出力処理は、好感度ポイントが所定値以上の場合にのみ行うようにしてもよい。次に、ステップS107において、キャラクタの行動を制御して技を発動させる。その後、ステップS108において、好感度ポイントに所定の値を加算する。
【0070】
さらには、ステップS109において、その後のシナリオやエンディングを決定する分岐制御パラメータの値を設定する。分岐制御パラメータは、プレイヤがキャラクタに対して出した指示と、その後の物語の進行が関連付けられるように設定する。例えば、プレイヤが指示した必殺技の発動により一発で敵を倒すことができた場合には、キャラクタとプレイヤの親密度が増した場合のシナリオが選択されるようにパラメータの値を設定する。
【0071】
一方、ステップS105において、接触が無効と判定された場合には、ステップS110において好感度ポイントが、所定値分減少するか、またはそのままの値となる。例えば、指定した部位は指示入力領域であるが有効でない場合には好感度ポイントの増減は行わず、指示入力領域として定義された領域以外の部位を指定した場合には、好感度ポイントを減少させるようにする。
【0072】
次に、ステップS111において、ステップS109と同様に、分岐制御パラメータの値を設定する。ステップS111の処理が行われるのは、プレイヤが不適切な部位指定を行った場合であるので、一般にはキャラクタとプレイヤの分身キャラクタが仲違いするようなシナリオが選択される値を設定するのがよい。
【0073】
なお、図12のフローチャートでは、接触が有効か否かをステップS105で判定しているが、ステップS103でボタン操作を受け付ける際に、有効な指示入力領域に対応する部位の指定のみを受け付け、他の部位については指定しようとしてもボタン操作を行えない状態としてもよい(反応を返さないかもしくはエラー表示する)。この場合、ステップS104の次にステップS106〜S109に相当する処理を実行する。他の部位が指定された場合にはボタン操作を受け付けないので、ステップS110〜S111に相当する処理は実行されない。
【0074】
また、キャラクタモデルの輪郭面上に指示入力領域を定義する際に、指示入力領域とは別に、他の領域を定義しておいてもよい。すなわち、指示入力領域以外の領域を、一律に扱うのではなく、細かく区別して扱う。例えば、好感度ポイントを大幅に減らす処理や、キャラクタの「触らないで!」という怒りの声を音声出力する処理が対応付けられた危険領域を別途定義しておく。この場合、ステップS105の判定で、上記判定処理に加え、指定された部位に危険領域が定義されているか否かの判定も行う。
【0075】
ここで、本実施の形態のゲームでは、好感度ポイントは日常世界と非日常世界の両方で蓄積され、参照される。図13は、好感度ポイントが蓄積される条件と、その効果を表す図である。日常世界においてゲームが進行している間は、プレイヤは、メニューからキャラクタが好む応答や態度を選択することによって、好感度ポイントを増加させることができる。一方、非日常世界においてゲームが進行している間は、プレイヤは適切な部位に分身キャラクタを接触させてキャラクタに効果的な必殺技を発動させ、好感度ポイントを増加させることができる。
【0076】
日常世界でゲームが進行している間は、好感度ポイントが高いほど、キャラクタとの親密度が高くなる。一方、非日常世界でゲームが進行している間は、好感度ポイントが高いほど、接触可能な部位数、すなわち有効な指示入力領域の数が増える。これはすなわち、戦闘力が高まることに他ならない。
【0077】
図に示すように、本実施の形態のゲームでは、プレイヤが一方の世界で蓄積した好感度ポイントは、他方の世界においても有効なポイントとなる。ゲームの物語の構図としては、日常世界におけるキャラクタとの人間関係が非日常世界における戦闘場面でのチームワークに影響し、戦闘場面においてプレイヤがとった指揮あるいはプレイヤが行った決断が日常世界におけるキャラクタとの人間関係に影響するという構図になる。
【0078】
また、上記ゲームの仕様では、図9に示したように、技の発動、映像表示などの処理が、指示入力領域ごとに割り当てられていたが、実行する処理を、指示入力領域のみならず接触パターンに応じて代えてもよい。
【0079】
例えば、図9に例示した表のような対応付けでは、左腕が指定された場合には一律に映像Bが表示されるが、図14の表に示すように、「接触」が「なでる」行為であれば、あとずさりしながら逃げる映像を表示し、「つっつく」行為であれば、こそこそ逃げる映像を表示し、「たたく」であれば大急ぎで逃げる映像を表示するというように、接触パターンによって表示する映像を異ならせてもよい。
【0080】
なお、複数種類の接触を受け入れる方法としては、概して2つの方法が考えられる。1つは、複数のボタンを備えたコントローラを入力機器として用いて、ボタンごとに、異なる接触方法を割り当てる方法である。例えば、プレイヤが部位指定画面においてコントローラの○ボタンを押して部位を指定した場合には、「なでる」、□ボタンを押して部位を指定した場合には「つっつく」、△ボタンを押した場合には「たたく」、×ボタンを押して部位を指定した場合には「ひっぱる」を意味するものと解釈して、次に行うべき処理(表示すべき映像)を選択する。
【0081】
もう1つの方法としては、部位指定画面におけるプレイヤの操作入力を受け付ける際に、操作信号の入力の有無のみならず、ボタンを押している時間あるいは押す間隔などの操作手順に関し、より複雑な判定を行う方法が考えられる。
【0082】
具体的には、例えば、図15に示すように、部位指定画面において、プレイヤが部位指定を意味するボタンを押したまま、矢印19に示す方向にキャラクタモデルを移動させたとする。この場合、プレイヤがボタンを押し始めた時点で画面中央に配置されていた第1の部位(右手首)と、プレイヤがボタンを離した時点で画面中央に配置されていた第2の部位(右肘)は異なる部位となる。このような場合に、図の矢印20に示すように第1の部位から第2の部位まで(右手首から右肘まで)が「なでられた」と判定する。また、例えば、部位指定画面において、プレイヤが操作ボタンを連打した場合には、指定された部位が「つっつかれた」と判定する。
【0083】
その他、例えばコントローラのボタンに圧力センサなどが組み込まれており、押す力の強さを判定できる場合には、ボタンを押す強さによって、例えば「軽くたたく」と「なぐる」を区別することも考えられる。
【0084】
また、部位指定画面で、所定の時間内に複数の部位を連続して、例えば腕、背中、頭というように指定した場合に、特に強力な必殺技が発動されるようにしてもよい。このような仕様は、図9の対応付けにおいて、1つのプログラムに対し複数の指示入力領域の組を対応付けて記憶しておくことにより実現できる。
【0085】
この場合、ゲーム装置あるいはゲーム制御プログラムは、部位指定画面8の表示中に、指定部位の確定を意味するボタン操作を受け付けた後も、所定の時間が経過するまでキャラクタ3を表示し続け、さらなるボタン操作を受け付ける。あるいは、指定部位の確定を意味する1回目のボタン操作を受け付けた後、指定された指示入力領域に対応付けられた処理を実行しつつ、一方で画面の隅に部位指定画面8を小さくウィンドウ表示して、追加入力を受け付けるようにしてもよい。部位を連続指定するためには、照準合わせのためのボタン操作と指定部位決定のためのボタン操作とを交互に連続して何回か行う必要があるので、プレイヤに、コントローラの操作テクニックを磨く楽しみを与えることができる。
【0086】
なお、上記機能を取り入れる場合には、連続指定を促すべく、次に指定すべき部位を強調表示してもよい。強調表示の方法としては、前述の図11のように次に指定すべき部位を光らせるといった方法が考えられる。
【0087】
また、上記ゲームでは、接触画面において「接触」のイメージを表す動画表示を行っているが、接触画面を省略した仕様も考えられる。すなわち、図3に例示した部位指定画面において部位指定が行われた後、直ちに図7に例示した処理実行画面が表示され、その部位に対応付けられた処理が実行される仕様としてもよい。
【0088】
さらに、上記ゲームでは、部位指定のための専用画面でキャラクタのモデルを移動あるいは回転させながら表示しているが、部位指定画面は必ずしも部位指定のための専用画面である必要はない。例えば、図16に例示するように、処理実行画面上で部位の指定を行えるようにしてもよい。すなわち、部位指定のための機能と、処理実行の機能の両方を、同じ画面上で実現してもよい。
【0089】
図16の画面では、プレイヤは、部位指定のための専用画面と同様に、キャラクタ3の動きを観察し、所望の部位が画面に現れ、かつ所定の照準と合ったタイミングを見計らって指定部位の決定を意味するボタン操作を行うことになる。しかし、戦闘場面では、部位指定のための専用画面と異なり、表示されるキャラクタの動きが不規則であるため、所望の部位がタイミングよく画面上に現れない場合もある。すなわち、部位指定の難易度が高くなる分、上級者向けの仕様といえる。
【0090】
この仕様では、プレイヤは、キャラクタが所定の戦闘行動を行っている間に次の戦闘行動を指示することができ、画面が切り換わることがないので、臨場感あふれる戦闘シーンを楽しむことができる。なお、図に示すように、画面内に照準マークとして手14を配置しておけば、前述の接触画面と同様の効果を奏することができる。
【0091】
以下、図17を参照して、上記説明において登場したコントローラを含め、ゲームの実現に必要なハードウェアの構成について説明する。図17は、ゲーム装置21と、そのゲーム装置21に接続された周辺機器を示している。ゲーム装置21は、ケーブル30により表示出力装置27に接続されている。本実施の形態では、表示出力装置27は、ゲーム画面を表示するための表示画面28と、ゲームの音声を出力するためのスピーカ29とを備えた家庭用テレビである。
【0092】
また、ゲーム装置21には、ケーブル45により、プレイヤがゲームを制御するための制御信号を入力する入力機器31、すなわちコントローラが接続されている。図に例示したコントローラは、方向指示ボタン34、SELECTボタン32、STARTボタン33、△ボタン39、○ボタン40、□ボタン41、×ボタン42、L1ボタン43a、L2ボタン43b、R1ボタン44aおよびR2ボタン44bを備えるものである。
【0093】
なお、コントローラとして、ジョイスティックを備えたタイプを使用してもよい。その場合には、後述する方向指示ボタン34の機能は、ジョイスティックに割り当てられる。
【0094】
各ボタンの機能は、ゲーム制御プログラムが各ボタンにどのような機能を割り当てるかによって決まる。上記恋愛シミュレーションゲームでは、各ボタンは次のように機能する。
【0095】
方向指示ボタン34は、キャラクタの移動や視点の移動あるいはメニュー選択時のカーソル制御に使用するボタンである。方向指示ボタン34の上部35が画面の上方向、左部36が画面の左方向、下部37が画面の下方向、右部38が画面の右方向にそれぞれ割り当てられており、各部を押すことによりカーソルやキャラクタを制御することができる。
【0096】
方向指示ボタン34は、日常世界でゲームが進行している間は、プレイヤの視点の移動に用いられる。また、非日常世界の部位指定画面で、キャラクタモデルを移動させる場合に用いられる。その他、各種選択メニューから所定の項目を選択する場合のカーソル移動に、方向指示ボタン34が用いられる。
【0097】
なお、視点やキャラクタモデルの回転は、L1ボタン43a、L2ボタン43b、R1ボタン44aおよびR2ボタン44bに割り当ててもよい。
【0098】
△ボタン39、○ボタン40、□ボタン41、×ボタン42は、前述のように、部位指定の際に用いられる。また、各種メニューから所定の項目を選択する場合にも、○ボタン40を押すことにより選択する項目が確定したことを意味する操作信号をゲーム装置に入力することができる。
【0099】
SELECTボタン32は、例えばゲーム中にデータセーブ画面を呼び出す場合など、画面を切り換える際に用いられる。また、STARTボタン33は、主としてゲームの開始あるいは一時停止の指示に用いられる。
【0100】
ゲーム装置21は、電源ボタン22のほか、DVDやCD−ROMをセットするディスクトレイが収納されたディスクトレイ収納部23、ディスクトレイ収納部23からディスクトレイを搬出させるためのオープンボタン24、ゲームの経過、成績などをセーブするメモリ・カードを差し込むスロット25、各種コントローラを接続するための接続端子(図中の接続端子26aは接続状態を示し、接続端子26bは非接続状態を示す)、画面、音声などの出力装置を接続するための接続端子およびネットワーク接続のための接続端子(いずれも図示せず)を備えている。
【0101】
図18は、ゲーム装置21の内部構造を表すブロック図である。ゲーム装置21は、内部的には、CPU47、ROM48、RAM49、VRAM50、音声合成部52、入出力制御部53、入力制御部56および通信制御部57が、システムバス46に接続され、システムバス46を介して信号をやりとりできるように構成されている。
【0102】
ゲーム装置21の電源が入ると、まずROM48に記憶されている初期化データによって内部回路などが初期化され、DVD54に記憶されているゲーム制御プログラムや、メモリ・カード55に記憶されているセーブデータなどが入出力制御部53を介してRAM49に読み込まれる。一方、プレイヤが入力機器31から入力する制御信号は、入力制御部56を介してCPU47に提供される。
【0103】
CPU47は、RAM49に記憶されたプログラムおよびデータを、入力制御部56から提供される制御信号に基づいて順次処理する。CPU47による処理の結果出力される画像は、一画面ごとに一旦VRAM50に蓄えられ、画像制御部51を介してテレビの表示画面などの画像表示部28に送られる。同様にプログラムの実行により出力される音声は音声合成部52を介してテレビのスピーカなどの音声出力部29に送られる。
【0104】
また、ネットワーク上に接続された複数のプレイヤによってゲームを進行させる場合には、通信制御部57を介してネットワーク58に接続されている他のゲーム装置との間のデータ交換が行われる。
【0105】
ゲーム制御プログラムは、DVD、CD−ROM、メモリ・カードなどのメディアに記録されて提供される。ゲーム制御プログラムは、入力出力制御部53を介してゲーム装置21内に読み込まれ、CPU47により実行される。あるいは、ネットワーク上のサーバから通信制御部57を介してゲーム装置21に読み込まれ、実行される場合もある。
【0106】
以上の説明から明らかであるように、このゲームは、キャラクタの部位への接触という行為と、キャラクタに対する行動指示とを関連付けた点に大きな特徴がある。従来のロールプレイングゲームなどでは、戦闘場面における行動指示は迅速かつ手間をかけずに行えることが望ましいと考えられていたため、メニュー選択による行動指示が最適と考えられていた。このため、キャラクタの部位を指定することによって間接的にキャラクタに行動を指示する操作方法は、極めて斬新なものといえる。このような仕様は、前述の恋愛シミュレーションゲームなど、プレイヤとキャラクタとの親密度が物語の進行を左右するゲームに特に適している。
【0107】
また、接触画面において、接触がなされたことを明示的に表示する点もこのゲームの特徴の1つである。これにより、プレイヤは、あたかもスキンシップをとりながらキャラクタに行動を指示しているような気分になり、キャラクタに対して、より強い愛着を持つようになることが期待される。キャラクタへの愛着が強まれば、自然にゲームへの関心も高まることになるため、ゲーム制作者にとって好ましい。特に、上記実施の形態では、コンピュータグラフィクス技術を用いてキャラクタを3次元の立体モデルとして表現しており、指示入力領域もモデルの輪郭面に沿って定義されているため、接触動作を効果的に表現することができる。
【0108】
また、上記実施の形態では、好感度ポイントの高さによって接触できる部位の数が増減し、その結果指定できる行動の種類が増減する。あるいは好感度ポイントが高くなると、新たな映像や音声を楽しめるようになる。すなわち、好感度ポイントが高まるようにゲームを進行させることによって、行動指示の自由度を高め、種々の演出効果を楽しむことができる。
【0109】
なお、上記例は、アドベンチャーゲームの要素を取り入れた恋愛シミュレーションゲームであるが、本発明は、ロールプレイングゲーム、野球などのスポーツシミュレーションゲームその他何らかのキャラクタが登場するあらゆるゲームに適用可能であり、上記説明はゲームの種類を限定するものではない。
【0110】
例えば、プレイヤがサッカーチームの監督となって試合に臨むスポーツシミュレーションゲームで、監督の手が選手の足をマッサージしたり、肩を揉んだりした場合に、その選手が強力なシュートを放つといったゲームが考えられる。あるいは、監督キャラクタへの接触により監督キャラクタを動かして、監督キャラクタの動きによって間接的に選手を動かすゲームも考えられる。例えば、野球では、監督が所定の仕種により選手に指示(サイン)を送ることがある。監督キャラクタの右手が指定された場合に、監督キャラクタが右手を挙げる仕種を行うよう、部位と処理とを対応付けて記憶しておく。さらに、右手を挙げる仕種を、選手に対し送りバントを指示するサインと定義しておく。この場合、プレイヤは、監督の右手を指定して監督に右手を挙げさせ、間接的に選手に対し送りバントを指示することができる。
【0111】
このように、本願発明はキャラクタの動きを制御して遊ぶあらゆるゲームに適用可能である。
【0112】
【発明の効果】
本発明によれば、ゲームのプレイヤは、キャラクタと仮想スキンシップをとりながらキャラクタに指示を与えることができるため、キャラクタへの愛着が強まり、ひいてはゲームへの関心が高まることが期待される。
【図面の簡単な説明】
【図1】本発明の適用例として示す恋愛シミュレーションゲームの概略を説明するための図である。
【図2】行動指示時の画面遷移を示すフローチャートである。
【図3】画面中央を照準と定めた部位指定画面の例を示した図である。
【図4】マーク表示された箇所を照準と定めた部位指定画面の例を示した図である。
【図5】照準を照射される光により表現する部位指定画面の例を示した図である。
【図6】接触画面の一例を示す図である。
【図7】処理実行画面の一例を示す図である。
【図8】キャラクタモデルの部位上に定義される指示入力領域について説明するための図である。
【図9】指示入力領域と処理の対応付けの一例を示す表である。
【図10】キャラクタごとの指示入力領域の定義の一例を示す表である。
【図11】指示入力領域の強調表示の一例を示す図である。
【図12】行動指示処理の概要を示すフローチャートである。
【図13】好感度パラメータが変化する条件および変化の効果について説明するための図である。
【図14】部位指定画面における操作入力方法の他の例を示す図である。
【図15】接触動作の種類ごとに処理を対応付ける例を示す表である。
【図16】部位指定と処理実行が同じ画面で行われる例を示す図である。
【図17】ゲーム装置の外観を示す図である。
【図18】ゲーム装置の内部構造を示す図である。
【符号の説明】
1 ゲーム画面(日常世界)、 2 ゲーム画面(非日常世界)、 3 キャラクタ、 4 キャラクタの言葉の文字表示、 5 応答選択メニュー、 6 プレイヤの分身のキャラクタ、 7 敵キャラクタ、 8 部位指定画面、 9接触画面、 10 処理実行画面、 11 照準範囲、 12 マーク、 13 光のポインタ、 14 プレイヤの分身のキャラクタの手、 16 指示入力領域、 17 制御用オブジェクト、 18 強調表示、 19 キャラクタの移動方向、 20 指定部位、 21 ゲーム装置、 22 電源ボタン、 23 ディスクトレイ収納部、 24 オープンボタン、 25 スロット、 26a,b 接続端子、 27 表示出力装置、 28 表示画面、 29 スピーカ、 30,45 ケーブル、 31 入力機器(コントローラ)、 32〜34,39〜44 ボタン、 46 システムバス、 54 DVDなど、 55 メモリ・カード。
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a game device and a game control program for playing a game by designating the movement of a character displayed on a screen.
[0002]
[Prior art]
In a type of game where a character displayed on the screen is moved and played, an operation input device (hereinafter referred to as a controller) connected to the game machine is used to specify the direction and moving direction of the character or display on the screen. The action of the character is designated by selecting an action or pose to be taken by the character from the selection menu.
[0003]
For example, in the case of causing a character to perform a battle in a battle scene of a role playing game, the game player selects a “fight” command from a command selection menu in which options such as “fight” and “flee” are arranged, After that, the technique or weapon to be used is selected from the technique list or weapon list displayed on the screen. When the selection operation is completed, the character displayed on the screen performs a battle action using the selected technique or weapon (see Patent Document 1).
[0004]
In addition, as a game played by moving a character, a cameraman experience simulation game in which a character displayed on a screen is moved to take a desired pose and a screen shot is recorded is also known.
[0005]
[Patent Document 1]
Japanese Patent No. 2794230
[0006]
[Problems to be solved by the invention]
The present invention proposes a new operation method for instructing a predetermined action to a character displayed on the screen in a game as described above, and a game apparatus and game control for a game instructing an action by the operation method The purpose is to provide a program.
[0007]
[Means for Solving the Problems]
An object of this invention is to provide the game device which controls the motion of the character arrange | positioned in virtual space. This game apparatus includes a storage unit, a part designating unit, and a process execution unit which will be described below.
[0008]
The storage means stores predetermined control processing in association with an instruction input area defined on a predetermined part of the first character. The “part” is a part of the character such as the head or arm, but an arbitrary range can be defined as one part. Therefore, for example, from the shoulder to the fingertip may be defined as one part, or only a part of the palm may be defined as one part.
[0009]
The instruction input area is, for example, a range in which a first character is created as a three-dimensional model by three-dimensional computer graphics, a predetermined control object is arranged on a surface constituting the outline of the three-dimensional model, and the arranged range May be defined as an instruction input area. Thereby, the presence or absence of contact can be determined as the intersection of the objects.
[0010]
“Predetermined control processing” refers to all control processing related to the progress and production of the game. Specifically, for example, a process for controlling the first character to perform a predetermined action, a process for outputting video and audio, and a process for changing the viewpoint when the virtual space is displayed on the screen are conceivable. Alternatively, it may be a process of setting or updating the value of a control parameter used for game control. As the control parameter to be set or updated, a parameter for setting a scenario in each scene of the game, a game point acquired by the player in the course of the game, or the like is considered.
[0011]
Preferably, the storage means defines an instruction input area on each of a plurality of parts of the first character, and stores different control processes in association with each instruction input area. A plurality of types of control processes may be stored in association with one instruction input area. Furthermore, one control process may be stored in association with a combination of a plurality of instruction input areas.
[0012]
The part designating unit is a unit that displays the first character on the screen and receives an input of a first operation signal that means designation of the part of the first character. Specifically, for example, on the screen in which a predetermined aiming range is defined, the first character is displayed while being moved and rotated, and the part that was in the aiming range at the time when the first operation signal was received, It is a means to judge that it is a designated part.
[0013]
At this time, the movement and rotation of the first character may be automatically performed by the game apparatus, but a method of performing the movement based on the second operation signal input from the outside is also conceivable. That is, the player may be able to freely move and rotate the displayed character by operating the controller. Further, the part designating unit has a function of highlighting a specifiable part among parts defined as the instruction input region so that the part that can be designated can be seen at a glance when the first character is displayed on the screen. It may be.
[0014]
This game apparatus preferably further includes a contact operation control means described below. The contact motion control means displays at least a part of the second character on the screen, and the second character is designated as the first character when the part designation means accepts the input of the first operation signal. It is means for controlling the movement of the second character so as to contact the part. Here, it is preferable that the second character is a character that is regarded as a substitute for the player. Specifically, for example, the movement of the second character is controlled such that the hand of the second character strikes the shoulder of the first character or strokes the head.
[0015]
Note that two or more types of signals may be received as the first operation signal by the part designating unit, and the second character may perform different contact operations according to the type of the signal by the contact operation control unit. For example, even when the same part (for example, the head) is specified, an operation of hitting the head is performed when the button 1 is pressed, and an operation of stroking the head is performed when the button 2 is pressed. To be Or you may vary contact operation according to the procedure of the operation input which generates a signal. For example, when an operation of dragging the character (moving the character while pressing the button) is performed, a stroking operation is performed.
[0016]
In addition, when the storage unit stores one control process in association with a combination of a plurality of instruction input areas, the part designating unit can store the plurality of parts by continuously inputting the first operation signal. Specification may be accepted. Thereby, for example, when a plurality of parts such as the head, arms, and back are successively designated in a predetermined order, a function that allows the character to perform a special action can be realized.
[0017]
The process executing means is a control stored in association with the instruction input area when the part specified by the first operation signal received by the part specifying means is a part defined as the instruction input area. It is a means for executing processing. Whether or not it is a part defined as an instruction input area is, for example, an intersection of an object (for example, a hand) constituting the second character controlled by the contact motion control means and a control object pasted as the instruction input area Judgment is made by determining the presence or absence of.
[0018]
The process execution means may limit the execution of the control process based on a predetermined game point value acquired by the player in the course of the game. For example, the process may be executed when a predetermined game point is high, but may not be executed when the game point is low.
[0019]
In this way, by associating the action of touching the part of the character and the action instruction to the character, the action can be instructed to the character with a sense different from the action instruction by the selection menu. Moreover, you may perform another control process through contact operation.
[0020]
The game control program of the present invention is a program that causes a computer to function as the game device of the present invention. Specifically, it is a program for mounting a storage function, a part designation function, and a process execution function respectively corresponding to the storage unit, the part designation unit, and the process execution unit on a computer. It is more preferable that the contact motion control function corresponding to the contact motion control means is a program that is mounted on a computer. This program can be provided by being recorded on a computer-readable recording medium such as a DVD (Digital Versatile Disk), a CD-ROM, or a memory card. Alternatively, it may be provided on a server so that the player can download it via a network as necessary.
[0021]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, as an embodiment of the present invention, an example of a love simulation game incorporating an action instruction operation based on the present invention will be shown.
[0022]
In general, games classified in the field of romance simulation develop a relationship between a player and a character appearing in the game (often a human female character) into a romance relationship, and further maintain the relationship. That is the goal of the game. The game described below is obtained by adding a mystery-solving element to such a general love simulation game. Specifically, the other goal of the game is to grasp the identity of a mysterious enemy and defeat that enemy.
[0023]
FIG. 1 is a diagram for explaining the outline of this game. In this game, two worlds, a daily world and an extraordinary world, are set as virtual spaces around which characters move. The everyday world is, for example, a school, the city, etc., and the extraordinary world is a place for fighting against a mysterious enemy. Screen 1 in FIG. 1A is an example of a screen on which one scene of the everyday world is displayed, and screen 2 in FIG. 1B is an example of a screen on which one scene in the extraordinary world is displayed. . The player advances the game while going back and forth between the two virtual spaces together with the character 3 appearing in the game.
[0024]
While the daily world is displayed on the screen, the game proceeds as follows, like a general love simulation game. The player moves around the virtual space in a pseudo manner by performing an operation of moving or rotating the viewpoint of the player capturing the virtual space. As a result, when the player encounters a character arranged in the virtual space, some kind of communication is achieved between the character and the player. As shown in FIG. 1A, the words that the character 3 utters to the player or the attitude taken by the player is output as a character display 4 or a sound. On the other hand, the words that the player gives to the character 3 or the attitude to the character 3 are selected by the player from the displayed selection menu 5 as shown in FIG.
[0025]
The human relationship between the character 3 and the player changes depending on which response the player selects from the selection menu 5. Specifically, the likability that the character 3 has with respect to the player is managed as a point value (numerical value) in the game device (or control program).
[0026]
The point value increases or decreases depending on the response selected by the player. That is, each response listed in the selection menu 5 has a positive, zero, or negative score, and the score corresponding to the selected response is added to the point value or subtracted from the point value. A game device (or control program) usually stores a plurality of story scenarios and endings according to the progress of a romantic relationship for each scene, and based on the point value, which scenario or ending is selected. Decide whether to select. As a result, the human relationship with the character changes depending on how to respond to the character.
[0027]
The screen is switched to the non-daily world screen when a predetermined event occurs in the daily world or when a player selects a predetermined action. While the extraordinary world is displayed on the screen, a scene similar to the battle scene of the role playing game is developed as shown in FIG. That is, in addition to the character 3 in which the player has established a human relationship in the daily world, a character 6 corresponding to the player's alternation and an enemy character 7 appear. The player causes the character 3 to attack the enemy character 7 by specifying the action that the character 3 should take, the weapon to be used, the technique to be activated, and the like.
[0028]
When there are a plurality of characters that are involved in the daily world, the player can select a character to participate in the battle at the timing when the game site is switched from the daily world to the non-daily world. In addition, the number of characters that participate in the battle is not necessarily one, and FIG. 1B is merely an example.
[0029]
On the screen 2, as in the conventional game, the action of the character can be designated by the selection menu. However, in this game, the types of actions that can be specified by the selection menu are limited. Among the actions that a character can take, some actions such as the execution of a special technique must be instructed by performing a special operation different from the conventional one. The present invention relates to an action instruction by this special operation.
[0030]
Specifically, the activation of the special move is instructed when the character 6 as a player's alternation comes into contact with a predetermined part of the character 3. This action of “contact” means that, for example, in the game story, the character 6 gives the character 3 sufficient energy or motivation to use the special technique. For example, by tapping your back or shoulders or stroking your head, you can cheer your opponents and encourage them to use their special moves.
[0031]
A part where a special technique can be activated by contact is defined in advance for each character. Hereinafter, this defined part is referred to as an “instruction input area”. The instruction input area defined on one character is not limited to one. In this embodiment, three instruction input areas are defined for one character.
[0032]
FIG. 2 is a flowchart showing the transition of the screen displayed in the process of instructing an action. The part designation screen 8 is a screen that allows the player to designate the part of the character 3. The contact screen 9 is a screen that displays a scene in which the character 6 contacts the designated part of the character 3 as a moving image. Further, the process execution screen 10 is a screen for invoking the special technique designated by the character 3.
[0033]
On the part designation screen 8, as shown in FIG. 3, the character 3 in a fixed pose is displayed on the screen. For ease of explanation, the illustration of the character 3 is simplified in the figure, but in reality, a character in a state of having a facial expression, wearing clothes, and carrying possessions such as weapons is displayed. It is preferable.
[0034]
The player can designate a part of the character 3 by performing a predetermined operation while watching the displayed character 3. However, a desired part may not be specified depending on the character orientation. For example, when the character is displayed facing the front, the back cannot be specified. Therefore, the part is designated by pressing the predetermined button of the controller at the timing when the character is displayed in such a direction that the part to be designated appears on the screen and the part overlaps the aim at the predetermined position on the screen. This is done by pressing.
[0035]
As shown in FIG. 3, the aiming position is a range 11 indicated by a dotted line in the center of the screen. Since the aiming position is recognized by the player as one of the game rules, the range 11 is not displayed on the screen.
[0036]
On the other hand, as shown in FIG. 4, a screen specification for displaying the visually recognizable mark 12 at the aiming position is also conceivable.
[0037]
In addition, when there is a possibility that the aesthetic appearance of the screen may be impaired by displaying the two-dimensional mark 12, as shown in FIG. 5, it is assumed that a thin focused light is irradiated to the center of the screen. Graphic processing may be performed. When the character 3 moves across the center of the screen, the light hits the body of the character 3 and the aiming position is indicated as a light pointer 13. Such a screen, for example, arranges a cylindrical object that forms a line of light in the virtual space where the character 3 is arranged, and determines the intersecting plane between the moving and rotating character's contour surface and the cylindrical object as needed. And it can comprise by coloring the intersection surface.
[0038]
The rotation or movement of the character 3 is automatically performed by a game device or a control program. Therefore, the player observes the movement of the character 3 that automatically moves / rotates, and watches the timing when the desired part appears on the screen and overlaps the range 11 (or the aiming mark 12 or the irradiation light 13). Just press the controller button. Alternatively, the player may rotate or move the character in the screen by operating the controller. In that case, the player rotates and moves the character so that a desired part of the character overlaps the range 11 and the like, and presses a button on the controller.
[0039]
Instead of moving and rotating the character with the aim position fixed as described above, the aim mark 12 and the irradiation light 13 may be moved with the character position and orientation fixed. However, in this case, it is necessary that all the parts defined as the instruction input area appear on the screen. For example, when the character's belly and back are defined as the designated area, the character must be displayed in such an orientation that both the belly and back can be seen.
[0040]
Next, the contact screen will be described with reference to FIG. On the contact screen 9, a scene in which the character 6 representing the player's alternation contacts the part of the character 3 designated by the player on the part designation screen 8 is displayed as a moving image. The movement of the character 6 or the character 3 is automatically controlled by the game device or the game control program based on the operation signal input from the player on the part designation screen 8.
[0041]
In the present embodiment, only the character 3 is displayed at the first time point, and then the hand 14 of the character 6 appears from the end of the screen as shown in FIG. As the hand 14 approaches the character 3, the entire body of the character 6 appears as shown in FIG. 6B, and finally the hand 14 contacts the designated part of the character 3.
[0042]
The display of the character 6 varies depending on the contact action pattern. For example, if it is a “kicking” action, it is displayed from the foot, and if it is a “hit” action, the entire body of the character 6 is displayed from the beginning. That is, the displayed moving image may have any content as long as it can effectively express that the operation “contact” has been performed.
[0043]
By displaying such a moving image, the player can actually feel as if he / she has touched the character 3 with his / her hand. You can feel the warmth of talking to the character.
[0044]
Next, on the process execution screen 10, a scene in which the character 3 activates the special move designated by the player is displayed. In the present embodiment, the moving image of the character 3 is enlarged and displayed as illustrated in FIG. 7, but it goes without saying that the entire battlefield may be displayed as shown in FIG.
[0045]
As described above, in this game, when the player designates the character part on the part designation screen 8, the hand (or other part) of the character 6 who is a part of the player contacts the part designated on the contact screen 9. When the contacted part is the instruction input area, the character 3 activates the special move associated with the instruction input area on the process execution screen 10. Hereinafter, the details of the processing of the game device or the game control program for controlling the input of the instruction input area and the special move and the above-described screen will be described.
[0046]
First, a method for defining an instruction input area will be described. FIG. 8 is a diagram illustrating an example in which an instruction input area is defined on a character part.
[0047]
The size, shape, and position of the instruction input area can be arbitrarily defined. For example, the example shown in FIG. 8 is an example in which the head, left arm, and right foot are defined as the instruction input area. A wider range (for example, the upper body) may be defined as one instruction input area, and conversely, a narrow area (for example, one finger of each hand) may be defined as one instruction input area.
[0048]
In the game according to the present embodiment, the character is produced as a three-dimensional model configured using three-dimensional computer graphics technology, and the movement of the three-dimensional model is controlled based on the motion control data.
[0049]
The character's 3D model is composed of, for example, a polygonal polygon or a free-form surface obtained by deforming them, and the character's outline is colored, a pattern, and a facial expression, clothes, etc. Shape the personality of In addition, as data for motion control, data representing motion is obtained by simulation or motion capture and used.
[0050]
In this embodiment, the definition of the instruction input area is a control function that functions as an instruction input area as shown in FIG. 8 separately from the object for forming the character personality in the character model production process as described above. This is done by separately adding the object 17 as a component of the model. However, it goes without saying that the instruction input area may be defined by other methods.
[0051]
The control object 17 that functions as the instruction input area has the same shape as the character part and the color is colorless and transparent or the same color (pattern) as the character part. That is, a color or the like that does not change the appearance of the character due to the presence of this object is selected.
[0052]
Note that the shape of the control object does not necessarily need to be completely coincident with the contour surface of the character, and may be any shape and arrangement that can determine contact by the intersection of the objects.
[0053]
Further, weapons, armor, and the like possessed by the character may be handled as one of the character parts, and an instruction input area may be defined on such possessed goods.
[0054]
The control object 17 stores one or more unit processing programs that are executed when the object is designated as an instruction input area in association with each other.
[0055]
FIG. 9 is a table showing an example of correspondence between the instruction input area and the program. The character A shown as an example is a character in which the head, back, and left arm are defined as instruction input areas. The control object is pasted at least in these three places. The object pasted on the head includes a unit program for displaying the video A, a unit program for invoking the technique X, and the value of the likability point described above. Are stored in association with each other. The video A stores, for example, video data representing a state where a character is pleased with a stroke of his head, a state where a character is hugged by a player's alternation character, and slightly bitter. Similarly, various unit programs are stored in advance in association with the back and left arm control objects.
[0056]
Thus, for example, when the player designates the head of the character A on the part designation screen, an image in which the hand of the player's alternate character touches the head of the character A is displayed on the contact screen. The video of the character who is pleased to play) is displayed, and the character A activates the technique X to damage the enemy (the enemy character's state parameter is updated). To increase.
[0057]
In addition to this, a process of changing the camera angle of the battle scene is also conceivable as a process of storing the information in association with the instruction input area. In addition to the process executed in the battle scene, a process for rewriting the parameter value that affects the progress of the game, such as the above-described increase / decrease process of the likability point, is performed, and some effect is produced after the battle scene ends. You may do it.
[0058]
Here, in the present embodiment, for example, even if the head of the character A is defined as the instruction input area, the technique X may not be activated when the player designates the head of the character A on the part designation screen. This is because the game device or the game control program according to the present embodiment limits the function of the instruction input area based on the favorable points acquired by the player.
[0059]
The table illustrated in FIG. 10 shows the portions defined as the instruction input areas for the plurality of characters A to F and the order in which the instruction input areas become functional. A cross mark is a part that is not defined as an instruction input area. Numbers (1), (2), and (3) are parts defined as instruction input areas. The larger the number in parentheses, the higher the sensibility points necessary to make the instruction input area function effectively. Become. For example, the part (1) becomes an effective instruction input area at the favorable point 10, the part (2) becomes effective at the positive point 50, and the part (3) becomes effective at the positive point 100.
[0060]
For example, in a state where the familiarity between the player and the character A is low, the player can instruct the character A to “run away” by designating the left arm of the character A, but the head is designated and the special technique X is designated. It cannot be activated. The use of the function of the control object arranged at the head of the character A is restricted until the player acquires a predetermined favorable point.
[0061]
When the Special Move Y associated with the back that can be specified with the Favor Points 50 or higher is compared with the Special Move X associated with the head that can be specified with the Positive Points 100 or higher, the power of the technique is that of the Special Move X. It is preferable to design the technique so that it becomes larger. This is because the composition of the story is such that as the intimacy with the character increases (the higher the likability points are acquired), powerful advanced techniques can be activated.
[0062]
An instruction input area that can be specified by releasing the restriction not only when the likability point has risen but also, for example, according to the length of play time or when a predetermined event occurs in the game story May be increased. Specifically, for example, when the game is played continuously for a predetermined time or more, the number of instruction input areas that can be specified is increased.
[0063]
Further, when the predetermined condition as described above is satisfied, the process associated with each instruction input area may be replaced or changed. Specifically, for example, when a character obtains a new weapon in a story, a process for invoking a special technique using the weapon is newly associated with one of the instruction input areas. This specification can be realized, for example, by storing a plurality of associations between instruction input areas and processes in advance and switching the associations to be referred to when conditions are generated.
[0064]
When the above function restriction is provided, it is preferable to explicitly display which instruction input area is valid and which instruction input area is invalid on the part designation screen. For example, as shown in FIG. 11, a screen specification in which only an instruction input area that can be specified can be considered is considered. This screen can be realized, for example, by changing the color attribute of the control object arranged in the instruction input area that can be designated from colorless and transparent to fluorescent color.
[0065]
FIG. 12 is a flowchart showing an example of the above process. First, in step S101, the game device or the game control program reads from the memory data of favorable points that the player has acquired for the character. As described above, this is because different parts can be effectively designated according to the value of the likability point.
[0066]
Next, in step S102, the character model is displayed while being moved or rotated. At this time, based on the value of the favorable point read in step S101, only the effective instruction input area is illuminated and displayed as illustrated in FIG. In addition, when the value of the likability point is high, the character model is moved and rotated slowly to facilitate the site specification. Conversely, when the value of the likability point is low, the character model is moved and rotated at high speed. Thus, it may be difficult to specify the part.
[0067]
The game device or the game control program continues displaying the character model in step S102 until a button operation is detected in step S103. If a button operation, i.e., an input of an operation signal indicating the designation of a part is accepted in step S103, then the player's character 6 hand is displayed on the screen in step S104, and the hand and the entire body are displayed. The movement is controlled so that the hand touches the designated part of the character model.
[0068]
Next, in step S105, it is determined whether or not the contact is valid. This determination is based on the presence or absence of an intersection between the object model of the player's character 6 hand and the control object functioning as the instruction input area, and determines whether or not the contacted part is the instruction input area. Furthermore, if it is an instruction input area, it is determined whether or not the player can specify the instruction input area based on the favorable point read in step S101. If the area can be designated, the contact is determined to be valid. If the contacted part is not the instruction input area, or if the part is the instruction input area but cannot be designated by the player, the contact is determined to be invalid.
[0069]
If the contact is valid, in step S106, an output process of video and audio stored in association with the instruction input area (object) is executed. The video and audio output processing may be performed only when the likability point is a predetermined value or more. Next, in step S107, the action of the character is controlled to activate the technique. Thereafter, in step S108, a predetermined value is added to the likability point.
[0070]
Further, in step S109, a branch control parameter value for determining a subsequent scenario or ending is set. The branching control parameter is set so that the instruction given by the player to the character is associated with the progress of the subsequent story. For example, when an enemy can be defeated with one shot by activating a special technique instructed by the player, the parameter value is set so that a scenario when the closeness between the character and the player increases is selected.
[0071]
On the other hand, if it is determined in step S105 that the contact is invalid, the likability point is decreased by a predetermined value or remains as it is in step S110. For example, if the specified part is an instruction input area but is not valid, the likability point is not increased or decreased. If a part other than the area defined as the instruction input area is specified, the likability point is decreased. Like that.
[0072]
Next, in step S111, the value of the branch control parameter is set as in step S109. Since the process in step S111 is performed when the player has specified an inappropriate part, it is generally preferable to set a value for selecting a scenario in which the character and the player's alternation character are in conflict. .
[0073]
In the flowchart of FIG. 12, whether or not the contact is valid is determined in step S105. However, when the button operation is accepted in step S103, only designation of the part corresponding to the valid instruction input area is accepted. Even if it is going to specify about the site | part, it is good also as a state which cannot perform button operation (it does not return a response or displays an error). In this case, processing corresponding to steps S106 to S109 is executed after step S104. When another part is designated, the button operation is not accepted, so the processing corresponding to steps S110 to S111 is not executed.
[0074]
Further, when the instruction input area is defined on the contour surface of the character model, another area may be defined separately from the instruction input area. That is, areas other than the instruction input area are not handled uniformly, but are distinguished and handled in detail. For example, a dangerous area associated with a process of greatly reducing the likability point and a process of outputting a voice of an angry voice “Do not touch!” Of the character is defined separately. In this case, in the determination in step S105, in addition to the above determination process, it is also determined whether or not a dangerous area is defined in the designated part.
[0075]
Here, in the game of the present embodiment, likability points are accumulated and referenced in both the everyday world and the extraordinary world. FIG. 13 is a diagram illustrating conditions for accumulating likability points and their effects. While the game is progressing in the daily world, the player can increase the likability point by selecting a response or attitude preferred by the character from the menu. On the other hand, while the game is progressing in the extraordinary world, the player can bring the character into contact with an appropriate part to activate an effective killing technique on the character and increase the likability point.
[0076]
While the game is progressing in the everyday world, the higher the likability point, the higher the familiarity with the character. On the other hand, while the game is progressing in the extraordinary world, the higher the likability point, the greater the number of accessible parts, that is, the number of effective instruction input areas. This is nothing but an increase in combat power.
[0077]
As shown in the figure, in the game according to the present embodiment, the favorable points accumulated by the player in one world are effective in the other world. As for the composition of the story of the game, the human relationship with the character in the everyday world affects teamwork in the battle scene in the extraordinary world, and the command taken by the player or the decision made by the player in the battle scene is the character in the everyday world It has a composition that affects the human relationship.
[0078]
Further, in the above game specifications, as shown in FIG. 9, processing such as technique activation and video display is assigned to each instruction input area. However, the process to be executed is not limited to the instruction input area. You may change according to a pattern.
[0079]
For example, in the association shown in the table illustrated in FIG. 9, when the left arm is designated, the video B is uniformly displayed. However, as shown in the table of FIG. If so, display the image of running away, and if it is a “sticking” action, display the image of escaping, and if “tap”, display the image of escaping in a hurry. The video may be different.
[0080]
In general, two methods are conceivable as methods for accepting a plurality of types of contact. One is a method in which a controller having a plurality of buttons is used as an input device and a different contact method is assigned to each button. For example, if the player specifies a part by pressing the ○ button on the controller on the part specifying screen, “stroking” is specified, “patch” is specified when the part is specified by pressing the □ button, and “ When the “tap” or “X” button is pressed to specify a part, it is interpreted as “pull”, and the next processing (video to be displayed) is selected.
[0081]
As another method, when accepting the player's operation input on the part designation screen, more complicated determination is made regarding not only the presence / absence of the input of the operation signal but also the operation procedure such as the time of pressing the button or the pressing interval. A method is conceivable.
[0082]
Specifically, for example, as shown in FIG. 15, it is assumed that the player moves the character model in the direction indicated by the arrow 19 while pressing the button indicating the part designation on the part designation screen. In this case, the first part (right wrist) arranged at the center of the screen when the player starts to press the button and the second part (right side) arranged at the center of the screen when the player releases the button. Elbow) is a different part. In such a case, it is determined that the stroke from the first part to the second part (from the right wrist to the right elbow) is “stroked” as indicated by an arrow 20 in the figure. Further, for example, when the player repeatedly hits the operation button on the part designation screen, it is determined that the designated part has been “tucked”.
[0083]
In addition, for example, when a pressure sensor or the like is incorporated in the button of the controller and the strength of the pressing force can be determined, it is possible to distinguish, for example, “tap lightly” and “naggle” by the strength of pressing the button. It is done.
[0084]
In addition, when a plurality of parts are designated continuously on a part designation screen within a predetermined time, such as an arm, a back, and a head, a particularly powerful special technique may be activated. Such a specification can be realized by associating and storing a set of a plurality of instruction input areas for one program in the association shown in FIG.
[0085]
In this case, the game device or the game control program continues to display the character 3 until a predetermined time elapses after accepting a button operation meaning the confirmation of the designated part while the part designation screen 8 is being displayed. Accept button operations. Alternatively, after accepting the first button operation, which means confirmation of the designated part, while performing the process associated with the designated instruction input area, the part designation screen 8 is displayed in a small window at the corner of the screen. Then, an additional input may be accepted. In order to specify the parts continuously, it is necessary to perform the button operation for aiming and the button operation for determining the specified part several times in succession. Can give fun.
[0086]
In addition, when incorporating the above function, a part to be designated next may be highlighted to prompt continuous designation. As a highlighting method, a method in which a site to be designated next is illuminated as shown in FIG. 11 can be considered.
[0087]
In the above game, a moving image representing an image of “contact” is displayed on the contact screen, but a specification in which the contact screen is omitted is also conceivable. That is, the specification may be made such that after the part designation is performed on the part designation screen illustrated in FIG. 3, the process execution screen illustrated in FIG. 7 is displayed immediately and the process associated with the part is performed.
[0088]
Furthermore, in the above game, the character model is displayed while being moved or rotated on the dedicated screen for specifying the part, but the part specifying screen does not necessarily have to be a dedicated screen for specifying the part. For example, as illustrated in FIG. 16, the part may be designated on the process execution screen. That is, both the function for specifying the part and the function for executing the process may be realized on the same screen.
[0089]
In the screen of FIG. 16, the player observes the movement of the character 3 in the same manner as the dedicated screen for specifying the part, and the desired part appears on the screen and the timing of the specified part is estimated. A button operation meaning determination is performed. However, in a battle scene, unlike a dedicated screen for specifying a part, the displayed character's movement is irregular, so that a desired part may not appear on the screen in a timely manner. That is, it can be said that it is a specification for advanced users because the difficulty of specifying a part increases.
[0090]
In this specification, the player can instruct the next battle action while the character is performing a predetermined battle action, and the screen is not switched, so that the player can enjoy a realistic battle scene. As shown in the figure, if the hand 14 is arranged as an aiming mark in the screen, the same effect as that of the above-described contact screen can be obtained.
[0091]
Hereinafter, with reference to FIG. 17, the hardware configuration necessary for realizing the game, including the controller that has appeared in the above description, will be described. FIG. 17 shows the game device 21 and peripheral devices connected to the game device 21. The game device 21 is connected to the display output device 27 by a cable 30. In the present embodiment, the display output device 27 is a home television provided with a display screen 28 for displaying a game screen and a speaker 29 for outputting the sound of the game.
[0092]
The game device 21 is connected to an input device 31 that inputs a control signal for the player to control the game, that is, a controller, by a cable 45. The controller illustrated in the figure includes a direction instruction button 34, a SELECT button 32, a START button 33, a Δ button 39, a ○ button 40, a □ button 41, an X button 42, an L1 button 43a, an L2 button 43b, an R1 button 44a and an R2 button. 44b.
[0093]
In addition, you may use the type provided with the joystick as a controller. In this case, the function of the direction instruction button 34 described later is assigned to the joystick.
[0094]
The function of each button depends on what function the game control program assigns to each button. In the above romance simulation game, each button functions as follows.
[0095]
The direction instruction button 34 is a button used for cursor control at the time of character movement, viewpoint movement, or menu selection. The upper portion 35 of the direction instruction button 34 is assigned to the upper direction of the screen, the left portion 36 is assigned to the left direction of the screen, the lower portion 37 is assigned to the lower direction of the screen, and the right portion 38 is assigned to the right direction of the screen. The cursor and character can be controlled.
[0096]
The direction instruction button 34 is used to move the viewpoint of the player while the game is progressing in the daily world. It is also used when moving a character model on a part designation screen in an extraordinary world. In addition, the direction instruction button 34 is used for moving the cursor when a predetermined item is selected from various selection menus.
[0097]
Note that the rotation of the viewpoint or character model may be assigned to the L1 button 43a, the L2 button 43b, the R1 button 44a, and the R2 button 44b.
[0098]
The △ button 39, the ◯ button 40, the □ button 41, and the X button 42 are used for specifying a part as described above. In addition, when a predetermined item is selected from various menus, an operation signal indicating that the item to be selected is confirmed by pressing the ○ button 40 can be input to the game device.
[0099]
The SELECT button 32 is used when switching screens, for example, when calling a data save screen during a game. The START button 33 is mainly used for instructing to start or pause the game.
[0100]
In addition to the power button 22, the game apparatus 21 includes a disk tray storage unit 23 in which a disk tray for setting a DVD or CD-ROM is stored, an open button 24 for unloading the disk tray from the disk tray storage unit 23, a game A slot 25 for inserting a memory card for saving progress, results, and the like, connection terminals for connecting various controllers (the connection terminal 26a in the figure indicates a connection state, and the connection terminal 26b indicates a non-connection state), a screen, A connection terminal for connecting an output device such as audio and a connection terminal for connecting to a network (both not shown) are provided.
[0101]
FIG. 18 is a block diagram showing the internal structure of the game apparatus 21. Internally, the game apparatus 21 includes a CPU 47, a ROM 48, a RAM 49, a VRAM 50, a voice synthesis unit 52, an input / output control unit 53, an input control unit 56, and a communication control unit 57 connected to the system bus 46. It is comprised so that a signal can be exchanged via.
[0102]
When the game apparatus 21 is turned on, the internal circuit and the like are first initialized by the initialization data stored in the ROM 48, and the game control program stored in the DVD 54 and the save data stored in the memory card 55 are stored. Are read into the RAM 49 via the input / output control unit 53. On the other hand, a control signal input from the input device 31 by the player is provided to the CPU 47 via the input control unit 56.
[0103]
The CPU 47 sequentially processes the program and data stored in the RAM 49 based on a control signal provided from the input control unit 56. Images output as a result of processing by the CPU 47 are temporarily stored in the VRAM 50 for each screen, and sent to the image display unit 28 such as a television display screen via the image control unit 51. Similarly, the sound output by the execution of the program is sent to the sound output unit 29 such as a television speaker via the sound synthesizer 52.
[0104]
When a game is advanced by a plurality of players connected on the network, data exchange with other game devices connected to the network 58 is performed via the communication control unit 57.
[0105]
The game control program is provided by being recorded on a medium such as a DVD, a CD-ROM, or a memory card. The game control program is read into the game device 21 via the input / output control unit 53 and executed by the CPU 47. Alternatively, the game apparatus 21 may be read and executed from a server on the network via the communication control unit 57.
[0106]
As is apparent from the above description, this game has a great feature in that the action of contacting the character's part and the action instruction to the character are associated with each other. In conventional role-playing games and the like, it was considered desirable to be able to give action instructions in a battle scene quickly and without much effort, so action instructions by menu selection were considered optimal. For this reason, it can be said that the operation method for instructing the character to indirectly act by specifying the character part is extremely novel. Such a specification is particularly suitable for games such as the above-described love simulation game where the familiarity between the player and the character influences the progress of the story.
[0107]
Another feature of this game is that the contact screen explicitly displays that contact has been made. As a result, the player feels as if he / she is instructing the character to take action while taking skinship, and is expected to have a stronger attachment to the character. If the attachment to a character increases, interest in the game will naturally increase, which is preferable for game creators. In particular, in the above embodiment, the character is represented as a three-dimensional model using computer graphics technology, and the instruction input area is also defined along the contour surface of the model. Can be expressed.
[0108]
Moreover, in the said embodiment, the number of the parts which can be touched increases / decreases according to the height of a favorable point, As a result, the kind of action which can be designated increases / decreases. Or, when the likability points increase, new video and audio can be enjoyed. That is, by allowing the game to progress so as to increase the likability points, it is possible to increase the degree of freedom of action instructions and enjoy various effects.
[0109]
The above example is a love simulation game incorporating elements of an adventure game, but the present invention can be applied to a role playing game, a sports simulation game such as baseball, or any other game in which some character appears. Does not limit the type of game.
[0110]
For example, in a sports simulation game in which a player becomes a soccer team manager and faces a game, when the manager's hand massages a player's foot or rubs his shoulder, the player shoots a powerful shot. Conceivable. Alternatively, a game in which the manager character is moved by contact with the manager character and the player is indirectly moved by the movement of the manager character is also conceivable. For example, in baseball, a manager may send an instruction (sign) to a player according to a predetermined type. When the right hand of the supervisor character is designated, the part and the process are stored in association with each other so that the supervisor character performs the type of raising the right hand. Furthermore, the type that raises the right hand is defined as a sign that instructs the player to send a bunt. In this case, the player can designate the right hand of the manager, cause the manager to raise the right hand, and indirectly instruct the player to send the bunt.
[0111]
Thus, the present invention can be applied to any game that is played by controlling the movement of the character.
[0112]
【The invention's effect】
According to the present invention, the game player can give an instruction to the character while taking virtual skinship with the character, so that the attachment to the character is strengthened and the interest in the game is expected to increase.
[Brief description of the drawings]
FIG. 1 is a diagram for explaining an outline of a love simulation game shown as an application example of the present invention.
FIG. 2 is a flowchart showing screen transition at the time of an action instruction.
FIG. 3 is a diagram showing an example of a part designation screen in which the center of the screen is defined as an aim.
FIG. 4 is a diagram showing an example of a part designation screen in which a marked part is set as an aim.
FIG. 5 is a diagram showing an example of a part designation screen expressed by light irradiated with an aim.
FIG. 6 is a diagram illustrating an example of a contact screen.
FIG. 7 is a diagram illustrating an example of a process execution screen.
FIG. 8 is a diagram for explaining an instruction input area defined on a part of a character model.
FIG. 9 is a table showing an example of correspondence between instruction input areas and processes;
FIG. 10 is a table showing an example of a definition of an instruction input area for each character.
FIG. 11 is a diagram illustrating an example of highlighting of an instruction input area.
FIG. 12 is a flowchart showing an outline of action instruction processing;
FIG. 13 is a diagram for explaining a condition for changing a likability parameter and an effect of the change.
FIG. 14 is a diagram showing another example of the operation input method on the part designation screen.
FIG. 15 is a table showing an example of associating processing for each type of contact operation;
FIG. 16 is a diagram illustrating an example in which part specification and process execution are performed on the same screen.
FIG. 17 is a diagram illustrating an appearance of a game device.
FIG. 18 is a diagram showing an internal structure of the game device.
[Explanation of symbols]
1 game screen (daily life), 2 game screen (unusual world), 3 character, 4 character word display, 5 response selection menu, 6 player character, 7 enemy character, 8 site designation screen, 9 Contact screen, 10 processing execution screen, 11 aiming range, 12 mark, 13 light pointer, 14 player character's hand, 16 instruction input area, 17 control object, 18 highlighting, 19 character moving direction, 20 Designated part, 21 Game device, 22 Power button, 23 Disc tray storage part, 24 Open button, 25 Slot, 26a, b Connection terminal, 27 Display output device, 28 Display screen, 29 Speaker, 30, 45 cable, 31 Input device (Controller), 32 to 34, 39 to 44 buttons, 4 6 System bus, 54 DVD, etc. 55 Memory card.

Claims (43)

仮想空間に配置されたキャラクタの動きを制御するゲーム装置であって、
所定の制御処理を、第1のキャラクタの所定の部位上に定義された指示入力領域と対応付けて記憶する記憶手段と、
前記第1のキャラクタを画面に表示するとともに、該第1のキャラクタの部位の指定を意味する第1の操作信号の入力を受け付ける部位指定手段と、
前記部位指定手段が受け付けた第1の操作信号により指定された部位が、前記指示入力領域として定義された部位である場合に、該指示入力領域と対応付けられて記憶されている制御処理を実行する処理実行手段とを備えたゲーム装置。
A game device for controlling the movement of a character arranged in a virtual space,
Storage means for storing a predetermined control process in association with an instruction input area defined on a predetermined part of the first character;
A part designating means for displaying the first character on the screen and receiving an input of a first operation signal indicating the designation of the part of the first character;
When the part specified by the first operation signal received by the part specifying means is a part defined as the instruction input area, the control process stored in association with the instruction input area is executed. A game device comprising processing execution means for performing.
第2のキャラクタの少なくとも一部を画面に表示し、前記部位指定手段が前記第1の操作信号の入力を受け付けた場合に、前記第2のキャラクタが前記第1のキャラクタの指定された部位に接触するように前記第2のキャラクタの動きを制御する接触動作制御手段をさらに備えたことを特徴とする請求項1記載のゲーム装置。When at least a part of the second character is displayed on the screen and the part designating unit receives the input of the first operation signal, the second character is placed on the part designated by the first character. 2. The game apparatus according to claim 1, further comprising contact motion control means for controlling the movement of the second character so as to come into contact. 前記記憶手段は、第1のキャラクタの複数の部位上にそれぞれ指示入力領域を定義して、各指示入力領域に互いに異なる制御処理を対応付けて記憶することを特徴とする請求項1または2記載のゲーム装置。The storage means defines an instruction input area on each of a plurality of parts of the first character, and stores different control processes in association with each instruction input area. Game device. 前記記憶手段は、1つの指示入力領域に複数種類の制御処理を対応付けて記憶することを特徴とする請求項1から3のいずれかに記載のゲーム装置。The game apparatus according to claim 1, wherein the storage unit stores a plurality of types of control processes in association with one instruction input area. 前記第1のキャラクタは、3次元コンピュータグラフィクスにより作成された立体モデルであり、前記指示入力領域は該立体モデルの輪郭を構成する面上に所定の制御用オブジェクトを配置することにより定義されることを特徴とする請求項1から4のいずれかに記載のゲーム装置。The first character is a three-dimensional model created by three-dimensional computer graphics, and the instruction input area is defined by arranging a predetermined control object on a surface constituting the outline of the three-dimensional model. The game device according to claim 1, wherein: 前記部位指定手段は、所定の照準範囲が定められた画面に、前記第1のキャラクタを移動および/または回転させながら表示し、前記第1の操作信号を受け付けた時点で前記照準範囲に入っていた部位を、指定された部位と判断することを特徴とする請求項1から5のいずれかに記載のゲーム装置。The part designating means displays the first character on a screen in which a predetermined aiming range is determined while moving and / or rotating, and enters the aiming range when the first operation signal is received. The game apparatus according to claim 1, wherein the determined part is determined as a designated part. 前記第1のキャラクタの移動および/または回転を、外部から入力される第2の操作信号に基づいて行うことを特徴とする請求項6記載のゲーム装置。The game apparatus according to claim 6, wherein the movement and / or rotation of the first character is performed based on a second operation signal input from the outside. 前記部位指定手段は、前記第1のキャラクタを画面に表示する際に、指示入力領域として定義された部位のうち指定可能な部位を強調表示することを特徴とする請求項1から7のいずれかに記載のゲーム装置。8. The display device according to claim 1, wherein when the first character is displayed on the screen, the part designating unit highlights a part that can be designated among the parts defined as the instruction input area. The game device described in 1. 前記記憶手段は、複数の指示入力領域の組み合わせに対し1つの制御処理を対応付けて記憶することを特徴とする請求項1から8のいずれかに記載のゲーム装置。The game device according to claim 1, wherein the storage unit stores one control process in association with a combination of a plurality of instruction input areas. 前記部位指定手段は、前記第1の操作信号の連続入力により、複数の部位の指定を受け付けることを特徴とする請求項1から9のいずれかに記載のゲーム装置。The game apparatus according to claim 1, wherein the part designating unit accepts designation of a plurality of parts by continuous input of the first operation signal. 前記部位指定手段は、前記第1の操作信号として2種類以上の信号を受け付け、
前記接触動作制御手段は、前記信号の種類に応じて前記第2のキャラクタに異なる接触動作を行わせることを特徴とする請求項2から10のいずれかに記載のゲーム装置。
The part designating unit accepts two or more types of signals as the first operation signal,
The game apparatus according to claim 2, wherein the contact action control unit causes the second character to perform different contact actions according to the type of the signal.
前記2種類以上の信号は、該信号を発生させる操作ボタンの種類に対応することを特徴とする請求項11記載のゲーム装置。12. The game apparatus according to claim 11, wherein the two or more types of signals correspond to types of operation buttons that generate the signals. 前記2種類以上の信号は、該信号を発生させる操作入力の手順に対応することを特徴とする請求項11記載のゲーム装置。The game apparatus according to claim 11, wherein the two or more types of signals correspond to an operation input procedure for generating the signals. 前記記憶手段が記憶する制御処理の1つは、前記第1のキャラクタが所定の行動をとるように該第1のキャラクタを制御する処理であることを特徴とする請求項1から13のいずれかに記載のゲーム装置。One of the control processes memorize | stored by the said memory | storage means is a process which controls this 1st character so that the said 1st character may take a predetermined action, The one of Claim 1 to 13 characterized by the above-mentioned. The game device described in 1. 前記記憶手段が記憶する制御処理の1つは、ゲームの制御に用いられる所定の制御パラメータの値を設定または更新する処理であることを特徴とする請求項1から14のいずれかに記載のゲーム装置。15. The game according to claim 1, wherein one of the control processes stored in the storage means is a process for setting or updating a value of a predetermined control parameter used for controlling the game. apparatus. 前記制御パラメータは、ゲームの各場面におけるシナリオを設定するパラメータであることを特徴とする請求項15記載のゲーム装置。16. The game apparatus according to claim 15, wherein the control parameter is a parameter for setting a scenario in each scene of the game. 前記制御パラメータは、ゲームが進行する過程でプレイヤが獲得した所定のゲームポイントであることを特徴とする請求項15記載のゲーム装置。16. The game apparatus according to claim 15, wherein the control parameter is a predetermined game point acquired by the player in the course of the game. 前記記憶手段が記憶する制御処理の1つは、所定の映像および/または音声を出力する処理であることを特徴とする請求項1から17のいずれかに記載のゲーム装置。18. The game apparatus according to claim 1, wherein one of the control processes stored in the storage unit is a process of outputting a predetermined video and / or audio. 前記記憶手段が記憶する制御処理の1つは、前記仮想空間を画面表示する際の視点を変更する処理であることを特徴とする請求項1から18のいずれかに記載のゲーム装置。The game apparatus according to claim 1, wherein one of the control processes stored in the storage unit is a process of changing a viewpoint when the virtual space is displayed on a screen. 前記処理実行手段は、ゲームが進行する過程でプレイヤが獲得した所定のゲームポイントの値に基づいて、前記制御処理の実行を制限することを特徴とする請求項1から19のいずれかに記載のゲーム装置。The said process execution means restrict | limits execution of the said control process based on the value of the predetermined | prescribed game point which the player acquired in the process in which a game progresses, The Claim 1 characterized by the above-mentioned. Game device. 前記処理実行手段は、ゲームが進行する過程でプレイヤが獲得した所定のゲームポイントの値に基づいて、前記複数種類の制御処理の中から1以上の処理を選択して実行することを特徴とする請求項4から20のいずれかに記載のゲーム装置。The process execution means selects and executes one or more processes from the plurality of types of control processes based on a predetermined game point value acquired by the player during the course of the game. The game device according to claim 4. 仮想空間に配置されたキャラクタの動きを制御するゲームの制御プログラムであって、
所定の制御処理を、第1のキャラクタの所定の部位上に定義された指示入力領域と対応付けて記憶する対応付け記憶機能と、
前記第1のキャラクタを画面に表示するとともに、該第1のキャラクタの部位の指定を意味する第1の操作信号の入力を受け付ける部位指定機能と、
前記部位指定機能により受け付けた第1の操作信号によって指定された部位が、前記指示入力領域として定義された部位である場合に、該指示入力領域と対応付けられて記憶されている制御処理を実行する処理実行機能とを、コンピュータに実装するゲーム制御プログラム。
A game control program for controlling the movement of characters arranged in a virtual space,
A correspondence storage function for storing a predetermined control process in association with an instruction input area defined on a predetermined part of the first character;
A part designating function for displaying the first character on the screen and receiving an input of a first operation signal indicating designating the part of the first character;
When the part specified by the first operation signal received by the part specifying function is a part defined as the instruction input area, the control process stored in association with the instruction input area is executed. A game control program for implementing a processing execution function on a computer.
第2のキャラクタの少なくとも一部を画面に表示し、前記部位指定機能により前記第1の操作信号の入力を受け付けた場合に、前記第2のキャラクタが前記第1のキャラクタの指定された部位に接触するように前記第2のキャラクタの動きを制御する接触動作制御機能を、さらにコンピュータに実装する請求項22記載のゲーム制御プログラム。When at least a part of the second character is displayed on the screen and the input of the first operation signal is received by the part specifying function, the second character is placed on the part specified by the first character. 23. The game control program according to claim 22, further comprising a computer mounted with a contact motion control function for controlling the movement of the second character so as to make contact. 前記対応付け記憶機能は、第1のキャラクタの複数の部位上にそれぞれ指示入力領域を定義して、各指示入力領域に互いに異なる制御処理を対応付けて記憶する機能であることを特徴とする請求項22または23記載のゲーム制御プログラム。The association storage function is a function of defining instruction input areas on a plurality of parts of the first character and storing different control processes in association with each instruction input area. Item 22. A game control program according to Item 22 or 23. 前記対応付け記憶機能には、1つの指示入力領域に複数種類の制御処理を対応付けて記憶する機能が含まれることを特徴とする請求項21から24のいずれかに記載のゲーム制御プログラム。25. The game control program according to claim 21, wherein the association storage function includes a function of storing a plurality of types of control processes in association with one instruction input area. 前記第1のキャラクタは、3次元コンピュータグラフィクスにより作成された立体モデルであり、前記指示入力領域は該立体モデルの輪郭を構成する面上に所定の制御用オブジェクトを配置することにより定義されることを特徴とする請求項22から25のいずれかに記載のゲーム制御プログラム。The first character is a three-dimensional model created by three-dimensional computer graphics, and the instruction input area is defined by arranging a predetermined control object on a surface constituting the outline of the three-dimensional model. The game control program according to any one of claims 22 to 25. 前記部位指定機能は、所定の照準範囲が定められた画面に、前記第1のキャラクタを移動および/または回転させながら表示し、前記第1の操作信号を受け付けた時点で前記照準範囲に入っていた部位を、指定された部位と判断する機能であることを特徴とする請求項22から26のいずれかに記載のゲーム制御プログラム。The part designating function displays the first character on a screen in which a predetermined aiming range is determined while moving and / or rotating, and is within the aiming range when the first operation signal is received. The game control program according to any one of claims 22 to 26, wherein the game control program has a function of determining a designated part as a designated part. 前記第1のキャラクタの移動および/または回転を、外部から入力される第2の操作信号に基づいて行うことを特徴とする請求項27記載のゲーム制御プログラム。28. The game control program according to claim 27, wherein the movement and / or rotation of the first character is performed based on a second operation signal input from the outside. 前記部位指定機能には、前記第1のキャラクタを画面に表示する際に、指示入力領域として定義された部位のうち指定可能な部位を強調表示する機能が含まれることを特徴とする請求項22から28のいずれかに記載のゲーム制御プログラム。23. The function of specifying a part of the part specified as an instruction input area is highlighted when the first character is displayed on the screen. 30. The game control program according to any one of 28 to 28. 前記対応付け記憶機能には、複数の指示入力領域の組み合わせに対し1つの制御処理を対応付けて記憶する機能が含まれることを特徴とする請求項22から29のいずれかに記載のゲーム制御プログラム。The game control program according to any one of claims 22 to 29, wherein the association storage function includes a function of storing one control process in association with a combination of a plurality of instruction input areas. . 前記部位指定機能には、前記第1の操作信号の連続入力により、複数の部位の指定を受け付ける機能が含まれることを特徴とする請求項22から30のいずれかに記載のゲーム制御プログラム。The game control program according to any one of claims 22 to 30, wherein the part designating function includes a function of accepting designation of a plurality of parts by continuous input of the first operation signal. 前記部位指定機能には、前記第1の操作信号として2種類以上の信号を受け付ける機能が含まれ、
前記接触動作制御手段には、前記信号の種類に応じて前記第2のキャラクタに異なる接触動作を行わせる機能が含まれることを特徴とする請求項23から31のいずれかに記載のゲーム制御プログラム。
The part designating function includes a function of accepting two or more types of signals as the first operation signal,
The game control program according to any one of claims 23 to 31, wherein the contact motion control means includes a function of causing the second character to perform different contact motions according to the type of the signal. .
前記2種類以上の信号は、該信号を発生させる操作ボタンの種類に対応することを特徴とする請求項32記載のゲーム制御プログラム。The game control program according to claim 32, wherein the two or more types of signals correspond to types of operation buttons that generate the signals. 前記2種類以上の信号は、該信号を発生させる操作入力の手順に対応することを特徴とする請求項32記載のゲーム制御プログラム。The game control program according to claim 32, wherein the two or more types of signals correspond to an operation input procedure for generating the signals. 前記対応付け記憶機能により記憶される制御処理の1つは、前記第1のキャラクタが所定の行動をとるように該第1のキャラクタを制御する処理であることを特徴とする請求項22から34のいずれかに記載のゲーム制御プログラム。35. One of the control processes stored by the association storage function is a process of controlling the first character so that the first character takes a predetermined action. The game control program in any one of. 前記対応付け記憶機能により記憶される制御処理の1つは、ゲームの制御に用いられる所定の制御パラメータの値を設定または更新する処理であることを特徴とする請求項22から35のいずれかに記載のゲーム制御プログラム。36. One of the control processes stored by the association storage function is a process for setting or updating a value of a predetermined control parameter used for game control. The game control program described. 前記制御パラメータは、ゲームの各場面におけるシナリオを設定するパラメータであることを特徴とする請求項36記載のゲーム制御プログラム。37. The game control program according to claim 36, wherein the control parameter is a parameter for setting a scenario in each scene of the game. 前記制御パラメータは、ゲームが進行する過程でプレイヤが獲得した所定のゲームポイントであることを特徴とする請求項36記載のゲーム制御プログラム。37. The game control program according to claim 36, wherein the control parameter is a predetermined game point acquired by the player in the course of the game. 前記対応付け記憶機能により記憶される制御処理の1つは、所定の映像および/または音声を出力する処理であることを特徴とする請求項22から38のいずれかに記載のゲーム制御プログラム。39. The game control program according to claim 22, wherein one of the control processes stored by the association storage function is a process of outputting a predetermined video and / or audio. 前記対応付け記憶機能により記憶される制御処理の1つは、前記仮想空間を画面表示する際の視点を変更する処理であることを特徴とする請求項22から39のいずれかに記載のゲーム制御プログラム。40. The game control according to claim 22, wherein one of the control processes stored by the association storage function is a process of changing a viewpoint when the virtual space is displayed on the screen. program. 前記処理実行機能には、ゲームが進行する過程でプレイヤが獲得した所定のゲームポイントの値に基づいて、前記制御処理の実行を制限する機能が含まれることを特徴とする請求項22から40のいずれかに記載のゲーム制御プログラム。41. The function according to claim 22, wherein the process execution function includes a function of restricting execution of the control process based on a predetermined game point value acquired by the player in the course of the game. The game control program according to any one of the above. 前記処理実行機能は、ゲームが進行する過程でプレイヤが獲得した所定のゲームポイントの値に基づいて、前記複数種類の制御処理の中から1以上の処理を選択して実行する機能であることを特徴とする請求項25から41のいずれかに記載のゲーム制御プログラム。The process execution function is a function for selecting and executing one or more processes from the plurality of types of control processes based on a predetermined game point value acquired by the player in the course of the game. The game control program according to any one of claims 25 to 41, wherein 請求項22から42のいずれかに記載のゲーム制御プログラムが記録されたコンピュータ読み取り可能な記録媒体。43. A computer-readable recording medium on which the game control program according to any one of claims 22 to 42 is recorded.
JP2002381080A 2002-12-27 2002-12-27 GAME DEVICE, GAME CONTROL PROGRAM, AND RECORDING MEDIUM CONTAINING THE PROGRAM Expired - Fee Related JP3961419B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002381080A JP3961419B2 (en) 2002-12-27 2002-12-27 GAME DEVICE, GAME CONTROL PROGRAM, AND RECORDING MEDIUM CONTAINING THE PROGRAM

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002381080A JP3961419B2 (en) 2002-12-27 2002-12-27 GAME DEVICE, GAME CONTROL PROGRAM, AND RECORDING MEDIUM CONTAINING THE PROGRAM

Publications (2)

Publication Number Publication Date
JP2004208894A true JP2004208894A (en) 2004-07-29
JP3961419B2 JP3961419B2 (en) 2007-08-22

Family

ID=32817121

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002381080A Expired - Fee Related JP3961419B2 (en) 2002-12-27 2002-12-27 GAME DEVICE, GAME CONTROL PROGRAM, AND RECORDING MEDIUM CONTAINING THE PROGRAM

Country Status (1)

Country Link
JP (1) JP3961419B2 (en)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006304985A (en) * 2005-04-27 2006-11-09 Aruze Corp Game machine
EA009976B1 (en) * 2005-04-27 2008-04-28 Арузе Корп. Gaming machine
JP2009009266A (en) * 2007-06-27 2009-01-15 Nintendo Co Ltd Image processing program and image processing unit
JP2010535364A (en) * 2007-03-01 2010-11-18 ソニー コンピュータ エンタテインメント アメリカ リミテッド ライアビリテイ カンパニー Interactive user-controlled avatar animation
JP2012055644A (en) * 2010-09-13 2012-03-22 Namco Bandai Games Inc Program, information storage medium and game device
JP5793606B1 (en) * 2014-09-29 2015-10-14 グリー株式会社 GAME PROGRAM, GAME CONTROL METHOD, AND COMPUTER
JP5836527B1 (en) * 2015-05-28 2015-12-24 グリー株式会社 GAME PROGRAM, GAME CONTROL METHOD, AND COMPUTER
JP2015231539A (en) * 2013-07-09 2015-12-24 エヌエイチエヌ エンターテインメント コーポレーションNHN Entertainment Corporation Simulation method and system
KR101852918B1 (en) * 2016-10-11 2018-04-27 고광현 Apparatus for providing game and method threrof
US10183220B2 (en) 2015-03-31 2019-01-22 Bandai Namco Entertainment Inc. Image generation device and image generation method

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006304985A (en) * 2005-04-27 2006-11-09 Aruze Corp Game machine
EA009976B1 (en) * 2005-04-27 2008-04-28 Арузе Корп. Gaming machine
US7462798B2 (en) 2005-04-27 2008-12-09 Aruze Corp. Gaming machine
US9728044B2 (en) 2005-04-27 2017-08-08 Universal Entertainment Corporation Controlling method of a gaming machine
JP2010535364A (en) * 2007-03-01 2010-11-18 ソニー コンピュータ エンタテインメント アメリカ リミテッド ライアビリテイ カンパニー Interactive user-controlled avatar animation
JP2014149836A (en) * 2007-03-01 2014-08-21 Sony Computer Entertainment America Llc Interactive user controlled avatar animations
JP2009009266A (en) * 2007-06-27 2009-01-15 Nintendo Co Ltd Image processing program and image processing unit
JP2012055644A (en) * 2010-09-13 2012-03-22 Namco Bandai Games Inc Program, information storage medium and game device
JP2015231539A (en) * 2013-07-09 2015-12-24 エヌエイチエヌ エンターテインメント コーポレーションNHN Entertainment Corporation Simulation method and system
US10445440B2 (en) 2013-07-09 2019-10-15 Nhn Corporation Simulation method and system for real-time broadcasting
US11361128B2 (en) 2013-07-09 2022-06-14 Nhn Entertainment Corporation Simulation method and system for real-time broadcasting
JP5793606B1 (en) * 2014-09-29 2015-10-14 グリー株式会社 GAME PROGRAM, GAME CONTROL METHOD, AND COMPUTER
JP2016067554A (en) * 2014-09-29 2016-05-09 グリー株式会社 Game program, game control method, and computer
US10183220B2 (en) 2015-03-31 2019-01-22 Bandai Namco Entertainment Inc. Image generation device and image generation method
JP5836527B1 (en) * 2015-05-28 2015-12-24 グリー株式会社 GAME PROGRAM, GAME CONTROL METHOD, AND COMPUTER
JP2016067907A (en) * 2015-05-28 2016-05-09 グリー株式会社 Game program, game control method, and computer
KR101852918B1 (en) * 2016-10-11 2018-04-27 고광현 Apparatus for providing game and method threrof

Also Published As

Publication number Publication date
JP3961419B2 (en) 2007-08-22

Similar Documents

Publication Publication Date Title
US9033795B2 (en) Interactive music game
JP3767649B2 (en) GAME DEVICE AND COMPUTER-READABLE RECORDING MEDIUM CONTAINING GAME PROGRAM
JP4883759B2 (en) Program, information storage medium, and image generation system
JP4167710B2 (en) Video game processing apparatus and video game processing program
JP7390400B2 (en) Virtual object control method, device, terminal and computer program thereof
US7084876B1 (en) Method for presenting a virtual reality environment for an interaction
JP2010273987A (en) Program, information storage medium and image forming system
JP3747050B1 (en) Program, information storage medium, and image generation system
JP6744727B2 (en) Program and game device
JP2021112561A (en) System and method for changing state of game object in video game
US20060199626A1 (en) In-game shot aiming indicator
JP3961419B2 (en) GAME DEVICE, GAME CONTROL PROGRAM, AND RECORDING MEDIUM CONTAINING THE PROGRAM
JP2020103798A (en) Game system and program
JP2008113808A (en) Game program, game apparatus and game control method
JP3686071B2 (en) Program, information storage medium, and image generation system
JP2000132705A (en) Image processor, image processing method, game device and recording medium
JP2018029829A (en) Server system and program
JP2005204947A (en) Program, information storage medium and image generation system
Quek et al. The invoker: Intuitive gesture mechanics for motion-based shooter RPG
JP2000107467A (en) Game machine, information recording medium and viewpoint position moving method
JP3827054B2 (en) Image processing apparatus and game apparatus having the same
JP6978540B2 (en) Programs, terminals, and game systems
JP7146052B1 (en) Game system, game program and information processing method
CN113262470B (en) Control processing method and device, processor and electronic device
JP6922111B1 (en) Game system, program and information processing method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20051118

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060919

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20061114

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20061114

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20061130

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20061130

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070306

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070412

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20070515

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20070516

R150 Certificate of patent or registration of utility model

Ref document number: 3961419

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100525

Year of fee payment: 3

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100525

Year of fee payment: 3

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100525

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100525

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110525

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110525

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120525

Year of fee payment: 5

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120525

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130525

Year of fee payment: 6

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130525

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140525

Year of fee payment: 7

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R360 Written notification for declining of transfer of rights

Free format text: JAPANESE INTERMEDIATE CODE: R360

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R370 Written measure of declining of transfer procedure

Free format text: JAPANESE INTERMEDIATE CODE: R370

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees