JP4119850B2 - PROGRAM, INFORMATION STORAGE MEDIUM, AND GAME DEVICE - Google Patents

PROGRAM, INFORMATION STORAGE MEDIUM, AND GAME DEVICE Download PDF

Info

Publication number
JP4119850B2
JP4119850B2 JP2004018527A JP2004018527A JP4119850B2 JP 4119850 B2 JP4119850 B2 JP 4119850B2 JP 2004018527 A JP2004018527 A JP 2004018527A JP 2004018527 A JP2004018527 A JP 2004018527A JP 4119850 B2 JP4119850 B2 JP 4119850B2
Authority
JP
Japan
Prior art keywords
character
game
image
determination
computer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP2004018527A
Other languages
Japanese (ja)
Other versions
JP2005211132A (en
Inventor
信貴 中島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kabushiki Kaisha Bandai Namco Entertainment (also trading as Bandai Namco Entertainment Inc.)
Namco Ltd
Bandai Namco Entertainment Inc
Original Assignee
Kabushiki Kaisha Bandai Namco Entertainment (also trading as Bandai Namco Entertainment Inc.)
Namco Ltd
Namco Bandai Games Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kabushiki Kaisha Bandai Namco Entertainment (also trading as Bandai Namco Entertainment Inc.), Namco Ltd, Namco Bandai Games Inc filed Critical Kabushiki Kaisha Bandai Namco Entertainment (also trading as Bandai Namco Entertainment Inc.)
Priority to JP2004018527A priority Critical patent/JP4119850B2/en
Publication of JP2005211132A publication Critical patent/JP2005211132A/en
Application granted granted Critical
Publication of JP4119850B2 publication Critical patent/JP4119850B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Landscapes

  • Processing Or Creating Images (AREA)

Description

本発明は、コンピュータに、3次元仮想空間内に仮想カメラを複数同時に配置させるとともに、ゲームの進行処理を実行させるためのプログラム等に関する。   The present invention relates to a program for causing a computer to simultaneously arrange a plurality of virtual cameras in a three-dimensional virtual space and to execute a game progress process.

アクションゲームの分野のゲームとして、プレーヤキャラクタ(プレーヤが操作を受け持つキャラクタ)が敵施設に侵入し秘密工作をするといった潜入工作員をモチーフとしたものがある。プレーヤは、プレーヤキャラクタを歩哨等の敵キャラクタに見つからないようにしながら目的の場所に潜入させ、機密情報や機密品の奪取或いは破壊活動をさせてミッションをクリアしながらゲームを進める。途中、プレーヤキャラクタが敵に発見されると、銃撃戦などの戦闘が展開される。速やかに敵を倒さなければ仲間を呼ばれ、包囲され捕われの身と成る。或いは戦闘で負傷してミッションをこなせずゲームオーバとなる。   As a game in the field of action games, there is a game with a motif of an infiltrating operative in which a player character (a character in charge of the player's operation) enters an enemy facility and performs a secret work. The player advances the game while clearing the mission by letting the player character infiltrate the target location while preventing the player character from being found by enemy characters such as sentry, and taking or destroying confidential information and confidential items. On the way, when a player character is discovered by an enemy, a battle such as a gunfight is developed. If you do not defeat the enemy promptly, you will be called a mate and besieged and captured. Alternatively, the game is over without being injured in battle and completing the mission.

こうしたアクションゲームでは、「ある地点からある地点を見たとき、どのように見えるか?」と言った情報の扱いが重要になる。具体的には、敵キャラクタがどのようにプレーヤキャラクタを発見するかに係る処理が重要となる。   In such an action game, it is important to handle information such as “How does it look when you look at a point from a certain point?” Specifically, processing relating to how the enemy character discovers the player character is important.

従来の技術としては、例えば、障害物が配置された仮想的なゲームフィールドを複数の矩形ゾーンに分割し、「あるゾーンからあるゾーンを見たときにどのように見えるか?」を事前に判定しておいて、ゲーム中はこれを参照するものが知られている(例えば、特許文献1参照。)。具体的には、キャラクタがあるゾーンの中央に立った(或いは低姿勢)の目線位置から、他のゾーンの四隅にキャラクタが立ったときの目線位置が、障害物に邪魔されずに見えるか否かを判定し、これを参照可能にテーブルデータとして保存する。そして、ゲーム中はこのテーブルデータを参照することで、敵キャラクタからプレーヤキャラクタが見えるかを判定する処理を行って,判定処理の負荷を軽減している。
特許第3347124号公報
As a conventional technique, for example, a virtual game field in which an obstacle is arranged is divided into a plurality of rectangular zones, and “how it looks when a certain zone is viewed from a certain zone” is determined in advance. In addition, what refers to this during a game is known (for example, refer to Patent Document 1). Specifically, whether the line of sight when the character is standing at the four corners of another zone from the position of the line of sight standing in the center of a zone (or low posture) is not obstructed by obstacles. It is determined and stored as table data so that it can be referred to. Then, by referring to the table data during the game, a process for determining whether the player character can be seen from the enemy character is performed, thereby reducing the load of the determination process.
Japanese Patent No. 3347124

しかしながら、上述のような従来の手法では、「見えるか見えないか」の判定は、ゾーン分割された代表点(目線の位置)における判定値で、実際には様々に異なる状況をごく簡略化して判定することになる。そのため、実際にゲームプレイをすると、例えば、プレーヤキャラクタが障害物からほんの少し覗き見しただけで敵に発見されるケースや、敵に見えていないはずなのに敵に発見されてしまうケースなど、プレーヤが画面から得る感覚と異なる判定がなされる場合があった。   However, in the conventional method as described above, the judgment of “visible or invisible” is a judgment value at the representative point (the position of the line of sight) divided into zones, and actually various situations are greatly simplified. It will be judged. Therefore, when the player actually plays the game, for example, when the player character is found by the enemy just by looking a little from the obstacle, or when the player is not seen by the enemy, the player is found by the enemy. In some cases, a judgment different from the feeling obtained from the screen was made.

本発明は、こうした問題を鑑みてなされたものであり、その目的とするところは、より人間の感覚に近い発見判定を実現することである。   The present invention has been made in view of these problems, and an object of the present invention is to realize discovery determination closer to a human sense.

第1の発明は、コンピュータに、3次元仮想空間内に仮想カメラを複数同時に配置させるとともに、ゲームの進行処理を実行させるためのプログラムであって、前記複数の仮想カメラのうち少なくとも何れか一つを第1仮想カメラとして、第1仮想カメラに基づく第1視界画像(例えば、図2のメイン画像W1)を生成する画像生成手段(例えば、図6のゲーム演算部22、画像生成部24、図10のステップS22)、前記第1仮想カメラ以外の第2仮想カメラ(例えば、図2の仮想カメラC)に基づいて投影変換処理された第2視界画像(例えば、図2のエネミービューW3)に、所定のデータ(例えば、図2のプレーヤキャラクタP)が含まれているか否かに基づいて判定処理を行う判定手段(例えば、図6のゲーム演算部22、発見判定部222、図10のステップS14)として前記コンピュータを機能させ、前記判定手段による判定結果に基づいて前記進行処理をさせるように前記コンピュータを機能させるためのプログラムである。   A first invention is a program for causing a computer to simultaneously arrange a plurality of virtual cameras in a three-dimensional virtual space and to execute a game progress process, and at least one of the plurality of virtual cameras. Is a first virtual camera, and image generation means (for example, the game calculation unit 22, the image generation unit 24 of FIG. 6, FIG. 6) generates a first view image (for example, the main image W1 of FIG. 2) based on the first virtual camera. 10 step S22), the second view image (for example, the enemy view W3 in FIG. 2) that has undergone the projection conversion process based on the second virtual camera (for example, the virtual camera C in FIG. 2) other than the first virtual camera. , A determination means (for example, the game calculation unit 22 in FIG. 6, discovery) that performs a determination process based on whether or not predetermined data (for example, the player character P in FIG. 2) is included Tough 222 causes the computer to function as the step S14) in FIG. 10, a program for causing the computer to function so as to the development processing on the basis of the determination result by the determination unit.

第19の発明は、3次元仮想空間内に仮想カメラを複数同時に配置するとともに、ゲームの進行処理を実行するゲーム装置であって、前記複数の仮想カメラのうち少なくとも何れか一つを第1仮想カメラとして、第1仮想カメラに基づく第1視界画像を生成する画像生成手段(例えば、図1の制御ユニット1211、図6のゲーム演算部22、画像生成部24、図10のステップS22)と、前記第1仮想カメラ以外の第2仮想カメラに基づいて投影変換処理された第2視界画像に、所定のデータが含まれているか否かに基づいて判定処理を行う判定手段(例えば、図1の制御ユニット1211、図6のゲーム演算部22、発見判定部222、図10のステップS14)と、を備え、前記判定手段による判定結果に基づいて前記進行処理することを特徴とするゲーム装置である。   A nineteenth aspect of the present invention is a game apparatus that simultaneously arranges a plurality of virtual cameras in a three-dimensional virtual space and executes a game progress process, wherein at least one of the plurality of virtual cameras is a first virtual As a camera, image generation means for generating a first view image based on the first virtual camera (for example, the control unit 1211 in FIG. 1, the game calculation unit 22 in FIG. 6, the image generation unit 24, and step S22 in FIG. 10); Determining means (for example, in FIG. 1) that performs a determination process based on whether or not predetermined data is included in the second visual field image that has been subjected to the projection conversion process based on the second virtual camera other than the first virtual camera. A control unit 1211, a game calculation unit 22 in FIG. 6, a discovery determination unit 222, and a step S14 in FIG. 10, and the progress process is performed based on the determination result by the determination unit. Doo is a game apparatus according to claim.

第1又は19の発明によれば、3次元仮想空間に複数の仮想カメラを配置し、仮想カメラの内の一つ(第1仮想カメラ)を視点として、主たるゲーム画面のもとになる第1視界画像を生成し、それとは別の第2仮想カメラを発見する側(例えば、敵キャラクタ)の視点として、第2視点画像を生成することができる。第2仮想カメラに基づいて投影変換された第2視界画像は、発見する側の見ている像に相当する。したがって、この第2視界画像に所定のデータが含まれているか否かを判定することで、該所定データのもととなるキャラクタ等が、発見する側の視界に入っているか(写っているか)否かを判定することができる。このように、視界画像に基づいて判定をすることができるので、より人間の感覚に近い判定をすることができる。   According to the first or nineteenth invention, a plurality of virtual cameras are arranged in a three-dimensional virtual space, and one of the virtual cameras (first virtual camera) is used as a viewpoint to generate the first game screen. A second viewpoint image can be generated as a viewpoint of a side (for example, an enemy character) that generates a field-of-view image and discovers a second virtual camera different from that. The second view image projected and converted based on the second virtual camera corresponds to an image viewed by the discovering side. Therefore, by determining whether or not predetermined data is included in the second view image, whether or not the character or the like that is the source of the predetermined data is in the field of view to be discovered (is shown) It can be determined whether or not. As described above, since the determination can be made based on the view field image, it is possible to make a determination closer to a human sense.

第2の発明は、第1の発明のプログラムであって、前記判定手段が、前記第2視界画像に所定のキャラクタに係るデータが含まれている場合、前記第2視界画像に含まれる当該キャラクタの面積に応じて判定処理を行う手段(例えば、図6の発見判定部222、図17のステップS102〜S110)であるように前記コンピュータを機能させることを特徴とする。   2nd invention is the program of 1st invention, Comprising: When the said determination means contains the data which concern on a predetermined character in the said 2nd visual field image, the said character contained in the said 2nd visual field image The computer is caused to function as a means for performing a determination process according to the area (for example, the discovery determination unit 222 in FIG. 6 and steps S102 to S110 in FIG. 17).

第2の発明によれば、第1の発明と同様の効果を奏するとともに、第2視界画像に写ってっているキャラクタの面積を条件として判定をすることができる。したがって、基準となる面積を適当に設定することによって、その基準より小さく写っている場合には気づかない(発見されない)といった実際の感覚に近い発見判定をゲームで実現することができる。   According to the second invention, the same effects as the first invention can be obtained, and determination can be made on the condition of the area of the character shown in the second view image. Therefore, by appropriately setting an area serving as a reference, it is possible to realize a discovery determination close to an actual feeling such as not being noticed (not found) when the image is smaller than the reference.

また、例えば、低レベルの敵キャラクタに適用する基準面積を高く設定し、高レベルの敵キャラクタに適用する基準面積を低く設定するならば、高レベルの敵キャラクタならば、僅かにプレーヤキャラクタが見えても発見することができるが、低レベルの敵キャラクタならば見過ごしてしまうことになる。したがって、基準となる面積を適当に設定することによって、ゲームの難易度を調節することができる。   Also, for example, if the reference area applied to the low-level enemy character is set high and the reference area applied to the high-level enemy character is set low, the player character can be seen slightly if the enemy character is high-level. Can be found, but low-level enemy characters will be overlooked. Therefore, the difficulty level of the game can be adjusted by appropriately setting the reference area.

第3の発明は、第1の発明のプログラムであって、前記判定手段が、前記第2視界画像に予め設定された判定基準点データ(例えば、図4の判定基準点M)が含まれている場合、前記第2視界画像に含まれる当該判定基準点データの数に応じて判定処理を行う手段であるように前記コンピュータを機能させることを特徴とする。   A third invention is the program of the first invention, wherein the determination means includes determination reference point data (for example, a determination reference point M in FIG. 4) preset in the second view image. If so, the computer is caused to function as means for performing determination processing according to the number of the determination reference point data included in the second view image.

第3の発明によれば、第1の発明と同様の効果を奏するとともに、第2視界画像内に含まれている(写っている)判定基準点データの数を計数することで、どの程度の面積が写っているかと同様の考え方で判定をすることができる。判定基準点は、細かく設定すれば精度良く第2視界画像に写っている面積が求められ(「ドット」が最も細かい例。)。ポリゴンモデルの頂点のような代表点を判定基準点に設定するならば演算負荷の低減を図ることができる。   According to the third invention, the same effect as that of the first invention can be obtained, and by counting the number of determination reference point data included (photographed) in the second view image, how much can be obtained. Judgment can be made in the same way as if the area is reflected. If the determination reference point is set finely, the area shown in the second view image can be obtained with high accuracy (“dot” is the finest example). If a representative point such as a vertex of a polygon model is set as a determination reference point, the calculation load can be reduced.

第4の発明は、第1の発明のプログラムであって、前記判定手段が、前記第2視界画像に所定のデータが含まれる場合、当該所定のデータが前記第2視界画像に含まれている時間を計時する計時手段(例えば、図6の発見判定部222、図11のステップS48〜S50)を有し、前記計時手段による計時結果に基づいて判定処理を行う手段であるように前記コンピュータを機能させることを特徴とするプログラムである。   4th invention is the program of 1st invention, Comprising: When the said determination means contains predetermined data in the said 2nd visual field image, the said predetermined data is included in the said 2nd visual field image The computer has time-measurement means (for example, the discovery determination unit 222 in FIG. 6 and steps S48 to S50 in FIG. 11) for measuring time, and is a means for performing determination processing based on the time-measurement result by the time-measurement means. It is a program characterized by functioning.

第4の発明によれば、第1の発明と同様の効果を奏するとともに、第2視界画像に所定のデータが含まれている時間、すなわち所定データに係るものが第2視界画像に写っている時間の長さによって発見の判定をすることができる。実際の人間がモノを視認する場合、視界に入ってからそれが何であるかを認識するまでにはタイムラグがある。第4の発明によれば、このタイムラグをゲームの判定に反映させることができる。   According to the fourth invention, the same effect as the first invention is obtained, and the time during which the second view image includes predetermined data, that is, the data related to the predetermined data is shown in the second view image. The discovery can be determined by the length of time. When an actual person visually recognizes an object, there is a time lag between entering the field of view and recognizing what it is. According to the fourth invention, this time lag can be reflected in the determination of the game.

また、例えば、低レベルの敵キャラクタに適用する判定基準時間を長く設定し、高レベルの敵キャラクタに適用する判定基準時間を低く設定するならば、高レベルの敵キャラクタならば、僅かな時間プレーヤキャラクタが見えても発見することができるが、低レベルの敵キャラクタならば見過ごしてしまうことになる。したがって、時間基準を適当に設定することで、ゲームの難易度を調節することができる。   Also, for example, if the determination reference time applied to the low-level enemy character is set long and the determination reference time applied to the high-level enemy character is set low, if the enemy character is a high-level, the player will have a short time. It can be discovered even if the character is visible, but it will be overlooked if it is a low-level enemy character. Therefore, the difficulty level of the game can be adjusted by appropriately setting the time reference.

第5の発明は、第1の発明のプログラムであって、前記判定手段が、前記第2視界画像に所定のキャラクタに係るデータが含まれている場合、前記第2視界画像に含まれる当該キャラクタの面積の時間積分値を算出する時間積分値算出手段(例えば、図6の発見判定部222、図10のステップS14)を有し、前記時間積分値算出手段によって算出された時間積分値に基づいて判定処理を行う手段である、ように前記コンピュータを機能させることを特徴とする。   5th invention is the program of 1st invention, Comprising: When the said determination means contains the data which concern on a predetermined character in the said 2nd visual field image, the said character contained in the said 2nd visual field image Based on the time integrated value calculated by the time integrated value calculating means, including a time integrated value calculating means (for example, the discovery determination unit 222 in FIG. 6 and step S14 in FIG. 10). The computer is caused to function as a means for performing determination processing.

第5の発明によれば、第1の発明と同様の効果を奏するとともに、第2視界画像に含まれる(写った)キャラクタの面積の時間的な積分値に基づいて判定をすることができる。例えば、断続的にキャラクタが見え隠れする状況の場合、視界画像にキャラクタが写っている面積とその時間は個々には短いものであっても、これを連続的に見た場合には何が写っているかを判定することができる。すなわち、より人間による判定に近い判定をすることができる。   According to the fifth aspect, the same effect as the first aspect can be obtained, and determination can be made based on the temporal integration value of the area of the character included (shown) in the second view image. For example, in a situation where the character appears and disappears intermittently, even if the area and time of the character appearing in the field of view image are short individually, what is reflected when this is viewed continuously. Can be determined. That is, it is possible to make a determination closer to the determination by a human.

第6の発明は、第1の発明のプログラムであって、前記判定手段が、前記第2視界画像に所定のキャラクタに係るデータが含まれる場合、当該キャラクタの位置に応じて判定処理を行う手段(例えば、図6の発見判定部222、図11のステップS32〜S38、図17のステップS106〜S108)であるように前記コンピュータを機能させることを特徴とするプログラムである。   6th invention is a program of 1st invention, Comprising: When the said determination means contains the data which concern on a predetermined character in the said 2nd visual field image, the means which performs a determination process according to the position of the said character A program that causes the computer to function as in (for example, the discovery determination unit 222 in FIG. 6, steps S32 to S38 in FIG. 11, and steps S106 to S108 in FIG. 17).

より好適な、第7の発明は、第6の発明のプログラムであって、前記判定手段が、前記第2視界画像の画像中心と前記キャラクタの位置との距離を算出する距離算出手段(例えば、図6の発見判定部222、図11のステップS32〜S38、図17のステップS106〜S108)を有し、算出された距離に基づいて判定処理を行う手段であるように前記コンピュータを機能させることを特徴とする。   More preferably, the seventh invention is the program of the sixth invention, wherein the determination means calculates a distance between the image center of the second view image and the position of the character (for example, 6 having the discovery determination unit 222 in FIG. 6, steps S32 to S38 in FIG. 11, and steps S106 to S108 in FIG. 17, and causing the computer to function as a means for performing determination processing based on the calculated distance. It is characterized by.

第6又は7の発明によれば、第1の発明と同様の効果を奏するとともに、キャラクタが第2視界画像のどの位置に写っているかに応じて判定することができる。例えば、人間による判定を考えると、視界の隅に見えているものは気づき難く、反対に視界の中央に近いほど比較的気づきやすい傾向にある。すなわち、人間による判定に近い判定をゲームで実現することができる。   According to the sixth or seventh invention, the same effect as that of the first invention can be obtained, and determination can be made according to the position of the character in the second view image. For example, when judging by human beings, it is difficult to notice what is visible in the corner of the field of view, and conversely, the closer to the center of the field of view, the easier it is to notice. In other words, a determination close to human determination can be realized in the game.

第8の発明は、第1の発明のプログラムであって、前記判定手段が、前記第2視界画像に所定のキャラクタに係るデータが含まれている場合、当該キャラクタが前記第2視界画像に含まれている時間を計時する計時手段(例えば、図6の発見判定部222、図11のステップS48〜S50)と、当該キャラクタの前記第2視界画像内の位置を求める位置算出手段(例えば、図6の発見判定部222、図11のステップS32〜S38)とを有し、前記計時手段による計時結果と前記位置算出手段によって求められた位置とに基づいて判定処理を行う手段であるように前記コンピュータを機能させることを特徴とするプログラムである。   8th invention is the program of 1st invention, Comprising: When the said determination means contains the data which concern on a predetermined character in the said 2nd visual field image, the said character is included in the said 2nd visual field image. Time counting means (for example, the discovery determination unit 222 in FIG. 6 and steps S48 to S50 in FIG. 11) and position calculation means for obtaining the position of the character in the second field-of-view image (for example, FIG. 6 and a step S32 to S38) of FIG. 11, and a means for performing a determination process based on the time measurement result by the time measurement means and the position obtained by the position calculation means. A program for causing a computer to function.

第8の発明によれば、第1の発明と同様の効果を奏するとともに、キャラクタが第2視界画像のどの位置にどの程度の時間写っているかに応じて判定することができる。例えば、人間による判定を考えると、視界の隅に見えているものには、かなりの時間を要してから気づく傾向にあり、反対に視界の中央に近いほど比較的短時間でもその存在に気づくことができる。すなわち、第8の発明によれば、こうした人間による判定に近い判定をゲームで実現することができる。   According to the eighth aspect, the same effect as the first aspect can be obtained, and determination can be made according to how long the character is in the second visual field image for how long. For example, considering human judgments, things that are visible in the corner of the field of view tend to be noticed after a considerable amount of time. Conversely, the closer to the center of the field of view, the more easily it is noticed. be able to. That is, according to the eighth invention, such a determination close to human determination can be realized in a game.

第9の発明は、第1の発明のプログラムであって、前記判定手段が、前記第2視界画像に所定のキャラクタに係るデータが含まれる場合、当該含まれるデータが前記キャラクタの所定の部位に該当するか否かを判定する部位判定手段(例えば、図4の判定基準点M毎の部位ポイント、図6の発見判定部222、図11のS32〜S40)を有し、前記部位判定手段による判定結果に基づいて判定処理を行う手段である、ように前記コンピュータを機能させることを特徴とするプログラムである。   A ninth invention is the program of the first invention, wherein when the determination means includes data relating to a predetermined character in the second view image, the included data is stored in a predetermined part of the character. It has a part determination means (for example, a part point for each determination reference point M in FIG. 4, the discovery determination part 222 in FIG. 6, S32 to S40 in FIG. 11) for determining whether or not it corresponds to the part determination means. A program for causing the computer to function as a means for performing a determination process based on a determination result.

第9の発明によれば、第1の発明と同様の効果を奏するとともに、第2視界画像にキャラクタのどの部位が写っているかで判定をすることができる。実際の人間の発見判定を考えると、例えば人間を認識する場合、顔や手先など形状が特徴的な部分が視界に入っていると発見し易いが、色や形状が比較的単調な髪(後頭部)や胴体などでは同じように視界に入っていても発見し難い傾向がある。第9の発明によれば、部位を判定要素に含めることで、こうした人間の特性をゲームに持ち込み、より人間による判定に近い判定を実現することができる。   According to the ninth aspect, the same effect as the first aspect can be obtained, and it can be determined by which part of the character is reflected in the second view image. Considering the actual human detection decision, for example, when recognizing a human, it is easy to find if the part with a characteristic shape such as the face or hand is in the field of view, but the hair is relatively monotonous in color and shape (back of the head) ) And torso tend to be hard to find even if they are in the same field of view. According to the ninth aspect, by including the part in the determination element, it is possible to bring such human characteristics into the game and realize a determination closer to the determination by the human.

第10の発明は、第1の発明のプログラムであって、前記判定手段が、前記第2視界画像に所定のキャラクタに係るデータが含まれている場合、当該キャラクタの移動に基づいて判定処理(例えば、図6の発見判定部222、図11のステップS42、図17のステップS112)を行う手段であるように前記コンピュータを機能させることを特徴とするプログラムである。   A tenth aspect of the invention is the program of the first aspect, in which the determination unit determines whether the second view image includes data relating to a predetermined character based on the movement of the character ( For example, the program causes the computer to function as a means for performing the discovery determination unit 222 in FIG. 6, step S42 in FIG. 11, and step S112 in FIG.

より好適な第11の発明は、第10の発明のプログラムであって、前記判定手段が、前記第2視界画像に所定のキャラクタに係るデータが含まれている場合、当該キャラクタが動いているか否かに応じて判定処理を行う手段であるように前記コンピュータを機能させることを特徴とする。   A more preferred eleventh aspect of the invention is the program of the tenth aspect, wherein if the determination means includes data relating to a predetermined character in the second view image, whether or not the character is moving The computer is caused to function so as to be a means for performing determination processing according to the above.

また、第12の発明は、第10の発明のプログラムであって、前記判定手段が、前記第2視界画像に所定のキャラクタに係るデータが含まれる場合、当該キャラクタの移動速度に応じて判定処理を行う手段である、ように前記コンピュータを機能させることを特徴とする。   A twelfth aspect of the invention is the program of the tenth aspect of the invention, in which the determination unit performs a determination process according to a moving speed of the character when the second visual field image includes data relating to a predetermined character. The computer is caused to function as follows.

第10又は11の発明によれば、第1の発明と同様の効果を奏するとともに、第2視界画像に写っているキャラクタが動いているか否かに基づいて判定をすることができる。したがって、動かないものは背景の一部と認識されやすく、気づかれ難いといった現実の感覚をゲームで実現することができる。   According to the tenth or eleventh invention, the same effect as the first invention can be obtained, and determination can be made based on whether or not the character shown in the second view image is moving. Accordingly, it is possible to realize a real sense in the game that something that does not move is easily recognized as a part of the background and is difficult to notice.

そして、更に第12の発明によれば、第10の発明と同様の効果を奏するとともに、動作の速度を基準にして判定をすることができる。例えば、動作下限(動きの速さの下限)を設定するならば、ゆっくりとした動作の場合には気づき難いというより人間らしい判定をゲーム内で再現することができる。また、動作上限を設定するならば、瞬く間に移動して視界から消えるといった場合には、やはり気づき難いという人間らしい判定をゲーム内で実現することができる。   Further, according to the twelfth invention, the same effect as that of the tenth invention can be obtained, and determination can be made based on the speed of operation. For example, if the lower limit of motion (lower limit of the speed of movement) is set, a human-like determination that is difficult to notice in the case of a slow motion can be reproduced in the game. Also, if an upper limit of operation is set, it is possible to realize in the game a human-like determination that it is difficult to notice when it moves quickly and disappears from view.

第13の発明は、コンピュータに、3次元仮想空間内に仮想カメラを複数同時に配置させるとともに、ゲームの進行処理を実行させるためのプログラムであって、前記複数の仮想カメラのうち少なくとも何れか一つを第1仮想カメラとして、第1仮想カメラに基づく第1視界画像を生成する画像生成手段(例えば、図6のゲーム演算部22、画像生成部24、図10のステップS22)、前記第1仮想カメラ以外の第2仮想カメラに基づいて投影変換処理された第2視界画像に、所定のデータが含まれている場合、プレーヤが操作するキャラクタの位置に基づいて当該キャラクタのヒットモデル(例えば、図7の判定用モデル731b)又はヒットエリアを演算して陰面処理(陰面消去処理)する陰面処理手段(例えば、図6の発見判定部222、図10の発見判定処理A)、前記陰面処理手段によって処理された前記ヒットモデル又は前記ヒットエリアと、他のオブジェクト(例えば、図2の仮想カメラCが設定されている敵キャラクタE)との位置関係に基づいて判定処理を行う判定手段(例えば、図6のゲーム演算部22、発見判定部222、図10の発見判定処理A)、として前記コンピュータを機能させ、前記判定手段の判定結果に基づいて前記進行処理させるように前記コンピュータを機能させるためのプログラムである。   A thirteenth invention is a program for causing a computer to simultaneously arrange a plurality of virtual cameras in a three-dimensional virtual space and to execute a game progress process, and at least one of the plurality of virtual cameras. As a first virtual camera, image generating means for generating a first view image based on the first virtual camera (for example, the game calculation unit 22, the image generation unit 24 in FIG. 6, step S22 in FIG. 10), the first virtual camera When predetermined data is included in the second view image projected and converted based on the second virtual camera other than the camera, based on the character position operated by the player, the hit model (for example, FIG. 7 determination model 731b) or hidden surface processing means for calculating the hit area and performing hidden surface processing (hidden surface removal processing) (for example, discovery determination unit 2 in FIG. 6) 2, discovery determination processing A) in FIG. 10, the hit model or the hit area processed by the hidden surface processing means, and other objects (for example, enemy character E in which virtual camera C in FIG. 2 is set) The computer is caused to function as a determination unit (for example, the game calculation unit 22, the discovery determination unit 222, and the discovery determination process A in FIG. 10) that performs a determination process based on the positional relationship of Is a program for causing the computer to function so as to perform the progress processing based on the program.

第20の発明は、3次元仮想空間内に仮想カメラを複数同時に配置するとともに、ゲームの進行処理を実行するゲーム装置であって、前記複数の仮想カメラのうち少なくとも何れか一つを第1仮想カメラとして、第1仮想カメラに基づく第1視界画像を生成する画像生成手段(例えば、図6のゲーム演算部22、画像生成部24、図10のステップS22)と、前記第1仮想カメラ以外の第2仮想カメラに基づいて投影変換処理された第2視界画像に、所定のデータが含まれている場合、プレーヤが操作するキャラクタの位置に基づいて当該キャラクタのヒットモデル又はヒットエリアを演算して陰面処理する陰面処理手段(例えば、図6の発見判定部222、図10の発見判定処理A)と、前記陰面処理手段によって処理された前記ヒットモデル又は前記ヒットエリアと、他のオブジェクトとの位置関係に基づいて判定処理を行う判定手段(例えば、図6の発見判定部222、図10の発見判定処理A)と、を備え、前記判定手段の判定結果に基づいて前記進行処理することを特徴とするゲーム装置である。   A twentieth aspect of the present invention is a game apparatus that simultaneously arranges a plurality of virtual cameras in a three-dimensional virtual space and executes a game progress process, wherein at least one of the plurality of virtual cameras is a first virtual camera. As a camera, an image generating means for generating a first view image based on the first virtual camera (for example, the game calculation unit 22, the image generation unit 24 in FIG. 6, step S22 in FIG. 10), and other than the first virtual camera. If the second field-of-view image that has undergone projection conversion processing based on the second virtual camera includes predetermined data, the hit model or hit area of the character is calculated based on the position of the character operated by the player. Hidden surface processing means for performing hidden surface processing (for example, discovery determination unit 222 in FIG. 6, discovery determination processing A in FIG. 10) and the hit processed by the hidden surface processing means A determination unit (for example, discovery determination unit 222 in FIG. 6 and discovery determination processing A in FIG. 10) that performs a determination process based on a positional relationship between Dell or the hit area and another object, and the determination unit The game apparatus is characterized in that the progress processing is performed based on the determination result.

第13又は20の発明によれば、3次元仮想空間に複数の仮想カメラを配置し、仮想カメラの内の一つ(第1仮想カメラ)を視点として、主たるゲーム画面のもとになる第1視界画像を生成し、それとは別の第2仮想カメラを発見する側(例えば、敵キャラクタ)の視点として、第2視点画像を生成することができる。第2仮想カメラに基づいて投影変換された第2視界画像は、発見する側の見ている像に相当する。そして、この第2視界画像に所定のデータが含まれている場合、該キャラクタのヒットモデル又はヒットエリアを演算して陰面処理し、処理された前記ヒットモデル又は前記ヒットエリアと、他のオブジェクトとの位置関係に基づいて判定することができる。
すなわち、該キャラクタの簡易モデルであるヒットモデル又はヒットエリアを陰面処理することによって、該キャラクタの表示用のモデルで陰面処理する場合に比べて処理付加を軽減することができる。そして、陰面処理されたヒットモデル又はヒットエリアは、第2仮想カメラから見えている部分に相当する。したがって、陰面処理されたヒットモデル又はヒットエリアと、他のオブジェクトとの位置関係から第2視界画像のどの位置に見えている(写っている)かに基づいて、判定をすることができる。したがって、より人間の感覚に近い判定をゲームで実現することができる。
According to the thirteenth or twentieth invention, a plurality of virtual cameras are arranged in a three-dimensional virtual space, and the first game screen is based on one of the virtual cameras (first virtual camera) as a viewpoint. A second viewpoint image can be generated as a viewpoint of a side (for example, an enemy character) that generates a field-of-view image and discovers a second virtual camera different from that. The second view image projected and converted based on the second virtual camera corresponds to an image viewed by the discovering side. When the second view image includes predetermined data, the hit model or hit area of the character is calculated and hidden, and the hit model or hit area thus processed and other objects are processed. It can be determined based on the positional relationship.
That is, by performing hidden surface processing on the hit model or hit area, which is a simple model of the character, it is possible to reduce processing addition compared to the case of performing hidden surface processing with the model for displaying the character. The hit model or hit area subjected to the hidden surface processing corresponds to a portion visible from the second virtual camera. Therefore, the determination can be made based on the position in the second view image (photographed) based on the positional relationship between the hit model or hit area subjected to the hidden surface processing and another object. Therefore, a determination closer to a human sense can be realized in the game.

第14の発明は、第1〜13の発明のうち何れか一つの発明のプログラムであって、前記第1視界画像と前記第2視界画像とを含むゲーム画面を生成するゲーム画面生成手段(例えば,図6の画像生成部24、図19のステップS22〜S24)、として前記コンピュータを機能させることを特徴とする。   A fourteenth invention is a program according to any one of the first to thirteenth inventions, wherein a game screen generating means for generating a game screen including the first view image and the second view image (for example, , And the image generation unit 24 in FIG. 6 and steps S22 to S24 in FIG.

第14の発明によれば、第1〜13のうち何れか一つの発明と同様の効果を奏するとともに、第1視界画像とともに、発見する側が見ている画像である第2視界画像をゲーム画面に表示させることができる。   According to the fourteenth invention, the same effect as any one of the first to thirteenth inventions can be obtained, and the first view image and the second view image which is the image viewed by the discovering side are displayed on the game screen. Can be displayed.

第15の発明は、第14の発明のプログラムであって、前記判定手段は、前記第1仮想カメラを除く複数の第2仮想カメラそれぞれに基づいて投影変換処理された複数の第2視界画像について判定する手段であるように前記コンピュータを機能させるとともに、
前記判定手段による前記複数の第2視界画像それぞれの判定結果に基づいて、一の画像を選択する画像選択手段(例えば、図6の処理部20、ゲーム演算部22、図10のステップS24)として前記コンピュータを機能させ、前記ゲーム画像生成手段が、前記画像選択手段によって選択された第2視界画像を含むゲーム画面を生成する手段であるように前記コンピュータを機能させることを特徴とするプログラムである。
A fifteenth aspect of the invention is the program of the fourteenth aspect of the invention, in which the determination means performs a plurality of second view images that have undergone projection conversion processing based on a plurality of second virtual cameras other than the first virtual camera. Allowing the computer to function as a means of determining;
As image selection means (for example, the processing unit 20 in FIG. 6, the game calculation unit 22, and step S <b> 24 in FIG. 10) for selecting one image based on the determination results of the plurality of second view images by the determination unit. A program for causing the computer to function so that the game image generation means is a means for generating a game screen including a second view image selected by the image selection means. .

第15の発明によれば、第14の発明と同様の効果を奏するともに、複数の第2仮想カメラについてそれぞれの第2視界画像のうち、所定のデータが最も含まれている第2視界画像を選択して、これを第1視界画像とともにゲーム画面に表示させることができる。すなわち、発見しようとする側に複数の視点が有る場合、所定データの元となるキャラクタが最も写っている第2視界画像を選択してゲーム画面に表示させることができる。したがって、プレーヤにより重要性の高い画面を見せることができるとともに、第2視界画像の表示数を制限することで、処理負荷を抑えることができる。尚、ここで言う「最も写っている」とは、所定データの面積や面積値や、面積に相当する判定基準の数、所定データが含まれている時間の長さ、面積と所定データが含まれている時間の面積積分値、所定データが示すキャラクタの部位の重要度、によって判定することができる。   According to the fifteenth aspect, the second view image that has the same effect as the fourteenth aspect and contains the most predetermined data among the respective second view images for the plurality of second virtual cameras is obtained. This can be selected and displayed on the game screen together with the first view image. That is, when there are a plurality of viewpoints on the side to be discovered, the second view image in which the character that is the source of the predetermined data is most reflected can be selected and displayed on the game screen. Therefore, a highly important screen can be displayed by the player, and the processing load can be suppressed by limiting the number of display of the second view image. The “most visible” here includes the area and area value of the predetermined data, the number of determination criteria corresponding to the area, the length of time in which the predetermined data is included, the area and the predetermined data. It is possible to make a determination based on the integrated value of the area of the current time and the importance of the part of the character indicated by the predetermined data.

第16の発明は、第14の発明のプログラムであって、
前記判定手段が、前記第1仮想カメラを除く複数の第2仮想カメラそれぞれに基づいて投影変換処理された複数の第2視界画像について判定する手段であるように前記コンピュータを機能させるとともに、
前記複数の第2仮想カメラのうち何れかをプレーヤの操作入力に従って選択する第2仮想カメラ選択手段として前記コンピュータを機能させ、
前記ゲーム画像生成手段が、前記第2仮想カメラ選択手段によって選択された第2仮想カメラの第2視界画像を含むゲーム画面を生成する手段である、
ように前記コンピュータを機能させることを特徴とするプログラムである。
The sixteenth invention is the program of the fourteenth invention,
While making the said determination means be a means to determine about the several 2nd visual field image by which the projection conversion process was carried out based on each of several 2nd virtual cameras except the said 1st virtual camera,
Causing the computer to function as second virtual camera selection means for selecting any one of the plurality of second virtual cameras according to a player's operation input;
The game image generation means is means for generating a game screen including a second view image of the second virtual camera selected by the second virtual camera selection means.
As described above, the program causes the computer to function.

第16の発明によれば、第14の発明と同様の効果を奏するとともに、複数の第2仮想カメラのうち何れかをプレーヤが選択し、選択された第2仮想カメラの第2視界画像を選択してゲーム画面に表示させることができる。したがって、プレーヤにより重要性の高い画面を見せることができるとともに、第2視界画像の表示数を制限することで、処理負荷を抑えることができる。   According to the sixteenth aspect, the same effect as the fourteenth aspect is achieved, and the player selects any one of the plurality of second virtual cameras and selects the second view image of the selected second virtual camera. Can be displayed on the game screen. Therefore, a highly important screen can be displayed by the player, and the processing load can be suppressed by limiting the number of display of the second view image.

第17の発明は、前記判定手段の判定結果に基づいて、所定のマークをゲーム画面に表示させるマーク表示制御手段(例えば、図3のゲージG、図6の画像生成部24、画像表示部30、図10のステップS18)、音出力する音出力手段(例えば、図6の音生成部26、音出力部40、図10のステップS25)、及び振動出力する振動出力手段(例えば、図6の振動部52、図10のステップS25)うち、少なくとも何れか一つの手段として前記コンピュータを機能させることを特徴とする請求項1〜16の何れか一項に記載のプログラム。   In a seventeenth aspect, mark display control means (for example, gauge G in FIG. 3, image generation unit 24 in FIG. 6, image display unit 30) displays a predetermined mark on the game screen based on the determination result of the determination means. , Step S18 in FIG. 10), sound output means for outputting sound (for example, the sound generation unit 26, sound output unit 40 in FIG. 6, step S25 in FIG. 10), and vibration output means for outputting vibration (for example, in FIG. 6). The program according to any one of claims 1 to 16, wherein the computer is caused to function as at least one of the vibrating unit 52 and step S25 in Fig. 10.

第17の発明によれば、第1〜16の何れか一つの発明と同様の効果を奏するとともに、所定のマークの表示や、音出力、及び振動によって判定の結果をプレーヤに報知することができる。尚、ここで言う「マーク」とは、プレーヤに情報を具体的な形で提示するための表示物である。例えば、バーグラフ、ダイヤルと指針、警告や注意を促すシンボルマーク、表情のシンボルマーク(例えば、フェースマーク)などの表示物が考えられる。そして、色や形、表示サイズ、表示位置が変化して時間経過を表す。   According to the seventeenth invention, the same effect as any one of the first to sixteenth inventions can be obtained, and the determination result can be notified to the player by displaying a predetermined mark, sound output, and vibration. . Note that the “mark” here is a display object for presenting information to the player in a specific form. For example, display objects such as a bar graph, a dial and a pointer, a symbol mark for warning and attention, and a symbol mark for facial expression (for example, a face mark) can be considered. The color, shape, display size, and display position change to indicate the passage of time.

第18の発明は、第1〜17の何れか一つの発明のプログラムを記憶したコンピュータによる読取可能な情報記憶媒体である。   An eighteenth invention is a computer-readable information storage medium storing the program of any one of the first to seventeenth inventions.

情報記憶媒体としては、各種のICメモリ、CD−ROM、DVD、MO、メモリカード、メモリーカセット、ハードディスクなどが該当する。前記装置に、こうした情報記憶媒体からプログラムを読み出させて演算処理させることによって、第1〜17の発明の内、何れか1つの発明と同様の効果をコンピュータに実現させることができる。   Information storage media include various IC memories, CD-ROMs, DVDs, MOs, memory cards, memory cassettes, and hard disks. By causing the apparatus to read out a program from such an information storage medium and perform arithmetic processing, the same effect as any one of the first to seventeenth inventions can be realized by a computer.

本発明によれば、3次元仮想空間に複数の仮想カメラを配置し、仮想カメラの内の一つ(第1仮想カメラ)を視点として、主たるゲーム画面のもとになる第1視界画像を生成し、それとは別の第2仮想カメラを発見する側(例えば、敵キャラクタ)の視点として、第2視点画像を生成することができる。第2仮想カメラに基づいて投影変換された第2視界画像は、発見する側の見ている像に相当する。したがって、この第2視界画像に所定のデータが含まれているか否かを判定することで、該所定データのもととなるキャラクタ等が、発見する側の視界に入っているか(写っているか)否かを判定することができる。このように、視界画像に基づいて判定をすることができるので、より人間の感覚に近い判定をすることができる。   According to the present invention, a plurality of virtual cameras are arranged in a three-dimensional virtual space, and a first view image that is the basis of a main game screen is generated from one of the virtual cameras (first virtual camera) as a viewpoint. Then, a second viewpoint image can be generated as a viewpoint of a side (for example, an enemy character) that discovers another second virtual camera. The second view image projected and converted based on the second virtual camera corresponds to an image viewed by the discovering side. Therefore, by determining whether or not predetermined data is included in the second view image, whether or not the character or the like that is the source of the predetermined data is in the field of view to be discovered (is shown) It can be determined whether or not. As described above, since the determination can be made based on the view field image, it is possible to make a determination closer to a human sense.

本発明の実施形態として、家庭用ゲーム装置で、潜入工作員をプレーヤが操作するアクションゲームを実行する場合を例として説明する。尚、本発明の適用がこれに限定されるものではなく、例えば、プレーヤキャラクタを発見したか否かによって、コンピュータがNPC(ノンプレーヤキャラクタ)等の動作を制御するゲームであれば、キャラクタの種類やゲームストーリの設定に係らず適用できる。   As an embodiment of the present invention, a case will be described as an example in which an action game in which a player operates an infiltrating operative on a consumer game device is executed. The application of the present invention is not limited to this. For example, if the computer controls the operation of an NPC (non-player character) or the like depending on whether or not a player character is found, the type of character Applicable regardless of the setting of the game story.

〔第1実施形態〕
図1は、本発明を適用した家庭用ゲーム装置の構成の一例を示す図である。同図に示すように、家庭用ゲーム装置1200は、ゲームコントローラ1202と、本体装置1210と、スピーカ1222を有するディスプレイ1220とを備える。ゲームコントローラ1202は本体装置1210に接続され、ディスプレイ1220は画像信号及び音信号等を伝送可能なケーブル1201によって本体装置1210に接続されている。
[First Embodiment]
FIG. 1 is a diagram showing an example of the configuration of a consumer game device to which the present invention is applied. As shown in the figure, the consumer game device 1200 includes a game controller 1202, a main body device 1210, and a display 1220 having a speaker 1222. The game controller 1202 is connected to the main device 1210, and the display 1220 is connected to the main device 1210 by a cable 1201 capable of transmitting image signals, sound signals, and the like.

ゲームコントローラ1202は、プレーヤがゲーム操作を入力するための方向キー1204やボタンスイッチ1206を備え、操作入力信号を本体装置1210に出力する。また、ゲームコントローラ1202には、バイブレータ1207が内蔵されており、本体装置1210からの制御信号にしたがって振動する。   The game controller 1202 includes direction keys 1204 and button switches 1206 for the player to input a game operation, and outputs an operation input signal to the main body device 1210. The game controller 1202 includes a vibrator 1207 that vibrates in accordance with a control signal from the main body device 1210.

本体装置1210は、例えばCPUやICメモリ類を搭載した制御ユニット1211やCD−ROM1212等の情報記憶媒体の読取装置を備える。そして、CD−ROM1212などから読み出したプログラムやデータと、ゲームコントローラ1202からの操作信号とに基づいて種々のゲーム処理を演算処理し、ゲーム画面の画像信号及びゲーム音の音信号を生成する。   The main body device 1210 includes, for example, a control unit 1211 equipped with a CPU and IC memories and a reading device for an information storage medium such as a CD-ROM 1212. Then, various game processes are calculated based on programs and data read from the CD-ROM 1212 and the like and operation signals from the game controller 1202 to generate game screen image signals and game sound signals.

本体装置1210は、生成した画像信号と音声信号とをディスプレイ1220に出力して、ディスプレイ1220にゲーム画像を表示させるとともに、スピーカ1222からゲーム音を出力させる。プレーヤはディスプレイ1220に映し出されたゲーム画面を見ながら、ゲームコントローラ1202でプレーヤキャラクタを操作してゲームを楽しむことができる。   The main body device 1210 outputs the generated image signal and audio signal to the display 1220 to display a game image on the display 1220 and to output a game sound from the speaker 1222. The player can enjoy the game by operating the player character with the game controller 1202 while viewing the game screen displayed on the display 1220.

本体装置1210がゲーム処理を実行するために必要なプログラムやデータ等を含むゲーム情報は、例えば、本体装置1210に着脱自在な情報記憶媒体であるCD−ROM1212、ICメモリ1214、メモリカード1216等に格納されている。或いは、本体装置1210に具備された通信装置1218を介して通信回線2に接続し、ゲーム情報を外部装置(例えば、通信回線2に接続されているゲームサーバ。)から取得する(ダウンロードする)としても良い。
尚、ここで言う「通信回線」とは、データ授受が可能な通信路を意味する。即ち、通信回線2とは、直接接続のための専用線(専用ケーブル)やイーサネット(登録商標)等によるLANの他、電話通信網やケーブル網、インターネット等の通信網を含む意味である。また通信方法については有線/無線を問わない。
Game information including programs and data necessary for the main body device 1210 to execute game processing is stored in, for example, a CD-ROM 1212, an IC memory 1214, a memory card 1216, etc., which are information storage media detachable from the main body device 1210. Stored. Alternatively, it is connected to the communication line 2 via the communication device 1218 provided in the main body device 1210, and game information is acquired (downloaded) from an external device (for example, a game server connected to the communication line 2). Also good.
The “communication line” here refers to a communication path through which data can be exchanged. That is, the communication line 2 includes a communication network such as a telephone communication network, a cable network, and the Internet in addition to a dedicated line (dedicated cable) for direct connection and a LAN using Ethernet (registered trademark). The communication method may be wired / wireless.

[ゲーム内容の説明]
図2は、本実施形態におけるゲーム画面の一例を示す図である。同図(a)は、敵施設の倉庫内の様子を示している。ゲーム画面は、プレーヤキャラクタPの上後方からやや見下ろすようにして配置された仮想カメラを視点とするメイン画面W1を主とし、メイン画面W1の右上方にゲームステージのマップW2を常時サブ画面表示して成る。プレーヤキャラクタPは、画面手前左側のコンテナの陰から、倉庫を巡回する敵キャラクタE1,E2の様子を覗っている。プレーヤは、敵キャラクタE1,E2がプレーヤキャラクタPの方向を向いていないタイミングを見計らって、マップW2を頼りにプレーヤキャラクタPを先に進ませなければならない。
[Description of game contents]
FIG. 2 is a diagram illustrating an example of a game screen in the present embodiment. FIG. 4A shows the situation in the warehouse of the enemy facility. The game screen is mainly a main screen W1 with a viewpoint of a virtual camera arranged so as to look down slightly from above and behind the player character P, and a game stage map W2 is always displayed on the upper right side of the main screen W1 as a sub-screen. It consists of The player character P looks into the appearance of the enemy characters E1, E2 traveling around the warehouse from behind the container on the left side on the front side of the screen. The player must advance the player character P by relying on the map W2 in anticipation of the timing when the enemy characters E1, E2 are not facing the player character P.

同図(b)に示すように、敵キャラクタE(E1,E2)には、視点として仮想カメラCが配置されている。すなわち、仮想カメラCで撮影される画像「視界画像」は、当該敵キャラクタEが見ている画像に相当する。本実施形態では、この視界画像をエネミービューW3としてメイン画面W1上にサブ画面表示する。そして、どの敵キャラクタEの視界画像であるかが明確となるように、エネミービューW3からマップW2上の対応する敵キャラクタEのマークEm(Em1,Em2)へ連結線Lを表示する。プレーヤは、エネミービューW3で、プレーヤキャラクタPがどの敵キャラクタEによって、どの様に見られているかを知ることができる。   As shown in FIG. 5B, a virtual camera C is arranged as a viewpoint on the enemy character E (E1, E2). That is, the image “view field image” captured by the virtual camera C corresponds to an image viewed by the enemy character E. In the present embodiment, this view image is displayed as a sub-screen on the main screen W1 as an enemy view W3. Then, the connection line L is displayed from the enemy view W3 to the mark Em (Em1, Em2) of the corresponding enemy character E on the map W2 so that it is clear which enemy character E is the view field image. The player can know how the player character P is seen by which enemy character E in the enemy view W3.

図3は、敵キャラクタEの動作とエネミービューW3の表示との関係について説明するための図である。同図(a)に示すように、敵キャラクタは、初期状態では通常モードに設定されており、施設内を巡回し哨戒する動作をするように制御される。この段階では、エネミービューW3は表示されない。   FIG. 3 is a diagram for explaining the relationship between the action of the enemy character E and the display of the enemy view W3. As shown in FIG. 6A, the enemy character is set to the normal mode in the initial state, and is controlled so as to patrol and patrol the facility. At this stage, the enemy view W3 is not displayed.

そして、当該敵キャラクタEの視界画像にプレーヤキャラクタPが写っていると判定された場合、メイン画面W1上に、同図(b)に示すようにエネミービューW3がサブ画面表示され、該敵キャラクタEの動作は警戒モードに移行する。警戒モードでは、敵キャラクタEは視界に写ったものに注視し、写ったものを確認しようとする動作をするように制御される。例えば、プレーヤキャラクタPが写っている位置が視界画像の中央部に来るように視線を向ける。具体的には、仮想カメラCをパンし、画角を変更してズームアップする。   When it is determined that the player character P is reflected in the view image of the enemy character E, the enemy view W3 is displayed on the main screen W1 as shown in FIG. The operation of E shifts to the alert mode. In the vigilance mode, the enemy character E is controlled so as to pay attention to what is shown in the field of view and to perform an action of confirming the shot. For example, the line of sight is directed so that the position where the player character P is shown is at the center of the view field image. Specifically, the virtual camera C is panned and the angle of view is changed to zoom up.

警戒モードの間、視界画像にプレーヤキャラクタPが写っている継続時間Tがカウントされ、その様子がゲージG(報知マーク)で表示される。ゲージGは、指針G2の位置で継続時間Tのカウント状態を示す。初期状態では指針G2はゲージ枠G1の左横270°の位置にあり、継続時間のカウントとともにゲージ枠G1の0°の位置に向かって円弧を描くようにして移動表示される。   During the alert mode, the duration T during which the player character P is shown in the view image is counted, and the state is displayed with a gauge G (notification mark). The gauge G indicates the counting state of the duration T at the position of the pointer G2. In the initial state, the pointer G2 is at a position of 270 ° to the left of the gauge frame G1, and is moved and displayed as a circular arc toward the 0 ° position of the gauge frame G1 along with the counting of the duration time.

継続時間Tが所定の時間基準値Tjまでカウントされ指針G2が0°の位置に達したならば、同図(c)に示すように、「当該敵キャラクタEはプレーヤキャラクタを発見した」と判定される。すなわち、時間基準値Tjは、敵キャラクタEが視界に見なれないものを見つけてから侵入者と認識するまでに要する時間に相当する。そして、「プレーヤキャラクタを発見した」と判定されたならば、同図(d)に示すように、当該敵キャラクタEの動作は警戒モードから戦闘モードに移行し、プレーヤキャラクタPを攻撃し仲間を集めるといった動作をするように制御される。   If the duration time T is counted up to a predetermined time reference value Tj and the pointer G2 reaches the 0 ° position, it is determined that “the enemy character E has found a player character” as shown in FIG. Is done. That is, the time reference value Tj corresponds to the time required for the enemy character E to find it that cannot be seen in the field of view and recognize it as an intruder. If it is determined that “the player character has been found”, as shown in FIG. 4D, the action of the enemy character E shifts from the alert mode to the battle mode, and attacks the player character P to attack the fellow. It is controlled to perform operations such as collecting.

一方、継続時間Tが時間基準値Tjまでカウントされる前に、プレーヤキャラクタPが視界画像に写らなくなると、「プレーヤキャラクタを発見した」とは判定されない。この視界画像に写らない間、継続時間Tは減算される。そして、継続時間Tが「0」に戻ったならば、該敵キャラクタEは、「何か見たような気がしたが間違いであった」と考えるものとして、動作モードは警戒モードから通常モードに移行する。   On the other hand, if the player character P does not appear in the view field image before the duration time T is counted up to the time reference value Tj, it is not determined that “the player character has been found”. The duration T is subtracted while it is not shown in the view image. Then, if the duration T returns to “0”, the enemy character E thinks that “I felt something was wrong but it was a mistake”, and the operation mode is changed from the alert mode to the normal mode. Migrate to

このように、敵キャラクタEの視界の様子と、プレーヤキャラクタPを発見するまでの時間経過を、プレーヤはエネミービューW3とゲージGとで知ることができる。したがって、従来のように「敵からは見えていないはずなのに発見された」「通常の感覚では発見されない程度にしか見えていないのに、見つけられた」とプレーヤが感じるような事態を防ぐことができる。   As described above, the player can know the state of view of the enemy character E and the time elapsed until the player character P is found from the enemy view W3 and the gauge G. Therefore, it is possible to prevent a situation in which the player feels that it was “discovered although it should have been invisible to the enemy” and “seen only to the extent that it cannot be detected by ordinary senses” as in the past. it can.

[発見判定の原理の説明]
次に、図4を参照して、本実施形態における発見判定(図3の(b)〜(c)の過程)の原理についてより詳しく説明する。
図4(a)は、仮想カメラCで撮影された画像の一例を示す図である。視界画像EVにプレーヤキャラクタPが写ったか否かの判定は、視界画像EVに写ったプレーヤキャラクタPの面積S(同図の網掛け部分の面積)が所与の面積基準値Sjに達しているか否かで行う。面積Sは、例えば、仮想カメラCで撮影される3次元仮想空間(ゲーム空間)内の画像を投影変換及び陰面処理して2次元画像を生成し、生成した画像におけるプレーヤキャラクタPの部分のドット数を計数して求めることができる。ただし、本実施形態では、プレーヤキャラクタPの表面に判定基準点Mを予め複数設定しておき、この判定基準点Mを計数して面積Sの代わりとすることで演算処理負荷の低減を図る。
[Explanation of discovery judgment principle]
Next, with reference to FIG. 4, the principle of discovery determination (the process of (b) to (c) in FIG. 3) in the present embodiment will be described in more detail.
FIG. 4A is a diagram illustrating an example of an image captured by the virtual camera C. Whether or not the player character P appears in the view image EV is determined by checking whether the area S of the player character P shown in the view image EV (the area of the shaded portion in the figure) has reached a given area reference value Sj. Do it with no. The area S is, for example, a dot in the portion of the player character P in the generated image by generating a two-dimensional image by performing projection conversion and hidden surface processing on an image in a three-dimensional virtual space (game space) photographed by the virtual camera C. It can be obtained by counting the number. However, in the present embodiment, a plurality of determination reference points M are set in advance on the surface of the player character P, and the calculation reference load M is counted and used in place of the area S to reduce the calculation processing load.

より具体的には、同図(b)に示すように、プレーヤキャラクタPのモデルの表面には、予め複数の判定基準点Mが設定されている。各判定基準点Mには、設定された部位に応じて部位ポイントが予め設定されており、面積Sは視点画像に写っている判定基準点Mの部位ポイントの合計で代用される。この部位ポイントは、その部分の認識され易さに相当する係数である。例えば、顔や手先など色や形状が複雑で特徴的な部位には、他の部位より高い部位ポイントが設定される。したがって、顔や手先が視界画像EV内に写っている場合には、見掛け上の面積Sは小さいが、部位ポイントが高く設定されているために、結果として敵キャラクタEに発見され易くなる。これは、実際の人間が、人の顔や手の部分を他の部分よりも識別しやすいことに相当する。   More specifically, as shown in FIG. 5B, a plurality of determination reference points M are set in advance on the surface of the model of the player character P. For each determination reference point M, a part point is preset according to the set part, and the area S is substituted by the sum of the part points of the determination reference point M shown in the viewpoint image. This part point is a coefficient corresponding to the ease of recognizing the part. For example, a higher part point than other parts is set for a characteristic part having a complicated color or shape such as a face or a hand. Therefore, when the face and the hand are shown in the view image EV, the apparent area S is small, but the part point is set high, so that the enemy character E is likely to be found as a result. This corresponds to the fact that an actual human being can easily identify a human face or hand part more than other parts.

また、プレーヤキャラクタPが所持する銃器などのアイテムRについても、同様に判定基準点Mが予め設定され、部位ポイントが設定されている。そして、所持されているアイテムRはプレーヤキャラクタPの一部と見なされて、同様に判定基準点Mが計数される。更には、プレーヤキャラクタPの影Hについても、同様に判定基準点Mを設定し部位ポイントを設定するとしても良い。尚、本実施形態では、部位ポイントを固定値として扱うが、例えば、プレーヤキャラクタPがアイテムを使用して迷彩を施す場合には部位ポイントを低くするといった具合に、適宜ゲーム状況に応じて可変するとより好適である。   Similarly, for the item R such as a firearm possessed by the player character P, the determination reference point M is similarly set in advance and a part point is set. The possessed item R is regarded as a part of the player character P, and the determination reference point M is similarly counted. Further, for the shadow H of the player character P, the determination reference point M may be set in the same manner and the part point may be set. In the present embodiment, the part point is handled as a fixed value. For example, when the player character P uses an item to apply camouflage, the part point is lowered, and accordingly, the part point may be appropriately changed according to the game situation. More preferred.

面積Sの判定条件となる面積基準値Sjは、予め定められた初期ポイント値をプレーヤキャラクタPが視界画像EVのどの位置に写っているかで補正した値を用いる。具体的には、視界画像で計数された判定基準点Mの位置座標の平均値から中心位置を算出し、この中心位置の視界画像内における位置に応じて、視界係数Kを乗じて補正する。視界係数Kは、例えば図5に示すように、視界画像EVの中央部ほど面積基準値Sjが低くなるように設定されている。先に算出されたポイントの合計が面積基準値Sjに達していれば、「プレーヤキャラクタが視界に写っている」と判定する。   As the area reference value Sj, which is a determination condition for the area S, a value obtained by correcting a predetermined initial point value according to which position in the visual field image EV the player character P appears in is used. Specifically, the center position is calculated from the average value of the position coordinates of the determination reference point M counted in the view image, and is corrected by multiplying the view coefficient K according to the position of the center position in the view image. For example, as shown in FIG. 5, the visual field coefficient K is set such that the area reference value Sj becomes lower toward the center of the visual field image EV. If the sum of the previously calculated points has reached the area reference value Sj, it is determined that “the player character is in the field of view”.

そして、「プレーヤキャラクタが視界に写っている」と判定された状態の継続時間Tが時間基準値Tjを満たすと、「プレーヤキャラクタを発見した」と判定する。時間基準値Tjは、面積基準値Sjと同様にして、プレーヤキャラクタPが視界画像のどの位置に写っているかに応じて、予め定められた初期時間値に視界係数Kを乗じて補正された値が用いられる。   Then, when the duration T in which it is determined that “the player character is in the field of view” satisfies the time reference value Tj, it is determined that “the player character has been found”. Similarly to the area reference value Sj, the time reference value Tj is a value corrected by multiplying a predetermined initial time value by the visual field coefficient K according to where the player character P is in the visual field image. Is used.

このように、本実施形態における発見判定に至るまでの処理は、単に「ある点からある地点が見えるか否か」の判定ではない。先ず、「視界画像に写っている対象物の面積Sを判定する」ことで人間が比較的小さいものには気づき難いという特性を再現し、更に、写っている位置に応じて「写っている時間Tを判定」することで、人間が見ている場所に応じて視界に入っているものを認識するまでに要する時間が異なる特性を再現している。こうすることで、より人間らしい発見判定の処理を実現することができる。   Thus, the process up to the discovery determination in the present embodiment is not simply a determination of “whether or not a certain point can be seen from a certain point”. First, the characteristic that it is difficult for humans to notice things that are relatively small is reproduced by “determining the area S of the object in the view field image”. By “determining T”, the characteristic that the time required for recognizing what is in the field of view according to the place where the person is looking is reproduced. By doing so, it is possible to realize a more human discovery determination process.

[機能ブロックの説明]
図6は、本実施形態における家庭用ゲーム装置1200の機能構成の一例を示す機能ブロック図である。同図に示すように、家庭用ゲーム装置1200は、プレーヤからの操作を受けつける操作入力部10と、装置やゲームの制御に係る各種の演算処理を実行する処理部20と、ゲーム画面を表示出力する画像表示部30と、ゲーム音を音出力する音出力部40と、通信回線を介して外部装置とデータ通信を実現する通信部50と、振動部52と、各種のプログラムやデータを記憶する記憶部70とを備える。
[Description of functional block]
FIG. 6 is a functional block diagram illustrating an example of a functional configuration of the home game device 1200 according to the present embodiment. As shown in the figure, the home game device 1200 includes an operation input unit 10 that receives an operation from a player, a processing unit 20 that executes various arithmetic processes related to the control of the device and the game, and a game screen. An image display unit 30 that outputs a game sound, a communication unit 50 that realizes data communication with an external device via a communication line, a vibration unit 52, and various programs and data. And a storage unit 70.

操作入力部10は、例えば、ボタンスイッチ、レバー、ダイヤル、マウス、キーボード及び各種センサによって実現され、プレーヤによる操作に応じた操作入力信号を処理部20に出力する。本実施形態では、図1のゲームコントローラ1202がこれに該当する。   The operation input unit 10 is realized by, for example, a button switch, a lever, a dial, a mouse, a keyboard, and various sensors, and outputs an operation input signal corresponding to an operation by the player to the processing unit 20. In the present embodiment, the game controller 1202 in FIG. 1 corresponds to this.

処理部20は、家庭用ゲーム装置1200全体の制御やゲーム演算などの各種の演算処理を行う。その機能は、例えば、CPU(CISC型、RISC型)、ASIC(ゲートアレイ等)、ICメモリなどのハードウェア及び関連する制御プログラム等により実現される。図1では本体装置1210に具備される制御ユニット1211がこれに該当する。   The processing unit 20 performs various arithmetic processes such as control of the entire home game device 1200 and game calculations. The function is realized by hardware such as a CPU (CISC type, RISC type), ASIC (gate array, etc.), IC memory, and related control programs. In FIG. 1, the control unit 1211 provided in the main body apparatus 1210 corresponds to this.

また処理部20は、主にゲームに係る演算処理を行うゲーム演算部22と、ゲーム演算部22の処理によって求められた各種のデータから仮想カメラCを視点とする仮想空間中の画像の生成並びにゲーム画面を表示させるための画像信号の生成を実行する画像生成部24と、効果音やBGMなどのゲーム音を生成する音生成部26と、データ通信に係る制御を担う通信制御部28とを含む。   In addition, the processing unit 20 generates a game in the virtual space from the viewpoint of the virtual camera C from the game calculation unit 22 that performs calculation processing mainly related to the game, and various data obtained by the processing of the game calculation unit 22. An image generation unit 24 that generates an image signal for displaying a game screen, a sound generation unit 26 that generates game sounds such as sound effects and BGM, and a communication control unit 28 that performs control related to data communication. Including.

ゲーム演算部22は、操作入力部10からの操作入力信号や、記憶部70から読み出したプログラムやデータに基づいて、本実施形態におけるゲームを実行するための種々のゲーム処理を実行する。ゲーム処理としては、例えば、オブジェクトの移動に伴う位置座標や速度等を求める演算処理、オブジェクトの衝突判定処理(接触判定)、オブジェクトをオブジェクト空間に配置する処理、オブジェクトへのマッピング情報の選択処理、ゲーム結果(成績)を求める処理などが挙げられる。本実施形態では特に、各敵キャラクタEに視点として仮想カメラCを配置するとともに敵キャラクタEの動作に応じて仮想カメラCを制御する仮想カメラ配置部221と、仮想カメラCを視点とする視点画像に基づいて当該敵キャラクタEがプレーヤキャラクタPを発見する処理を実行する発見判定部222とが含まれる。   The game calculation unit 22 executes various game processes for executing the game in the present embodiment based on the operation input signal from the operation input unit 10 and the program and data read from the storage unit 70. Examples of the game process include a calculation process for obtaining a position coordinate and a velocity associated with the movement of the object, an object collision determination process (contact determination), a process for placing the object in the object space, a process for selecting mapping information to the object, For example, a process for obtaining a game result (score). In the present embodiment, in particular, a virtual camera C is placed on each enemy character E as a viewpoint and the virtual camera placement unit 221 that controls the virtual camera C according to the action of the enemy character E, and a viewpoint image with the virtual camera C as a viewpoint And a discovery determination unit 222 for executing processing for the enemy character E to discover the player character P based on the above.

画像生成部24は、例えばCPUやDSPなどの演算装置やその制御プログラム、フレームバッファなどの描画フレーム用ICメモリなどによって実現される。画像生成部24は、ゲーム演算部22による演算結果に基づいて幾何変換処理やシェーディング処理を実行して、ゲーム画面を表示するための3DCG画像を生成し、生成した画像の画像信号を画像表示部30に出力する。   The image generation unit 24 is realized, for example, by an arithmetic device such as a CPU or DSP, a control program thereof, a drawing frame IC memory such as a frame buffer, and the like. The image generation unit 24 performs a geometric transformation process and a shading process based on the calculation result of the game calculation unit 22 to generate a 3DCG image for displaying the game screen, and an image signal of the generated image is displayed on the image display unit. Output to 30.

画像表示部30は、画像生成部24で生成された画像信号に基づいて、例えば1/60秒毎に1フレームの画面を再描画しながらゲーム画面を表示する。画像表示部30は、例えばCRT、LCD、ELD、PDP、HMD等のハードウェアによって実現できる。図1ではディスプレイ1220がこれに該当する。   Based on the image signal generated by the image generation unit 24, the image display unit 30 displays a game screen while redrawing a screen of one frame every 1/60 seconds, for example. The image display unit 30 can be realized by hardware such as CRT, LCD, ELD, PDP, and HMD. In FIG. 1, the display 1220 corresponds to this.

音生成部26は、例えばCPUやDSPなどの演算装置及びその制御プログラムによって実現され、ゲーム中に使用される効果音やBGMなどの音を生成し、生成した音の音信号を音出力部40に出力する。   The sound generation unit 26 is realized by, for example, an arithmetic device such as a CPU or DSP and its control program, generates sound such as sound effects and BGM used during the game, and generates a sound signal of the generated sound as a sound output unit 40. Output to.

音出力部40は、音生成部26からの音信号に基づいて効果音やBGM等を音出力するための装置であり、図1ではスピーカ1222がこれに該当する。   The sound output unit 40 is a device for outputting sound effects, BGM, and the like based on the sound signal from the sound generation unit 26, and the speaker 1222 corresponds to this in FIG.

通信部50は、通信制御部28からの制御信号にしたがって通信回線2に接続して外部装置とのデータ通信を行う。例えば、Bluetooth(登録商標)や、IrDAなどのモジュール、モデム、TA、有線用の通信ケーブルのジャックや制御回路などによって実現される。図1の通信装置1218がこれに該当する。尚、通信部50が、通信時に供するプロトコル等に係る情報は、例えば記憶部70に記憶されており適宜読み出して利用する。   The communication unit 50 is connected to the communication line 2 according to a control signal from the communication control unit 28 and performs data communication with an external device. For example, it is realized by a module such as Bluetooth (registered trademark) or IrDA, a modem, a TA, a jack of a wired communication cable, a control circuit, or the like. The communication device 1218 in FIG. 1 corresponds to this. Note that information related to protocols and the like provided by the communication unit 50 during communication is stored in, for example, the storage unit 70 and is appropriately read and used.

振動部52は、処理部20からの制御信号にしたがって振動を発生させる。図1のバイブレータ1207が該当する。   The vibration unit 52 generates vibration according to a control signal from the processing unit 20. This corresponds to the vibrator 1207 in FIG.

記憶部70は、処理部20に家庭用ゲーム装置1200を統合的に制御させるための諸機能を実現させるシステムプログラム(図示略)や、ゲームを実行させるために必要なプログラム及びデータを格納するゲーム情報72等を記憶している。また、処理部20が演算処理に必要な各種のプログラムやデータを一時的に記憶する。記憶部70は、例えば各種ICメモリ、メモリカード、ハードディスク、CD−ROM、MO、DVD等の情報記憶媒体によって実現できる。図1の例ではCD−ROM1212、ICメモリ1214、メモリカード1216がこれに該当する。   The storage unit 70 stores a system program (not shown) for realizing various functions for causing the processing unit 20 to control the home game device 1200 in an integrated manner, and a game for storing a program and data necessary for executing the game. Information 72 and the like are stored. Further, the processing unit 20 temporarily stores various programs and data necessary for the arithmetic processing. The storage unit 70 can be realized by an information storage medium such as various IC memories, a memory card, a hard disk, a CD-ROM, an MO, and a DVD. In the example of FIG. 1, this corresponds to the CD-ROM 1212, the IC memory 1214, and the memory card 1216.

ゲーム情報72は、処理部20をゲーム演算部22として機能させるためのプログラム及びデータを含んでいる。本実施形態では特に、処理部20を仮想カメラ配置部221として機能させるための仮想カメラ配置プログラム721と、発見判定部222として機能させるための発見判定プログラム722とを含んでいる。また、データとしては、ゲームステージ情報730と、プレーヤキャラクタ設定情報731と、アイテム設定情報732と、敵キャラクタ設定情報733と、ゲームプレイ情報734とを含んでいる。   The game information 72 includes a program and data for causing the processing unit 20 to function as the game calculation unit 22. Particularly in the present embodiment, a virtual camera arrangement program 721 for causing the processing unit 20 to function as the virtual camera arrangement unit 221 and a discovery determination program 722 for causing the processing unit 20 to function as the discovery determination unit 222 are included. The data includes game stage information 730, player character setting information 731, item setting information 732, enemy character setting information 733, and game play information 734.

ゲームステージ情報730は、ゲームステージを構成するための各種情報を格納している。例えば、ステージに配置されるオブジェクトの種類と位置、ステージクリアの条件、ゲームオーバの条件、プレーヤキャラクタPが装備しているアイテムの設定などを格納している。   The game stage information 730 stores various information for configuring the game stage. For example, it stores the type and position of the object placed on the stage, the condition for clearing the stage, the condition for game over, the setting of the items equipped on the player character P, and the like.

プレーヤキャラクタ設定情報731は、プレーヤキャラクタPを表示し動作制御するために必要な情報を格納している。例えば、図7に示すように、表示用モデル731aと、判定基準点Mの位置情報を特に抜粋した判定用モデル731bと、判定基準点M毎の部位ポイント731cと、現在プレーヤキャラクタPが所持しているアイテムの識別情報を格納する所持アイテムID731dとを格納している。また、その他にテクスチャや、モーションデータ、効果音や台詞などの音データなどを適宜格納している。   The player character setting information 731 stores information necessary for displaying the player character P and controlling its movement. For example, as shown in FIG. 7, a display model 731a, a determination model 731b that specifically extracts position information of the determination reference point M, a part point 731c for each determination reference point M, and the current player character P are possessed. The possessed item ID 731d for storing the identification information of the item being stored is stored. In addition, texture, motion data, sound data such as sound effects and lines, etc. are stored as appropriate.

判定用モデル731bは、プレーヤキャラクタPに設定された判定基準点Mに関する情報を有する簡易モデルである。処理部20は、発見判定に係る処理を実行する際に判定用モデル731bを参照することによって、データの読込みや投影変換処理に係る演算負荷を低減することができる。判定用モデル731bの形状は、プレーヤキャラクタPを簡略化したものであるが、バウンダリボックスのような極めて簡易なヒットエリアの集合体として、更に処理負荷の軽減を図るとしても良い。   The determination model 731b is a simple model having information on the determination reference point M set for the player character P. The processing unit 20 can reduce the calculation load related to data reading and projection conversion processing by referring to the determination model 731b when executing processing related to discovery determination. The shape of the determination model 731b is a simplified version of the player character P. However, the processing load may be further reduced as an extremely simple collection of hit areas such as a boundary box.

アイテム設定情報732は、プレーヤキャラクタPや敵キャラクタEが所持することのできるアイテムを表示するために必要な情報を格納している。例えば、図8に示すように、表示用モデル732aと判定用モデル732b、判定基準点M毎の部位ポイント732c、及び当該アイテムがプレーヤキャラクタPの装備であるか敵側の装備であるかの属性に応じた属性係数732eとを格納している。表示用モデル732aと判定用モデル732bとの関係は、プレーヤキャラクタ設定情報731におけるそれと同様である。属性係数732eは、アイテムの判定基準点Mを計数する際に、部位ポイント732cに更に乗算される値である。属性係数732eを乗ずることによって、見なれないアイテム(本実施形態の場合、敵キャラクタEから見て敵陣営であるプレーヤキャラクタPに属する装備。)が視界に写った場合、認識されやすいといったより現実の感覚に近い判定を再現することができる。   The item setting information 732 stores information necessary for displaying items that the player character P and the enemy character E can possess. For example, as shown in FIG. 8, the display model 732a and the determination model 732b, the part point 732c for each determination reference point M, and the attribute of whether the item is the equipment of the player character P or the equipment on the enemy side And an attribute coefficient 732e corresponding to. The relationship between the display model 732a and the determination model 732b is the same as that in the player character setting information 731. The attribute coefficient 732e is a value that is further multiplied by the part point 732c when counting the determination reference point M of the item. By multiplying the attribute coefficient 732e, an unrecognizable item (equipment belonging to the player character P that is the enemy camp as viewed from the enemy character E in the case of this embodiment) is more easily recognized when seen in the field of view. It is possible to reproduce a judgment close to the sense.

ゲームプレイ情報734は、ゲームプレイ状態を示す各種パラメータ値やフラグなどを格納する。例えば、図9に示すように、敵キャラクタE毎に敵キャラクタ情報736が格納されている。敵キャラクタ情報736は更に、キャラクタID736a、当該敵キャラクタEの動作モード736b(初期状態は「通常モード」。)、「視界画像にプレーヤキャラクタが写っている」と判定される状態の継続時間Tを格納する継続時間カウンタ736c、当該敵キャラクタEがプレーヤキャラクタPを発見したことを示す発見フラグ736d(初期状態は「0(未発見)」。)を含んでいる。また、敵キャラクタ情報736は、当該敵キャラクタEの視点として配置された仮想カメラCの制御に係る情報として姿勢や画角などを格納する仮想カメラ設定値736eと、ゲージGの表示に係る情報を格納するゲージ設定値736fとを含んでいる。   The game play information 734 stores various parameter values and flags indicating the game play state. For example, as shown in FIG. 9, enemy character information 736 is stored for each enemy character E. The enemy character information 736 further includes a character ID 736a, an operation mode 736b of the enemy character E (the initial state is “normal mode”), and a duration time T in which it is determined that “the player character is shown in the view image”. It includes a duration counter 736c to be stored and a discovery flag 736d (initial state is “0 (not found)”) indicating that the enemy character E has found the player character P. The enemy character information 736 includes virtual camera set value 736e that stores the posture, angle of view, and the like as information related to control of the virtual camera C arranged as the viewpoint of the enemy character E, and information related to the display of the gauge G. The gauge setting value 736f to be stored is included.

[処理の流れの説明]
次に、本実施形態における処理の流れについて説明する。図10は、本実施形態における処理の流れを説明するためのフローチャートである。
[Description of process flow]
Next, the flow of processing in this embodiment will be described. FIG. 10 is a flowchart for explaining the flow of processing in the present embodiment.

先ず、処理部20は、ゲームステージ情報730を参照して、仮想空間内に各種のオブジェクトを配置してゲームステージを構築し、プレーヤキャラクタP及び敵キャラクタEを配置する(ステップS2)。そして、敵キャラクタE毎に視点として仮想カメラCを配置し(ステップS4)、敵キャラクタ情報736を初期化する(ステップS6)。具体的には、敵キャラクタEの動作モード736bを「通常モード」に設定し、継続時間カウンタ736cを「0」とする。   First, the processing unit 20 refers to the game stage information 730, arranges various objects in the virtual space, constructs a game stage, and arranges the player character P and the enemy character E (step S2). Then, the virtual camera C is arranged as a viewpoint for each enemy character E (step S4), and the enemy character information 736 is initialized (step S6). Specifically, the operation mode 736b of the enemy character E is set to “normal mode”, and the duration counter 736c is set to “0”.

ゲームをスタートさせたならば(ステップS8)、処理部20は、1インター毎に以下の処理を実行する。すなわち、実行操作入力部10から入力されるプレーヤの操作に応じてプレーヤキャラクタPを動作制御し(ステップS10)、敵キャラクタE毎にループ1の処理を実行する(ステップS12〜S20)。   If the game is started (step S8), the processing unit 20 executes the following process for each inter. That is, the player character P is motion-controlled according to the player's operation input from the execution operation input unit 10 (step S10), and the process of loop 1 is executed for each enemy character E (steps S12 to S20).

ループ1では、発見判定処理Aを実行し、当該敵キャラクタEがプレーヤキャラクタPを発見したか否かの判定をする(ステップS14)。   In loop 1, discovery determination processing A is executed to determine whether or not the enemy character E has found the player character P (step S14).

図11は、本実施形態における発見判定処理Aの流れを説明するためのフローチャートである。ここで説明される処理は、処理部20が発見判定プログラム722を読み出して実行することによって実現される。   FIG. 11 is a flowchart for explaining the flow of the discovery determination process A in the present embodiment. The processing described here is realized by the processing unit 20 reading and executing the discovery determination program 722.

先ず、処理対象となっている敵キャラクタEの視点として配置された仮想カメラCで撮影される仮想空間の画像を投影変換処理及び陰面処理(陰面消去処理)して視界画像EVを生成する(ステップS30)。ここで言う視界画像EVの生成は、表示用のバッファメモリ等に画像データを記憶させる意味ではなく、仮想カメラCの画角範囲内の3次元的なオブジェクトの配置を、投影変換し視界画像EVとして内部処理的に2次元に再配置する意味である。また、ここで生成される視界画像EVは、実際にゲーム画面に表示されることはないので、プレーヤキャラクタPについては表示用モデル731aではなく判定用モデル731bを用いる。プレーヤキャラクタPの判定基準点Mを「赤」、それ以外の背景を「青」とする簡易的な画像生成でも良い。   First, a visual space image EV is generated by performing projection conversion processing and hidden surface processing (hidden surface removal processing) on an image of a virtual space photographed by the virtual camera C arranged as the viewpoint of the enemy character E to be processed (step) S30). The generation of the view image EV here does not mean that image data is stored in a display buffer memory or the like. The view image EV is obtained by projecting and converting the arrangement of a three-dimensional object within the field angle range of the virtual camera C. Means to rearrange in two dimensions in terms of internal processing. Since the field-of-view image EV generated here is not actually displayed on the game screen, the determination model 731b is used instead of the display model 731a for the player character P. Simple image generation may be performed in which the determination reference point M of the player character P is “red” and the other background is “blue”.

生成の結果、視界画像EVに写っているプレーヤキャラクタPの判定基準点Mを検索し(ステップS32)、検索された判定基準点Mの部位ポイントの合計を算出する(ステップS34)。ここで言う合計は、例えば同図(b)に示すように、プレーヤキャラクタPとその時所持しているアイテム、及びプレーヤキャラクタPの影の各判定基準点Mについての部位ポイントの小計の和である。   As a result of the generation, the determination reference point M of the player character P shown in the view image EV is searched (step S32), and the total of the part points of the searched determination reference point M is calculated (step S34). The total here is, for example, the sum of the subtotals of the part points for each determination reference point M of the player character P and the item possessed at that time and the shadow of the player character P, as shown in FIG. .

次に、先に検索された判定基準点Mの画面座標系における位置座標の平均から中心位置を算出する(ステップS36)、算出した中心位置に応じた面積基準値Sjと時間基準値Tjとを算出する(ステップS38)。具体的には、図5に示す関係に基づいて、中心位置から視界係数Kを算出し、所定の初期ポイント値或いは初期時間値に該視界係数Kを乗じて算出する。   Next, the center position is calculated from the average of the position coordinates of the previously determined determination reference point M in the screen coordinate system (step S36), and the area reference value Sj and the time reference value Tj corresponding to the calculated center position are calculated. Calculate (step S38). Specifically, based on the relationship shown in FIG. 5, a visibility coefficient K is calculated from the center position, and a predetermined initial point value or initial time value is multiplied by the visibility coefficient K.

判定基準点Mの部位ポイントの合計と、面積基準値Sjが求められたならば両者を比較する。部位ポイントの合計が面積基準値Sjに達している場合(ステップS40;YES)、「プレーヤキャラクタが視界に写っている」と判断して、継続時間カウンタ736cに例えば「2」を加算して、「プレーヤキャラクタが視界に写っている」状態の継続時間Tをカウントする(ステップS46)。そして、継続時間カウンタ736cが先に算出された時間基準値Tj(例えば、3秒×視界係数K;ゲーム性の観点から、実際の人間の認識に要する時間より意図的に長く設定される。)に達した場合(ステップS48;YES)、当該敵キャラクタEの発見フラグ736dを「1(発見した)」とし(ステップS50)、発見判定処理Aを終了する。   If the total of the part points of the determination reference point M and the area reference value Sj are obtained, the two are compared. If the total of the part points has reached the area reference value Sj (step S40; YES), it is determined that “the player character is in the field of view” and “2”, for example, is added to the duration counter 736c, The duration T of the state where the “player character is in view” is counted (step S46). Then, the time reference value Tj previously calculated by the duration counter 736c (for example, 3 seconds × field-of-view coefficient K; is set to be intentionally longer than the time required for actual human recognition from the viewpoint of game characteristics). Is reached (step S48; YES), the discovery flag 736d of the enemy character E is set to “1 (discovered)” (step S50), and the discovery determination processing A is terminated.

部位ポイントの合計が「0」ではなく、面積基準値Sjに達していない場合であっても(ステップS40;NO)、プレーヤキャラクタPが何らかの動作の途中にあって、視界画像EVに写っていた判定基準点Mの部位又は全体の動きが所定の基準値より速い場合は(ステップS42;YES)、「プレーヤキャラクタが視界に写っている」と判断して、継続時間カウンタ736cを「2」加算する(ステップS46)。この過程は、人間が視界内のものを認識する場合、視界に写っているものが動くことによって認識され易くなる特性に相当する。   Even when the total of the part points is not “0” and does not reach the area reference value Sj (step S40; NO), the player character P is in the middle of some motion and is shown in the view image EV. If the movement of the determination reference point M or the entire movement is faster than the predetermined reference value (step S42; YES), it is determined that “the player character is in the field of view” and the duration counter 736c is incremented by “2”. (Step S46). This process corresponds to a characteristic that when a person recognizes an object in the field of view, the object that is visible in the field of view is easily recognized by movement.

一方、部位ポイントの合計が「0」の場合や、「0」ではなくともプレーヤキャラクタPの動きが所定の基準値より遅い場合は(ステップS42;NO)、視界に入っているが見えていないと判断する。そして、継続時間カウンタ736cが「0」でなければ(ステップS44;NO)、継続時間カウンタ736cを「1」減算して(ステップS52)、発見判定処理を終了する。この継続時間カウンタ736cを減算することは、視界に入ったものに一旦は注意が向いて認識し掛けたが、徐々に注意が薄れ認識しなくなる状態に相当する。   On the other hand, if the total of the part points is “0”, or if the movement of the player character P is slower than the predetermined reference value even if it is not “0” (step S42; NO), it is in view but not visible. Judge. If the duration counter 736c is not “0” (step S44; NO), the duration counter 736c is decremented by “1” (step S52), and the discovery determination process ends. Subtracting the duration time counter 736c corresponds to a state in which attention is once paid to a thing that has entered the field of view, but the attention gradually fades away and recognition is no longer recognized.

したがって、一旦敵キャラクタEの視界画像EVに写ったとしても、継続時間カウンタ736cの値が時間基準値Tjに達する前に移動し、それ以降連続的に写りさえしなければ発見されないことになる。しかし、継続時間カウンタ736cが「0」まで減算されないうちに、また視界画像EVに写ると、ステップS46でカウントが再び加算されるために、継続時間カウンタ736cが「0」から加算された場合にくらべて、比較的短時間で発見されることになる。   Therefore, even if it appears in the field-of-view image EV of the enemy character E, the value of the duration counter 736c moves before reaching the time reference value Tj and will not be discovered unless it is continuously reflected thereafter. However, if the duration counter 736c is incremented from “0” because the count is added again in step S46 before the duration counter 736c is subtracted to “0” and appears in the view image EV. It will be discovered in a relatively short time.

図10において、発見判定処理Aを終了したならば、処理部20は処理対象の敵キャラクタEについて敵キャラクタ動作制御処理を実行し(ステップS16)、発見判定処理Aの結果に応じた行動をするように敵キャラクタEを制御する。   In FIG. 10, when the discovery determination process A is completed, the processing unit 20 executes an enemy character action control process for the enemy character E to be processed (step S16), and performs an action according to the result of the discovery determination process A. The enemy character E is controlled as follows.

図12は、本実施形態における敵キャラクタ動作制御処理の流れを説明するためのフローチャートである。同図に示すように、先ず処理部20は、処理対象の敵キャラクタEの発見フラグ736dを参照する。
発見フラグ736dが「1」である場合(ステップS60;YES)、動作モード736bを「戦闘モード」とし、発見したプレーヤキャラクタPめがけて攻撃をするように動作制御する(ステップS62、図3(d)に相当)。
FIG. 12 is a flowchart for explaining the flow of enemy character motion control processing in the present embodiment. As shown in the figure, the processing unit 20 first refers to the discovery flag 736d of the enemy character E to be processed.
When the discovery flag 736d is “1” (step S60; YES), the operation mode 736b is set to the “battle mode”, and the operation is controlled so as to attack the player character P that is found (step S62, FIG. 3 (d). )).

発見フラグ736dが「0」であり(ステップS60;NO)、且つ、継続時間カウンタ736cがカウントされている場合(ステップS64;YES)、すなわち視界画像EVにプレーヤキャラクタPが写っている場合、或いは写ってから見えなくなって間もない場合(ステップS52で継続時間カウンタ736cが減算されている場合)、動作モード736bを「警戒モード」とし、当該敵キャラクタEをプレーヤキャラクタPの位置に向けて歩かせるなどして移動させるといった動作をさせる(ステップS66)。また、先に算出した判定基準点Mの中心位置が視界画像の中央に近づくように敵キャラクタEの視点と、該視点に対応する仮想カメラCとを制御するとともに(ステップS68)、更にズームアップするように仮想カメラCの画角を変更する(ステップS70)。これらの処理によって、敵キャラクタEが、あたかも視界に写ったものを確認するために近づき、より見易いように視線の向きを変え、注視するといった動作をするように見せることができる。   When the discovery flag 736d is “0” (step S60; NO) and the duration counter 736c is counted (step S64; YES), that is, when the player character P is reflected in the view field image EV, or If it is not long before it is visible (when the duration counter 736c is subtracted in step S52), the operation mode 736b is set to the “warning mode”, and the enemy character E walks toward the position of the player character P. An operation such as moving by moving is performed (step S66). Further, the viewpoint of the enemy character E and the virtual camera C corresponding to the viewpoint are controlled so that the center position of the previously calculated determination reference point M approaches the center of the view field image (step S68), and further zooming up Thus, the angle of view of the virtual camera C is changed (step S70). By these processes, it can be seen that the enemy character E approaches to see what appears in the field of view, changes the direction of the line of sight so that it can be seen more easily, and looks at it.

発見フラグ736dが「0」であり、且つ、継続時間カウンタ736cが「0」の場合(ステップS64;NO)、当該敵キャラクタEはプレーヤキャラクタPを見掛けてもいないと判断して、動作モード736bを「通常モード」とし動作制御をする(ステップS72)。すなわち、敵施設内を巡回し哨戒する動作をさせる。   When the discovery flag 736d is “0” and the duration counter 736c is “0” (step S64; NO), it is determined that the enemy character E has not seen the player character P, and the operation mode 736b. Is controlled in the “normal mode” (step S72). That is, a patrol operation is performed while patroling the enemy facility.

図10において、敵キャラクタ動作制御処理を終了したならば、処理部20はゲージ設定処理を実行する(ステップS18)。   In FIG. 10, when the enemy character action control process is completed, the processing unit 20 executes a gauge setting process (step S18).

図13は、本実施形態におけるゲージ設定処理の流れを説明するためのフローチャートである。先ず、処理部20は、処理対象となっている敵キャラクタEの継続時間カウンタ736cを参照する。継続時間カウンタ736cが「0」ではなく(ステップS80;NO)、且つ動作モード736bが「戦闘モード」ではない場合(ステップS82;NO)、継続時間カウンタ736cのカウント値に基づいて、ゲージ設定値736fを決定する(ステップS84)。例えば、指針G2の表示位置の算出などがこれに該当する。更には、時間基準値Tjと継続時間カウンタ736cのカウント値の割合に応じて、徐々に警告度合が高まるように、「青→黄→赤」と言った具合に段階的に表示色を設定しても良い。   FIG. 13 is a flowchart for explaining the flow of the gauge setting process in the present embodiment. First, the processing unit 20 refers to the duration counter 736c of the enemy character E that is the processing target. When the duration counter 736c is not “0” (step S80; NO) and the operation mode 736b is not “battle mode” (step S82; NO), the gauge setting value is based on the count value of the duration counter 736c. 736f is determined (step S84). For example, the calculation of the display position of the pointer G2 corresponds to this. Furthermore, the display color is set in stages such as “blue → yellow → red” so that the warning level gradually increases in accordance with the ratio between the time reference value Tj and the count value of the duration counter 736c. May be.

継続時間カウンタ736cが「0」ではなく(ステップS80;NO)、且つ動作モード736bが「戦闘モード」の場合は(ステップS82;YES)、ゲージ設定値736fを初期状態に戻す(ステップS86)。また、継続時間カウンタ736cが「0」の場合(ステップS80;YES)、当該敵キャラクタEは「通常モード」にあると判断して、同様にゲージ設定値736fを初期状態に戻す(ステップS86)。   When the duration counter 736c is not “0” (step S80; NO) and the operation mode 736b is “battle mode” (step S82; YES), the gauge set value 736f is returned to the initial state (step S86). If the duration counter 736c is “0” (step S80; YES), it is determined that the enemy character E is in the “normal mode” and the gauge setting value 736f is similarly returned to the initial state (step S86). .

ゲージ設定処理を終了したならば、図10のフローにもどる。次に、処理部20は、メイン画面W1とマップW2とを生成し、メイン画面W1上にマップW2をサブ画面表示する(ステップS22)。そして、動作モード736b=「警戒モード」の敵キャラクタEの仮想カメラCを視点とする視界画像を生成し、これをエネミービューW3として表示制御する(ステップS24)。ここで生成される画像は、表示を目的としているので、処理部20はプレーヤキャラクタPの表示用モデル731a及び所持されているアイテムの表示用モデル732aを参照して画像を生成する。   When the gauge setting process is completed, the flow returns to the flow of FIG. Next, the processing unit 20 generates a main screen W1 and a map W2, and displays the map W2 on the main screen W1 as a sub screen (step S22). Then, a field-of-view image having the viewpoint of the virtual camera C of the enemy character E in the operation mode 736b = “warning mode” is generated, and this is displayed and controlled as an enemy view W3 (step S24). Since the image generated here is intended for display, the processing unit 20 generates an image with reference to the display model 731a of the player character P and the display model 732a of the possessed item.

尚、必要以上にメイン画面W1がエネミービューW3で隠されるのを防ぐ観点から、表示させるエネミービューW3の数を適宜限定すると好ましい。例えば、ステップS24においてエネミービューW3を表示制御する際、動作モード736bが「戦闘モード」の敵キャラクタEのエネミービューW3の表示を解除するとしても良いし、敵キャラクタEからプレーヤキャラクタPまでの距離が小さい順に所定数を選択して表示させるとしても良い。
また、表示位置と表示数(例えば、一つ。)を固定とし、表示する視界画像をランダムに切り換える、或いは継続時間カウンタ736cが最も大きい敵キャラクタEの仮想カメラCを視点とする視界画像をエネミービューW3として表示させるとしても良い。或いは、プレーヤがゲームコントローラ1202から所定の操作を入力してマップW2内に表示される敵キャラクタのマークEmから任意に選択し、選択された敵キャラクタEの視界画像をエネミービューW3として表示させるとしても良い。エネミービューW3の表示数を制限することによって表示に係る処理負荷を抑制する効果も得られる。
Note that, from the viewpoint of preventing the main screen W1 from being hidden more than necessary by the enemy view W3, it is preferable to appropriately limit the number of enemy views W3 to be displayed. For example, when display control of the enemy view W3 is performed in step S24, the display of the enemy view E of the enemy character E whose operation mode 736b is “battle mode” may be canceled, or the distance from the enemy character E to the player character P A predetermined number may be selected and displayed in ascending order.
Also, the display position and the number of displays (for example, one) are fixed, and the view image to be displayed is switched randomly, or the view image with the viewpoint of the virtual camera C of the enemy character E having the largest duration counter 736c is the enemy. It may be displayed as the view W3. Alternatively, it is assumed that the player inputs a predetermined operation from the game controller 1202 and arbitrarily selects the enemy character mark Em displayed in the map W2, and displays the view image of the selected enemy character E as the enemy view W3. Also good. By limiting the number of displays of the enemy view W3, an effect of suppressing the processing load related to the display can be obtained.

エネミービューW3をサブ画面表示したならば、プレーヤキャラクタPが敵キャラクタEの視界に写っている度合をプレーヤに報知する(ステップS25)。すなわち、画像生成部24が、ゲージ設定値726fに基づいてメイン画面W1上にゲージGを表示させ、音生成部26が継続時間カウンタ736cに格納されているカウント値に比例して音量や周波数が高くなるようにして警告音を音出力部40に出力させる。更に、処理部20が振動部52に、継続時間カウンタ736cに格納されているカウント値に比例する周波数で振動を発生させる。尚、ゲージの表示、警告音の音出力、振動の発生を全て実行せずに、少なくとも何れか一つを実行する構成としても良いのは勿論である。   If the enemy view W3 is displayed on the sub screen, the player is notified of the degree to which the player character P is in the field of view of the enemy character E (step S25). That is, the image generation unit 24 displays the gauge G on the main screen W1 based on the gauge setting value 726f, and the sound generation unit 26 has the volume and frequency in proportion to the count value stored in the duration counter 736c. The sound output unit 40 is made to output a warning sound so as to be higher. Further, the processing unit 20 causes the vibration unit 52 to generate vibration at a frequency proportional to the count value stored in the duration counter 736c. Needless to say, at least one of the gauge display, the warning sound output, and the vibration generation may be executed without executing them all.

次いで、ゲーム演算部22はゲーム判定処理をし、所定の終了条件を満たしていなければ(ステップS26;NO)、ステップS10に戻る。終了条件を満たしていれば(ステップS26;YES)ゲーム終了とする。   Next, the game calculation unit 22 performs a game determination process. If the predetermined end condition is not satisfied (step S26; NO), the process returns to step S10. If the end condition is satisfied (step S26; YES), the game ends.

以上の処理によって、より人間らしい発見判定を実現し、敵キャラクタEの行動をより人間らしく制御することが可能となる。そして、従来のように「敵からは見えていないはずなのに発見された」「通常の感覚では発見されない程度にしか見えていないのに、見つけられた」とプレーヤが感じるような事態を防ぐことできる。   Through the above processing, it is possible to realize a more human-like discovery determination and control the action of the enemy character E more like a human. And, it is possible to prevent the situation where the player feels that it was “discovered even though it should have been invisible to the enemy” as in the past, and “seen even though it was only visible to the extent that it could not be detected by ordinary senses”. .

[ハードウェアの構成]
次に、家庭用ゲーム装置1200を実現できるハードウェアの構成について説明する。図14は、本実施形態におけるハードウェア構成の一例を示す図である。家庭用ゲーム装置1200は、CPU1000と、ROM1002と、RAM1004と、情報記憶媒体1006と、音生成IC1008と、画像生成IC1010と、I/Oポート1012及び1014とを有し、システムバス1016により相互にデータの入出力が可能に接続されている。
[Hardware configuration]
Next, a hardware configuration capable of realizing the home game device 1200 will be described. FIG. 14 is a diagram illustrating an example of a hardware configuration according to the present embodiment. The home game apparatus 1200 includes a CPU 1000, a ROM 1002, a RAM 1004, an information storage medium 1006, a sound generation IC 1008, an image generation IC 1010, and I / O ports 1012 and 1014. Data input / output is connected.

CPU1000は、図6における処理部20に該当し、情報記憶媒体1006に格納されているプログラムやROM1002に格納されているシステムプログラム及びコントロール装置1022によって入力される操作入力信号等に従って、装置全体の制御や各種のデータ処理を行う。   The CPU 1000 corresponds to the processing unit 20 in FIG. 6, and controls the entire apparatus according to a program stored in the information storage medium 1006, a system program stored in the ROM 1002, an operation input signal input by the control device 1022, and the like. And various data processing.

ROM1002やRAM1004及び情報記憶媒体1006は、図6における記憶部70に該当する。ROM1002は、図1の本体装置1210の制御ユニット1211に搭載されているICメモリに該当し、システムプログラム等の本体装置1210の制御にかかわるプログラムやデータを記憶する。   The ROM 1002, RAM 1004, and information storage medium 1006 correspond to the storage unit 70 in FIG. The ROM 1002 corresponds to an IC memory mounted on the control unit 1211 of the main body apparatus 1210 of FIG. 1, and stores programs and data related to control of the main body apparatus 1210 such as system programs.

RAM1004は、CPU1000の作業領域などとして用いられる記憶手段であり、情報記憶媒体1006やROM1002の所与の内容、或いはCPU1000の演算結果が格納される。   The RAM 1004 is a storage means used as a work area of the CPU 1000 and stores the given contents of the information storage medium 1006 and the ROM 1002 or the calculation result of the CPU 1000.

情報記憶媒体1006は、図1のCD−ROM1212、ICメモリ1214、メモリカード1216に該当し、図6のゲーム情報72を記憶する。情報記憶媒体1006は、ICメモリカードや着脱自在なハードディスクユニット、MO、DVD−ROMなどによって実現されROM1002に記憶される情報を記憶し、適宜読み出して利用する。   The information storage medium 1006 corresponds to the CD-ROM 1212, the IC memory 1214, and the memory card 1216 in FIG. 1, and stores the game information 72 in FIG. An information storage medium 1006 is realized by an IC memory card, a removable hard disk unit, an MO, a DVD-ROM, or the like, stores information stored in the ROM 1002, and appropriately reads and uses the information.

音生成IC1008は、ROM1002や情報記憶媒体1006に記憶されている情報に基づいて効果音やBGM等のゲーム音を生成する集積回路であり、生成された音はスピーカ1020によって出力される。なお、スピーカ1020は、図6における音出力部40、図1におけるスピーカ1222に該当する。   The sound generation IC 1008 is an integrated circuit that generates game sounds such as sound effects and BGM based on information stored in the ROM 1002 and the information storage medium 1006, and the generated sounds are output by the speaker 1020. The speaker 1020 corresponds to the sound output unit 40 in FIG. 6 and the speaker 1222 in FIG.

画像生成IC1010は、表示装置1018に画像を出力するための画素情報を生成する集積回路である。図6における画像生成部24がこれに該当する。表示装置1018は、図6の画像表示部30、図1におけるディスプレイ1220に該当する。   The image generation IC 1010 is an integrated circuit that generates pixel information for outputting an image to the display device 1018. The image generation unit 24 in FIG. 6 corresponds to this. The display device 1018 corresponds to the image display unit 30 in FIG. 6 and the display 1220 in FIG.

I/Oポート1012には、コントロール装置1022が接続され、I/Oポート1014には、通信装置1024が接続されている。コントロール装置1022は、図6の操作入力部10及び図1のゲームコントローラ1202に相当するものであり、プレーヤが種々のゲーム操作を入力するための装置である。また、コントロール装置1022には、バイブレータ1023が備えられており、CPU1000によって加振制御される。   A control device 1022 is connected to the I / O port 1012, and a communication device 1024 is connected to the I / O port 1014. The control device 1022 corresponds to the operation input unit 10 in FIG. 6 and the game controller 1202 in FIG. 1, and is a device for the player to input various game operations. Further, the control device 1022 is provided with a vibrator 1023 and is subjected to vibration control by the CPU 1000.

通信装置1024は、ゲーム装置内部で利用される各種の情報を外部とやり取りするものであり、他のゲーム装置と接続されてゲームプログラムに応じた所与の情報を送受信し、通信回線を介してゲームプログラム等の情報を送受信することなどに利用される。図6の通信部50及び図1の通信装置1218に該当する。   The communication device 1024 exchanges various types of information used inside the game device with the outside. The communication device 1024 is connected to other game devices and transmits / receives given information according to the game program, via a communication line. Used to send and receive information such as game programs. This corresponds to the communication unit 50 in FIG. 6 and the communication device 1218 in FIG.

尚、画像生成IC1010、音生成IC1008等で行われる処理はCPU1000、或いは汎用のDSP等によってソフトウェア的に実行する構成としても良い。   Note that the processing performed by the image generation IC 1010, the sound generation IC 1008, and the like may be executed in software by the CPU 1000 or a general-purpose DSP.

また、本発明は、図1に示した家庭用ゲーム装置1200だけでなく、業務用ゲーム装置や携帯型ゲーム装置、パソコン等の汎用コンピュータ、多数のプレーヤが参加する大型アトラクション装置等の種々の装置にも同様に適用できる。   The present invention is not limited to the home game device 1200 shown in FIG. 1, but various devices such as a commercial game device, a portable game device, a general-purpose computer such as a personal computer, and a large attraction device in which a large number of players participate. The same applies to the above.

例えば図15は、本発明を業務用ゲーム装置1300に適用した場合の外観の一例を示す図である。同図に示すように、業務用ゲーム装置1300は、ゲーム画面を画像表示するディスプレイ1302と、ゲームの効果音やBGMを出力するスピーカ1304と、前後左右方向を入力するジョイスティック1306と、プッシュボタン1308と、演算処理によって業務用ゲーム装置1300を統合的に制御して所与のゲームを実行する制御ユニット1320とを備える。   For example, FIG. 15 is a diagram showing an example of the appearance when the present invention is applied to the arcade game apparatus 1300. As shown in the figure, the arcade game apparatus 1300 includes a display 1302 for displaying a game screen image, a speaker 1304 for outputting game sound effects and BGM, a joystick 1306 for inputting front and rear, left and right directions, and a push button 1308. And a control unit 1320 that controls the arcade game device 1300 in an integrated manner through arithmetic processing to execute a given game.

制御ユニット1320は、CPU等の演算処理装置と、業務用ゲーム装置1300の制御及びゲームの実行に必要なプログラムやデータが格納されたROM1322を搭載する。制御ユニット1320に搭載されるCPUは、ROM1322よりプログラムやデータを適宜読み出して演算処理することによって種々の処理を実行する。そして、プレーヤは、ディスプレイ1302に表示されたゲーム画面を見ながら、ジョイスティック1306とプッシュボタン1308からゲーム操作の入力をしてゲームを楽しむ。   The control unit 1320 includes an arithmetic processing unit such as a CPU and a ROM 1322 in which programs and data necessary for controlling the arcade game device 1300 and executing the game are stored. The CPU mounted on the control unit 1320 executes various processes by appropriately reading out programs and data from the ROM 1322 and performing arithmetic processing. Then, the player enjoys the game by inputting game operations from the joystick 1306 and the push button 1308 while viewing the game screen displayed on the display 1302.

また、本発明は、スタンドアローンの装置によって実行されるゲームに限らず、ネットワークゲームと呼ばれているゲームに適用しても構わない。ネットワークゲームを実現するシステム構成としては、例えば、(1)家庭に設置してあるパソコンや家庭用ゲームシステム等をゲーム端末とし、インターネット網や専用線網等の有線/無線の通信回線を通じてサーバと接続する構成、(2)サーバを用いることなく複数のゲーム端末同士が通信回線で接続される構成、(3)複数のゲーム端末同士が通信回線で接続されるが、その内の一台がサーバ機能を有する構成、(4)複数のゲーム端末が物理的に結合し、全体として一台のシステム(例えば業務用のゲームシステム)となっている構成などがある。   The present invention is not limited to a game executed by a stand-alone device, and may be applied to a game called a network game. As a system configuration for realizing a network game, for example, (1) a personal computer or a home game system installed in a home is used as a game terminal, and a server is connected through a wired / wireless communication line such as the Internet network or a dedicated network. Configuration for connection, (2) Configuration in which a plurality of game terminals are connected by a communication line without using a server, (3) A plurality of game terminals are connected by a communication line, one of which is a server There are a configuration having a function, and (4) a configuration in which a plurality of game terminals are physically coupled to form a single system (for example, an arcade game system) as a whole.

〔第2実施形態〕
次に、本発明の第2実施形態について説明する。本実施形態は、基本的に第1実施形態と同様であるが、視界画像に写っているプレーヤキャラクタPの面積Sの時間的な積分値で発見判定する点において異なる。具体的には,図10のループ1において敵キャラクタE毎に、又、1インター毎に実行される発見判定プログラム722によって実現される発見判定処理Aが、図17に示す発見判定処理Bのようになる。尚、第1実施形態と同様の構成要素については、同じ符号を付け説明を省略するものとする。
[Second Embodiment]
Next, a second embodiment of the present invention will be described. This embodiment is basically the same as the first embodiment, but differs in that it is found and determined by the temporal integration value of the area S of the player character P shown in the view field image. Specifically, the discovery determination process A realized by the discovery determination program 722 executed for each enemy character E in the loop 1 of FIG. 10 and for each inter is the discovery determination process B shown in FIG. become. In addition, about the component similar to 1st Embodiment, the same code | symbol shall be attached and description shall be abbreviate | omitted.

本実施形態における機能構成は基本的に第1実施形態と同様であるが、図16に示すように、本実施形態における敵キャラクタ情報736は、視界画像に写ったプレーヤキャラクタPの面積Sの累積値を格納する面積総和736gを含んでいる。   Although the functional configuration in this embodiment is basically the same as that in the first embodiment, as shown in FIG. 16, the enemy character information 736 in this embodiment is an accumulation of the area S of the player character P in the view field image. The total area 736g for storing values is included.

図17は、本実施形態における発見判定処理Bの流れを説明するためのフローチャートである。同図に示すように、先ず、処理対象となっている敵キャラクタEの視点として配置された仮想カメラCで撮影される仮想空間の画像を投影変換処理して視界画像を生成する(ステップS100)。尚、ここで言う視界画像の生成は、表示用のバッファメモリ等に画像データを記憶させる意味ではなく、仮想カメラCの画角範囲内の3次元的なオブジェクトの配置を、投影変換し視界画像として2次元に内部処理的に再配置する意味である。   FIG. 17 is a flowchart for explaining the flow of the discovery determination process B in the present embodiment. As shown in the figure, first, a visual field image is generated by projecting and transforming an image of a virtual space photographed by a virtual camera C arranged as a viewpoint of an enemy character E to be processed (step S100). . Note that the generation of the view image here does not mean storing image data in a display buffer memory or the like, but the view image is obtained by projecting and converting the arrangement of the three-dimensional object within the field angle range of the virtual camera C. Means to rearrange in two dimensions in terms of internal processing.

次に、生成された視界画像に写っているプレーヤキャラクタPの部分の面積Sを算出し(ステップS102)、算出した面積Sを面積総和736gに加算する(ステップS104)。尚、ここで言う面積は、第1実施形態における発見判定処理Aと同様にして、判定基準点Mの部位ポイントの合計を算出するとしても良いし、ドット数を計数するとしても良いのは勿論である。   Next, the area S of the part of the player character P shown in the generated view field image is calculated (step S102), and the calculated area S is added to the total area 736g (step S104). Note that the area referred to here may be calculated as the sum of the part points of the determination reference point M, or the number of dots may be counted, as in the discovery determination process A in the first embodiment. It is.

次に、視界画像に写っているプレーヤキャラクタPの部分の中心位置(平均位置)の座標を算出し(ステップS106)、算出された中心位置の視界画像内の位置に応じて、第1実施形態における発見判定処理Aと同様にして、面積基準値Sjを決定する(ステップS108)。   Next, the coordinates of the center position (average position) of the portion of the player character P appearing in the view image are calculated (step S106), and according to the position of the calculated center position in the view image, the first embodiment. The area reference value Sj is determined in the same manner as the discovery determination process A in (step S108).

面積基準値Sjを決定したならば、面積総和736gと比較する。比較の結果、面積総和736gが面積基準値Sjに達している場合(ステップS110;YES)、又は面積基準値Sjに達していない場合であっても、面積総和736g≠0で且つプレーヤキャラクタPの動きが所定の基準値より速い場合は(ステップS112;YES)、「プレーヤキャラクタを発見した」と判断して、当該敵キャラクタEの発見フラグ736dを「1(発見)」として(ステップS114)、発見判定処理Bを終了する。   If the area reference value Sj is determined, it is compared with the total area 736g. As a result of the comparison, even if the area total 736g has reached the area reference value Sj (step S110; YES), or even if it has not reached the area reference value Sj, the area total 736g ≠ 0 and the player character P If the movement is faster than the predetermined reference value (step S112; YES), it is determined that “the player character has been found” and the discovery flag 736d of the enemy character E is set to “1 (discovery)” (step S114). The discovery determination process B is terminated.

一方、それ以外の場合(ステップS112;NO)、面積総和736gが「0」でなければ(ステップS116;NO)、面積総和736gから規定数を減算し(ステップS118)、発見判定処理Bを終了する。この面積総和736gを減算する処理は、第1実施形態の発見判定処理AのステップS52に相当する。   On the other hand, in other cases (step S112; NO), if the total area 736g is not “0” (step S116; NO), the specified number is subtracted from the total area 736g (step S118), and the discovery determination process B is terminated. To do. The process of subtracting the total area 736g corresponds to step S52 of the discovery determination process A of the first embodiment.

このように、1インター毎に写っている面積Sを算出して、面積総和736gに累積的に加算(或いは減算)して発見判定をすることとしても良い。   As described above, the area S reflected for each inter may be calculated and cumulatively added (or subtracted) to the total area 736g to make a discovery determination.

〔第3実施形態〕
次に、発見判定処理をプレーヤキャラクタPの判定以外に用いる場合について説明する。尚、第1実施形態と同様の構成要素については、同じ符号を付け説明を省略するものとする。
[Third Embodiment]
Next, a case where the discovery determination process is used for purposes other than determination of the player character P will be described. In addition, about the component similar to 1st Embodiment, the same code | symbol shall be attached and description shall be abbreviate | omitted.

[ゲーム内容の説明]
図18は、本実施形態におけるゲームの概要を説明するための図である。本実施形態は、第1実施形態のアクションゲーム内の1ミッションに相当する。
同図(a)は、ゲーム画面の一例を示している。本実施形態では、プレーヤは女性潜入工作員をプレーヤキャラクタPとして操作し、敵キャラクタEを眠らせて機密情報を盗まなければならない。その為に、ペンの外見をしたスパイアイテム4に即効性の眠り薬を仕込み、敵キャラクタEの飲み掛けのコップ6に眠り薬を注入する。プレーヤは、プレーヤキャラクタPを操作して女性の魅力を相手に意識させ、敵キャラクタEの視線をコップ6から引き離しているその隙に眠り薬を注入する。ただし、ゲーム世界の不確定要素として、敵キャラクタEに声をかける他のキャラクタが現われ、あるいは机からモノが落ちるといったアクシデントが発生し、敵キャラクタEはプレーヤキャラクタPの女性の魅力に視線が向けられているとは限らない。
[Description of game contents]
FIG. 18 is a diagram for explaining the outline of the game in the present embodiment. This embodiment corresponds to one mission in the action game of the first embodiment.
FIG. 5A shows an example of the game screen. In this embodiment, the player must operate the female infiltrator as the player character P, sleep the enemy character E, and steal confidential information. For this purpose, a quick-acting sleeping medicine is charged into the spy item 4 that looks like a pen, and the sleeping medicine is injected into the drinking cup 6 of the enemy character E. The player operates the player character P to make the partner aware of the attractiveness of the woman, and injects the sleeping medicine into the gap where the line of sight of the enemy character E is pulled away from the cup 6. However, as an uncertain element of the game world, an accident occurs that another character that speaks to the enemy character E appears or an object falls from the desk. It is not always done.

ゲーム画面には、敵キャラクタEの様子を見ることができるメイン画面W4と、エネミービューW3とが表示されている。プレーヤは、この両画面を見つつスパイアイテム4で眠り薬をコップ6に注入するタイミングを見計らう。   On the game screen, a main screen W4 on which an enemy character E can be seen and an enemy view W3 are displayed. The player watches the timing of injecting the sleeping medicine into the cup 6 with the spy item 4 while viewing both screens.

例えば、同図(b)では、プレーヤキャラクタPが書き物をする振りをして、うなじで敵キャラクタEの注意を惹いている。エネミービューW3には、うなじを見ている敵キャラクタEの視線画像が表示されている。プレーヤキャラクタPが更に敵キャラクタEに微笑みかけて視線をコップ6から離した状態を維持し、その間にスパイアイテム4で眠り薬をコップ6に注入することができれば成功である。何れ敵キャラクタEは呑みかけのコップ6を手に取り、眠り薬で寝てしまう。プレーヤは、その内に機密情報や機密物を入手する。   For example, in FIG. 5B, the player character P pretends to write and draws the attention of the enemy character E by nape. In the enemy view W3, a line-of-sight image of the enemy character E looking at the nape is displayed. It is a success if the player character P further smiles at the enemy character E and keeps his line of sight away from the cup 6 while the sleeping item can be injected into the cup 6 by the spy item 4 during that time. Eventually, the enemy character E picks up a cup 6 and sleeps with a sleeping pill. The player obtains confidential information and confidential items therein.

反対に、同図(c)に示すように、何らかの不確定要素の発生により敵キャラクタEの視線が移動し、コップ6にスパイアイテム4が近づけられているのを目撃したならば、敵キャラクタEは不審行動と判断する。そして、プレーヤキャラクタPに詰問し、或いは警備部署に通報するなどの行動をし、結果としてプレーヤはミッションを達成できなくなってしまう。   On the contrary, as shown in FIG. 5C, if the line of sight of the enemy character E is moved due to the occurrence of some uncertain element and the spy item 4 is close to the cup 6, the enemy character E Is considered suspicious behavior. Then, the player character P is questioned or an action such as reporting to the security department is performed, and as a result, the player cannot achieve the mission.

すなわち、本実施形態では、敵キャラクタEの視界画像にスパイアイテム4とコップ6とがそれぞれについて発見判定され、両方が発見されることによって敵キャラクタEの行動やゲームの展開が変わる。   That is, in the present embodiment, the spy item 4 and the cup 6 are found and determined for the enemy character E's view field image, respectively, and the action of the enemy character E and the development of the game change when both are found.

[機能ブロックの説明]
本実施形態の機能構成は、基本的に第1実施形態と同様にして実現できる。特には、図19に示すように、ゲームプレイ情報734には、発見判定するオブジェクト(スパイアイテム4とコップ6)それぞれに対応するオブジェクト情報737と、コップ6に眠り薬が注入されたことを示す眠り薬フラグ738(「1(薬入り)」)が含まれている。
[Description of functional block]
The functional configuration of the present embodiment can be realized basically in the same manner as in the first embodiment. In particular, as shown in FIG. 19, the game play information 734 includes object information 737 corresponding to each object to be found and determined (spy item 4 and cup 6), and a sleeping medicine indicating that the sleeping medicine has been injected into the cup 6. A flag 738 (“1 (with medicine)”) is included.

オブジェクト情報737には、対応するオブジェクトを識別するためのオブジェクトID737aと、面積総和737gと、発見フラグ737dとが対応付けられて格納されている。面積総和737gはそれぞれ第2実施形態における面積総和736gに相当する。   In the object information 737, an object ID 737a for identifying the corresponding object, an area total 737g, and a discovery flag 737d are stored in association with each other. The total area 737g corresponds to the total area 736g in the second embodiment.

[処理の流れの説明]
図20は、本実施形態における処理の流れを説明するためのフローチャートである。本実施形態は、第1実施形態におけるアクションゲームにおいて、敵施設への潜入が成功した場合に行われる1ミッションに相当し、第1実施形態において潜入が成功したならば当該フローが実行される。
[Description of process flow]
FIG. 20 is a flowchart for explaining the flow of processing in the present embodiment. The present embodiment corresponds to one mission performed when the infiltration into the enemy facility is successful in the action game in the first embodiment, and the flow is executed if the infiltration is successful in the first embodiment.

先ず処理部20は、仮想空間内にゲームステージを構築し、プレーヤキャラクタPと敵キャラクタEとを配置し(ステップS130)、敵キャラクタEの視点として仮想カメラCを配置する(ステップS132)。そして、ゲームをスタートさせて制限時間のカウントを開始する(ステップS134)。以下、制限時間に達するまでするまでステップS136〜S152の処理を繰り返す。   First, the processing unit 20 constructs a game stage in the virtual space, arranges the player character P and the enemy character E (step S130), and arranges the virtual camera C as the viewpoint of the enemy character E (step S132). Then, the game is started and counting of the time limit is started (step S134). Thereafter, the processes in steps S136 to S152 are repeated until the time limit is reached.

ゲームがスタートしたならば、先ず処理部20はプレーヤの操作入力に応じて、プレーヤキャラクタPの動作を制御する(ステップS136)。書き物の振りをしてうなじを見せ付ける、胸元を強調する、スパイアイテム4をコップ6に近づけ眠り薬を注入する、といった行動がこれに含まれる。コップ6に見事に眠り薬を入れることができたならば(ステップS138;YES)、記憶部70に眠り薬フラグを「1(薬入り)」として記憶させる(ステップS140)。   When the game is started, first, the processing unit 20 controls the action of the player character P in accordance with the player's operation input (step S136). This includes actions such as waving a writing to show nape, emphasizing the chest, and injecting a sleeping pill close to the spy item 4 close to the cup 6. If the sleeping medicine has been successfully put into the cup 6 (step S138; YES), the sleeping medicine flag is stored as "1 (medicine)" in the storage unit 70 (step S140).

次に、敵キャラクタEの動作を制御し、これに伴って仮想カメラCの姿勢や画角を制御する(ステップS142)。具体的には、敵キャラクタEは、基本的にプレーヤキャラクタPによって注意を向けられた箇所を見るように動作制御される。しかし、ゲーム世界でランダムにアクシデントが発生すると、そちらに注意が行って視線を向けるように制御される。そして、敵キャラクタEの動作を制御したならば、発見判定処理Cを実行する(ステップS144)。   Next, the movement of the enemy character E is controlled, and the posture and angle of view of the virtual camera C are controlled accordingly (step S142). Specifically, the enemy character E is controlled to move so as to see a portion that is basically pointed out by the player character P. However, when an accident occurs in the game world at random, control is performed so that attention is paid to the accident and the line of sight is directed. If the action of the enemy character E is controlled, the discovery determination process C is executed (step S144).

図21は、本実施形態における発見判定処理Cの流れについて説明するためのフローチャートである。処理部20は、先ず敵キャラクタEの視点として配置された仮想カメラCから視界画像を生成する(ステップS180)。ここで生成される視界画像は表示されないので、発見判定処理AのステップS30と同様に、対象とするオブジェクトの判定用モデルを参照して生成する。   FIG. 21 is a flowchart for explaining the flow of the discovery determination process C in the present embodiment. The processing unit 20 first generates a view field image from the virtual camera C arranged as the viewpoint of the enemy character E (step S180). Since the field-of-view image generated here is not displayed, it is generated with reference to the determination model of the target object as in step S30 of the discovery determination process A.

次に、スパイアイテム4とコップ6それぞれについてループ2(ステップS182〜S204)を実行する。
ループ2では、先ず生成した視界画像に写っている対象オブジェクトの面積Sを算出する(ステップS184)。次に、視界画像に写っているプレーヤキャラクタPの部分の中心位置(平均位置)の座標を算出し(ステップS186)、算出された中心位置の視界画像内の位置に応じて、第1実施形態における発見判定処理Aと同様にして、面積基準値Sjと時間基準値Tjとを決定する(ステップS188)。
Next, loop 2 (steps S182 to S204) is executed for each of the spy item 4 and the cup 6.
In loop 2, first, the area S of the target object shown in the generated view field image is calculated (step S184). Next, the coordinates of the center position (average position) of the portion of the player character P appearing in the view image are calculated (step S186), and the first embodiment is performed according to the position of the calculated center position in the view image. The area reference value Sj and the time reference value Tj are determined in the same manner as the discovery determination process A in (step S188).

次に、算出した面積S≠0の場合(ステップS190;NO)、すなわち視界画像に対象とするオブジェクトが写っている場合、算出した面積Sを面積総和737gに加算する(ステップS192)。そして、加算した結果、面積総和737gの値が所定の面積基準値Sjに達している場合(ステップS194;YES)、当該対象オブジェクトは「発見された」と判断し、発見フラグ737dを「1」として(ステップS196)、ループ2を終了する。   Next, when the calculated area S ≠ 0 (step S190; NO), that is, when the target object is reflected in the view field image, the calculated area S is added to the total area 737g (step S192). As a result of the addition, when the value of the total area 737g reaches the predetermined area reference value Sj (step S194; YES), it is determined that the target object is “discovered” and the discovery flag 737d is set to “1”. (Step S196), the loop 2 is terminated.

算出した面積S=0の場合(ステップS190;YES)、すなわち視界画像に対象とするオブジェクトが写っていない場合、面積総和737g≠0であれば(ステップS198;NO)、面積総和737gから規定値だけ減算する(ステップS202)。この過程は、発見判定処理AのステップS52、発見判定処理BのステップS118に相当する。一方、面積総和737g=0であれば(ステップS198;YES)、発見フラグ737dを「0」として(ステップS200)、ループ2を終了する。   When the calculated area S = 0 (step S190; YES), that is, when the object of interest is not shown in the view image, if the area total 737g ≠ 0 (step S198; NO), the specified value from the area total 737g Subtract only (step S202). This process corresponds to step S52 of the discovery determination process A and step S118 of the discovery determination process B. On the other hand, if the total area 737g = 0 (step S198; YES), the discovery flag 737d is set to “0” (step S200), and the loop 2 is terminated.

スパイアイテム4とコップ6とについてループ2を実行したならば、処理部20はスパイアイテム4とコップ6の発見フラグ737dが共に「1」である場合(ステップS206;YES)、すなわちスパイアイテム4とコップ6とが共に敵キャラクタEの視界画像に発見された場合、継続時間カウンタ736cに「2」加算する(ステップS208)。一方、スパイアイテム4とコップ6の発見フラグ737dが一方でも「0」である場合(ステップS206;NO)、すなわち何れか一方しか視界画像内に発見されていない場合は、継続時間カウンタ736c≠0であれば(ステップS210;NO)、継続時間カウンタ736cから「1」減算する(ステップS212)。   If the loop 2 is executed for the spy item 4 and the cup 6, the processing unit 20 determines that the detection flag 737d of the spy item 4 and the cup 6 is both “1” (step S206; YES), that is, the spy item 4 When both of the glasses 6 are found in the view image of the enemy character E, “2” is added to the duration counter 736c (step S208). On the other hand, when the detection flag 737d of the spy item 4 and the cup 6 is “0” on one side (step S206; NO), that is, when only one of them is found in the view image, the duration counter 736c ≠ 0. If so (step S210; NO), “1” is subtracted from the duration counter 736c (step S212).

次に、処理部20は、ゲージ設定値を決定する。すなわち、継続時間カウンタ736c=0であれば(ステップS216;YES)、ゲージ設定値736fを初期化する(ステップS218)。継続時間カウンタ736c≠0であれば(ステップS216;NO)、カウント値に基づいてゲージ設定値736fを設定し(ステップS220)、発見判定処理Cを終了する。ステップS216〜S220は、第1実施形態におけるゲージ設定処理に相当する。   Next, the processing unit 20 determines a gauge setting value. That is, if the duration counter 736c = 0 (step S216; YES), the gauge set value 736f is initialized (step S218). If the duration counter 736c ≠ 0 (step S216; NO), the gauge setting value 736f is set based on the count value (step S220), and the discovery determination process C is terminated. Steps S216 to S220 correspond to the gauge setting process in the first embodiment.

発見判定処理Cを実行したならば、図20にもどる。処理部20は、メイン画面W4及びエネミービューW3の画像を生成し表示させ(ステップS146)、ゲージGをエネミービューW3に表示させる(ステップS148)。   If the discovery determination process C is executed, the process returns to FIG. The processing unit 20 generates and displays an image of the main screen W4 and the enemy view W3 (step S146), and displays the gauge G on the enemy view W3 (step S148).

次に、継続時間カウンタ736cが、時間基準値Tjに達しているか否かを判定する(ステップS150)。
達している場合(ステップS150;YES)、敵キャラクタEにスパイアイテム4で眠り薬をコップ6に入れようとしたところを見つかったものと判断し、敵キャラクタEに警備部署に通報するなどの動作をさせ(ステップS164)、ゲームオーバとなる(ステップS166)。
Next, it is determined whether the duration counter 736c has reached the time reference value Tj (step S150).
If it has been reached (step S150; YES), it is determined that the enemy character E has been found to have tried to put a sleeping medicine into the cup 6 with the spy item 4, and the enemy character E is notified to the security department. (Step S164), the game is over (Step S166).

一方、継続時間カウンタ736cが時間基準値Tjに達していない場合は(ステップS150;NO)、制限時間に達しているか否かを判定する。達していなければ(ステップS152;NO)、ステップS136に戻る。   On the other hand, if the duration counter 736c has not reached the time reference value Tj (step S150; NO), it is determined whether or not the time limit has been reached. If not reached (step S152; NO), the process returns to step S136.

制限時間に達していれば(ステップS152;YES)、敵キャラクタEにコップ6の飲み物を飲む動作をさせる(ステップS154)。そして、このとき眠り薬フラグを参照し、該フラグが「1(薬入り)」の場合は(ステップS156;YES)、敵キャラクタEを眠りに落ちるように動作させる(ステップS158)。プレーヤキャラクタPは、敵キャラクタEが寝ている間に機密情報や機密物品を無事盗みだしてゲームクリアとなる(ステップS160)。制限時間に達していても、眠り薬が入れることができていなければ(ステップS156;NO)、敵キャラクタEは眠らず、スパイ行為が発覚しなかったもののミッションを遂行できずにゲームオーバとなる(ステップS162)。   If the time limit has been reached (step S152; YES), the enemy character E is allowed to drink the drink of the cup 6 (step S154). At this time, the sleep medicine flag is referred to. If the flag is “1 (medicine)” (step S156; YES), the enemy character E is caused to fall asleep (step S158). The player character P successfully steals confidential information and confidential articles while the enemy character E is sleeping, and the game is cleared (step S160). Even if the time limit has been reached, if the sleeping drug cannot be put in (step S156; NO), the enemy character E does not sleep, and although the spying is not detected, the mission cannot be performed and the game is over ( Step S162).

このように発見判定の対象を人物以外にも適宜適用し、場合によっては複数のオブジェクトを対象として判定することによって様々なシチュエーションのゲームに応用することができる。 In this way, the object of discovery determination can be appropriately applied to a person other than a person, and in some cases, it can be applied to a game of various situations by determining a plurality of objects as targets.

〔第4実施形態〕
次に、潜入工作員をモチーフとしたアクションゲームにおいて、敵施設から脱出した後に、プレーヤキャラクタPを尾行する敵キャラクタを誘導するシチュエーションを実行する場合について説明する。尚、本実施形態は、基本的には第1実施形態と同様の構成要素によって実現できる。同様の構成要素については同符号を付け説明は省略するものとする。
[Fourth Embodiment]
Next, in the action game with an infiltrating operative as a motif, a case will be described in which a situation for guiding an enemy character following the player character P is executed after escape from an enemy facility. This embodiment can be basically realized by the same components as those in the first embodiment. Similar components are denoted by the same reference numerals, and description thereof is omitted.

図22は、本実施形態におけるゲーム画面の一例を示す図である。潜入工作員であるプレーヤキャラクタPは、敵キャラクタEの尾行を受けている。プレーヤキャラクタPは、尾行に気づいているが、尾行を捲くのではなく、そのそぶりを見せずに制限時間内に敵キャラクタEを目標地点までおびき出せばゲームクリアとなる。   FIG. 22 is a diagram showing an example of a game screen in the present embodiment. The player character P who is an infiltrating operative receives the tail of the enemy character E. The player character P is aware of the tail, but instead of scolding the tail, the game is cleared if the enemy character E sprawls to the target point within the time limit without showing its bounce.

敵キャラクタEは、視界画像に写っているプレーヤキャラクタPを発見して、尾行するように制御される。しかし、尾行を感づかれないようにわざと視線をはずし、時には自動車や歩行者といったエキストラキャラクタが視界を横切ることでプレーヤキャラクタPの姿を見失う。この見失った時間(すなわち、視界画像にプレーヤキャラクタPが写っていない時間)が、所定の基準を超えると尾行のターゲットを見失う。プレーヤは、エネミービューW3で、敵キャラクタEの視界画像内に、適当にプレーヤキャラクタPが写るように、移動する方向や速度などを調節しなければならない。尚、敵キャラクタE及びエキストラキャラクタは、従来のNPC(ノンプレーヤキャラクタ;コンピュータが制御するキャラクタ)と同様にして、所定の思考ルーチンにしたがって自動制御する。   The enemy character E is controlled to find and follow the player character P in the view image. However, the line of sight is intentionally removed so that the tail is not perceived, and sometimes an extra character such as a car or a pedestrian crosses the field of view and loses the appearance of the player character P. When this lost time (that is, the time when the player character P is not shown in the view image) exceeds a predetermined reference, the tail target is lost. The player must adjust the moving direction and speed so that the player character P is appropriately captured in the view image of the enemy character E in the enemy view W3. The enemy character E and the extra character are automatically controlled according to a predetermined thinking routine in the same manner as a conventional NPC (non-player character; computer controlled character).

本実施形態は基本的に、第1実施形態と同様のハード構成及び機能構成によって実現される。特徴的であるのは、図23に示すように敵キャラクタ情報736が、敵キャラクタEがプレーヤキャラクタPを見ていない時間を示す未発見時間カウンタ736hを含んでいる点である。   The present embodiment is basically realized by the same hardware configuration and functional configuration as the first embodiment. What is characteristic is that, as shown in FIG. 23, the enemy character information 736 includes an undiscovered time counter 736h indicating a time during which the enemy character E does not look at the player character P.

図24は、本実施形態における処理の流れを説明するためのフローチャートである。本実施形態は、第1実施形態におけるアクションゲームにおいて、敵施設から脱出した場合に行われる1ミッションに相当し、例えば、プレーヤキャラクタPが第1実施形態において潜入が成功し、第3実施形態で示したようなミッションを成功させた後に施設を脱出すると当該フローが実行される。   FIG. 24 is a flowchart for explaining the flow of processing in the present embodiment. This embodiment corresponds to one mission that is performed when the action game in the first embodiment escapes from an enemy facility. For example, the player character P successfully infiltrates in the first embodiment, and in the third embodiment, When the facility is exited after a successful mission as shown, the flow is executed.

同図に示すように、処理部20は、先ず仮想空間内にゲームステージを構築し、プレーヤキャラクタP、敵キャラクタE及びエキストラキャラクタを配置し(ステップS230)、敵キャラクタEの視点として仮想カメラCを配置する(ステップS232)。そして、ゲームをスタートさせ制限時間のカウントを開始する(ステップS234)。   As shown in the figure, the processing unit 20 first constructs a game stage in the virtual space, places a player character P, an enemy character E, and an extra character (step S230), and uses the virtual camera C as a viewpoint of the enemy character E. Are arranged (step S232). Then, the game is started and counting of the time limit is started (step S234).

ゲームがスタートしたならば、処理部20はプレーヤからの操作入力に応じてプレーヤキャラクタPの動作を制御し(ステップS236)、通行人などのエキストラキャラクタの動作を制御する(ステップS238)。次に、敵キャラクタEに尾行動作させるように制御し、視点である仮想カメラCの姿勢や画角を制御する(ステップS240)。そして、仮想カメラCで撮影される視界画像を表示用に生成し、エネミービューW3として表示させる(ステップS242)。   When the game is started, the processing unit 20 controls the movement of the player character P in accordance with an operation input from the player (step S236), and controls the movement of an extra character such as a passerby (step S238). Next, control is performed so that the enemy character E performs a tailing motion, and the attitude and angle of view of the virtual camera C as the viewpoint are controlled (step S240). Then, a field-of-view image captured by the virtual camera C is generated for display and displayed as an enemy view W3 (step S242).

次に、処理部20は、第1実施形態と同様にして発見判定処理Aを実行する(ステップS244)。その結果、発見フラグが「0」である場合(ステップS246;YES)、すなわち敵キャラクタEが視界画像内にプレーヤキャラクタPを発見できていない場合、未発見時間カウンタ736hを「1」加算する(ステップS256)。   Next, the processing unit 20 executes the discovery determination process A as in the first embodiment (step S244). As a result, when the discovery flag is “0” (step S246; YES), that is, when the enemy character E has not found the player character P in the view field image, the undiscovered time counter 736h is incremented by “1” ( Step S256).

加算した結果、未発見時間カウンタ736hが所定の基準値に達した場合(ステップS258;YES)、敵キャラクタEは尾行を失敗したものと判断し、ゲームオーバとなる(ステップS260)。未発見時間カウンタ736hが基準値に達せず(ステップS258;NO)、ゲームプレイした時間のタイムカウントが制限時間に達していなければ(ステップS250;NO)、ステップS236に戻る。   As a result of the addition, when the undiscovered time counter 736h reaches a predetermined reference value (step S258; YES), it is determined that the enemy character E has failed to follow, and the game is over (step S260). If the undiscovered time counter 736h does not reach the reference value (step S258; NO) and the time count of the game play time has not reached the time limit (step S250; NO), the process returns to step S236.

発見判定処理Aを実行した結果、発見フラグが「1」となった場合(ステップS246;NO)、すなわち敵キャラクタEがプレーヤキャラクタPの姿を視界中に発見している場合、処理部20は未発見時間カウンタ736hを「0」に戻し(ステップS248)、ゲームプレイした時間のタイムカウントが制限時間に達していなければ(ステップS250;NO)、ステップS236に戻る。   As a result of executing the discovery determination process A, when the discovery flag becomes “1” (step S246; NO), that is, when the enemy character E finds the appearance of the player character P in the field of view, the processing unit 20 The undiscovered time counter 736h is returned to “0” (step S248), and if the time count of the game play time has not reached the time limit (step S250; NO), the process returns to step S236.

ゲームプレイした時間のタイムカウントが制限時間に達している場合は(ステップS250;YES)、その時点で敵キャラクタEが目標地点に達していれば(ステップS252;YES)、ミッションクリアとなる(ステップS254)。目標地点に達していなければ(ステップS252;NO)、クリアできずにゲームオーバとなる(ステップS260)。   When the time count of the game play time has reached the time limit (step S250; YES), if the enemy character E has reached the target point at that time (step S252; YES), the mission is cleared (step). S254). If the target point has not been reached (step S252; NO), the game cannot be cleared and the game is over (step S260).

〔変形例の説明〕
以上、本発明の第1〜第4実施形態について説明したが、本発明がこれらに限定されるものではなく、発明の主旨を逸脱せず同様の作用・効果を得られるならば、適宜構成要素の追加・削除・変更を行っても良い。
[Description of Modification]
The first to fourth embodiments of the present invention have been described above. However, the present invention is not limited to these embodiments, and may be appropriately configured as long as similar actions and effects can be obtained without departing from the gist of the invention. You may add, delete, or change.

例えば、視界画像にプレーヤキャラクタPが写っているか否かの判定を、その一部でも写っていれば判定されるものとしたが、プレーヤキャラクタP全体が写っているか否かで判定するとしても良いのは勿論である。   For example, the determination as to whether or not the player character P is captured in the view image is made if it is partially captured, but it may be determined based on whether or not the entire player character P is captured. Of course.

また、判定基準点Mの部位ポイントの合計を面積Sの代用としたが、部位ポイントの合計を算出する過程を省略して、視界画像に写っている判定基準点Mの数を用いる構成としてより処理負荷を軽減する構成としても良い。例えば、一度に複数の敵キャラクタEにプレーヤキャラクタPが遭遇するような状況では特に有効である。   Further, although the total of the part points of the determination reference point M is used as a substitute for the area S, the process of calculating the total of the part points is omitted, and the number of determination reference points M reflected in the view field image is used. It may be configured to reduce the processing load. For example, this is particularly effective in situations where the player character P encounters a plurality of enemy characters E at one time.

更には、部位ポイントは固定値に限らず、合計を算出する際にプレーヤキャラクタPの状態に応じて補正するとしても良い。例えば、判定基準点Mの部位(例えば、手や頭)が動いている場合には、当該判定基準点Mの部位ポイントに所定数を乗算又は加算してポイントの値に高めるように補正し、補正後の値で合計を算出する。これによって判定対象が動いている場合に、より発見され易いようにできる。   Furthermore, the part point is not limited to a fixed value, and may be corrected according to the state of the player character P when calculating the total. For example, when a part (for example, a hand or a head) of the judgment reference point M is moving, the part point of the judgment reference point M is corrected by multiplying or adding a predetermined number to increase the value of the point, The total is calculated with the corrected value. This makes it easier to find when the determination target is moving.

また、視界に写ってから発見されるまでの時間経過をゲージGで表示する構成としたが、例えば、フェースマークのように表情や感情を示すマークで「疑問に思う表情」から「はっ!とした表情」に切り換えて表す構成としても良い。   In addition, the time lapse from when it appears in the field of view until it is discovered is displayed with a gauge G. For example, with a mark indicating an expression or emotion such as a face mark, the expression “wondering expression” to “ha! The expression may be expressed by switching to “Facial expression”.

また、表示させるエネミービューW3の数を適宜限定する場合、ステップS24において継続時間カウンタ736cが最も大きい敵キャラクタEの仮想カメラCを視点とする視界画像をエネミービューW3として表示させる他、ステップS34で算出した基準点ポイントの合計値を敵キャラクタ情報736に格納し、該合計値の最も大きな敵キャラクタEの仮想カメラCを視点とする視界画像をエネミービューW3として表示させるとしても良い。同様に、面積総和736g(図16参照)や面積の時間積分値によって判定する構成としても良い。   When the number of enemy views W3 to be displayed is appropriately limited, in step S24, in addition to displaying, as the enemy view W3, a view field image having the viewpoint of the virtual camera C of the enemy character E having the largest duration counter 736c as the enemy view W3, in step S34. The calculated total value of the reference point points may be stored in the enemy character information 736, and a view image of the enemy character E having the largest total value as viewed from the viewpoint may be displayed as the enemy view W3. Similarly, the determination may be made based on the total area 736g (see FIG. 16) or the time integral value of the area.

家庭用ゲーム装置の構成の一例を示す図。The figure which shows an example of a structure of a household game device. 第1実施形態におけるゲーム画面の一例と、敵キャラクタに設定される仮想カメラとの関係を示す図。The figure which shows the relationship between an example of the game screen in 1st Embodiment, and the virtual camera set to an enemy character. 敵キャラクタの動作制御とエネミービューの表示との関係を示す図。The figure which shows the relationship between the action control of an enemy character, and the display of enemy view. 発見判定の具体的な方法を示すための図。(a)視界画像の一例、(b)判定基準点の概念を示す図。The figure for showing the specific method of discovery determination. (A) An example of a visual field image, (b) The figure which shows the concept of a determination reference point. 面積基準値と時間基準値の算出方法の概念を説明するための図。The figure for demonstrating the concept of the calculation method of an area reference value and a time reference value. 第1実施形態における機能構成の一例を示す機能ブロック図。The functional block diagram which shows an example of the function structure in 1st Embodiment. プレーヤキャラクタ設定情報のデータ構成の一例を示す図。The figure which shows an example of the data structure of player character setting information. アイテム設定情報のデータ構成の一例を示す図。The figure which shows an example of the data structure of item setting information. 第1実施形態におけるゲームプレイ情報のデータ構成の一例を示す図。The figure which shows an example of the data structure of the game play information in 1st Embodiment. 第1実施形態における処理の流れを説明するためのフローチャート。The flowchart for demonstrating the flow of the process in 1st Embodiment. 発見判定処理Aの流れを説明するためのフローチャート。The flowchart for demonstrating the flow of the discovery determination process A. 敵キャラクタ動作制御処理の流れを説明するためのフローチャート。The flowchart for demonstrating the flow of enemy character action control processing. ゲージ設定処理の流れを説明するためのフローチャート。The flowchart for demonstrating the flow of a gauge setting process. 家庭用ゲーム装置を実現し得るハードウェアの構成の一例を示す図。The figure which shows an example of a structure of the hardware which can implement | achieve a household game device. 業務用ゲーム装置の構成の一例を示す図。The figure which shows an example of a structure of an arcade game device. 第2実施形態におけるゲームプレイ情報のデータ構成の一例を示す図。The figure which shows an example of the data structure of the game play information in 2nd Embodiment. 発見判定処理Bの流れを説明するためのフローチャート。The flowchart for demonstrating the flow of the discovery determination process B. FIG. 第3実施形態におけるゲーム画面の例を示す図。The figure which shows the example of the game screen in 3rd Embodiment. 第3実施形態におけおるゲームプレイ情報のデータ構成の一例を示す図。The figure which shows an example of the data structure of the game play information in 3rd Embodiment. 第3実施形態における処理の流れを説明するためのフローチャート。The flowchart for demonstrating the flow of the process in 3rd Embodiment. 発見判定処理Cの流れを説明するためのフローチャート。The flowchart for demonstrating the flow of the discovery determination process C. FIG. 第4実施形態におけるゲーム画面の一例を示す図。The figure which shows an example of the game screen in 4th Embodiment. 第4実施形態における敵キャラクタ情報のデータ構成の一例を示す図。The figure which shows an example of the data structure of enemy character information in 4th Embodiment. 第4実施形態における処理の流れを説明するためのフローチャート。The flowchart for demonstrating the flow of the process in 4th Embodiment.

符号の説明Explanation of symbols

20 処理部
22 ゲーム演算部
221 仮想カメラ配置部
222 発見判定部
70 記憶部
72 ゲーム情報
721 仮想カメラ配置プログラム
722 発見判定プログラム
730 ゲームステージ情報
731 プレーヤキャラクタ設定情報
731b 判定用モデル
731c 部位ポイント
734 ゲームプレイ情報
736 敵キャラクタ情報
736b 動作モード
736c 継続時間カウンタ
736d 発見フラグ
736e 仮想カメラ設定値
736f ゲージ設定値
736g 面積総和
C 仮想カメラ
E 敵キャラクタ
EV 視界画像
G ゲージ
G1 ゲージ枠
G2 指針
M 判定基準点
P プレーヤキャラクタ
T 継続時間
K 視界係数
S 面積
Sj 面積基準値
W1 メイン画面
W2 マップ
W3 エネミービュー
DESCRIPTION OF SYMBOLS 20 Processing part 22 Game calculating part 221 Virtual camera arrangement | positioning part 222 Discovery determination part 70 Storage part 72 Game information 721 Virtual camera arrangement program 722 Discovery determination program 730 Game stage information 731 Player character setting information
731b Model for judgment
731c Site points 734 Gameplay information
736 Enemy character information
736b Operation mode
736c Duration counter
736d Discovery flag
736e Virtual camera setting value
736f Gauge set value
736g Total area C Virtual camera E Enemy character EV View image G Gauge G1 Gauge frame G2 Pointer M Judgment reference point P Player character T Duration K Visibility coefficient S Area Sj Area reference value W1 Main screen W2 Map W3 Enemy view

Claims (12)

コンピュータに、第1キャラクタ及び第2キャラクタが配置された3次元仮想空間の画像を生成させて所定のゲームを実行させるためのプログラムであって、  A program for causing a computer to generate an image of a three-dimensional virtual space in which a first character and a second character are arranged and to execute a predetermined game,
前記第1キャラクタを前記3次元仮想空間内で移動制御する第1キャラクタ制御手段、  First character control means for controlling movement of the first character in the three-dimensional virtual space;
前記第2キャラクタを前記3次元仮想空間内で移動制御する第2キャラクタ制御手段、  Second character control means for controlling movement of the second character in the three-dimensional virtual space;
前記第2キャラクタの視点を表す視点カメラを前記第2キャラクタの視点位置に設定する視点カメラ設定手段、  Viewpoint camera setting means for setting a viewpoint camera representing the viewpoint of the second character to the viewpoint position of the second character;
前記視点カメラにより撮影された前記3次元仮想空間の画像である視界画像に前記第1キャラクタが写っていることを検出する検出手段、  Detecting means for detecting that the first character is reflected in a view field image that is an image of the three-dimensional virtual space photographed by the viewpoint camera;
前記検出手段により検出されている間の継続時間を計時する計時手段、  A time measuring means for measuring a duration time being detected by the detecting means;
前記計時手段により計時されている継続時間が、前記第1キャラクタを発見したと判定するための時間として定められた時間基準値に到達していない場合には前記第2キャラクタが前記第1キャラクタを発見していないと判定し、到達した場合に発見したと判定する発見判定手段、  If the duration measured by the timing means has not reached the time reference value determined as the time for determining that the first character has been found, the second character A discovery determination means that determines that a discovery has not been made and that a discovery has been made when it has arrived,
として前記コンピュータを機能させるとともに、  As the computer functions as
前記第2キャラクタ移動制御手段が、前記発見判定手段により発見したと判定された場合に前記第2のキャラクタを予め定められた発見時の動作制御で制御するように前記コンピュータを機能させる、  Causing the computer to function so that the second character movement control means controls the second character with a predetermined action control at the time of discovery when it is determined by the discovery determination means;
ためのプログラム。  Program for.
前記検出手段が、前記視点カメラの視界画像に含まれている前記第1キャラクタの面積を算出する算出手段を有し、前記算出手段により算出された面積が所定の基準値に達していることで前記第1キャラクタが写っていると検出するように前記コンピュータを機能させるための請求項1に記載のプログラム。  The detection means has calculation means for calculating the area of the first character included in the view field image of the viewpoint camera, and the area calculated by the calculation means reaches a predetermined reference value. The program according to claim 1, wherein the computer is caused to function so as to detect that the first character is reflected. 前記検出手段が、前記視点カメラの視界画像に含まれている前記第1キャラクタの部位を検出する部位検出手段を有し、前記第1キャラクタの各部位それぞれに予め定められた部位ポイントのうち、前記部位検出手段により検出された部位の部位ポイントの合計値が所定の基準値に達していることで前記第1キャラクタが写っていると検出するように前記コンピュータを機能させるための請求項1に記載のプログラム。  The detection means includes part detection means for detecting the part of the first character included in the field-of-view image of the viewpoint camera, and among the part points predetermined for each part of the first character, The computer according to claim 1, wherein the computer is caused to function so as to detect that the first character is reflected because a total value of the part points of the parts detected by the part detection means has reached a predetermined reference value. The listed program. 前記視点カメラの視界画像内における前記第1キャラクタの位置に基づいて前記所定の基準値を変更する検出基準値変更手段として前記コンピュータを機能させるための請求項2又は3に記載のプログラム。  The program according to claim 2 or 3, for causing the computer to function as detection reference value changing means for changing the predetermined reference value based on a position of the first character in a view field image of the viewpoint camera. 前記検出基準値変更手段が、前記視界画像内における前記第1キャラクタの位置が前記視界画像の中心に近いほど前記所定の基準値を低くするように前記コンピュータを機能させるための請求項4に記載のプログラム。  The said detection reference value change means makes the said computer function so that the said predetermined | prescribed reference value may be made low, so that the position of the said 1st character in the said visual field image is near the center of the said visual field image. Program. 前記視点カメラの視界画像内における前記第1キャラクタの位置に基づいて前記所定の時間基準値を変更する時間基準値変更手段として前記コンピュータを機能させるための請求項1〜4の何れか一項に記載のプログラム。  5. The computer system according to claim 1, wherein the computer functions as a time reference value changing unit that changes the predetermined time reference value based on a position of the first character in a view image of the viewpoint camera. The listed program. 前記時間基準値変更手段が、前記視界画像内における前記第1キャラクタの位置が前記視界画像の中心に近いほど前記所定の時間基準値を短くするように前記コンピュータを機能させるための請求項6に記載のプログラム。  The time reference value changing means causes the computer to function so as to shorten the predetermined time reference value as the position of the first character in the view image is closer to the center of the view image. The listed program. 前記検出手段により検出されており、且つ、前記第1キャラクタの動作速度が所定の基準速度に達していることを検出する動き検出手段として前記コンピュータを機能させ、  Causing the computer to function as motion detecting means that is detected by the detecting means and detects that the motion speed of the first character has reached a predetermined reference speed;
前記発見判定手段が、前記計時手段により計時されている継続時間が前記所定の時間基準値に到達していない場合であっても、前記動き検出手段による検出がなされた場合には前記第1キャラクタを発見したと判定するように前記コンピュータを機能させる、  The first character is detected when the detection is made by the motion detection means even if the discovery determination means does not reach the predetermined time reference value for the duration timed by the time measurement means. Causing the computer to function as determining that it has been discovered;
ための請求項1〜7の何れか一項に記載のプログラム。  The program as described in any one of Claims 1-7 for.
前記計時手段により計時されている継続時間を表示する表示制御手段として前記コンピュータを機能させるための請求項1〜8の何れか一項に記載のプログラム。  The program as described in any one of Claims 1-8 for functioning the said computer as a display control means to display the continuation time currently timed by the said time measuring means. 前記視点カメラの視界画像をゲーム画面上に表示する視界画像表示制御手段として前記コンピュータを機能させるための請求項1〜9の何れか一項に記載のプログラム。  The program as described in any one of Claims 1-9 for functioning the said computer as a visual field image display control means to display the visual field image of the said viewpoint camera on a game screen. 請求項1〜10の何れか一項に記載のプログラムを記憶したコンピュータ読取可能な情報記憶媒体。  The computer-readable information storage medium which memorize | stored the program as described in any one of Claims 1-10. 第1キャラクタ及び第2キャラクタを配置した3次元仮想空間の画像を生成して所定のゲームを実行するゲーム装置であって、  A game device that generates an image of a three-dimensional virtual space in which a first character and a second character are arranged and executes a predetermined game,
前記第1キャラクタを前記3次元仮想空間内で移動制御する第1キャラクタ制御手段と、  First character control means for controlling movement of the first character in the three-dimensional virtual space;
前記第2キャラクタを前記3次元仮想空間内で移動制御する第2キャラクタ制御手段と、  Second character control means for controlling movement of the second character in the three-dimensional virtual space;
前記第2キャラクタの視点を表す視点カメラを前記第2キャラクタの視点位置に設定する視点カメラ設定手段と、  Viewpoint camera setting means for setting a viewpoint camera representing the viewpoint of the second character to the viewpoint position of the second character;
前記視点カメラにより撮影された前記3次元仮想空間の画像である視界画像に前記第1キャラクタが写っていることを検出する検出手段と、  Detecting means for detecting that the first character is reflected in a view field image that is an image of the three-dimensional virtual space photographed by the viewpoint camera;
前記検出手段により検出されている間の継続時間を計時する計時手段と、  A time measuring means for measuring a duration time being detected by the detecting means;
前記計時手段により計時されている継続時間が、前記第1キャラクタを発見したと判定するための時間として定められた時間基準値に到達していない場合には前記第2キャラクタが前記第1キャラクタを発見していないと判定し、到達した場合に発見したと判定する発見判定手段と、  If the duration measured by the timing means has not reached the time reference value determined as the time for determining that the first character has been found, the second character A discovery determination means that determines that it has not been discovered and that it has been discovered when it has arrived;
を備え、  With
前記第2キャラクタ移動制御手段が、前記発見判定手段により発見したと判定された場合に前記第2のキャラクタを予め定められた発見時の動作制御で制御するゲーム装置。  A game device for controlling the second character by a predetermined motion control at the time of discovery when it is determined that the second character movement control means is found by the discovery determination means.
JP2004018527A 2004-01-27 2004-01-27 PROGRAM, INFORMATION STORAGE MEDIUM, AND GAME DEVICE Expired - Lifetime JP4119850B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004018527A JP4119850B2 (en) 2004-01-27 2004-01-27 PROGRAM, INFORMATION STORAGE MEDIUM, AND GAME DEVICE

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004018527A JP4119850B2 (en) 2004-01-27 2004-01-27 PROGRAM, INFORMATION STORAGE MEDIUM, AND GAME DEVICE

Publications (2)

Publication Number Publication Date
JP2005211132A JP2005211132A (en) 2005-08-11
JP4119850B2 true JP4119850B2 (en) 2008-07-16

Family

ID=34903015

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004018527A Expired - Lifetime JP4119850B2 (en) 2004-01-27 2004-01-27 PROGRAM, INFORMATION STORAGE MEDIUM, AND GAME DEVICE

Country Status (1)

Country Link
JP (1) JP4119850B2 (en)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080194328A1 (en) * 2004-05-10 2008-08-14 Sega Corporation Electronic Game Machine, Data Processing Method in Electronic Game Machine and Its Program and Storage Medium for Same
JP2010088675A (en) * 2008-10-08 2010-04-22 Copcom Co Ltd Game program, storage medium and computer unit
JP5015984B2 (en) * 2009-03-18 2012-09-05 株式会社コナミデジタルエンタテインメント GAME SERVER, GAME SYSTEM, GAME DEVICE, CIRCUIT POINT UPDATE METHOD, AND PROGRAM
JP5629812B1 (en) * 2013-10-09 2014-11-26 株式会社スクウェア・エニックス・ホールディングス Video game processing server and video game processing system
JP7167949B2 (en) * 2018-02-06 2022-11-09 ソニーグループ株式会社 Image processing device, image processing method, and image providing system
CN113680055B (en) * 2021-08-19 2023-08-22 网易(上海)网络有限公司 Virtual object control method, electronic device and readable medium

Also Published As

Publication number Publication date
JP2005211132A (en) 2005-08-11

Similar Documents

Publication Publication Date Title
US11080310B2 (en) Information processing device, system, information processing method, and program
JP6577209B2 (en) Program and server system
JP7361502B2 (en) System and method for adjusting stereoscopic effects
JP6017008B1 (en) Avatar display system, user terminal, and program
JP2006034708A (en) Game system, server, and game control program
JP5913709B1 (en) Image generation apparatus, image generation method, and image generation program
JP4610988B2 (en) Program, information storage medium, and image generation system
JP2008186323A (en) Program, information storage medium, and game device
JP2010042090A (en) Program, information storage medium and game device
CN108597033A (en) Bypassing method, VR equipment and the storage medium of realistic obstacles object in VR game
US7999812B2 (en) Locality based morphing between less and more deformed models in a computer graphics system
JP3786669B2 (en) GAME SYSTEM, PROGRAM, AND INFORMATION STORAGE MEDIUM
JP2009136411A (en) Program, information storage medium, and game device
KR100281837B1 (en) Image processing apparatus and game device having same
JP4119850B2 (en) PROGRAM, INFORMATION STORAGE MEDIUM, AND GAME DEVICE
JP3990648B2 (en) Program, information storage medium, and image generation apparatus
JP2017102897A (en) Avatar display system, user terminal, and program
JP4176455B2 (en) Program, information storage medium, and image generation apparatus
JP5971816B2 (en) GAME DEVICE AND PROGRAM
JP5124545B2 (en) GAME DEVICE, GAME PROCESSING METHOD, AND PROGRAM
JP4220224B2 (en) Program, information storage medium, and image generation apparatus
JPH10113465A (en) Game device, screen generating method, and information memory medium
JP6770152B2 (en) Program and server system
JP7406950B2 (en) Computer systems, server systems and programs
JP6419502B2 (en) Program, game device, and server system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20061201

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20061201

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20061212

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20061212

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080205

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080404

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20080422

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20080425

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 4119850

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110502

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110502

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110502

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120502

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120502

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130502

Year of fee payment: 5

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130502

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140502

Year of fee payment: 6

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R360 Written notification for declining of transfer of rights

Free format text: JAPANESE INTERMEDIATE CODE: R360

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R370 Written measure of declining of transfer procedure

Free format text: JAPANESE INTERMEDIATE CODE: R370

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250