JP5520656B2 - Program and image generation apparatus - Google Patents

Program and image generation apparatus Download PDF

Info

Publication number
JP5520656B2
JP5520656B2 JP2010077214A JP2010077214A JP5520656B2 JP 5520656 B2 JP5520656 B2 JP 5520656B2 JP 2010077214 A JP2010077214 A JP 2010077214A JP 2010077214 A JP2010077214 A JP 2010077214A JP 5520656 B2 JP5520656 B2 JP 5520656B2
Authority
JP
Japan
Prior art keywords
hit
virtual
possible range
game
target object
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2010077214A
Other languages
Japanese (ja)
Other versions
JP2011210019A (en
Inventor
政樹 加藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Namco Ltd
Bandai Namco Entertainment Inc
Original Assignee
Namco Ltd
Namco Bandai Games Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Namco Ltd, Namco Bandai Games Inc filed Critical Namco Ltd
Priority to JP2010077214A priority Critical patent/JP5520656B2/en
Publication of JP2011210019A publication Critical patent/JP2011210019A/en
Application granted granted Critical
Publication of JP5520656B2 publication Critical patent/JP5520656B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本発明は、コンピュータに所与の仮想カメラから見た仮想3次元空間の画像を生成させるためのプログラム等に関する。   The present invention relates to a program for causing a computer to generate an image of a virtual three-dimensional space viewed from a given virtual camera.

ビデオゲームの中には、仮想3次元空間内に多数の衝突対象オブジェクトを配置して、プレーヤが操作する操作オブジェクトとの衝突を判定して進行するゲームがある。
例えば、仮想3次元空間内に対象オブジェクトとして多数の竹オブジェクトを配置し、刀型コントローラによる操作入力に従って、操作オブジェクトである刀オブジェクトを移動させ、衝突した竹オブジェクトを切断するゲームが知られている(例えば、特許文献1参照)。
Among video games, there are games in which a large number of objects to be collided are arranged in a virtual three-dimensional space and a collision with an operation object operated by a player is determined to proceed.
For example, a game is known in which a large number of bamboo objects are arranged as target objects in a virtual three-dimensional space, a sword object that is an operation object is moved in accordance with an operation input by a sword controller, and a bamboo object that has collided is cut. (For example, refer to Patent Document 1).

特開2003−85585号公報JP 2003-85585 A

特許文献1のゲームのように、仮想3次元空間に配置されたオブジェクトの衝突を、2次元のゲーム画面で表示する場合、画面奥行方向の距離感が掴み難い。操作オブジェクトや衝突対象オブジェクトが動いている場合は特にそうである。その為、プレーヤの感覚としては、操作オブジェクトと衝突対象オブジェクトとを衝突させることができたと思ってもゲーム処理上は衝突しているとは判定されない場合が発生し、ゲームプレイ中にフラストレーションを与えてしまう場合がある。   When a collision of objects arranged in a virtual three-dimensional space is displayed on a two-dimensional game screen as in the game of Patent Document 1, it is difficult to grasp the sense of distance in the screen depth direction. This is especially true when the operation object or the collision target object is moving. Therefore, as a player's sense, even if it thinks that the operation object and the object to be collided can be collided with each other, it may not be judged that they are colliding in the game processing. May give.

本発明は、こうした事情を鑑みてなされたものであり、その目的とするところは、プレーヤの操作入力により移動制御される操作オブジェクトと衝突対象オブジェクトとを仮想3次元空間に形成されたゲーム空間に配置するとともに、ゲーム空間内の様子を仮想カメラで撮影した画像をゲーム画面とし、操作オブジェクトと衝突対象オブジェクトとの衝突を要素にゲームが進行するビデオゲームにおいて、ゲーム画面奥行き感をサポートすることである。より具体的には、プレーヤの感覚として、操作オブジェクトと衝突対象オブジェクトとを衝突させることができたと思ってもゲーム処理上は衝突しているとは判定されず、ゲームプレイ中にフラストレーションを与えるという事態を低減することである。   The present invention has been made in view of such circumstances, and an object of the present invention is to provide a game space formed in a virtual three-dimensional space with an operation object that is controlled to move by a player's operation input and a collision target object. In the video game where the game progresses with the collision of the operation object and the object to be collided as an element, the game screen is an image obtained by shooting the state in the game space with a virtual camera. is there. More specifically, as a player's feeling, even if the operation object and the collision target object can be collided with each other, it is not determined in the game processing that the object is collided. Is to reduce the situation.

以上の課題を解決するための第1の形態は、コンピュータに、衝突対象オブジェクト(例えば、図3の砲弾10)が存在する仮想3次元空間内でユーザ操作に従って操作オブジェクトを移動させ、所与の仮想カメラから見た前記仮想3次元空間の画像を生成させるためのプログラムであって、
前記操作オブジェクトの所与の基準点の移動軌跡に基づき前記仮想カメラの視線方向に沿った方向に拡張したヒット可能範囲を設定するヒット可能範囲設定手段(例えば、図6の処理部200、ゲーム演算部210、ヒット可能範囲設定部216、図10のステップS82)、
前記ヒット可能範囲と前記衝突対象オブジェクトとのヒット判定を行うヒット判定手段(例えば、図6の処理部200、ゲーム演算部210、図10のステップS150)、
として前記コンピュータを機能させるためのプログラムである。
In a first mode for solving the above problem, a computer moves a manipulation object in accordance with a user operation in a virtual three-dimensional space where a collision target object (for example, the cannonball 10 in FIG. 3) exists, A program for generating an image of the virtual three-dimensional space viewed from a virtual camera,
Hit possible range setting means for setting a hit possible range expanded in a direction along the visual line direction of the virtual camera based on the movement trajectory of the given reference point of the operation object (for example, the processing unit 200 of FIG. 6, game calculation) Unit 210, hit possible range setting unit 216, step S82 in FIG. 10),
Hit determination means (for example, the processing unit 200 in FIG. 6, the game calculation unit 210, and step S150 in FIG. 10) that performs hit determination between the hit possible range and the collision target object;
As a program for causing the computer to function.

また、別形態として、衝突対象オブジェクトが存在する仮想3次元空間内でユーザ操作に従って操作オブジェクトを移動させ、所与の仮想カメラから見た前記仮想3次元空間の画像を生成する画像生成装置であって、
前記操作オブジェクトの所与の基準点の移動軌跡に基づき前記仮想カメラの視線方向に沿った方向に拡張したヒット可能範囲を設定するヒット可能範囲設定手段(例えば、図1の制御ユニット1210、図6の処理部200、ゲーム演算部210、ヒット可能範囲設定部216、図10のステップS82)と、
前記ヒット可能範囲と前記衝突対象オブジェクトとのヒット判定を行うヒット判定手段(例えば、図1の制御ユニット1210、図6の処理部200、ゲーム演算部210、図10のステップS150)と、
を備えた画像生成装置とすることができる。
According to another aspect, the present invention is an image generation apparatus that moves an operation object according to a user operation in a virtual three-dimensional space where a collision target object exists, and generates an image of the virtual three-dimensional space viewed from a given virtual camera. And
Hit possible range setting means (for example, the control unit 1210 in FIG. 1, FIG. 6) that sets a hit possible range expanded in a direction along the visual line direction of the virtual camera based on the movement trajectory of a given reference point of the operation object. Processing unit 200, game calculation unit 210, hit possible range setting unit 216, step S82 in FIG. 10),
Hit determination means (for example, the control unit 1210 in FIG. 1, the processing unit 200 in FIG. 6, the game calculation unit 210, and step S150 in FIG. 10) for performing hit determination between the hit possible range and the collision target object;
It can be set as the image generation apparatus provided with.

ここで言う「仮想カメラの視線方向」とは、仮想カメラの焦点(仮想カメラの位置としても勿論良い。)と撮影範囲中心位置を結ぶ方向は勿論のこと、仮想カメラの焦点から撮影範囲の任意点への方向を含む意味である。第1の形態によれば、操作オブジェクトから画面奥行方向へ拡張したヒット可能範囲を設けることができる。そして、ヒット可能範囲と衝突対象オブジェクトとの間でヒット判定を実現する。よって、操作オブジェクトと衝突対象オブジェクトとが画面奥行方向に位置がズレていて、実際にはヒットしていなくとも、ヒット(衝突)したものとして扱うことができる。
画面奥行方向のヒット判定を補助することで、プレーヤの感覚としてはヒットさせることができたと思ってもゲーム処理上はヒットしているとは判定されないといった実態を低減し、プレーヤにフラストレーションを与えるのを抑制できる。
The “visual camera line-of-sight direction” here refers not only to the direction connecting the focal point of the virtual camera (which may of course be the position of the virtual camera) and the center position of the photographing range, but also from the focal point of the virtual camera to any of the photographing ranges. It means to include the direction to the point. According to the first embodiment, it is possible to provide a hit possible range that extends from the operation object in the depth direction of the screen. Then, hit determination is realized between the hit possible range and the collision target object. Therefore, even if the operation object and the collision target object are misaligned in the depth direction of the screen and not actually hit, it can be treated as a hit (collision).
By assisting in the determination of hits in the depth direction of the screen, it is possible to reduce the actual situation that even if it is thought that the player could hit it, it is not determined that it is hit in the game processing, and the player is frustrated. Can be suppressed.

第2の形態は、前記ヒット可能範囲設定手段が、前記ヒット可能範囲を面状に設定するように前記コンピュータを機能させるための第1の形態のプログラムである。   The second form is a program according to the first form for causing the computer to function so that the hitable range setting means sets the hittable range in a planar shape.

第2の形態によれば、第1の形態のプログラムと同様の効果を発揮するとともに、ヒット可能範囲の形状を面状に設定することができる。   According to the second form, the same effect as the program of the first form can be exhibited, and the shape of the hittable range can be set to a planar shape.

第3の形態は、前記ヒット判定手段によりヒットしたと判定された場合に、前記衝突対象オブジェクトを切断制御する切断制御手段(例えば、図6の処理部200、ゲーム演算部210、砲弾切断制御部218、図10のステップS158〜S160)として前記コンピュータを更に機能させるための第1又は第2の形態のプログラムである。   A third mode is a cutting control unit (for example, the processing unit 200, the game calculation unit 210, the shell cutting control unit in FIG. 6) that controls the cutting of the collision target object when it is determined that the hit determination unit has hit. 218, steps S158 to S160 in FIG. 10) are programs in the first or second form for causing the computer to further function.

第3の形態によれば、第1又は第2の形態のプログラムと同様の効果を発揮するとともに、ヒット可能範囲と衝突対象オブジェクトとがヒットした場合に、衝突対象オブジェクトを切断したように制御できる。   According to the third aspect, the same effect as the program of the first or second aspect is exhibited, and when the hit possible range and the collision target object are hit, the collision target object can be controlled to be disconnected. .

第4の形態は、前記ヒット判定手段によりヒットしたと判定された場合に、前記衝突対象オブジェクトを前記ヒット可能範囲の面に基づき二分することで切断制御する切断制御手段として前記コンピュータを更に機能させるための第2の形態のプログラムである。   According to a fourth aspect, when the hit determination unit determines that the hit has occurred, the computer further functions as a cutting control unit that controls cutting by dividing the collision target object into two parts based on the surface of the hit possible range. It is the program of the 2nd form for.

第4の形態によれば、第2の形態のプログラムと同様の効果を発揮するとともに、ヒット可能範囲を切断面とすることで、操作オブジェクトによって衝突対象オブジェクトが切断された見かけ上の感覚を上手く表現できる。   According to the fourth form, the same effect as the program of the second form is exhibited, and the apparent sense that the collision target object has been cut by the operation object can be achieved by using the hitable range as the cut surface. Can express.

第5の形態は、前記衝突対象オブジェクトを移動制御する衝突対象オブジェクト制御手段(例えば、図6の処理部200、ゲーム演算部210、図9のステップS34〜S40)として前記コンピュータを機能させ、前記ヒット可能範囲設定手段が、前記衝突対象オブジェクトの移動速度に応じて前記拡張の程度を可変して前記ヒット可能範囲を設定するように前記コンピュータを機能させるための第1〜4の何れか一項の形態のプログラムである。   In a fifth mode, the computer is caused to function as a collision target object control unit (for example, the processing unit 200 in FIG. 6, the game calculation unit 210, and steps S34 to S40 in FIG. 9) that controls the movement of the collision target object. Any one of the first to fourth means for causing the computer to function so that the hit possible range setting means sets the hit possible range by varying the degree of expansion according to the moving speed of the collision target object. It is a program of the form.

第5の形態によれば、第1〜第4の形態何れかのプログラムと同様の効果を奏するとともに、衝突対象オブジェクトの移動速度に応じて画面奥行方向の距離感のズレが変化するのをサポートできる。   According to the fifth aspect, the same effect as the program of any one of the first to fourth aspects is achieved, and the shift in the sense of distance in the depth direction of the screen is changed according to the moving speed of the collision target object. it can.

第6の形態は、前記ヒット可能範囲設定手段が、前記操作オブジェクトの移動速度に応じて前記拡張の程度を可変して前記ヒット可能範囲を設定するように前記コンピュータを機能させるための第1〜第5の何れかの形態のプログラムである。   According to a sixth aspect, the hit possible range setting means causes the computer to function so as to set the hit possible range by varying the degree of expansion according to the moving speed of the operation object. It is a program of any 5th form.

第6の形態によれば、第1〜第5の形態の何れかのプログラムと同様の効果を発揮するとともに、操作オブジェクトの移動速度に応じて画面奥行方向の距離感のズレが変化するのをサポートできる。   According to the sixth aspect, the same effect as the program of any one of the first to fifth aspects is exhibited, and the shift in the sense of distance in the depth direction of the screen changes according to the moving speed of the operation object. Can support.

第7の形態は、前記操作オブジェクトは刀剣であり、前記ヒット可能範囲設定手段が、前記刀剣の先端部を前記基準点として前記ヒット可能範囲を設定するように前記コンピュータを機能させるための第1〜第6の何れかの形態のプログラムである。   In a seventh aspect, the operation object is a sword, and the hitable range setting means causes the computer to function so as to set the hitable range using the tip of the sword as the reference point. A program according to any one of the sixth to sixth aspects.

第7の形態によれば、第1〜第6の形態の何れかのプログラムと同様の効果を奏するとともに、刀剣で衝突対象オブジェクトを切るゲームの設定をヒット可能範囲の設定に上手くマッチさせ、刀剣で切断する際の距離感を上手く表現できる。   According to the seventh aspect, the same effect as the program of any one of the first to sixth aspects is achieved, and the setting of the game for cutting the collision target object with the sword is matched well with the setting of the hit possible range, and the sword Can express the sense of distance when cutting with.

第8の形態は、前記操作オブジェクトは刀剣であり、前記ヒット可能範囲設定手段が、前記操作オブジェクトの前記基準点から前記仮想カメラの視線方向に沿った方向に仮想刀身を設定し、この仮想刀身の通過範囲に基づいて前記ヒット可能範囲を設定することで、前記視線方向に沿った方向に拡張させたヒット可能範囲を設定する、ように前記コンピュータを機能させるための第1〜第7の何れかの形態のプログラムである。   In an eighth aspect, the operation object is a sword, and the hitable range setting means sets a virtual blade in a direction along the visual line direction of the virtual camera from the reference point of the operation object. Any of the first to seventh functions for setting the hit possible range expanded in the direction along the line-of-sight direction by setting the hit possible range based on the passing range of It is a program of some form.

第8の形態によれば、第1〜第7の何れかの形態のプログラムと同様の効果を発揮するとともに、刀剣で衝突対象オブジェクトを切るゲームの設定をヒット可能範囲の設定に上手くマッチさせ、刀剣で切断する際の距離感を上手く表現できる。   According to the eighth aspect, while exhibiting the same effect as the program of any one of the first to seventh aspects, the game setting of cutting the collision target object with the sword is matched well with the setting of the hit possible range, Can express a sense of distance when cutting with a sword.

第9の形態は、前記ヒット可能範囲設定手段が、前記画像生成の直近所定時間分の前記操作オブジェクトの移動軌跡によって定まる軌跡線又は軌跡面を、前記仮想カメラの視線方向に沿った方向に拡張させることで前記ヒット可能範囲を設定するように前記コンピュータを機能させるための第1〜第8の何れかの形態のプログラムである。   In a ninth mode, the hitable range setting means expands a trajectory line or trajectory plane determined by the movement trajectory of the operation object for the most recent predetermined time of the image generation in a direction along the visual line direction of the virtual camera. This is a program in any one of the first to eighth modes for causing the computer to function so as to set the hit possible range.

第9の形態によれば、第1〜第8の形態の何れかのプログラムと同様の効果を奏するとともに、刀剣で衝突対象オブジェクトを切るゲームの設定をヒット可能範囲の設定に上手くマッチさせ、刀剣で切断する際の距離感を上手く表現できる。   According to the ninth aspect, the same effect as the program of any one of the first to eighth aspects is achieved, and the setting of the game for cutting the collision target object with the sword is matched well with the setting of the hit possible range, and the sword Can express the sense of distance when cutting with.

第10の形態は、第1〜第9の何れかの形態のプログラムを記憶したコンピュータ読み取り可能な情報記憶媒体である。ここで言う「情報記憶媒体」とは、例えば磁気ディスクや光学ディスク、ICメモリなどを含む。第10の形態によれば、第1〜第9の何れか一つの形態のプログラムをコンピュータに読み取らせて実行させることによって、コンピュータに第1〜第9の形態の何れかと同様の効果を発揮させることができる。   The tenth form is a computer-readable information storage medium storing the program of any one of the first to ninth forms. The “information storage medium” mentioned here includes, for example, a magnetic disk, an optical disk, an IC memory, and the like. According to the tenth aspect, by causing the computer to read and execute the program of any one of the first to ninth forms, the computer can exert the same effect as any of the first to ninth forms. be able to.

家庭用ゲーム装置のシステム構成の一例を示す図。The figure which shows an example of the system configuration | structure of a household game device. ゲームコントローラの構成例を示す正面図及び右側面図。The front view and right view which show the structural example of a game controller. ゲームプレイのスタイルと、ゲーム画面の一例とを示す図。The figure which shows the style of a game play, and an example of a game screen. 仮想3次元空間に配置されるプレーヤキャラクタのオブジェクトと仮想カメラとの相対位置関係の例を示す概念図。The conceptual diagram which shows the example of the relative positional relationship of the object of the player character arrange | positioned in virtual three-dimensional space, and a virtual camera. ヒット可能範囲と砲弾とのヒットが検知された場合の当該砲弾の処理の一例について説明する概念図。The conceptual diagram explaining an example of the process of the said bullet when the hit with the hit possible range and a bullet is detected. 機能構成例を示す機能ブロック図。The functional block diagram which shows a function structural example. プレーヤキャラクタ設定データのデータ構成の一例を示す図。The figure which shows an example of the data structure of player character setting data. プレイデータのデータ構成の一例を示す図。The figure which shows an example of the data structure of play data. 第1実施形態における主たる処理の流れを説明するためのフローチャート。The flowchart for demonstrating the flow of the main processes in 1st Embodiment. 図9より続くフローチャート。The flowchart following FIG. 図10より続くフローチャート。The flowchart following FIG. 第1実施形態におけるヒット可能範囲設定処理の流れを説明するためのフローチャート。The flowchart for demonstrating the flow of the hit possible range setting process in 1st Embodiment. 第2実施形態におけるヒット可能範囲の設定方法の原理を説明するための概念図。The conceptual diagram for demonstrating the principle of the setting method of the hit possible range in 2nd Embodiment. 第2実施形態におけるヒット可能範囲設定処理の流れを説明するためのフローチャート。The flowchart for demonstrating the flow of the hit possible range setting process in 2nd Embodiment. 第3実施形態におけるヒット可能範囲の設定方法の原理を説明するための概念図。The conceptual diagram for demonstrating the principle of the setting method of the hit possible range in 3rd Embodiment. 第3実施形態におけるヒット可能範囲設定処理の流れを説明するためのフローチャート。The flowchart for demonstrating the flow of the hit possible range setting process in 3rd Embodiment. 第3実施形態におけるヒット可能範囲の設定方法の原理の変形例を説明するための概念図。The conceptual diagram for demonstrating the modification of the principle of the setting method of the hit possible range in 3rd Embodiment. イメージセンサモジュールで撮影したプレーヤの姿に基づいてプレーヤキャラクタが刀剣を振る方向の入力を取得する第1の概念を説明する図。The figure explaining the 1st concept which acquires the input of the direction where a player character shakes a sword based on the figure of the player imaged with the image sensor module. イメージセンサモジュールで撮影したプレーヤの姿に基づいてプレーヤキャラクタが刀剣を振る方向の入力を取得する第2の概念を説明する図。The figure explaining the 2nd concept which acquires the input of the direction which a player character shakes a sword based on the figure of the player image | photographed with the image sensor module. イメージセンサモジュールで撮影したプレーヤの姿に基づいてプレーヤの動作をボーンモデルの動作に置き換え、ボーンモデルの動きからプレーヤキャラクタが刀剣を振る方向の入力を取得する概念を説明する図。The figure explaining the concept which replaces a player's operation | movement with the operation | movement of a bone model based on the figure of the player image | photographed with the image sensor module, and acquires the input of the direction in which a player character shakes a sword from the motion of a bone model. 画像生成装置の変形例と、タッチ操作でプレーヤの姿に基づいてプレーヤキャラクタが刀剣を振る方向の入力を取得する概念を説明する図。The figure explaining the concept which acquires the modification of an image generation apparatus, and the input of the direction in which a player character shakes a sword based on the player's figure by touch operation.

〔第1実施形態〕
第1実施形態として、本発明を適用した画像生成装置である据え置き型の家庭用ゲーム装置においてゲームコントローラを振るなどの動作で方向入力しながら楽しむビデオゲームを実行する例について説明する。
[First Embodiment]
As a first embodiment, an example will be described in which a video game is enjoyed while a direction is input by an operation such as shaking a game controller in a stationary home game device which is an image generation device to which the present invention is applied.

[ゲーム装置の構成]
図1は、本実施形態における家庭用ゲーム装置のシステム構成の一例を示す図である。家庭用ゲーム装置1200は、ゲーム装置本体1201と、ビデオモニタ1220と、ゲームコントローラ1230と、光信号出力装置1226と、イメージセンサモジュール1227と、を備える。
[Configuration of game device]
FIG. 1 is a diagram illustrating an example of a system configuration of a consumer game device according to the present embodiment. The home game device 1200 includes a game device main body 1201, a video monitor 1220, a game controller 1230, an optical signal output device 1226, and an image sensor module 1227.

ゲーム装置本体1201は、例えばCPUや画像処理用LSI、ICメモリ等が実装された制御ユニット1210と、光学ディスク1202やメモリカード1204といった情報記憶媒体の読み取り装置1206,1208とを備える。そして、家庭用ゲーム装置1200は、光学ディスク1202やメモリカード1204からゲームプログラム及び各種設定データを読み出し、ゲームコントローラ1230に為される操作入力等に基づいて制御ユニット1210が各種のゲーム演算を実行してビデオゲームを実行する。   The game apparatus main body 1201 includes, for example, a control unit 1210 on which a CPU, an image processing LSI, an IC memory, and the like are mounted, and information storage medium reading devices 1206 and 1208 such as an optical disk 1202 and a memory card 1204. Then, the home game device 1200 reads the game program and various setting data from the optical disk 1202 and the memory card 1204, and the control unit 1210 executes various game operations based on operation inputs made by the game controller 1230. Run video games.

制御ユニット1210は、CPU(Central Processing Unit)やGPU(Graphics Processing Unit)及びDSP(Digital Signal Processor)などの各種マイクロプロセッサ、ASIC(Application Specific Integrated Circuit)、ICメモリなどの電気電子機器を備え家庭用ゲーム装置1200の各部を制御する。
また、制御ユニット1210は、インターネットやLAN(Local Area Network)、WAN(Wide Area Network)と言った通信回線1と有線又は無線接続し、外部装置との間でデータ通信を実現する通信装置1212を備える。また、近距離無線通信モジュール1214を備え、近距離無線を介して複数のゲームコントローラ1230との間でデータの送受信を実現する。近距離無線の形式としては、例えばBluetooth(登録商標)やUWB(超広帯域無線)、無線LANなどが適宜適用可能である。
The control unit 1210 includes various microprocessors such as a CPU (Central Processing Unit), a GPU (Graphics Processing Unit), and a DSP (Digital Signal Processor), and electrical and electronic devices such as an ASIC (Application Specific Integrated Circuit) and an IC memory. Each part of the game apparatus 1200 is controlled.
In addition, the control unit 1210 includes a communication device 1212 that is wired or wirelessly connected to the communication line 1 such as the Internet, a LAN (Local Area Network), and a WAN (Wide Area Network), and realizes data communication with an external device. Prepare. Also, a short-range wireless communication module 1214 is provided, and data transmission / reception is realized with a plurality of game controllers 1230 via short-range wireless. As a short-range wireless format, for example, Bluetooth (registered trademark), UWB (ultra-wide band wireless), wireless LAN, or the like can be applied as appropriate.

そして、制御ユニット1210は、ゲームコントローラ1230から受信した操作入力信号に基づいてゲーム画面やゲーム音を生成してビデオゲームを実行する。生成されたゲーム画面やゲーム音に基づく映像信号や音信号がケーブル1209で接続されたビデオモニタ1220(ディスプレイモニタ、音声信号やビデオ信号などの外部入力が可能なテレビを含む意)に出力される。ビデオモニタ1220には、ビデオ画像を表示する画像表示装置1222と、音声を出力するスピーカ1224とが備えられており、プレーヤは画像表示装置1222に映し出されるゲーム画面を見ながら、スピーカ1224から放音されるゲーム音を聞きつつゲームをプレイする。   Then, the control unit 1210 generates a game screen and game sound based on the operation input signal received from the game controller 1230 and executes the video game. A video signal or sound signal based on the generated game screen or game sound is output to a video monitor 1220 (including a display monitor, a television capable of external input such as an audio signal and a video signal) connected by a cable 1209. . The video monitor 1220 is provided with an image display device 1222 for displaying a video image and a speaker 1224 for outputting sound. The player emits sound from the speaker 1224 while watching the game screen displayed on the image display device 1222. Play the game while listening to the game sound.

図2は、本実施形態において用いられるゲームコントローラ1230の一例を示す外観図であって、(1)正面図(=上面図)、(2)右側面図である。ゲームコントローラ1230は面取りされた略四角断面を有する棒状を成しており、プレーヤは棒を握る要領で片手把持して操作する。   FIG. 2 is an external view showing an example of the game controller 1230 used in the present embodiment, and is (1) a front view (= top view) and (2) a right view. The game controller 1230 has a bar shape having a substantially square section that is chamfered, and the player operates by gripping one hand in the manner of gripping the bar.

ゲームコントローラ1230は、内蔵するコントローラ制御ユニット1260を中心に、各種入力デバイス及び出力デバイスを、例えばIIC(Inter-Integrated Circuit)バスなどによって実現されるローカルバス回路によって接続しており、コントローラ制御ユニット1260によって各デバイス間の入出力を制御する。   The game controller 1230 connects various input devices and output devices around a built-in controller control unit 1260 with a local bus circuit realized by, for example, an IIC (Inter-Integrated Circuit) bus. To control input / output between devices.

具体的には、例えばスイッチ類の入力デバイスとしては、正面側(上面側)の下端部から中央部に掛けて操作ボタン1240a,1240b,1240cを備える。また、正面側の上部(先端側)には、十字状の四隅を押下することで上下左右の方向を個別に入力することのできる方向入力キー1242を備え、背面側の中央部にはトリガー1246を備える。   Specifically, for example, as an input device for switches, operation buttons 1240a, 1240b, and 1240c are provided from the lower end portion on the front side (upper surface side) to the center portion. Further, the upper part (front end side) on the front side is provided with direction input keys 1242 that can individually input the vertical and horizontal directions by pressing the four corners of the cross, and the trigger 1246 is provided in the central part on the back side. Is provided.

また、その他の入力デバイスとしては、ゲームコントローラ1230の動きや傾きを検出するための加速度センサ1248と、ジャイロスコープ1249と、イメージセンサ1256とを備える。   Other input devices include an acceleration sensor 1248 for detecting the movement and tilt of the game controller 1230, a gyroscope 1249, and an image sensor 1256.

加速度センサ1248はゲームコントローラ1230の長手先端方向(図2(1)で言うところの図面上方向)をZ軸のプラス方向、正面に向かって右方向(図2(1)で言うところの図面右方向)をX軸のプラス方向、正面に向かって手前方向(図2(2)で言うところの図面左方向)をY軸のプラス方向とする直交3軸方向の各加速度を検出し、検出した加速度に応じた情報を含む操作入力信号をコントローラ制御ユニット1260に出力する。   The acceleration sensor 1248 has a longitudinal tip direction of the game controller 1230 (upward in the drawing as shown in FIG. 2 (1)) in the positive direction of the Z axis and rightward toward the front (right in the drawing in FIG. 2 (1)). Direction) is detected in the positive direction of the X axis, and each acceleration in the three orthogonal directions is detected with the forward direction toward the front (the left direction of the drawing in FIG. 2 (2)) being the positive direction of the Y axis. An operation input signal including information corresponding to the acceleration is output to the controller control unit 1260.

イメージセンサ1256は、CCDセンサやCMOSセンサなどの撮影素子の前方に赤外光のみを透過するフィルタを装着して実現され、ゲームコントローラ1230の先端に設けられて長手方向前方の様子を撮影し、画像信号をコントローラ制御ユニット1260に出力する。   The image sensor 1256 is realized by mounting a filter that transmits only infrared light in front of an imaging element such as a CCD sensor or a CMOS sensor. The image sensor 1256 is provided at the tip of the game controller 1230 to photograph the front side in the longitudinal direction. The image signal is output to the controller control unit 1260.

また、本実施形態におけるゲームコントローラ1230は、スピーカ1252を備える。スピーカ1252は、コントローラ制御ユニット1260から出力された音出力信号に従って音を発生させ、正面側に向けて放音する。   In addition, the game controller 1230 in this embodiment includes a speaker 1252. The speaker 1252 generates sound according to the sound output signal output from the controller control unit 1260, and emits the sound toward the front side.

コントローラ制御ユニット1260は、例えば、CPUやローカルバス回路におけるデータ通信を制御するバスコントローラICなどの各種マイクロチップやICメモリなどの電子部品、ゲーム装置本体1201の近距離無線通信モジュール1214と無線通信を実現する近距離無線通信モジュール1262などを搭載する。   The controller control unit 1260 performs wireless communication with various microchips such as a bus controller IC that controls data communication in a CPU and a local bus circuit, electronic components such as an IC memory, and the short-range wireless communication module 1214 of the game apparatus main body 1201. The short-range wireless communication module 1262 to be realized is mounted.

そして、コントローラ制御ユニット1260は、ローカルバス回路を介して各種入力デバイスから送信された信号に基づいて操作入力信号を生成し、生成した操作入力信号を近距離無線通信モジュール1262でゲーム装置本体1201へ送信する。また、近距離無線通信モジュール1262によって、ゲーム装置本体1201から送出された出力信号を受信した場合には、受信した出力信号に対応づけられている出力デバイスへ制御信号を生成・送出する。尚、コントローラ制御ユニット1260及び各部が必要とする電力は、ゲームコントローラ1230の背面側に凹設されたバッテリー室内に内蔵されたバッテリー1270から供給される。   Then, the controller control unit 1260 generates an operation input signal based on signals transmitted from various input devices via the local bus circuit, and the generated operation input signal is transmitted to the game apparatus main body 1201 by the short-range wireless communication module 1262. Send. When the short-range wireless communication module 1262 receives an output signal sent from the game apparatus main body 1201, the control signal is generated and sent to the output device associated with the received output signal. The electric power required by the controller control unit 1260 and each part is supplied from a battery 1270 built in a battery chamber recessed in the back side of the game controller 1230.

図1の光信号出力装置1226は、赤外光を発する複数の点光源を内蔵する。光信号出力装置1226は、ビデオモニタ1220付近の所定位置(例えば上部)に設置され、ビデオモニタ1220の前方へ赤外光を投光することができる。   The optical signal output device 1226 in FIG. 1 includes a plurality of point light sources that emit infrared light. The optical signal output device 1226 is installed at a predetermined position (for example, the upper part) near the video monitor 1220, and can project infrared light forward of the video monitor 1220.

また、イメージセンサモジュール1227は、例えば、レンズ、メカシャッター、シャッタードライバ、CCDイメージセンサモジュールやCMOSイメージセンサモジュールといった光電変換素子、光電変換素子から電荷量を読み出し画像データを生成するデジタルシグナルプロセッサ(DSP)、ICメモリなどで実現される。   Further, the image sensor module 1227 is, for example, a lens, a mechanical shutter, a shutter driver, a photoelectric conversion element such as a CCD image sensor module or a CMOS image sensor module, and a digital signal processor (DSP) that reads the charge amount from the photoelectric conversion element and generates image data. ) And an IC memory.

[ゲームの概要の説明]
次に、本実施形態におけるビデオゲームの概要について説明する。
図3は、ゲームプレイのスタイルと、ゲーム画面の一例とを示す図であって、吹き出し内がゲーム画面の一例である。図4は、仮想3次元空間に配置されるプレーヤキャラクタ4のオブジェクトと仮想カメラCMとの相対位置関係の例を示す概念図である。
[Description of game outline]
Next, an outline of the video game in the present embodiment will be described.
FIG. 3 is a diagram illustrating a game play style and an example of a game screen, and an inside of a balloon is an example of a game screen. FIG. 4 is a conceptual diagram showing an example of the relative positional relationship between the object of the player character 4 arranged in the virtual three-dimensional space and the virtual camera CM.

本実施形態のビデオゲームは、仮想3次元空間に形成されたゲーム空間でプレーヤ2が操作するプレーヤキャラクタ4と敵キャラクタ6とが戦う様子を仮想カメラCMで撮影した画像をレンダリングしてゲーム空間画像を生成し、ゲーム空間画像に各種情報表示を合成してゲーム画面を形成する所謂3DCGを用いたビデオゲームである。   In the video game of the present embodiment, a game space image is generated by rendering an image taken by the virtual camera CM of a situation where the player character 4 operated by the player 2 and the enemy character 6 fight in the game space formed in the virtual three-dimensional space. Is generated and a game screen image is combined with various information displays to form a game screen, so-called 3DCG video game.

本実施形態では、仮想カメラCMは、ゲーム中の操作オブジェクトである刀剣5を持ったプレーヤキャラクタ4の後方斜め上に配置され、視線方向をプレーヤキャラクタ4の正面に向けて配置される。よって、本実施形態のゲーム画面W2は、基本的には画面手前にプレーヤキャラクタ4が配置されて、画面奥の敵キャラクタ6が配置される。   In the present embodiment, the virtual camera CM is disposed obliquely upward and rearward of the player character 4 holding the sword 5 that is an operation object in the game, and the line-of-sight direction is disposed toward the front of the player character 4. Therefore, on the game screen W2 of this embodiment, the player character 4 is basically arranged in front of the screen, and the enemy character 6 at the back of the screen is arranged.

敵キャラクタ6は、NPC(Non Playable Character)であって、プレーヤキャラクタ4の前方に陣取って、プレーヤキャラクタ4へ向けて砲弾10を発射して攻撃するように自動制御される。そして、砲弾10は、発射後、疑似物理法則に従って放物運動するように自動制御される。図中では、破線矢印によって砲弾10の移動経路の一例を示しているが、実際のゲーム画面にはこれは表示されない。砲弾10がプレーヤキャラクタ4に着弾すれば、プレーヤキャラクタ4はダメージを受け、ヒットポイント表示欄22に表示されるヒットポイントが減算され、「0」になるとゲームオーバーとなる。   The enemy character 6 is an NPC (Non Playable Character), and is automatically controlled so as to take the front of the player character 4 and launch a cannonball 10 toward the player character 4 to attack. The cannonball 10 is automatically controlled so as to perform a parabolic motion in accordance with the pseudophysical law after the launch. In the drawing, an example of the movement path of the cannonball 10 is shown by a broken line arrow, but this is not displayed on the actual game screen. If the cannonball 10 lands on the player character 4, the player character 4 is damaged, and the hit points displayed in the hit point display field 22 are subtracted.

プレーヤ2は、ゲームコントローラ1230を把持して、ビデオモニタ1220の正面に立って構え、砲弾10がプレーヤキャラクタ4の正面、刀剣5の攻撃範囲に入ったタイミングでゲームコントローラ1230を剣を振る要領でスイング操作して方向入力する。本実施形態では、3次元のゲームコントローラ移動ベクトルVcnとして入力される。   The player 2 holds the game controller 1230, stands in front of the video monitor 1220, and swings the game controller 1230 at the timing when the shell 10 enters the attack range of the sword 5 in front of the player character 4. Swing to enter direction. In this embodiment, it is input as a three-dimensional game controller movement vector Vcn.

このゲームコントローラ移動速度ベクトルVcnから、入力速度ベクトルVinが算出される。入力速度ベクトルVinは、ゲームコントローラ移動速度ベクトルVcnの直交3軸成分のうち、画面の上下左右に相当するXY軸成分が抽出されて求められる。そして、プレーヤキャラクタ4は、この2次元の入力速度ベクトルVinの方向へ刀剣5を振るように動作制御される。飛んでくる砲弾10を上手く刀剣5で切ることができれば砲弾10を切断してその移動方向を逸らせて着弾を防ぐことができる。敵キャラクタ6の攻撃が終わるまでヒットポイントが「0」にならないように着弾を防げればゲームクリアとなる。尚、ゲームコントローラ移動速度ベクトルVcnの算出には、ジャイロスコープ1249の検出値を用いるとしても良い。   An input speed vector Vin is calculated from the game controller moving speed vector Vcn. The input speed vector Vin is obtained by extracting XY-axis components corresponding to the top, bottom, left and right of the screen among the three orthogonal axes of the game controller moving speed vector Vcn. The player character 4 is controlled to swing the sword 5 in the direction of the two-dimensional input velocity vector Vin. If the flying shell 10 can be cut well with the sword 5, the shell 10 can be cut and deflected to prevent landing. If the landing is prevented so that the hit point does not become “0” until the attack of the enemy character 6 is completed, the game is cleared. Note that the detection value of the gyroscope 1249 may be used for calculating the game controller moving speed vector Vcn.

ここで着目すべきは、ゲーム空間は3次元なのにゲーム画面は2次元である、ということである。減った1次元が画面奥行方向であるため、従来のこうした画面奥行方向に標的となるオブジェクトが移動するビデオゲームでは、正確な奥行方向の距離感を掴みにくいものである。本実施形態の例で言えば、飛んでくる砲弾10を上手く刀剣5で切るタイミングが掴み難くなるのに相当する。その為、切ったつもりが切れなかったりといったことが起こり、プレーヤに要らぬフラストレーションを与えることがあった。そこで本実施形態では、砲弾10の切断判定をするためのヒット可能範囲の設定に工夫を凝らすことで、掴みにくい画面奥行き感をサポートする。   It should be noted here that the game space is three-dimensional, but the game screen is two-dimensional. Since the reduced one-dimensional dimension is the screen depth direction, it is difficult to grasp the sense of distance in the depth direction in the conventional video game in which the target object moves in the screen depth direction. In the example of this embodiment, this corresponds to the difficulty in grasping the timing of successfully cutting the flying shell 10 with the sword 5. For this reason, there was a case where the intention to cut was not cut, and an unnecessary frustration was given to the player. Therefore, in the present embodiment, a screen depth feeling that is difficult to grasp is supported by devising a setting of a hit possible range for determining whether or not the shell 10 is cut.

具体的には、図4に示すように、プレーヤキャラクタ4が振った刀剣5の所定基準位置(本実施形態では先端)を、制御サイクル(例えば、1/30秒)周期で記憶する。図中では記憶された各サイクルにおける先端位置を白丸で示している。そして、1周期前の先端位置(第1頂点P1)と仮想カメラCMの焦点P0とを通る直線上のプレーヤキャラクタ4の前方に第4頂点P4を設定し、現在の先端位置(第2頂点P2)と仮想カメラCMの焦点P0とを通る直線上のプレーヤキャラクタ4前方に第3頂点P3を設定する。   Specifically, as shown in FIG. 4, a predetermined reference position (tip in this embodiment) of the sword 5 swung by the player character 4 is stored in a control cycle (for example, 1/30 second) cycle. In the figure, the stored tip position in each cycle is indicated by a white circle. Then, the fourth vertex P4 is set in front of the player character 4 on a straight line passing through the tip position (first vertex P1) one cycle before and the focal point P0 of the virtual camera CM, and the current tip position (second vertex P2). And the third vertex P3 in front of the player character 4 on a straight line passing through the focal point P0 of the virtual camera CM.

そして、第1頂点P1・第2頂点P2・第3頂点P3・第4頂点P4の4点で囲まれる領域を、砲弾10と刀剣5とのヒット判定に利用可能な範囲(ヒット可能範囲30)とする。つまり、第1頂点P1から第2頂点P2までを底辺として、仮想カメラCMの視線方向に沿った方向へ、より厳密には仮想カメラCMの位置から刀剣5の先端を通る方向へ拡張したヒット判定領域を作成し、プレーヤの画面奥行方向の距離感が上手く掴めていなくとも、砲弾10を刀剣5で切れるように補助する。勿論、刀剣5自体に設定されるヒット判定領域も砲弾10とのヒット判定は行われるが、刀剣5自体はヒット判定領域から除外してもよい。
尚、本実施形態では、現在の周期と1つ前の周期とにおける4点の位置を用いているが、現在の周期から所定周期前までの所定周期分(例えば4周期分など)の多数の位置を記録し、これらを結ぶ多面体としてヒット可能範囲30を構成してもよい。
A range surrounded by four points of the first vertex P1, the second vertex P2, the third vertex P3, and the fourth vertex P4 can be used for hit determination between the shell 10 and the sword 5 (hit possible range 30). And That is, the hit determination extended from the first vertex P1 to the second vertex P2 in the direction along the line-of-sight direction of the virtual camera CM, more strictly in the direction passing through the tip of the sword 5 from the position of the virtual camera CM. An area is created to assist the sword 5 in cutting the shell 10 even if the player does not grasp the sense of distance in the depth direction of the screen. Of course, the hit determination area set for the sword 5 itself is also hit-determined with the shell 10, but the sword 5 itself may be excluded from the hit determination area.
In this embodiment, the positions of four points in the current cycle and the previous cycle are used. However, a large number of predetermined cycles (for example, four cycles) from the current cycle to a predetermined cycle are used. The hitable range 30 may be configured as a polyhedron that records positions and connects them.

尚、焦点P0は、実質的に仮想カメラCMの代表点となるが、それに限らず仮想カメラCMの近傍に別途設けた所定の基準点としても良い。更には、仮想カメラCMとプレーヤキャラクタ4との相対位置関係は、図4の例のように、後方斜め上に限らず適宜設定できる。例えば、プレーヤキャラクタ4の両目の中心位置としてもよい。   The focal point P0 is substantially a representative point of the virtual camera CM, but is not limited thereto, and may be a predetermined reference point separately provided in the vicinity of the virtual camera CM. Furthermore, the relative positional relationship between the virtual camera CM and the player character 4 can be set as appropriate, not limited to diagonally upward, as in the example of FIG. For example, the center position of both eyes of the player character 4 may be used.

図5は、本実施形態におけるヒット可能範囲30と砲弾10とのヒットが検知された場合の砲弾10の処理の一例について説明する概念図である。
図5(1)に示すように、ヒット可能範囲30と砲弾10とがヒットしたならば、本実施形態ではヒット可能範囲30を含む分割面を設定し、砲弾10のオブジェクトをこの分割面で分割する。具体的には、ポリゴンモデルを指定面で分割して分割する公知の技術を用いて、分割後の分割後砲弾12及び14の2つに分割して、それぞれに切断面のポリゴンを追加する。そして、分割後砲弾12及び14に、互いに反対向きとなるヒット可能範囲30の法線方向に向いた離間速度ベクトルVsc2,Vsc4を付与する。結果、図5(2)に示すように、分割後砲弾12及び14は、それぞれ分割時点の速度ベクトルV0と付与された離間速度ベクトルVsc2,Vsc4とによって、それぞれ白矢印の方向に移動し、あたかも切断面から二手に分かれるように制御される。
FIG. 5 is a conceptual diagram for explaining an example of processing of the shell 10 when a hit between the hit possible range 30 and the shell 10 in the present embodiment is detected.
As shown in FIG. 5A, if the hit possible range 30 and the shell 10 are hit, in this embodiment, a division plane including the hit possible range 30 is set, and the object of the bullet 10 is divided by this division plane. To do. Specifically, the polygon model is divided into two divided bullets 12 and 14 using a known technique of dividing the polygon model by a specified surface, and a polygon of a cut surface is added to each. Then, separation velocity vectors Vsc2 and Vsc4 that are directed in the normal direction of the hit possible range 30 that are opposite to each other are assigned to the divided shells 12 and 14. As a result, as shown in FIG. 5 (2), the divided shells 12 and 14 respectively move in the directions of white arrows according to the velocity vector V0 at the time of division and the assigned separation velocity vectors Vsc2 and Vsc4, respectively. It is controlled so that it is divided into two hands from the cut surface.

尚、発射される砲弾10の正面には、ランダムに指定切断方向マーク18が付与される。指定切断方向マーク18は、画面座標系で見た上下左右斜めの8方向それぞれの正逆2方向の合計16方向の中から何れかが自動的に選択・設定される。そして、入力速度ベクトルVinと指定切断方向マーク18の方向との角度差が所定の許容範囲内であれば、ヒットポイントが所定値だけ回復される。   A designated cutting direction mark 18 is randomly assigned to the front of the shell 10 to be fired. The designated cutting direction mark 18 is automatically selected and set from any of a total of 16 directions, ie, two forward and reverse directions in each of the eight directions up and down, left and right as viewed in the screen coordinate system. If the angle difference between the input speed vector Vin and the direction of the designated cutting direction mark 18 is within a predetermined allowable range, the hit point is recovered by a predetermined value.

[機能ブロックの説明]
次に、上述のようなゲームを実行するための機能構成について説明する。
図6は、本実施形態における機能構成の一例を示す機能ブロック図である。同図に示すように本実施形態では、操作入力部100と、プレーヤ撮影部110と、処理部200と、光信号発生部330と、音出力部350と、画像表示部360と、通信部370と、記憶部500とを備える。
[Description of functional block]
Next, a functional configuration for executing the game as described above will be described.
FIG. 6 is a functional block diagram illustrating an example of a functional configuration according to the present embodiment. As shown in the figure, in the present embodiment, the operation input unit 100, the player photographing unit 110, the processing unit 200, the optical signal generation unit 330, the sound output unit 350, the image display unit 360, and the communication unit 370. And a storage unit 500.

操作入力部100は、ボタンスイッチや、トリガー、ダイヤル、ジョイスティック、タッチパネル、トラックボール、傾斜センサなど、プレーヤによって為された各種の操作入力に応じて操作入力信号を処理部200に出力する手段である。図2のゲームコントローラ1230が、操作入力部100に相当する。そして、本実施形態では、光信号受光部102と、加速度検出部104と、角速度検出部105と、通信部106とを含む。   The operation input unit 100 is a means for outputting an operation input signal to the processing unit 200 according to various operation inputs made by the player, such as button switches, triggers, dials, joysticks, touch panels, trackballs, and tilt sensors. . The game controller 1230 in FIG. 2 corresponds to the operation input unit 100. In the present embodiment, the optical signal receiving unit 102, the acceleration detection unit 104, the angular velocity detection unit 105, and the communication unit 106 are included.

光信号受光部102は、光信号発生部330から投光される光信号を受光し電気信号に変換することで画像データに変換するデバイスであって、例えばCCDセンサやCMOSセンサ、レンズ、光学フィルタ、信号変換処理をするDSP(デジタルシグナルプロセッサ)などによって実現される。図2のイメージセンサ1256や信号処理を行うコントローラ制御ユニット1260がこれに該当する。
尚、光信号発生部330は、LED等の発光素子、特定周波数の光のみを透過するフィルタなどにより実現され、ゲームコントローラ1230をポインティングデバイスとして利用するための基準位置を示す光信号を特定方向へ投光する。図1の光信号出力装置1226がこれに該当する。
The optical signal light receiving unit 102 is a device that receives an optical signal projected from the optical signal generating unit 330 and converts it into an electrical signal, thereby converting it into image data. For example, a CCD sensor, a CMOS sensor, a lens, an optical filter It is realized by a DSP (digital signal processor) that performs signal conversion processing. The image sensor 1256 in FIG. 2 and the controller control unit 1260 for performing signal processing correspond to this.
The optical signal generator 330 is realized by a light emitting element such as an LED, a filter that transmits only light of a specific frequency, and the like, and an optical signal indicating a reference position for using the game controller 1230 as a pointing device in a specific direction. Flood light. The optical signal output device 1226 in FIG. 1 corresponds to this.

加速度検出部104は、各種加速度センサによって実現され、ゲームコントローラ1230に作用する加速度を検出して検出値の情報を出力する。図2の加速度センサ1248がこれに該当する。本実施形態では、一つで直交3軸を検出できる3軸加速度センサとするが、単独の加速度3つで構成しても良い。   The acceleration detection unit 104 is realized by various acceleration sensors, detects acceleration acting on the game controller 1230, and outputs detected value information. The acceleration sensor 1248 in FIG. 2 corresponds to this. In the present embodiment, a single three-axis acceleration sensor that can detect three orthogonal axes is used, but it may be composed of three independent accelerations.

角速度検出部105は、例えばジャイロスコープによって実現され、ゲームコントローラ230の加速度の検出3軸周りの角速度を検出し、検出値の情報を出力する。図2のジャイロスコープ1249がこれに該当する。   The angular velocity detection unit 105 is realized by, for example, a gyroscope, detects the angular velocity around the three axes of acceleration detection of the game controller 230, and outputs information of the detection value. This corresponds to the gyroscope 1249 of FIG.

通信部106は、ゲームコントローラ1230とゲーム装置本体1201との間のデータ通信を実現する。本実施形態では図2の近距離無線通信モジュール1262がこれに該当する。   The communication unit 106 realizes data communication between the game controller 1230 and the game apparatus main body 1201. In the present embodiment, this is the short-range wireless communication module 1262 in FIG.

プレーヤ撮影部110は、プレーヤ2の様子を撮影して電気信号に変換し、デジタル画像データを生成し処理部200へ出力する。例えば、レンズ、メカシャッター、シャッタードライバ、CCDイメージセンサやCMOSイメージセンサといった光電変換素子、光電変換素子から電荷量を読み出し画像データを生成するデジタルシグナルプロセッサ(DSP)、ICメモリなどで実現される。図1ではイメージセンサモジュール1227がこれに該当する。   The player photographing unit 110 photographs the state of the player 2 and converts it into an electrical signal, generates digital image data, and outputs the digital image data to the processing unit 200. For example, it is realized by a lens, a mechanical shutter, a shutter driver, a photoelectric conversion element such as a CCD image sensor or a CMOS image sensor, a digital signal processor (DSP) that reads out the charge amount from the photoelectric conversion element and generates image data, an IC memory, or the like. In FIG. 1, the image sensor module 1227 corresponds to this.

処理部200は、例えばCPUやGPU等のマイクロプロセッサや、ASIC、ICメモリなどの電子部品によって実現され、操作入力部100や記憶部500を含む各機能部との間でデータの入出力を行う。そして、所定のプログラムやデータ、操作入力部100からの操作入力信号に基づいて各種の演算処理を実行してゲーム装置の動作を制御する。図1では制御ユニット1210がこれに該当する。そして本実施形態における処理部200は、ゲーム演算部210と、音生成部250と、画像生成部260と、通信制御部270とを備える。   The processing unit 200 is realized by, for example, a microprocessor such as a CPU or a GPU, or an electronic component such as an ASIC or an IC memory, and inputs / outputs data to / from each function unit including the operation input unit 100 and the storage unit 500. . Then, various arithmetic processes are executed based on a predetermined program and data and an operation input signal from the operation input unit 100 to control the operation of the game apparatus. In FIG. 1, the control unit 1210 corresponds to this. The processing unit 200 in this embodiment includes a game calculation unit 210, a sound generation unit 250, an image generation unit 260, and a communication control unit 270.

ゲーム演算部210は、ゲームの進行に関する各種処理を実行する。例えば、(1)仮想3次元空間に背景モデルを配置してゲーム空間を形成する処理、(2)プレーヤキャラクタ4や敵キャラクタ6のオブジェクトをゲーム空間内に配置する処理、(3)プレーヤキャラクタ4が入力された方向へ刀剣5を振るように動作させる処理、(4)敵キャラクタ6の自動制御処理、(5)砲弾10や分割後砲弾12,14を疑似物理法則に則って移動させる処理、(6)砲弾10とプレーヤキャラクタ4のヒット判定、砲弾10とヒット可能範囲30とのヒット判定などオブジェクト間のヒット判定処理、(7)ダメージの算出処理とその反映処理、などが含まれる。   The game calculation unit 210 executes various processes related to the progress of the game. For example, (1) a process for forming a game space by placing a background model in a virtual three-dimensional space, (2) a process for placing objects of the player character 4 and the enemy character 6 in the game space, and (3) a player character 4 Processing to swing the sword 5 in the input direction, (4) automatic control processing of the enemy character 6, (5) processing to move the shell 10 and the post-split shells 12 and 14 in accordance with the pseudo physical law, (6) Hit determination processing between objects such as hit determination between the shell 10 and the player character 4, hit determination between the shell 10 and the hit possible range 30, and (7) damage calculation processing and reflection processing thereof are included.

そして、本実施形態のゲーム演算部210は、入力方向判定部212と、刀剣基準位置周期記憶制御部214と、ヒット可能範囲設定部216と、砲弾切断制御部218とを含む。   The game calculation unit 210 of the present embodiment includes an input direction determination unit 212, a sword reference position cycle storage control unit 214, a hit possible range setting unit 216, and a shell cutting control unit 218.

入力方向判定部212は、操作入力部100で検出した信号からプレーヤ2が入力した方向を判定する。本実施形態では、加速度検出部104で検出された直交3軸の各加速度からゲームコントローラ1230が振られた方向を示す情報としてゲームコントローラ移動速度ベクトルVcnを算出する。角速度検出部105で検出された加速度検出の直交3軸周りの角速度を更に算出に用いるとしても良い。そして、当該速度ベクトルが所定の基準値を超えたところで、ゲームコントローラ移動ベクトルVcnのXYZの直交3軸成分の内、画面の上下左右に相当するXY軸成分を抽出して2次元の入力速度ベクトルVinとする。尚、ゲームコントローラ移動速度ベクトルVcnから入力速度ベクトルVinを算出する方法は別の方法であってもよいのは勿論である。プレーヤ2によるゲームコントローラ1230の操作に応じた刀剣5の移動制御がなされればよい。   The input direction determination unit 212 determines the direction input by the player 2 from the signal detected by the operation input unit 100. In the present embodiment, the game controller moving speed vector Vcn is calculated as information indicating the direction in which the game controller 1230 is swung from each of the orthogonal three-axis accelerations detected by the acceleration detection unit 104. The angular velocity around the three orthogonal axes of acceleration detection detected by the angular velocity detector 105 may be further used for calculation. When the velocity vector exceeds a predetermined reference value, the XY-axis components corresponding to the top, bottom, left and right of the screen are extracted from the XYZ orthogonal three-axis components of the game controller movement vector Vcn to obtain a two-dimensional input velocity vector. Vin. Of course, another method may be used for calculating the input speed vector Vin from the game controller moving speed vector Vcn. It is only necessary to control the movement of the sword 5 according to the operation of the game controller 1230 by the player 2.

刀剣基準位置周期記憶制御部214は、本実施形態におけるゲーム内の操作オブジェクトの移動軌跡に関する情報をサンプリングする。具体的には、刀剣5の所定基準位置を周期的に記憶する制御を行う。本実施形態では、後述する制御サイクル(例えば、1/30秒)を1周期とし、記憶部500のプレイデータ550に所定周期分だけ、基準点のゲーム空間内での位置座標と、基準点の速度ベクトルとを対応づけて格納する。   The sword reference position cycle storage control unit 214 samples information related to the movement trajectory of the operation object in the game in the present embodiment. Specifically, a control for periodically storing a predetermined reference position of the sword 5 is performed. In the present embodiment, a control cycle (for example, 1/30 second), which will be described later, is one period, and the play data 550 in the storage unit 500 is set to the position coordinates of the reference point in the game space and the reference point by a predetermined period. Stores the velocity vector in association with each other.

ヒット可能範囲設定部216は、操作オブジェクトの移動軌跡と仮想カメラCMの焦点P0(実質的には仮想カメラCMの代表点)とを用いて、移動軌跡を焦点P0から当該移動軌跡を見た方向へ引き延ばしてヒット可能範囲を設定する。具体的には、焦点P0から刀剣基準位置の周期記憶1サイクル前の第1頂点P1を通る直線上に、プレーヤキャラ4に最寄りの砲弾10の速度と、入力速度ベクトルVinとに基づいた距離離れたところに第4頂点P4を設定する。また、同様にして焦点P0から現在の刀剣基準位置である第2頂点P2を通る直線上に第3頂点P3を設定する。そして、第1頂点P1、第2頂点P2、第3頂点P3、第4頂点P4で囲まれる矩形領域をヒット可能範囲30とする。   The hit possible range setting unit 216 uses the movement trajectory of the operation object and the focal point P0 of the virtual camera CM (substantially the representative point of the virtual camera CM) to determine the movement trajectory from the focal point P0. To set the hit possible range. Specifically, the distance from the focal point P0 on the straight line passing through the first vertex P1 one cycle before the sword reference position is stored based on the speed of the shell 10 closest to the player character 4 and the input speed vector Vin. Then, the fourth vertex P4 is set. Similarly, a third vertex P3 is set on a straight line passing from the focal point P0 through the second vertex P2, which is the current sword reference position. A rectangular area surrounded by the first vertex P1, the second vertex P2, the third vertex P3, and the fourth vertex P4 is set as a hittable range 30.

砲弾切断制御部218は、刀剣5で切られた砲弾10から分割後砲弾12,14を生成し置き換える。具体的には、砲弾10がヒット可能範囲30又は刀剣5のヒット判定領域とヒットした場合に、前者とヒットした場合にはヒット可能範囲30を含む面を分割面とし、後者とヒットした場合には刀剣5の刀身を含む面を分割面として、当該砲弾10のポリゴンモデルを分割面で2分割し、それぞれに切断面を覆うポリゴンを設定する。そして、切断面から互いに離間するように離間速度ベクトルを付与する。   The shell cutting control unit 218 generates and replaces the post-split shells 12 and 14 from the shell 10 cut with the sword 5. Specifically, when the shell 10 hits the hit possible range 30 or the hit determination area of the sword 5, when the former hits, the plane including the hit possible range 30 is set as a divided plane, and when the latter hits the latter Uses the surface including the blade of the sword 5 as a split surface, divides the polygonal model of the shell 10 into two, and sets a polygon covering the cut surface for each. And a separation speed vector is given so that it may mutually space apart from a cut surface.

音生成部250は、例えばデジタルシグナルプロセッサ(DSP)、音声合成ICなどのプロセッサや、音声ファイル再生可能なオーディオコーデックによって実現され、ゲーム演算部210による処理結果に基づいてゲームに係る効果音やBGM、各種操作音の音信号を生成し、音出力部350に出力する。   The sound generation unit 250 is realized by a processor such as a digital signal processor (DSP) or a voice synthesis IC, or an audio codec capable of playing back an audio file, for example. Based on the processing result of the game calculation unit 210, sound effects and BGM related to the game are realized. Then, sound signals of various operation sounds are generated and output to the sound output unit 350.

音出力部350は、音生成部250から入力される音信号に基づいて効果音やBGM等を音出力する装置によって実現される。図1ではスピーカ1224がこれに該当する。   The sound output unit 350 is realized by a device that outputs sound effects, BGM, and the like based on the sound signal input from the sound generation unit 250. In FIG. 1, the speaker 1224 corresponds to this.

画像生成部260は、例えば、GPU(Graphics Processing Unit)、デジタルシグナルプロセッサ(DSP)などのプロセッサ、ビデオ信号IC、ビデオコーデックなどのプログラム、フレームバッファ等の描画フレーム用ICメモリ等によって実現される。画像生成部260は、ゲーム演算部210による処理結果に基づいて1フレーム時間(例えば1/60秒)で1枚のゲーム画像を生成し、生成したゲーム画像の画像信号を画像表示部360に出力する。   The image generation unit 260 is realized by, for example, a processor such as a GPU (Graphics Processing Unit) or a digital signal processor (DSP), a program such as a video signal IC or a video codec, an IC memory for a drawing frame such as a frame buffer, or the like. The image generation unit 260 generates one game image in one frame time (for example, 1/60 second) based on the processing result by the game calculation unit 210, and outputs an image signal of the generated game image to the image display unit 360. To do.

画像表示部360は、画像生成部260から入力される画像信号に基づいて各種ゲーム画像を表示する。例えば、フラットパネルディスプレイ、ブラウン管(CRT)、プロジェクター、ヘッドマウントディスプレイといった画像表示装置によって実現できる。図1では画像表示装置1222がこれに該当する。   The image display unit 360 displays various game images based on the image signal input from the image generation unit 260. For example, it can be realized by an image display device such as a flat panel display, a cathode ray tube (CRT), a projector, or a head mounted display. In FIG. 1, the image display device 1222 corresponds to this.

通信制御部270は、データ通信に係るデータ処理を実行し、通信部370を介して外部装置とのデータのやりとりを実現する。   The communication control unit 270 executes data processing related to data communication, and realizes data exchange with an external device via the communication unit 370.

通信部370は、通信回線1と接続して通信を実現する。また、操作入力部100の通信部106との通信を実現する。例えば、無線通信機、モデム、TA(ターミナルアダプタ)、有線用の通信ケーブルのジャックや制御回路等によって実現され、図1の通信装置1212、近距離無線通信モジュール1214がこれに該当する。   The communication unit 370 is connected to the communication line 1 to realize communication. In addition, communication with the communication unit 106 of the operation input unit 100 is realized. For example, a wireless communication device, a modem, a TA (terminal adapter), a wired communication cable jack, a control circuit, and the like are realized, and the communication device 1212 and the short-range wireless communication module 1214 in FIG.

記憶部500は、処理部200に家庭用ゲーム装置1200を統合的に制御させるための諸機能を実現するためのシステムプログラムや、ゲームを実行させるために必要なゲームプログラム、各種データ等を記憶する。また、処理部200の作業領域として用いられ、処理部200が各種プログラムに従って実行した演算結果や操作入力部100から入力される入力データ等を一時的に記憶する。この機能は、例えばRAMやROMなどのICメモリ、ハードディスク等の磁気ディスク、CD−ROMやDVD、BD(Blueray Disc(登録商標))などの光学ディスクなどによって実現される。図1では制御ユニット1210が搭載するICメモリや光ディスク1202、メモリカード1204がこれに該当する。   The storage unit 500 stores a system program for realizing various functions for causing the processing unit 200 to control the home game device 1200 in an integrated manner, a game program necessary for executing the game, various data, and the like. . Further, it is used as a work area of the processing unit 200, and temporarily stores calculation results executed by the processing unit 200 according to various programs, input data input from the operation input unit 100, and the like. This function is realized by, for example, an IC memory such as a RAM or a ROM, a magnetic disk such as a hard disk, an optical disk such as a CD-ROM, DVD, or BD (Blueray Disc (registered trademark)). In FIG. 1, the IC memory, the optical disk 1202, and the memory card 1204 mounted on the control unit 1210 correspond to this.

本実施形態では、記憶部500はシステムプログラム501と、ゲームプログラム502とを記憶している。システムプログラム501は、家庭用ゲーム装置1200の基本機能を実現するためのプログラムであり、各機能部をアプリケーションソフト側で呼び出して利用可能な各種ファームウェアを含む。ゲームプログラム502は、処理部200が読み出して実行することによってゲーム演算部210としての機能を実現させるためのソフトウェアである。   In the present embodiment, the storage unit 500 stores a system program 501 and a game program 502. The system program 501 is a program for realizing the basic functions of the consumer game device 1200, and includes various types of firmware that can be used by calling each function unit on the application software side. The game program 502 is software for realizing a function as the game calculation unit 210 by being read and executed by the processing unit 200.

また、記憶部500には、予め用意されるデータとして、ゲーム空間設定データ510と、敵キャラクタ設定データ512と、砲弾設定データ514と、プレーヤキャラクタ設定データ520とが記憶されている。更に、ゲームの準備や進行に伴って随時生成や更新が行われるデータとして、プレイデータ550を記憶する。また、ゲームの進行に係る処理を実行するにあたり必要となるデータ(例えば、タイマー値やカウンタ)も適宜記憶されるものとする。   The storage unit 500 stores game space setting data 510, enemy character setting data 512, shell setting data 514, and player character setting data 520 as data prepared in advance. Further, play data 550 is stored as data that is generated and updated as needed as the game is prepared and progressed. Further, it is assumed that data (for example, timer values and counters) necessary for executing the process relating to the progress of the game is also stored as appropriate.

ゲーム空間設定データ510は、仮想3次元空間にゲーム空間を形成し、ゲームステージとするための情報が格納されている。背景となる障害物等を配置するための背景オブジェクトのモデルデータとテクスチャデータ、配置位置、姿勢などを定義するデータが含まれる。   The game space setting data 510 stores information for forming a game space in a virtual three-dimensional space and setting it as a game stage. Data defining the model data and texture data of the background object for arranging obstacles and the like serving as the background, arrangement position, posture and the like are included.

敵キャラクタ設定データ512は、敵キャラクタ6のオブジェクトを配置させ、動作を制御するための情報を格納する。例えば、モデルデータや、テクスチャデータ、モーションデータなどが含まれる。   The enemy character setting data 512 stores information for arranging the object of the enemy character 6 and controlling the action. For example, model data, texture data, motion data, and the like are included.

砲弾設定データ514は、砲弾10のオブジェクトを配置させるための情報を格納する。例えば、モデルデータやテクスチャデータ、指定切断方向マーク18のテクスチャデータが含まれる。衝突対象オブジェクトを砲弾10ではなく何らかの可動物とする場合には、可動させるモーションデータに相当するデータを含むものとする。   The bullet setting data 514 stores information for arranging the object of the bullet 10. For example, model data, texture data, and texture data of the designated cutting direction mark 18 are included. When the collision target object is not a shell 10 but any movable object, it includes data corresponding to the motion data to be moved.

プレーヤキャラクタ設定データ520は、プレーヤキャラクタ4と刀剣5のオブジェクトを配置させ、動作させるための各種情報を格納する。
例えば、図7に示すように、プレーヤキャラクタモデルデータ522と、プレーヤキャラクタテクスチャデータ524と、プレーヤキャラクタモーションデータ526と、刀剣モデルデータ528と、刀剣テクスチャデータ532とを含む。
The player character setting data 520 stores various information for arranging and operating the objects of the player character 4 and the sword 5.
For example, as shown in FIG. 7, player character model data 522, player character texture data 524, player character motion data 526, sword model data 528, and sword texture data 532 are included.

プレーヤキャラクタモーションデータ526は、ゲームコントローラ1230による入力速度ベクトルVinの条件を定義する入力速度条件526a毎に、プレーヤキャラクタ4が刀剣5を振るスイングモーションセット526bを対応づけて格納する。スイングモーションセット526bには、プレーヤキャラクタ4が振ることのできる全方向(上下左右斜め32方向×振り方向2=64方向)に対応するスイングモーションが含まれており、プレーヤキャラクタ4に刀剣5を振らせる制御をするときには、該当するスイングモーションセット526bから入力速度ベクトルVinの方向に最も類似するスイングモーションが選択され適用されるものとする。   The player character motion data 526 stores a swing motion set 526b in which the player character 4 swings the sword 5 for each input speed condition 526a that defines the condition of the input speed vector Vin by the game controller 1230. The swing motion set 526b includes a swing motion corresponding to all directions (upward / downward / left / right diagonal 32 directions × swing direction 2 = 64 directions) in which the player character 4 can swing, and the player character 4 is swung with the sword 5. When the control is performed, the swing motion most similar to the direction of the input speed vector Vin is selected from the corresponding swing motion set 526b and applied.

プレイデータ550は、ゲーム進行状況を定義する情報を格納する。
例えば、図8に示すように、現在プレイ中のゲームステージの識別情報を格納するステージID552と、現在プレイ中のゲームステージにおける発射済み砲弾数554と、ヒットポイント556と、敵キャラクタ6の動作制御に関する情報、例えばモーションデータのフレーム番号などを格納する敵キャラクタ動作制御データ558とを含む。
The play data 550 stores information defining the game progress status.
For example, as shown in FIG. 8, a stage ID 552 that stores identification information of the game stage that is currently being played, the number of shots 554 that have been fired in the game stage that is currently being played, hit points 556, and motion control of the enemy character 6 For example, enemy character motion control data 558 storing the frame number of motion data.

ステージID552のゲーム開始時初期状態は第1ステージを示す情報である。
発射済み砲弾数554のゲーム開始時初期状態は「0」である。
The initial state at the start of the game of stage ID 552 is information indicating the first stage.
The initial state when the number of fired bullets 554 starts is “0”.

また、プレイデータ550は、砲弾データ560と、分割後砲弾データ562とを含む。
砲弾データ560は、敵キャラクタ6から砲弾10が発射されると、砲弾ID560aが新規に付与され、それと対応づけてゲーム空間内における位置座標560bと、速度ベクトル560cと、指定切断方向560dとが格納される。位置座標560bと速度ベクトル560cは、制御サイクル毎に更新される。指定切断方向560dは、その砲弾が生成されたタイミングで設定され変更されない。
そして、砲弾10がプレーヤキャラクタ4にヒットしたと判定された場合には、当該砲弾に対応するこれらの情報は抹消される。また、砲弾10がヒット可能範囲30又は刀剣5とヒットしたと判定され、分割後砲弾12,14に置換された場合にも抹消される。
Further, the play data 550 includes shell data 560 and post-divided shell data 562.
When the shell 10 is fired from the enemy character 6, the shell data 560 is newly assigned a shell ID 560a, and stores a position coordinate 560b in the game space, a velocity vector 560c, and a designated cutting direction 560d. Is done. The position coordinates 560b and the velocity vector 560c are updated every control cycle. The designated cutting direction 560d is set at the timing when the shell is generated and is not changed.
When it is determined that the shell 10 has hit the player character 4, these pieces of information corresponding to the shell are deleted. It is also deleted when it is determined that the shell 10 has hit the hittable range 30 or the sword 5 and replaced with the post-split shells 12 and 14.

分割後砲弾データ562は、砲弾10がヒット可能範囲30又は刀剣5とヒットしたと判定されると、当該砲弾から生成される分割後砲弾12,14の情報を格納する。具体的には、自動的に砲弾ID562aが新規に付与され、それと対応づけてゲーム空間内における位置座標562bと、離間速度ベクトルVsc2やVsc4(図5参照)が合成された速度ベクトル562cと、生成時のシステム時刻を示す配置システム時刻562dとを格納する。   The post-split shell data 562 stores information on the post-split shells 12 and 14 generated from the shell when it is determined that the shell 10 has hit the hitable range 30 or the sword 5. Specifically, a new bullet ID 562a is automatically assigned, and a position vector 562b in the game space is associated with it, and a velocity vector 562c in which the separation velocity vectors Vsc2 and Vsc4 (see FIG. 5) are synthesized is generated. An arrangement system time 562d indicating the system time of the hour is stored.

また、プレイデータ550は、プレーヤキャラクタ動作制御データ564と、刀剣基準位置周期記録データ566と、ゲームコントローラ移動速度ベクトルVcn570と、入力速度ベクトルVin572と、ヒット可能範囲設定データ574とを含む。   The play data 550 includes player character action control data 564, sword reference position period recording data 566, a game controller moving speed vector Vcn570, an input speed vector Vin572, and hit possible range setting data 574.

プレーヤキャラクタ動作制御データ564は、プレーヤキャラクタ4を動作制御するための各種情報、例えばモーションデータのフレーム番号などを格納する。
刀剣基準位置周期記録データ566は、刀剣5の先端位置の移動軌跡を定義する情報を格納する。例えば、システム時刻566aに対応づけた刀剣5の先端のゲーム空間内における位置座標566bと、その時々の入力速度ベクトル566cとを一定周期分だけ格納する。尚、刀剣5の先端位置のみでなく、刀剣5の各部位の位置を同様に記録・格納してもよい。
The player character motion control data 564 stores various information for controlling the motion of the player character 4, such as a frame number of motion data.
The sword reference position period recording data 566 stores information defining the movement locus of the tip position of the sword 5. For example, the position coordinate 566b in the game space at the tip of the sword 5 associated with the system time 566a and the input velocity vector 566c at that time are stored for a certain period. Not only the position of the tip of the sword 5 but also the position of each part of the sword 5 may be recorded and stored in the same manner.

[処理の流れの説明]
次に、本実施形態における処理の流れについて説明する。ここで説明される処理は、処理部200がシステムプログラム501並びにゲームプログラム502を読み出して実行することによって実現される。
尚、ここではゲーム画面の画像信号の生成と出力、並びにゲーム音の音信号の生成と出力についての説明は省略するが、公知のゲームと同様にして画像生成部260が画像表示部360(画像表示装置1222)のリフレッシュレートよりも十分に短いサイクルでゲーム画面を表示させるための画像信号を生成し出力する。その際、ゲーム画面を3DCGで生成する場合には、レンダリング等の処理が行われる。同様に、音生成部250でゲーム音の音信号を生成して音出力部350(スピーカ1224)から放音させるものとする。
[Description of process flow]
Next, the flow of processing in this embodiment will be described. The processing described here is realized by the processing unit 200 reading and executing the system program 501 and the game program 502.
Here, description of the generation and output of the image signal of the game screen and the generation and output of the sound signal of the game sound is omitted, but the image generation unit 260 (image display unit 360 (image An image signal for displaying the game screen is generated and output in a cycle sufficiently shorter than the refresh rate of the display device 1222). At that time, when the game screen is generated by 3DCG, processing such as rendering is performed. Similarly, it is assumed that the sound generation unit 250 generates a sound signal of the game sound and emits the sound from the sound output unit 350 (speaker 1224).

図9〜図11は、本実施形態における主たる処理の流れを説明するためのフローチャートである。先ず処理部200は、ゲーム空間設定データ510を参照して、仮想3次元空間内にゲーム空間を作成し(ステップS2)、敵キャラクタ設定データ512とプレーヤキャラクタ設定データ520とを参照して、そこに刀剣5を持ったプレーヤキャラクタ4と敵キャラクタ6とを配置する(ステップS4)。初期状態のプレーヤキャラクタ4は刀剣5を構えた状態にある。そして、仮想カメラCMをプレーヤキャラクタ4の後方斜め上に配置し、視線方向をプレーヤキャラクタ4の前方に向けて配置する(ステップS8)。   9 to 11 are flowcharts for explaining the main processing flow in the present embodiment. First, the processing unit 200 creates a game space in the virtual three-dimensional space with reference to the game space setting data 510 (step S2), and refers to the enemy character setting data 512 and the player character setting data 520, there A player character 4 having an sword 5 and an enemy character 6 are arranged (step S4). The player character 4 in the initial state is in a state holding the sword 5. Then, the virtual camera CM is arranged obliquely above and behind the player character 4, and the line-of-sight direction is arranged in front of the player character 4 (step S8).

ゲームを開始したならば(ステップS10)、処理部200は、ステップS12〜S204を所定の制御サイクルで繰り返し実行する。
すなわち、処理部200は、操作入力部100の加速度検出部104の加速度検出信号に基づいて今制御サイクルにおけるゲームコントローラ移動ベクトルVcnを算出し(ステップS12)、算出されたゲームコントローラ移動速度ベクトルVcnから入力速度ベクトルVinを算出する(ステップS14)。算出されたゲームコントローラ移動速度ベクトルVcnと入力速度ベクトルVinは、記憶部500に一時記憶されるものとする。そして、刀剣5の先端位置の周期記録処理をする(ステップS16)。
If the game is started (step S10), the processing unit 200 repeatedly executes steps S12 to S204 in a predetermined control cycle.
That is, the processing unit 200 calculates the game controller movement vector Vcn in the current control cycle based on the acceleration detection signal of the acceleration detection unit 104 of the operation input unit 100 (step S12), and from the calculated game controller movement speed vector Vcn. An input speed vector Vin is calculated (step S14). It is assumed that the calculated game controller moving speed vector Vcn and the input speed vector Vin are temporarily stored in the storage unit 500. Then, a periodic recording process of the tip position of the sword 5 is performed (step S16).

次に、処理部200は、砲弾10の発射タイミング決定処理を実行して、砲弾10を発射するか否か、発射するならばどの敵キャラクタ6から発射させるかを決定する(ステップS32)。具体的には、乱数を発生させてゲームステージが進むほど砲弾発射の間隙が短くなるようにして発射タイミングを決定し、また乱数を発生させて複数の敵キャラクタ6の内、何れから発射させるかを決定する。   Next, the processing unit 200 executes a firing timing determination process for the cannonball 10 to determine whether or not to fire the cannonball 10 and from which enemy character 6 if fired (step S32). Specifically, a random number is generated and the firing timing is determined so that the gap between the bullets becomes shorter as the game stage progresses, and the random number is generated and from which of the plurality of enemy characters 6 is fired. To decide.

砲弾10を発射するタイミングであると決定された場合(ステップS34のYES)、処理部200は、次に砲弾10の発射速度を所定の範囲内からランダムに決定し(ステップS36)、更に指定切断方向をランダムに決定する(ステップS38)。
そして、プレーヤキャラクタ4へ向けて、選択された敵キャラクタ6から指定切断方向マーク18が描かれた砲弾10を発射するように表示制御し(ステップS40)、この新たな砲弾10の情報をプレイデータ550の砲弾データ560に格納し(ステップS42)、発射済み砲弾数554を「1」アップする(ステップS44)。
If it is determined that it is time to fire the cannonball 10 (YES in step S34), the processing unit 200 then randomly determines the firing speed of the cannonball 10 from a predetermined range (step S36), and further performs a specified cutting. A direction is determined at random (step S38).
Then, display control is performed so as to fire the shell 10 on which the designated cutting direction mark 18 is drawn from the selected enemy character 6 toward the player character 4 (step S40), and information on this new shell 10 is played data. It is stored in the bullet data 560 of 550 (step S42), and the number of fired bullets 554 is increased by "1" (step S44).

次いで、処理部200は、砲弾データ560に登録済みのデータが有れば、移動中の砲弾10が有ると判断して(ステップS50のYES)、移動中の砲弾10の位置座標560bと速度ベクトル560cを更新する(ステップS52)。   Next, if there is registered data in the shell data 560, the processing unit 200 determines that there is a moving shell 10 (YES in Step S50), and the position coordinate 560b of the moving shell 10 and the velocity vector are determined. 560c is updated (step S52).

図10のフローチャートに移って、処理部200はゲームコントローラ1230を振る操作入力の検知判定をする(ステップS60)。
本実施形態では、制御サイクル毎にゲームコントローラ移動速度ベクトルVcnを算出しているので、今制御サイクルにおける当該速度ベクトルが、明らかにゲームコントローラ1230を振っていると判断できる基準値以上であれば肯定判定する(ステップS60のYES)。そして、プレーヤキャラクタ4が刀剣5を振っているスイング制御中でなければ(ステップS62のNO)、処理部200は、プレーヤキャラクタモーションデータ526を参照して、入力速度ベクトルVinに基づいて刀剣5のスイングモーションを決定し(ステップS64)、決定したスイングモーションデータに従って、プレーヤキャラクタ4のスイング制御を開始し、入力速度ベクトルVinの方向へ刀剣5を振らせる(ステップS66)。
一方、刀剣5のスイング制御が実行されている場合には(ステップS62のYES)、実行中のスイング制御を継続する(ステップS68)。
また、今制御サイクルのゲームコントローラ移動速度ベクトルVcnが基準値に満たなければ(ステップS60のNO)、これらの処理はスキップされる。
Moving to the flowchart of FIG. 10, the processing unit 200 determines whether to detect an operation input that shakes the game controller 1230 (step S <b> 60).
In this embodiment, since the game controller moving speed vector Vcn is calculated for each control cycle, if the speed vector in the current control cycle is equal to or greater than a reference value that can clearly be determined to be swinging the game controller 1230, affirmative Determine (YES in step S60). If the swing control in which the player character 4 is swinging the sword 5 is not being performed (NO in step S62), the processing unit 200 refers to the player character motion data 526 and determines the sword 5 based on the input speed vector Vin. A swing motion is determined (step S64), swing control of the player character 4 is started according to the determined swing motion data, and the sword 5 is swung in the direction of the input speed vector Vin (step S66).
On the other hand, when the swing control of the sword 5 is being executed (YES in step S62), the swing control being executed is continued (step S68).
If the game controller moving speed vector Vcn in the current control cycle does not satisfy the reference value (NO in step S60), these processes are skipped.

次に、処理部200は、プレーヤキャラクタ4に最も近い移動中の砲弾10を抽出し(ステップS80)、ヒット可能範囲設定処理を実行する(ステップS82)。   Next, the processing unit 200 extracts the bullet 10 that is moving closest to the player character 4 (step S80), and executes a hit possible range setting process (step S82).

図12は、本実施形態におけるヒット可能範囲設定処理の流れを説明するためのフローチャートである。同処理は、仮想カメラCMの視線方向に沿った追加のヒット判定領域としてヒット可能範囲を設定する処理である。   FIG. 12 is a flowchart for explaining the flow of hit possible range setting processing in the present embodiment. This process is a process of setting a hit possible range as an additional hit determination area along the line-of-sight direction of the virtual camera CM.

同処理において、処理部200は先ず、ステップS80で抽出された砲弾10の移動速度(図8の速度ベクトル560c参照)に基づく所定の関数を用いて第1拡張係数k1を算出する(ステップS100)。本実施形態における第1拡張係数k1は、0.8〜1.2の値をとる。その算出関数では、移動速度が高いほど第1拡張係数k1が大きく算出される。また、スイング速度(図8の入力速度ベクトルVin572参照)に基づく所定の関数を用いて第2拡張係数k2を算出する(ステップS102)。本実施形態における第2拡張係数k2は、0.8〜1.2の値をとる。その算出関数では、移動速度が高いほど第2拡張係数k2が大きく算出される。   In this process, the processing unit 200 first calculates the first expansion coefficient k1 using a predetermined function based on the movement speed of the shell 10 extracted in step S80 (see the speed vector 560c in FIG. 8) (step S100). . The first expansion coefficient k1 in the present embodiment takes a value of 0.8 to 1.2. In the calculation function, the higher the moving speed, the larger the first expansion coefficient k1 is calculated. Further, the second expansion coefficient k2 is calculated using a predetermined function based on the swing speed (see the input speed vector Vin572 in FIG. 8) (step S102). The second expansion coefficient k2 in the present embodiment takes a value of 0.8 to 1.2. In the calculation function, the second expansion coefficient k2 is calculated to be larger as the moving speed is higher.

次に、処理部200は、所定の基準拡張長さL0を、第1拡張係数k1と第2拡張係数k2を掛けて補正し、適用拡張長さLaを算出する(ステップS104)。基準拡張長さL0は、砲弾10の大きさや、仮想カメラCMの画角などとの兼ね合いで、適宜事前のテストをもって適当な値を決定しておく。   Next, the processing unit 200 corrects the predetermined reference extension length L0 by multiplying the first extension coefficient k1 and the second extension coefficient k2, and calculates the applicable extension length La (step S104). The reference extension length L0 is determined as an appropriate value through an appropriate preliminary test in consideration of the size of the shell 10 and the angle of view of the virtual camera CM.

次に、処理部200は、仮想カメラCMの焦点P0から現在の刀剣5の先端位置(第2頂点P2;図3参照)を通る直線上で、先端位置から適用拡張長さLaだけ画面奥に移動した位置を算出し、ここに第3頂点P3を設定する(ステップS106)。
また、仮想カメラCMの焦点P0から一つ前の制御サイクルにおける刀剣5の先端位置(第1頂点P1)を通る直線上で、先端位置から適用拡張長さLaだけ画面奥に移動した位置を算出し、ここに第4頂点P4を設定する(ステップS108)。
そして、第1頂点P1〜第4頂点P4で囲まれる領域をヒット可能範囲30(図3参照)として設定し(ステップS110)、ヒット可能範囲設定処理を終了する。
Next, the processing unit 200 moves from the tip position to the back of the screen by the applicable extension length La on a straight line passing from the focal point P0 of the virtual camera CM to the current tip position of the sword 5 (second vertex P2; see FIG. 3). The moved position is calculated, and the third vertex P3 is set here (step S106).
Also, the position moved from the tip position to the back of the screen by the applicable extension length La on the straight line passing the tip position (first vertex P1) of the sword 5 in the previous control cycle from the focal point P0 of the virtual camera CM is calculated. Then, the fourth vertex P4 is set here (step S108).
Then, the area surrounded by the first vertex P1 to the fourth vertex P4 is set as the hitable range 30 (see FIG. 3) (step S110), and the hitable range setting process is terminated.

図10のフローチャートに戻って、処理部200は次に、ヒット可能範囲30とヒットする砲弾10が有るかを検索する。もし、該当する砲弾10が有れば(ステップS150のYES)、ヒット可能範囲30を含む分割面を設定する(ステップS152)。分割面を定義する情報は、プレイデータ550に一時的に格納する。
また、ヒット可能範囲30とヒットする砲弾10が無い場合には(ステップS150のNO)、刀剣5とヒットする砲弾10が有るかを検索する(ステップS154)。そしてもし、該当する砲弾10が有れば(ステップS154のYES)、刀剣5の刃面に沿った分割面を設定する(ステップS156)。
Returning to the flowchart of FIG. 10, the processing unit 200 next searches for a hitable range 30 and a hit bullet 10. If there is a corresponding shell 10 (YES in step S150), a division plane including the hit possible range 30 is set (step S152). Information defining the division plane is temporarily stored in the play data 550.
If there is no hitting range 30 and no hit bullet 10 (NO in step S150), it is searched whether there is a sword 5 and a hit bullet 10 (step S154). If there is a corresponding shell 10 (YES in step S154), a divided surface along the blade surface of the sword 5 is set (step S156).

そして、分割面を設定したならば、処理部200は、ヒット可能範囲30又は刀剣5とヒットした砲弾10が、その分割面で分割された分割後砲弾12,14を生成して置換し(ステップS158)、分割後砲弾12,14それぞれに離間速度ベクトルVsc2,Vsc4を付与し、元の砲弾10の速度ベクトルに合成して、速度ベクトル562cとする(ステップS160;図5、図8参照)。   When the division plane is set, the processing unit 200 generates and replaces the post-divided shells 12 and 14 in which the hitting range 30 or the sword 5 and the hit bullet 10 are divided by the division plane (Step S200). S158), the separation velocity vectors Vsc2 and Vsc4 are assigned to the divided shells 12 and 14, respectively, and are combined with the velocity vector of the original shell 10 to obtain the velocity vector 562c (step S160; see FIGS. 5 and 8).

図11のフローチャートに移って、処理部200は次に、切断された砲弾10に設定されている指定切断方向560dと、入力速度ベクトルVinとの角度差を算出し(ステップS170)、角度差が所定の許容範囲内であれば(ステップS172のYES)、ヒットポイント556を所定値だけ回復させる(ステップS174;図8参照)。   Moving on to the flowchart of FIG. 11, the processing unit 200 next calculates an angle difference between the designated cutting direction 560d set for the cut shell 10 and the input velocity vector Vin (step S170). If it is within the predetermined allowable range (YES in step S172), the hit point 556 is recovered by a predetermined value (step S174; see FIG. 8).

次に、処理部200は、生成してから所定時間経過した分割後砲弾12,14を検索し、該当するものがあれば(ステップS180のYES)、それらを消去する(ステップS182)。これで、プレーヤキャラクタ4により切られた砲弾が分割され消えるように制御できる。   Next, the processing unit 200 searches for the divided shells 12 and 14 after a predetermined time has elapsed since the generation, and deletes them if there are applicable (YES in step S180) (step S182). Thus, control can be performed so that the shells cut by the player character 4 are divided and disappear.

次に、処理部200は、プレーヤキャラクタ4にヒットした砲弾10を検索し、該当する砲弾10が有れば(ステップS190のYES)、ヒットポイント556を砲弾1つ当たり所定の数値を削減し(ステップS192)、その砲弾10を消去する(ステップS194)。これで、プレーヤキャラクタ4が切り損なった砲弾10が着弾して、ダメージを受けるように制御できる。   Next, the processing unit 200 searches for the shell 10 that hits the player character 4, and if there is a corresponding shell 10 (YES in step S190), the processing unit 200 reduces the hit point 556 by a predetermined numerical value per shell ( In step S192, the shell 10 is deleted (step S194). Thus, control can be performed so that the shell 10 that the player character 4 fails to cut lands and receives damage.

次いで、処理部200は、ヒットポイント556が「0」になっているかを判定する。「0」になっていなければ(ステップS200のNO)、発射された砲弾数が所定数に達したかを判定する(ステップS204)。   Next, the processing unit 200 determines whether the hit point 556 is “0”. If it is not “0” (NO in step S200), it is determined whether the number of fired bullets has reached a predetermined number (step S204).

発射された砲弾数が所定数に達していなければ(ステップS204のNO)、ゲーム続行可能と判断して、ステップS12に戻る。
反対に、所定数に達していれば(ステップS204のYES)、ゲームクリアできたと判断して、処理部200はゲームクリア終了処理を実行し、例えばゲーム画面にゲームクリアした旨の通知表示を行うなどの演出表示制御を実行して(ステップS206)、一連の処理を終了する。尚、複数のゲームステージで構成されている場合には、ここで最終ステージがクリアされたかどうかを判定し、まだ最終ステージがクリアされていなければ、次のステージに進むようにする。
If the number of fired ammunition has not reached the predetermined number (NO in step S204), it is determined that the game can be continued, and the process returns to step S12.
On the other hand, if the predetermined number has been reached (YES in step S204), it is determined that the game has been cleared, and the processing unit 200 executes a game clear end process, for example, displays a notification that the game has been cleared on the game screen. Etc. is executed (step S206), and the series of processes is terminated. If the game is composed of a plurality of game stages, it is determined whether or not the final stage has been cleared. If the final stage has not yet been cleared, the process proceeds to the next stage.

また、そもそもヒットポイント556が「0」になった場合には(ステップS200のYES)、処理部200はゲームクリアできなかったと判断して、ゲームオーバー終了処理を実行し、例えばゲーム画面にゲームのクリアミスした旨の通知表示を行うなどの演出表示制御を実行して(ステップS208)、一連の処理を終了する。   In the first place, when the hit point 556 has become “0” (YES in step S200), the processing unit 200 determines that the game has not been cleared, and executes a game over end process. Production display control such as displaying a notification of a clear mistake is executed (step S208), and the series of processes is terminated.

以上、本実施形態によれば、操作オブジェクト(刀剣5)に関して画面奥行方向に拡張したヒット判定領域を設けることで、画面手前/奥行方向に移動してくる衝突対象オブジェクト(砲弾10)に対して、操作オブジェクトが厳密にはヒットしていないが、普通の感覚ではヒットしているかのように感じる距離にあるとき、それをヒットしているものと判定することができる。   As described above, according to the present embodiment, by providing the hit determination area extended in the screen depth direction with respect to the operation object (sword 5), the collision target object (cannonball 10) moving in the front / depth direction of the screen is provided. When the operation object is not hit strictly, but is at a distance that feels as if it is hit in a normal sense, it can be determined that it is hit.

そして、本実施形態では、ヒット判定領域(ヒット可能範囲30)を、仮想カメラCMの視線方向に沿って(より厳密には仮想カメラCMの焦点P0及び近傍の固定点の何れかからオブジェクトの基準点(刀剣5の先端)を通る方向に)拡張して設ける。そして、ヒット判定領域を含む面を衝突対象オブジェクト(砲弾10)を分割する分割面とするので、切断時(ヒット時)における切断面が生成画像上の奥行方向に平行となる。切断面が奥行方向に平行な面となることと、2次元画像に対する視覚上の奥行き感の鈍感性(視認の困難性)とが相俟って、分割される様子を美しく表現することができる。刀剣5の刃面のみをヒット判定領域とし、またそれを切断面とする場合よりも「切れた!」感じがより直感的で爽快に感じられるようになる。同様に、ヒット判定領域を単にゲーム空間のZ軸方向に追加しただけでは、やはり切断面が仮想カメラCMに沿わない場合もあり、本実施形態のように仮想カメラCMの視線方向に沿ってヒット判定領域を拡張した方が、「切れた!」感じがより直感的で爽快に感じられる。   In the present embodiment, the hit determination area (hit possible range 30) is determined based on the object reference from either the focal point P0 of the virtual camera CM or a fixed point in the vicinity along the line-of-sight direction of the virtual camera CM. Provide extended (in the direction passing through the point (tip of the sword 5)). Since the surface including the hit determination area is a divided surface for dividing the collision target object (cannonball 10), the cut surface at the time of cutting (at the time of the hit) is parallel to the depth direction on the generated image. Combined with the fact that the cut surface is a plane parallel to the depth direction and the insensitivity of visual depth to the two-dimensional image (difficulty in visual recognition), it is possible to express the appearance of the division beautifully. . The feeling of “cut!” Can be felt more intuitively and exhilarating than the case where only the blade surface of the sword 5 is used as the hit determination area and is used as the cut surface. Similarly, if the hit determination area is simply added in the Z-axis direction of the game space, the cut surface may not be along the virtual camera CM, and hits are made along the line-of-sight direction of the virtual camera CM as in this embodiment. When the judgment area is expanded, the feeling of “cut out” is more intuitive and refreshing.

〔第2実施形態〕
次に、本発明を適用した第2実施形態について説明する。本実施形態は、基本的に第1実施形態と同様に実現されるが、ヒット判定領域を設定する方法が異なる。
尚、ここでは、主に第1実施形態との差異について述べることとし、第1実施形態と同様の構成要素については、同じ符号を付与して説明は省略するものとする。
[Second Embodiment]
Next, a second embodiment to which the present invention is applied will be described. This embodiment is basically realized in the same manner as the first embodiment, but the method for setting the hit determination area is different.
Here, differences from the first embodiment will be mainly described, and the same components as those in the first embodiment will be given the same reference numerals and description thereof will be omitted.

図13は、本実施形態におけるヒット可能範囲の設定方法の原理を説明するための概念図である。本実施形態では、プレーヤキャラクタ設定データ520に、刀剣モデルデータ528とは別に、刀剣5の先端に追加される透明で棒状の仮想刀身5bのモデルが予め記憶されている。そして、仮想刀身5bは、一端が刀剣5の先端に接続され、他端が仮想カメラCMの焦点P0又は近傍の所定点から刀剣5の先端を通る直線上、ゲーム空間奥側となるように配置される。   FIG. 13 is a conceptual diagram for explaining the principle of the hitable range setting method according to this embodiment. In the present embodiment, the player character setting data 520 stores in advance a model of a transparent, rod-like virtual blade 5b that is added to the tip of the sword 5 separately from the sword model data 528. The virtual blade 5b is arranged so that one end is connected to the tip of the sword 5 and the other end is on the back of the game space on a straight line passing through the tip of the sword 5 from a focal point P0 of the virtual camera CM or a nearby predetermined point. Is done.

そして、本実施形態における処理部200は、この仮想刀身の通過範囲を記憶するために、第1実施形態で刀剣5の先端位置を周期的に記憶した代わりに、仮想刀身5bの一端P6と他端P7の各位置座標を周期的に記憶する処理を実行する(図9のステップS16参照)。或いは、仮想刀身5bの一端P6と他端P7のそれぞれの移動軌跡関数を記憶する。   And in order to memorize | store the passage range of this virtual blade, the process part 200 in this embodiment replaces with the end P6 of the virtual blade 5b and others instead of memorize | storing the front-end | tip position of the blade 5 in 1st Embodiment periodically. A process of periodically storing each position coordinate of the end P7 is executed (see step S16 in FIG. 9). Alternatively, the movement trajectory functions of one end P6 and the other end P7 of the virtual blade 5b are stored.

図14は、本実施形態におけるヒット可能範囲設定処理(ヒット可能範囲設定処理B)の流れを説明するためのフローチャートである。同処理において、処理部200は第1実施形態のヒット可能範囲設定処理と同様にして第1拡張係数k1と第2拡張係数k2とを算出する(ステップS100〜S102)。   FIG. 14 is a flowchart for explaining the flow of hit possible range setting processing (hit possible range setting processing B) in the present embodiment. In this process, the processing unit 200 calculates the first expansion coefficient k1 and the second expansion coefficient k2 in the same manner as the hitable range setting process of the first embodiment (steps S100 to S102).

次いで、処理部200は、一つ前の制御サイクルの仮想刀身5bの位置から、現在の仮想刀身5bの位置までの通過範囲を基礎ヒット可能範囲30Bとして設定する(ステップS120;図13参照)。
具体的には、仮想刀身5bの一端P6と他端P7の各位置座標を周期的に記憶する構成ならば、一つ前の制御サイクルの一端P6a、今制御サイクルの一端P6b、一つ前の制御サイクルの他端P7a、今制御サイクルの他端P7bで囲まれる範囲を基礎ヒット可能範囲30Bとする(図9参照)。仮想刀身5bの一端P6と他端P7のそれぞれの移動軌跡関数を記憶する構成ならば、各移動軌跡関数における一つ前の制御サイクルから今制御サイクルまでの軌跡を抽出し、抽出された軌跡の両端を対向する端部同士で連結して平面を定義し、これを基礎ヒット可能範囲30Bとする。
Next, the processing unit 200 sets a passing range from the position of the virtual blade 5b in the previous control cycle to the current position of the virtual blade 5b as a basic hit possible range 30B (step S120; see FIG. 13).
Specifically, if the position coordinates of the one end P6 and the other end P7 of the virtual blade 5b are periodically stored, one end P6a of the previous control cycle, one end P6b of the current control cycle, A range surrounded by the other end P7a of the control cycle and the other end P7b of the current control cycle is defined as a basic hit possible range 30B (see FIG. 9). If each moving trajectory function of one end P6 and the other end P7 of the virtual blade 5b is stored, the trajectory from the previous control cycle to the current control cycle in each moving trajectory function is extracted. A plane is defined by connecting both ends at opposite ends, and this is defined as a basic hit possible range 30B.

そして、基礎ヒット可能範囲30Bを設定できたならば、処理部200は第1拡張係数k1の倍数分だけ基礎ヒット可能範囲30Bを画面奥行方向へ拡大又は縮小して補正し(ステップS122)、更に補正された基礎ヒット可能範囲30Bを第2拡張係数k2の倍数分だけ基礎ヒット可能範囲30Bを画面奥行方向へ拡大又は縮小してヒット判定に使用されるヒット可能範囲として(ステップS124)、ヒット可能範囲設定処理Bを終了する。   If the basic hit possible range 30B has been set, the processing unit 200 corrects the basic hit possible range 30B by expanding or reducing it in the screen depth direction by a multiple of the first expansion coefficient k1 (step S122). The corrected basic hit possible range 30B is expanded or reduced in the screen depth direction by a multiple of the second expansion coefficient k2 as a hit possible range used for hit determination (step S124), and a hit is possible The range setting process B is terminated.

〔第3実施形態〕
次に、本発明を適用した第3実施形態について説明する。本実施形態は、基本的に第1実施形態と同様に実現されるが、追加のヒット判定領域を設定する方法が異なる。
尚、ここでは、主に第1実施形態との差異について述べることとし、第1及び第2実施形態と同様の構成要素については、同じ符号を付与して説明は省略するものとする。
[Third Embodiment]
Next, a third embodiment to which the present invention is applied will be described. This embodiment is basically realized in the same manner as the first embodiment, but the method for setting an additional hit determination area is different.
Here, differences from the first embodiment will be mainly described, and the same reference numerals are given to the same components as those in the first and second embodiments, and the description thereof will be omitted.

図15は、本実施形態におけるヒット可能範囲の設定方法の原理を説明するための概念図である。本実施形態の処理部200は、第1実施形態で刀剣5の先端位置を周期的に記憶した代わりに、刀剣5の先端位置の移動軌跡L8を移動軌跡関数として記憶・更新する。   FIG. 15 is a conceptual diagram for explaining the principle of the hitable range setting method according to this embodiment. Instead of periodically storing the tip position of the sword 5 in the first embodiment, the processing unit 200 of the present embodiment stores and updates the movement locus L8 of the tip position of the sword 5 as a movement locus function.

図16は、本実施形態におけるヒット可能範囲設定処理(ヒット可能範囲設定処理C)の流れを説明するためのフローチャートである。同処理において、処理部200は第1実施形態のヒット可能範囲設定処理と同様にして第1拡張係数k1と第2拡張係数k2とを算出する(ステップS100〜S102)。   FIG. 16 is a flowchart for explaining the flow of hit possible range setting processing (hit possible range setting processing C) in the present embodiment. In this process, the processing unit 200 calculates the first expansion coefficient k1 and the second expansion coefficient k2 in the same manner as the hitable range setting process of the first embodiment (steps S100 to S102).

次いで、処理部200は、一つ前の制御サイクルから今制御サイクルまでの一部である軌跡線L9を抽出し(ステップS130;図15参照)、抽出した軌跡線L9を仮想カメラCMの視線方向に沿った方向、厳密には仮想カメラCMから軌跡線L9を向いた方向に拡張させて基礎ヒット可能範囲30Cを設定する(ステップS132)。   Next, the processing unit 200 extracts a locus line L9 that is a part from the previous control cycle to the current control cycle (step S130; see FIG. 15), and uses the extracted locus line L9 as the viewing direction of the virtual camera CM. The basic hit possible range 30 </ b> C is set by extending in the direction along the line S, strictly in the direction from the virtual camera CM toward the locus line L <b> 9 (step S <b> 132).

そして、基礎ヒット可能範囲30Cを設定できたならば、処理部200は第1拡張係数k1の倍数分だけ基礎ヒット可能範囲30Cを画面奥行方向へ拡大又は縮小して補正し(ステップS134)、更に補正された基礎ヒット可能範囲30Cを第2拡張係数k2の倍数分だけ画面奥行方向へ拡大又は縮小してヒット判定に使用されるヒット可能範囲として(ステップS136)、ヒット可能範囲設定処理Cを終了する。   If the basic hit possible range 30C has been set, the processing unit 200 corrects the basic hit possible range 30C by expanding or reducing it in the screen depth direction by a multiple of the first expansion coefficient k1 (step S134). The corrected basic hit possible range 30C is expanded or reduced in the screen depth direction by a multiple of the second expansion coefficient k2 as a hit possible range used for hit determination (step S136), and the hit possible range setting process C is terminated. To do.

尚、本実施形態では軌跡線L9を、仮想カメラCMの視線方向に沿った方向に投影的に拡張して基礎ヒット可能範囲30Cを設定したが、例えば図17に示すように、刀剣5の移動軌跡面のうち、一つ前の制御サイクルから今制御サイクルまでの一部である軌跡面32を抽出し、これを仮想カメラCMから当該面の中心を通る方向へ投影的に拡張して基礎ヒット可能範囲30Dを形成するとしても良い。   In this embodiment, the trajectory line L9 is projected and expanded in the direction along the line-of-sight direction of the virtual camera CM to set the basic hit possible range 30C. For example, as shown in FIG. From the trajectory plane, the trajectory plane 32 that is a part from the previous control cycle to the current control cycle is extracted, and this is projected from the virtual camera CM in the direction passing through the center of the plane to be a basic hit. The possible range 30D may be formed.

〔変形例〕
以上、本発明を適用した第1〜第3実施形態について説明したが、本発明の実施形態はこれらの構成に限定されるものではなく、適宜、構成要素の追加・省略・変更を施すことができる。
[Modification]
As described above, the first to third embodiments to which the present invention is applied have been described. However, the embodiments of the present invention are not limited to these configurations, and additions, omissions, and modifications of components may be appropriately made. it can.

例えば、ゲームの内容は、画面奥行方向に存在する二つのオブジェクトのヒットタイミングに合わせた操作入力が要求されるゲームであれば、そのジャンルや内容は問わない。   For example, the content of the game is not limited to any genre or content as long as the operation input is requested in accordance with the hit timing of two objects existing in the depth direction of the screen.

[その1]
例えば、上記実施形態では、プレーヤキャラクタ4が刀剣5を振る方向の入力を、ゲームコントローラ1230の加速度からゲームコントローラ移動ベクトルVcnを算出し、そこから入力速度ベクトルVinを求めて取得する構成としたがこれに限らない。
[Part 1]
For example, in the embodiment described above, the player character 4 inputs the direction in which the sword 5 is swung, the game controller movement vector Vcn is calculated from the acceleration of the game controller 1230, and the input velocity vector Vin is obtained therefrom to be obtained. Not limited to this.

例えば図18は、イメージセンサモジュール1227で撮影したプレーヤ2の姿に基づいてプレーヤキャラクタ4が刀剣5を振る方向の入力を取得する概念を説明する図である。この例では、ゲーム開始に先立って、ビデオモニタ1220に所定のプレイ準備ガイドを画面表示して、プレーヤ2に指示を与えつつ、イメージセンサモジュール1227でキャリブレーション用の画像を取得する。   For example, FIG. 18 is a diagram for explaining the concept of acquiring an input in the direction in which the player character 4 swings the sword 5 based on the appearance of the player 2 photographed by the image sensor module 1227. In this example, prior to the start of the game, a predetermined play preparation guide is displayed on the video monitor 1220 and an image for calibration is acquired by the image sensor module 1227 while giving an instruction to the player 2.

より具体的には、プレイ準備ガイドでは先ず、ビデオモニタ1220の前にはプレーヤが一定時間立たないように指示し、その間に背景のみの第1キャリブレーション画像をイメージセンサモジュール1227で撮影する。次いで、プレーヤにイメージセンサモジュール1227に対して正面向いて両手を広げるように指示して、第2キャリブレーション画像C2を撮影する。そして、第1キャリブレーション画像C1と第2キャリブレーション画像C2を取得したならば、制御ユニット1210は、両画像の差分からプレーヤ2の人体シルエット39を抽出する。   More specifically, in the play preparation guide, first, the player instructs the video monitor 1220 not to stand for a certain period of time, and the first calibration image of only the background is captured by the image sensor module 1227 during that time. Next, the player is instructed to open both hands facing the front to the image sensor module 1227, and the second calibration image C2 is photographed. When the first calibration image C1 and the second calibration image C2 are acquired, the control unit 1210 extracts the human body silhouette 39 of the player 2 from the difference between the two images.

次いで、制御ユニット1210は、第2キャリブレーション画像C2から人体シルエット39を抽出し、抽出された人体シルエット39から中央上向き凸部と、左右端部の凸部を抽出する。そして、抽出された中央上向き凸部をプレーヤ2の頭部に相当する頭部特徴部分40として認識し、その代表点(例えば先端位置や該当部分の中心位置)の画面座標系の座標を取得する。同じように、人体シルエット39の画面向かって左方向への凸部を左特徴部分42として識別し、画面向かって右方向への凸部を右特徴部分44として識別する。   Next, the control unit 1210 extracts the human body silhouette 39 from the second calibration image C2, and extracts the central upward convex part and the convex parts at the left and right end parts from the extracted human body silhouette 39. Then, the extracted center upward convex portion is recognized as the head feature portion 40 corresponding to the head of the player 2 and the coordinates of the representative point (for example, the tip position or the center position of the corresponding portion) in the screen coordinate system are acquired. . Similarly, a convex portion in the left direction toward the screen of the human body silhouette 39 is identified as the left feature portion 42, and a convex portion in the right direction toward the screen is identified as the right feature portion 44.

ゲームプレイ中は、常時イメージセンサモジュール1227によってプレーヤ2の様子が撮影され、撮影されたフレーム毎(例えば、プレーヤ画像W4,W5,・・・)に頭部特徴部分40、ゲームコントローラ1230を持つ左特徴部分42、右特徴部分44の座標が取得され続ける。そして、左特徴部分42の座標のフレーム間の変化から得た方向と速さとから入力速度ベクトルVinを算出する。尚、イメージセンサモジュール1227で撮影された画像はプレーヤ2の正面像なので、入力速度ベクトルVinの算出の際には、左右方向の反転を行う。   During the game play, the state of the player 2 is always captured by the image sensor module 1227, and the left side having the head feature portion 40 and the game controller 1230 for each captured frame (for example, the player images W4, W5,...). The coordinates of the feature portion 42 and the right feature portion 44 are continuously acquired. Then, the input speed vector Vin is calculated from the direction and speed obtained from the change of the coordinates of the left feature portion 42 between frames. Since the image photographed by the image sensor module 1227 is a front image of the player 2, the input velocity vector Vin is reversed in the left-right direction.

[その2]
また、プレーヤキャラクタ4が刀剣5を振る方向の情報を次のように算出してもよい。すなわち、イメージセンサモジュール1227で撮影した画像を画像処理して当該モジュールからプレーヤ2までの距離を求め、求めたプレーヤキャラクタ2までの距離に基づいて算出する方法である。
[Part 2]
Further, information on the direction in which the player character 4 swings the sword 5 may be calculated as follows. In other words, this is a method in which an image captured by the image sensor module 1227 is subjected to image processing to obtain a distance from the module to the player 2 and based on the obtained distance to the player character 2.

例えば、図19に示すように、光信号出力装置1226から所定サイクルで赤外線をプレーヤ2に向けて照射する。イメージセンサモジュール1227は、光信号出力装置1226から赤外線が照射されていないタイミングで取得したバックグランド画像W10と、照射されているタイミングで取得したプレーヤ距離画像W12とを繰り返し取得する(W12(1)〜W12(n))。   For example, as shown in FIG. 19, the optical signal output device 1226 irradiates the player 2 with infrared rays in a predetermined cycle. The image sensor module 1227 repeatedly acquires the background image W10 acquired at the timing when the infrared light is not irradiated from the optical signal output device 1226 and the player distance image W12 acquired at the timing of irradiation (W12 (1)). ~ W12 (n)).

プレーヤ距離画像W12は、赤外線を反射した画像であり、イメージセンサモジュール1227からの距離が近い部分はより強く反射して、画面上は高輝度となり、距離が離れた部分ほど反射が弱まり輝度が下がって写る。例えば、ゲームコントローラ1230を持って突き出したコントローラ及びそのコントローラを持つ右腕の部分の輝度が高く、次いで、左腕、体、背景の順に輝度が低くなる。図では、輝度が低いほど黒く、高いほど白っぽく表現している。   The player distance image W12 is an image obtained by reflecting infrared rays, and a portion closer to the image sensor module 1227 is more strongly reflected and becomes brighter on the screen, and a portion farther away is less reflected and lowers brightness. It is reflected. For example, the luminance of the controller protruding with the game controller 1230 and the right arm portion having the controller is high, and then the luminance decreases in the order of left arm, body, and background. In the figure, the lower the brightness, the more black, and the higher the brightness, the whiter.

処理部200のゲーム演算部210は、(1)バックグランド画像W10とプレーヤ距離画像W12とを比較して、プレーヤ2で反射赤外線が撮影されている部分を抽出する第1の画像処理と、(2)プレーヤ距離画像W12のプレーヤ2が写っている部分の各画素の輝度に基づいて各画素までの距離Zを算出する第2の画像処理と、(3)類似する距離の画素集合の重心位置などから右手代表点46を抽出する第3の画像処理とを行う。そして、入力方向判定部212は、第3の画像処理で抽出された右手代表点46の移動から、ゲームコントローラ移動速度ベクトルVcn570や入力速度ベクトルVin572(図8参照)を算出する構成とする。   The game calculation unit 210 of the processing unit 200 (1) compares the background image W10 and the player distance image W12, and extracts a portion where the reflected infrared image is captured by the player 2; 2) Second image processing for calculating the distance Z to each pixel based on the luminance of each pixel in the portion of the player distance image W12 in which the player 2 is captured, and (3) the barycentric position of the pixel set at a similar distance The third image processing for extracting the right hand representative point 46 from the above is performed. Then, the input direction determination unit 212 is configured to calculate the game controller moving speed vector Vcn570 and the input speed vector Vin572 (see FIG. 8) from the movement of the right hand representative point 46 extracted in the third image processing.

[その3]
また、プレーヤキャラクタ4が刀剣5を振る方向の情報を次のように求めても良い。すなわち、イメージセンサモジュール1227で撮影した画像を画像処理して当該モジュールからプレーヤ2までの距離を求める。そして、求めたプレーヤキャラクタ2までの距離に基づいて更にプレーヤ2の仮想モデル(例えば、ボーンモデル)を制御し、その仮想モデルの腕の位置から取得する構成としても良い。
[Part 3]
Further, information on the direction in which the player character 4 swings the sword 5 may be obtained as follows. That is, the image captured by the image sensor module 1227 is subjected to image processing, and the distance from the module to the player 2 is obtained. Then, based on the obtained distance to the player character 2, a virtual model (for example, a bone model) of the player 2 may be further controlled and acquired from the arm position of the virtual model.

具体的には、処理部200のゲーム演算部210が、(4)イメージセンサモジュール1227で撮影したプレーヤ距離画像W12からプレーヤ2のシルエット47を切り出す第4の画像処理と、(5)予め記憶部500にボーンモデルライブラリ590を用意しておいて、このボーンモデルライブラリ590に登録されているさまざまなポーズのボーンモデル48(48a,48b,48c,…)と、切り出したシルエット47とを照合し、最もシルエット47に類似するボーンモデルを選択する処理と、(6)選択されたボーンモデル48をシルエット47のポーズに近似するように、ノードの位置等を補正する処理と、を行う。つまり、プレーヤ2の動作をボーンモデル48でトレースする。そして、入力方向判定部212は、周期的に取得されるプレーヤ距離画像W12に応じて選択されるボーンモデル48の腕の動きからゲームコントローラ移動速度ベクトルVcn570や入力速度ベクトルVin572(図8参照)を算出する構成とする。尚、ここで言うボーンモデルは、全身モデルに限らず、腕や足のように、人物を構成する部位単位としても良い。また、選択されたボーンモデル48の情報は、そのままプレーヤキャラクタ4の制御に利用するとしても良い。   Specifically, the game calculation unit 210 of the processing unit 200 (4) performs a fourth image process of cutting out the silhouette 47 of the player 2 from the player distance image W12 photographed by the image sensor module 1227, and (5) a storage unit in advance. The bone model library 590 is prepared in 500, and the bone models 48 (48a, 48b, 48c,...) Of various poses registered in the bone model library 590 are compared with the cutout silhouette 47, A process of selecting a bone model most similar to the silhouette 47 and (6) a process of correcting the position of the node or the like so as to approximate the selected bone model 48 to the pose of the silhouette 47 are performed. That is, the operation of the player 2 is traced by the bone model 48. Then, the input direction determination unit 212 determines the game controller moving speed vector Vcn570 and the input speed vector Vin572 (see FIG. 8) from the arm movement of the bone model 48 selected according to the player distance image W12 acquired periodically. The configuration is to be calculated. The bone model here is not limited to the whole body model, but may be a unit of a part constituting a person such as an arm or a leg. Further, the information of the selected bone model 48 may be used for controlling the player character 4 as it is.

更には、光信号出力装置1226からの光信号をゲームコントローラ1230で撮影し、その情報に基づいてゲーム画面にポインター3を表示させることができる場合には、ポインター3の変位から入力速度ベクトルVinを算出する構成とすることもできる。   Furthermore, when the optical signal from the optical signal output device 1226 is captured by the game controller 1230 and the pointer 3 can be displayed on the game screen based on the information, the input velocity vector Vin is calculated from the displacement of the pointer 3. It can also be configured to calculate.

[その4]
また、上記実施形態では画像生成装置として据え置き型の家庭用ゲーム装置1200を例示したが、携帯型ゲーム装置や業務用ゲーム装置として実現しても良い。更にはゲーム装置とする電子機器は、“ゲーム装置”として販売される電子機器に限らず、アプリケーションソフトが実行可能な携帯電話機やコンパクトデジタルカメラ、音楽プレーヤ、パソコン、カーナビと言った電子機器も、プログラムを実行可能なコンピュータを内蔵している、或いはコンピュータそのものと言えるため、本発明を実現するゲーム装置の一形態とすることができる。
[Part 4]
In the above-described embodiment, the stationary home game device 1200 is exemplified as the image generation device. However, the image generation device may be realized as a portable game device or an arcade game device. Furthermore, the electronic devices used as game devices are not limited to electronic devices sold as “game devices”, but also include electronic devices such as mobile phones, compact digital cameras, music players, personal computers, and car navigation systems that can execute application software. Since it can be said that the computer that can execute the program is built in, or the computer itself, it can be an embodiment of a game device that realizes the present invention.

具体的には、例えば図21に示すように、液晶ディスプレイ1508の表示域をカバーするタッチパネル1509を備えた携帯端末装置1500をゲーム装置として用いることができる。この携帯端末装置1500は、スピーカ1510とマイク1511及び基地局との交信に使用される無線装置を備え、携帯電話又はPHSとして機能する。更に、携帯端末装置1500は、アプリケーションプログラムをメモリカード読取装置1518でメモリカード1540から読み出したり、通信回線1に接続して外部装置からダウンロードして取得し、制御基板1550に搭載されたCPU等のプロセッサで実行することができる。また、携帯端末装置1500は方向入力キー1502を備える。上記実施形態のゲームプログラム502や各種データをメモリカード1540等から読み込ませることとすれば、上記実施形態と同様に本発明を実現するゲーム装置として機能させることができる。
そして、こうしたゲーム装置の構成では、タッチパネル1509にてプレーヤキャラクタ4が刀剣5を振る方向の入力をさせると好適である。
Specifically, for example, as shown in FIG. 21, a portable terminal device 1500 including a touch panel 1509 that covers a display area of a liquid crystal display 1508 can be used as a game device. The mobile terminal device 1500 includes a wireless device used for communication between the speaker 1510, the microphone 1511, and the base station, and functions as a mobile phone or PHS. Further, the mobile terminal device 1500 reads an application program from the memory card 1540 by the memory card reader 1518 or downloads and acquires it from an external device connected to the communication line 1, such as a CPU mounted on the control board 1550. Can be executed on a processor. In addition, the mobile terminal device 1500 includes a direction input key 1502. If the game program 502 and various data of the above embodiment are read from the memory card 1540 or the like, it can be made to function as a game device that implements the present invention as in the above embodiment.
In such a game device configuration, it is preferable that the touch panel 1509 causes the player character 4 to input the direction in which the sword 5 is swung.

[その他]
また、上記実施形態では、操作オブジェクトとして刀剣5を設定したが、刀剣に限らず、斧、ビームサーベル、布、キャラクタの手、多足類の足などとしても良い。要は切断の用に供することができる切断具であればよい。また、接触判定オブジェクトについても砲弾10に限らない。木や竹、柱、人形、敵キャラクタなどとしてもよい。ヒット可能範囲は、ヒット(衝突)判定のための範囲であるため、接触判定オブジェクトに切断面を形成せず、ヒット(衝突)したと判定した時点で別の方向に移動させたり、消失したりするように制御してもよい。
[Others]
In the above embodiment, the sword 5 is set as an operation object. However, the sword 5 is not limited to a sword, and may be an axe, a beam saber, cloth, a character's hand, a multi-legged leg, or the like. In short, any cutting tool that can be used for cutting may be used. Further, the contact determination object is not limited to the shell 10. It may be a tree, bamboo, pillar, doll, enemy character, or the like. Since the hit possible range is a range for hit (collision) determination, a cut surface is not formed on the contact determination object, and when it is determined that a hit (collision) is made, it is moved in another direction or disappears. You may control to do.

また、上記実施形態では、仮想カメラCMをプレーヤキャラクタ4の背後としているが、これに限らない。例えば、プレーヤキャラクタ4の側方からプレーヤキャラクタ4を写す位置関係や、プレーヤキャラクタ4の始点位置で視線方向を向くように配置しても良い。そして、仮想カメラCMとプレーヤキャラクタ4の相対位置は、ゲームの内容や進行状況に応じて適宜変更することができる。   In the above embodiment, the virtual camera CM is behind the player character 4, but the present invention is not limited to this. For example, the position of the player character 4 from the side of the player character 4 or the starting point position of the player character 4 may be arranged so as to face the line of sight. The relative position between the virtual camera CM and the player character 4 can be changed as appropriate according to the content of the game and the progress.

また、上記実施形態では、ヒット可能範囲30の奥行方向の長さを有限としているがこれに限らない。つまり、上記実施形態では、仮想カメラCMの焦点P0を通る直線上のプレーヤキャラクタ4の前方無限遠(例えばゲーム空間を設定する際の背景相当位置)に第4頂点P4を設定し、現在の先端位置(第2頂点P2)と仮想カメラCMの焦点P0とを通る直線上のプレーヤキャラクタ4の前方無限遠(例えばゲーム空間を設定する際の背景相当位置)に第3頂点P3を設定するとしても良い。   Moreover, in the said embodiment, although the length of the depth direction of the hit possible range 30 is finite, it is not restricted to this. In other words, in the above embodiment, the fourth vertex P4 is set at the front infinity (for example, the background equivalent position when setting the game space) of the player character 4 on a straight line passing through the focal point P0 of the virtual camera CM, and the current tip Even if the third vertex P3 is set at the forward infinity of the player character 4 on a straight line passing through the position (second vertex P2) and the focal point P0 of the virtual camera CM (for example, the background equivalent position when setting the game space). good.

2 プレーヤ
4 プレーヤキャラクタ
5 刀剣
6 敵キャラクタ
10 砲弾
18 指定切断方向マーク
30 ヒット可能範囲
100 操作入力部
104 加速度検出部
110 プレーヤ撮影部
200 処理部
210 ゲーム演算部
212 入力方向判定部
214 刀剣基準位置周期記憶制御部
216 ヒット可能範囲設定部
218 砲弾切断制御部
500 記憶部
502 ゲームプログラム
510 ゲーム空間設定データ
512 敵キャラクタ設定データ
514 砲弾設定データ
520 プレーヤキャラクタ設定データ
550 プレイデータ
560 砲弾データ
562 分割後砲弾データ
566 刀剣基準位置周期記録データ
570 ゲームコントローラ移動速度ベクトルVcn
572 入力速度ベクトルVin
574 ヒット可能範囲設定データ
1200 家庭用ゲーム装置
1201 装置本体
1210 制御ユニット
1220 ビデオモニタ
1222 画像表示装置
1230 ゲームコントローラ
1248 加速度センサ
2 Player 4 Player Character 5 Sword 6 Enemy Character 10 Cannonball 18 Designated Cutting Direction Mark 30 Hitable Range 100 Operation Input Unit 104 Acceleration Detection Unit 110 Player Shooting Unit 200 Processing Unit 210 Game Calculation Unit 212 Input Direction Determination Unit 214 Sword Reference Position Period Storage control unit 216 Hitable range setting unit 218 Cannonball cutting control unit 500 Storage unit 502 Game program 510 Game space setting data 512 Enemy character setting data 514 Cannonball setting data 520 Player character setting data 550 Play data 560 Cannonball data 562 Divided shell data 566 Sword Reference Position Period Recording Data 570 Game Controller Movement Speed Vector Vcn
572 Input speed vector Vin
574 hit possible range setting data 1200 consumer game device 1201 device main body 1210 control unit 1220 video monitor 1222 image display device 1230 game controller
1248 Acceleration sensor

Claims (7)

コンピュータに、衝突対象オブジェクトが存在する仮想3次元空間内でユーザ操作に従って操作オブジェクトを移動させ、所与の仮想カメラから見た前記仮想3次元空間の画像を生成させるためのプログラムであって、
前記操作オブジェクトの所与の基準点の移動軌跡に基づき前記仮想カメラの視線方向に沿った方向に拡張した面状のヒット可能範囲を設定するヒット可能範囲設定手段、
前記ヒット可能範囲と前記衝突対象オブジェクトとのヒット判定を行うヒット判定手段、
前記ヒット判定手段によりヒットしたと判定された場合に、前記衝突対象オブジェクトを前記ヒット可能範囲の面に基づき二分することで切断制御する切断制御手段、
として前記コンピュータを機能させるためのプログラム。
A program for causing a computer to move an operation object in accordance with a user operation in a virtual three-dimensional space where a collision target object exists, and to generate an image of the virtual three-dimensional space viewed from a given virtual camera,
A hit possible range setting means for setting a planar hit possible range expanded in a direction along the visual line direction of the virtual camera based on a movement trajectory of a given reference point of the operation object;
Hit determination means for performing hit determination between the hit possible range and the collision target object;
A cutting control means for controlling cutting by bisecting the collision target object based on the surface of the hit possible range when it is determined by the hit determination means to be hit;
A program for causing the computer to function as
コンピュータに、衝突対象オブジェクトが存在する仮想3次元空間内でユーザ操作に従って操作オブジェクトを移動させ、所与の仮想カメラから見た前記仮想3次元空間の画像を生成させるためのプログラムであって、
前記衝突対象オブジェクトを移動制御する衝突対象オブジェクト制御手段、
前記操作オブジェクトの所与の基準点の移動軌跡に基づき前記仮想カメラの視線方向に沿った方向に拡張し、且つ、前記衝突対象オブジェクトの移動速度に応じて当該拡張の程度を可変したヒット可能範囲を設定するヒット可能範囲設定手段、
前記ヒット可能範囲と前記衝突対象オブジェクトとのヒット判定を行うヒット判定手段、
として前記コンピュータを機能させるためのプログラム。
A program for causing a computer to move an operation object in accordance with a user operation in a virtual three-dimensional space where a collision target object exists, and to generate an image of the virtual three-dimensional space viewed from a given virtual camera,
A collision target object control means for controlling movement of the collision target object;
Based on the movement trajectory of the given reference point of the operation object, it can be expanded in the direction along the visual line direction of the virtual camera , and the degree of expansion can be varied according to the movement speed of the collision target object Hit possible range setting means for setting the range,
Hit determination means for performing hit determination between the hit possible range and the collision target object;
A program for causing the computer to function as
コンピュータに、衝突対象オブジェクトが存在する仮想3次元空間内でユーザ操作に従って操作オブジェクトを移動させ、所与の仮想カメラから見た前記仮想3次元空間の画像を生成させるためのプログラムであって、
前記操作オブジェクトの所与の基準点の移動軌跡に基づき前記仮想カメラの視線方向に沿った方向に拡張し、且つ、前記操作オブジェクトの移動速度に応じて当該拡張の程度を可変したヒット可能範囲を設定するヒット可能範囲設定手段、
前記ヒット可能範囲と前記衝突対象オブジェクトとのヒット判定を行うヒット判定手段、
として前記コンピュータを機能させるためのプログラム。
A program for causing a computer to move an operation object in accordance with a user operation in a virtual three-dimensional space where a collision target object exists, and to generate an image of the virtual three-dimensional space viewed from a given virtual camera,
A hitable range that expands in a direction along the line-of-sight direction of the virtual camera based on the movement trajectory of a given reference point of the operation object, and varies the degree of expansion according to the movement speed of the operation object Hit possible range setting means for setting,
Hit determination means for performing hit determination between the hit possible range and the collision target object;
A program for causing the computer to function as
コンピュータに、衝突対象オブジェクトが存在する仮想3次元空間内でユーザ操作に従って刀剣オブジェクトを移動させ、所与の仮想カメラから見た前記仮想3次元空間の画像を生成させるためのプログラムであって、
前記刀剣オブジェクトの先端部の移動軌跡に基づき前記仮想カメラの視線方向に沿った方向に拡張したヒット可能範囲を設定するヒット可能範囲設定手段、
前記ヒット可能範囲と前記衝突対象オブジェクトとのヒット判定を行うヒット判定手段、
として前記コンピュータを機能させるためのプログラム。
A program for causing a computer to move a sword object in accordance with a user operation in a virtual three-dimensional space where a collision target object exists, and to generate an image of the virtual three-dimensional space viewed from a given virtual camera,
Hit possible range setting means for setting a hit possible range expanded in a direction along the visual line direction of the virtual camera based on the movement trajectory of the tip of the sword object;
Hit determination means for performing hit determination between the hit possible range and the collision target object;
A program for causing the computer to function as
コンピュータに、衝突対象オブジェクトが存在する仮想3次元空間内でユーザ操作に従って刀剣オブジェクトを移動させ、所与の仮想カメラから見た前記仮想3次元空間の画像を生成させるためのプログラムであって、
前記刀剣オブジェクトの所与の基準点から前記仮想カメラの視線方向に沿った方向に仮想刀身を設定し、この仮想刀身の通過範囲に基づいてヒット可能範囲を設定するヒット可能範囲設定手段、
前記ヒット可能範囲と前記衝突対象オブジェクトとのヒット判定を行うヒット判定手段、
として前記コンピュータを機能させるためのプログラム。
A program for causing a computer to move a sword object in accordance with a user operation in a virtual three-dimensional space where a collision target object exists, and to generate an image of the virtual three-dimensional space viewed from a given virtual camera,
A hitable range setting means for setting a virtual blade in a direction along the line-of-sight direction of the virtual camera from a given reference point of the sword object, and setting a hittable range based on the passing range of the virtual blade ;
Hit determination means for performing hit determination between the hit possible range and the collision target object;
A program for causing the computer to function as
コンピュータに、衝突対象オブジェクトが存在する仮想3次元空間内でユーザ操作に従って操作オブジェクトを移動させ、所与の仮想カメラから見た前記仮想3次元空間の画像を生成させるためのプログラムであって、
前記画像生成の直近所定時間分の前記操作オブジェクトの移動軌跡によって定まる前記操作オブジェクトの所与の基準点の軌跡線又は軌跡面を、前記仮想カメラの視線方向に沿った方向に拡張したヒット可能範囲を設定するヒット可能範囲設定手段、
前記ヒット可能範囲と前記衝突対象オブジェクトとのヒット判定を行うヒット判定手段、
として前記コンピュータを機能させるためのプログラム。
A program for causing a computer to move an operation object in accordance with a user operation in a virtual three-dimensional space where a collision target object exists, and to generate an image of the virtual three-dimensional space viewed from a given virtual camera,
Hit possible range obtained by extending a trajectory line or trajectory plane of a given reference point of the operation object determined by the movement trajectory of the operation object for the most recent predetermined time of the image generation in a direction along the visual line direction of the virtual camera Hit possible range setting means for setting,
Hit determination means for performing hit determination between the hit possible range and the collision target object;
A program for causing the computer to function as
衝突対象オブジェクトが存在する仮想3次元空間内でユーザ操作に従って操作オブジェクトを移動させ、所与の仮想カメラから見た前記仮想3次元空間の画像を生成する画像生成装置であって、
前記操作オブジェクトの所与の基準点の移動軌跡に基づき前記仮想カメラの視線方向に沿った方向に拡張した面状のヒット可能範囲を設定するヒット可能範囲設定手段と、
前記ヒット可能範囲と前記衝突対象オブジェクトとのヒット判定を行うヒット判定手段と、
前記ヒット判定手段によりヒットしたと判定された場合に、前記衝突対象オブジェクトを前記ヒット可能範囲の面に基づき二分することで切断制御する切断制御手段と、
を備えた画像生成装置。
An image generation apparatus that moves an operation object according to a user operation in a virtual three-dimensional space where a collision target object exists, and generates an image of the virtual three-dimensional space viewed from a given virtual camera,
Hit possible range setting means for setting a planar hit possible range expanded in a direction along the visual line direction of the virtual camera based on a movement trajectory of a given reference point of the operation object;
Hit determination means for performing hit determination between the hit possible range and the collision target object;
A cutting control means for controlling cutting by dividing the object to be collided based on the surface of the hit possible range when it is determined by the hit determination means to be hit;
An image generation apparatus comprising:
JP2010077214A 2010-03-30 2010-03-30 Program and image generation apparatus Active JP5520656B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010077214A JP5520656B2 (en) 2010-03-30 2010-03-30 Program and image generation apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010077214A JP5520656B2 (en) 2010-03-30 2010-03-30 Program and image generation apparatus

Publications (2)

Publication Number Publication Date
JP2011210019A JP2011210019A (en) 2011-10-20
JP5520656B2 true JP5520656B2 (en) 2014-06-11

Family

ID=44941006

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010077214A Active JP5520656B2 (en) 2010-03-30 2010-03-30 Program and image generation apparatus

Country Status (1)

Country Link
JP (1) JP5520656B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109313511A (en) * 2016-07-20 2019-02-05 Colopl株式会社 The method of Virtual Space is provided, method, program and the recording medium of virtual experience are provided

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5951957B2 (en) * 2011-10-27 2016-07-13 任天堂株式会社 GAME SYSTEM, GAME DEVICE, GAME PROGRAM, AND GAME PROCESSING METHOD
CN103721409A (en) * 2012-10-13 2014-04-16 成都哆可梦网络科技有限公司 Multi-side interaction fencing game system based on mobile Internet
JP2016167219A (en) * 2015-03-10 2016-09-15 株式会社コロプラ Method and program for displaying user interface on head-mounted display
JP6189495B1 (en) * 2016-07-20 2017-08-30 株式会社コロプラ Method for providing virtual space, method for providing virtual experience, program, and recording medium
JP6189497B1 (en) * 2016-07-20 2017-08-30 株式会社コロプラ Method for providing virtual space, method for providing virtual experience, program, and recording medium
JP6290490B1 (en) * 2017-04-14 2018-03-07 株式会社コロプラ Information processing method, apparatus, and program for causing computer to execute information processing method
JP6416338B1 (en) * 2017-07-13 2018-10-31 株式会社コロプラ Information processing method, information processing program, information processing system, and information processing apparatus
JP7111940B2 (en) * 2017-07-31 2022-08-03 キヤノンマーケティングジャパン株式会社 Information processing device, information processing system, control method thereof, and program
JP2018110871A (en) * 2018-02-07 2018-07-19 株式会社コロプラ Information processing method, program enabling computer to execute method and computer
JP2018181306A (en) * 2018-02-07 2018-11-15 株式会社コロプラ Information processing method, information processing device and program to cause computer to execute the information processing method
JP7041888B2 (en) * 2018-02-08 2022-03-25 株式会社バンダイナムコ研究所 Simulation system and program
JP6549301B1 (en) * 2018-12-28 2019-07-24 株式会社Cygames INFORMATION PROCESSING PROGRAM, INFORMATION PROCESSING METHOD, AND GAME DEVICE
CN111054066B (en) * 2019-12-17 2021-01-15 腾讯科技(深圳)有限公司 Operation method and device of virtual prop, storage medium and electronic device
JP2023039201A (en) 2021-09-08 2023-03-20 株式会社ハル研究所 Game program, information processor, information processing system, and game processing method

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4791852B2 (en) * 2006-02-27 2011-10-12 任天堂株式会社 GAME DEVICE, GAME PROGRAM, AND GAME CONTROL METHOD

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109313511A (en) * 2016-07-20 2019-02-05 Colopl株式会社 The method of Virtual Space is provided, method, program and the recording medium of virtual experience are provided
CN109313511B (en) * 2016-07-20 2021-02-26 Colopl株式会社 Method for providing virtual space, method for providing virtual experience, program, and recording medium

Also Published As

Publication number Publication date
JP2011210019A (en) 2011-10-20

Similar Documents

Publication Publication Date Title
JP5520656B2 (en) Program and image generation apparatus
US7538775B2 (en) Storage medium storing game program and game apparatus
JP5390093B2 (en) GAME PROGRAM AND GAME DEVICE
US9199166B2 (en) Game system with virtual camera controlled by pointing device
US9495800B2 (en) Storage medium having stored thereon image processing program, image processing apparatus, image processing system, and image processing method
KR101154636B1 (en) Display device, game system, and game method
JP5627973B2 (en) Program, apparatus, system and method for game processing
JP5469379B2 (en) GAME PROGRAM AND GAME DEVICE
JP5829020B2 (en) GAME SYSTEM, GAME DEVICE, GAME PROGRAM, AND GAME PROCESSING METHOD
US20110305398A1 (en) Image generation system, shape recognition method, and information storage medium
JP2008136694A (en) Program, information storage medium and game apparatus
US9751013B2 (en) Storage medium, information processing system, and information processing method for adjusting images based on movement information
JP5756299B2 (en) GAME SYSTEM, GAME DEVICE, GAME PROGRAM, AND GAME PROCESSING METHOD
EP2394710A2 (en) Image generation system, image generation method, and information storage medium
US20120172127A1 (en) Information processing program, information processing system, information processing apparatus, and information processing method
JP5291305B2 (en) GAME PROGRAM AND GAME DEVICE
JP6396070B2 (en) Image fusion system, information processing apparatus, information terminal, and information processing method
JP2010233671A (en) Program, information storage medium and game device
JP6085411B2 (en) Image processing apparatus, image processing method, and control program for image processing apparatus
US10994200B2 (en) Information processing apparatus, information processing system, information processing method, program and information recording medium
JP5498690B2 (en) GAME PROGRAM AND GAME DEVICE
JP5757741B2 (en) GAME SYSTEM, GAME DEVICE, GAME PROGRAM, AND GAME PROCESSING METHOD
JP2010142404A (en) Game program, and game apparatus
JP5945297B2 (en) GAME PROGRAM AND GAME DEVICE
JP5350612B2 (en) GAME PROGRAM, GAME DEVICE, GAME SYSTEM, AND GAME PROCESSING METHOD

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130118

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20131119

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20131126

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140124

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140325

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140407

R150 Certificate of patent or registration of utility model

Ref document number: 5520656

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250