JP2009223903A - Image generation device and method, program, and recording medium - Google Patents

Image generation device and method, program, and recording medium Download PDF

Info

Publication number
JP2009223903A
JP2009223903A JP2009124291A JP2009124291A JP2009223903A JP 2009223903 A JP2009223903 A JP 2009223903A JP 2009124291 A JP2009124291 A JP 2009124291A JP 2009124291 A JP2009124291 A JP 2009124291A JP 2009223903 A JP2009223903 A JP 2009223903A
Authority
JP
Japan
Prior art keywords
input
player character
image
positional relationship
movement
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2009124291A
Other languages
Japanese (ja)
Inventor
Shin Azuma
慎 東
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nintendo Co Ltd
Square Enix Co Ltd
Original Assignee
Nintendo Co Ltd
Square Enix Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nintendo Co Ltd, Square Enix Co Ltd filed Critical Nintendo Co Ltd
Priority to JP2009124291A priority Critical patent/JP2009223903A/en
Publication of JP2009223903A publication Critical patent/JP2009223903A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To generate an image in which even when the same operation is indicated in a virtual space where a first object and a second object exist, different operations are performed by the first object according to the existence of the second object. <P>SOLUTION: When a direction is input from a direction indicator switch of an operation switch part, a player character 100 of a basketball game is able to move to the input direction while dribbling a ball 110. When the direction from the position of the player character 100 to the ball 110 is matched with the input direction, the moving speed of the player character 100 is V. When the direction of the position of the player character 100 to the ball 110 is not matched with the input direction, the moving speed of the player character 100 is Vcos(θ/2) by defining an angle made by the direction from the position of the player character 100 to the ball 110 and the input direction as θ. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、仮想空間に存在する第1オブジェクトと第2オブジェクトのうちで少なくとも第1オブジェクトを、両者の関係に応じて動作させた画像を生成する画像生成装置等に関する。   The present invention relates to an image generation apparatus and the like that generate an image in which at least a first object is operated according to the relationship between the first object and the second object existing in a virtual space.

従来より、仮想3次元空間に存在するキャラクタなどのオブジェクトを動作させ、これらのオブジェクトが動作する様子を仮想カメラにより透視変換して生成する手法が、3次元ビデオゲームにおいて広く適用されている。このような3次元ビデオゲームでは、仮想3次元空間には、プレイヤの操作に応じて動作するプレイヤキャラクタの他に、該プレイヤキャラクタと相対する敵キャラクタなどの多数のオブジェクトが存在している。   2. Description of the Related Art Conventionally, a method of generating an object such as a character existing in a virtual three-dimensional space by moving the object and performing a perspective transformation using a virtual camera has been widely applied to three-dimensional video games. In such a three-dimensional video game, in the virtual three-dimensional space, in addition to the player character that moves according to the operation of the player, there are a large number of objects such as enemy characters that face the player character.

このように仮想3次元空間に多数のオブジェクトが存在する場合、あるオブジェクトの動作は、他のオブジェクトから受けた外力による影響を受けることとなる。そこで、例えば、第1のオブジェクト(プレイヤキャラクタが所持する武器)が第2のオブジェクト(敵キャラクタ)にヒットした場合に、第1のオブジェクトのモーションデータについて、該第1のオブジェクトに設定された骨毎にモーションデータの個別ブレンド率を変えることで、あるオブジェクトが他のオブジェクトから受けた外力による影響を再現しようとする画像生成システムがあった(例えば、特許文献1、2参照)。   Thus, when a large number of objects exist in the virtual three-dimensional space, the motion of a certain object is influenced by an external force received from another object. Accordingly, for example, when the first object (weapon possessed by the player character) hits the second object (enemy character), the motion data of the first object is set to the bone set in the first object. There has been an image generation system that attempts to reproduce the influence of an external force that a certain object has received from another object by changing the individual blend ratio of the motion data every time (for example, see Patent Documents 1 and 2).

特開2003−62326号公報(段落0099〜0113)JP 2003-62326 A (paragraphs 0099 to 0113) 特開2003−67773号公報(段落0103〜0117)JP 2003-67773 A (paragraphs 0103 to 0117)

しかしながら、現実世界における人間や動物の行動は、他のオブジェクトから直接的に外力を受けていなくても、他のオブジェクトが存在するだけで、これによる影響を受けている。例えば、あるオブジェクトを常に監視しながら行動したり(例えば、球技の場面においてボールを追うことがこれに当たる)、あるオブジェクトを避けるように向きを変えたり(例えば、障害物を避ける場合がこれに当たる)といった他のオブジェクトから影響される行動は、無意識のうちに行われているものも多い。   However, human and animal behaviors in the real world are influenced by the presence of other objects, even if they are not directly subjected to external forces from other objects. For example, to act while constantly monitoring an object (for example, to follow a ball in a ball game scene), or to change the direction to avoid an object (for example, to avoid an obstacle) Many of the behaviors influenced by other objects such as are performed unconsciously.

これに対して、従来のゲーム装置においてプレイヤがキャラクタに対して動作の指示を入力する操作パッドは、方向を入力する方向キーや個別の指示を入力するボタンの数が限られているため、入力できる指示の種類も限られている。このため、他のオブジェクトの存在によって異なる指示を入力することが不可能であり、同じ動作を指示したときには、他のオブジェクトがどこに存在するかに関わらず同じ動作をしてしまうことがある。   On the other hand, in the conventional game device, the operation pad on which the player inputs an action instruction to the character has a limited number of direction keys for inputting a direction and buttons for inputting individual instructions. The types of instructions that can be given are also limited. For this reason, it is impossible to input different instructions depending on the presence of other objects, and when the same operation is instructed, the same operation may be performed regardless of where the other object exists.

一方、操作パッドから入力できる指示の種類を多くすれば、ゲームが複雑になりすぎるという問題がある。さらに、操作パッドから入力できる指示の種類を多くしたとしても、それぞれの入力に対して、キャラクタがどのように動作するか、或いは他のオブジェクトがキャラクタに対してどのような位置関係に置かれるかということを直感的に判断するのがプレイヤにとって困難なものとなる。このため、プレイヤが意図していなかった指示が入力されてしまったり、プレイヤの指示の入力が遅れてしまったりということが起こりやすくなるという問題がある。   On the other hand, if the types of instructions that can be input from the operation pad are increased, there is a problem that the game becomes too complicated. Furthermore, even if the types of instructions that can be input from the operation pad are increased, how the character behaves in relation to each input, or how other objects are placed in relation to the character It is difficult for the player to intuitively judge this. For this reason, there is a problem that it is easy for an instruction not intended by the player to be input or an input of the player's instruction to be delayed.

本発明は、第1オブジェクトと第2オブジェクトとが存在する仮想空間において、同じ動作が指示されたときであっても、第2オブジェクトの存在によって異なる動作を第1オブジェクトが行うものとした画像を生成することのできる画像生成装置及び方法、並びにそのために用いられるプログラム及び記録媒体を提供することを第1の目的とする。   In the present invention, in the virtual space where the first object and the second object exist, an image in which the first object performs different actions depending on the presence of the second object even when the same action is instructed. It is a first object of the present invention to provide an image generation apparatus and method that can be generated, and a program and a recording medium used therefor.

本発明は、第1オブジェクトと第2オブジェクトとが存在する仮想空間において、操作者の直感的な入力によって第1のオブジェクトと第2のオブジェクトの位置関係が定められる画像を生成することのできる画像生成装置及び方法、並びにそのために用いられるプログラム及び記録媒体を提供することを第2の目的とする。   The present invention can generate an image in which a positional relationship between a first object and a second object is determined by an operator's intuitive input in a virtual space where the first object and the second object exist. A second object of the present invention is to provide a generation apparatus and method, and a program and a recording medium used therefor.

上記目的を達成するため、本発明の第1の観点にかかる画像生成装置は、仮想空間に存在する第1オブジェクトと第2オブジェクトのうち少なくとも第1オブジェクトを動作させた画像を生成する画像生成装置であって、操作者の操作に応じて前記第1オブジェクトを前記仮想空間において動作させるための指示を入力する動作入力手段と、前記動作入力手段から動作の指示が入力されたときに、前記第1オブジェクトと前記第2オブジェクトとの位置関係を判断する位置関係判断手段と、前記位置関係判断手段の判断結果に応じて異なる動作となるように、前記動作入力手段から入力された指示に対応した動作を少なくとも前記第1オブジェクトに行わせるオブジェクト動作手段と、前記オブジェクト動作手段により動作させられている第1オブジェクトと、前記第2オブジェクトとを含む画像を生成する画像生成手段と、前記画像生成手段の生成した画像を表示手段に表示させる表示制御手段とを備えることを特徴とする。   In order to achieve the above object, an image generation apparatus according to a first aspect of the present invention generates an image obtained by operating at least a first object among a first object and a second object existing in a virtual space. When the operation input unit inputs an instruction to move the first object in the virtual space according to an operation of the operator, and when the operation instruction is input from the operation input unit, the first Corresponding to the instruction input from the action input means so that the position relation judging means for judging the positional relation between one object and the second object, and different actions depending on the judgment result of the position relation judging means An object operation means for causing at least the first object to perform an action; and a first object operated by the object action means. An object, an image generating means for generating an image comprising a second object, characterized by comprising a display control means for displaying the generated image of the image generating unit on a display unit.

上記第1の観点にかかる画像生成装置では、動作入力手段から第1オブジェクトを動作させるための指示が入力されたときに、該第1のオブジェクトは、第2のオブジェクトとの位置関係に応じて動作させられる。このため、第2のオブジェクトの存在に関わらずに第1のオブジェクトが同じ動作をしてしまうようなことがなく、第1のオブジェクトが不自然な動作を行わないようにすることができる。また、操作者が第2のオブジェクトの存在によって第1のオブジェクトに適切な動作をさせるために操作者が入力する指示を使い分けなくてもよいので、第1のオブジェクトを動作させるための指示の入力が複雑にならないで済む。   In the image generating apparatus according to the first aspect, when an instruction for moving the first object is input from the motion input unit, the first object is in accordance with the positional relationship with the second object. It is made to work. For this reason, the first object does not perform the same operation regardless of the presence of the second object, and the first object can be prevented from performing an unnatural operation. In addition, since the operator does not have to use different instructions input by the operator in order to cause the first object to perform an appropriate action due to the presence of the second object, the instruction input for operating the first object is input. Is not complicated.

上記第1の観点にかかる画像生成装置において、前記動作入力手段は、前記第1オブジェクトの位置を現時点の位置から予め定められた複数の方向のうちのいずれかの方向に向かって移動させるための指示を入力する移動入力手段を含むものとしてもよい。この場合において、前記オブジェクト動作手段は、前記移動入力手段から移動の指示が入力されたときに、該入力された指示に対応した方向と前記位置関係判断手段の判断結果とに応じた速度で、前記仮想空間において該入力された指示に対応した方向に前記第1オブジェクトを移動させるものとすることができる。   In the image generating apparatus according to the first aspect, the motion input unit is configured to move the position of the first object from a current position toward any one of a plurality of predetermined directions. It may include moving input means for inputting an instruction. In this case, when the movement instruction is input from the movement input unit, the object movement unit has a speed corresponding to the direction corresponding to the input instruction and the determination result of the positional relationship determination unit. The first object may be moved in a direction corresponding to the input instruction in the virtual space.

ここでは、第1のオブジェクトは、仮想空間において移動入力手段から入力された指示に対応した方向に移動するが、その速度は、第2のオブジェクトとの位置関係に応じて変化する。このため、第2のオブジェクトの存在に関わらずに第1のオブジェクトが不自然な速度で仮想空間を移動するのを防ぐことができる。   Here, the first object moves in the direction corresponding to the instruction input from the movement input means in the virtual space, but the speed changes according to the positional relationship with the second object. For this reason, it is possible to prevent the first object from moving in the virtual space at an unnatural speed regardless of the presence of the second object.

上記第1の観点にかかる画像生成装置において、前記位置関係判断手段は、前記第1オブジェクトと前記第2オブジェクトとの位置関係として、該第1オブジェクトの位置から該第2オブジェクトの位置に向けた方向を判断してもよい。   In the image generating apparatus according to the first aspect, the positional relationship determination unit is configured to direct the position of the first object from the position of the first object to the position of the second object as the positional relationship between the first object and the second object. The direction may be determined.

この場合において、上記第1の観点にかかる画像生成装置が、前記移動入力手段から入力された指示に対応した方向が、前記位置関係判断手段の判断した方向に対して第1特定範囲内にあるかどうかを判定する入力方向判定手段をさらに備えるものとした場合には、前記オブジェクト動作手段は、前記入力方向判定手段により前記第1特定範囲内にあると判定されたときに、該第1特定範囲外にあると判定されたときよりも高速で前記第1オブジェクトを移動させるものとすることができる。   In this case, in the image generating apparatus according to the first aspect, the direction corresponding to the instruction input from the movement input unit is within the first specific range with respect to the direction determined by the positional relationship determination unit. When the input direction determination means further determines whether or not the object movement means is determined to be within the first specific range by the input direction determination means, the first specification The first object can be moved at a higher speed than when it is determined to be out of the range.

また、前記オブジェクト動作手段は、前記移動入力手段から入力された指示に対応した方向と、前記第1オブジェクトの位置から前記第2オブジェクトの位置に向けた方向とがなす角度が小さいほど、前記第1オブジェクトを高速で移動させるものとすることもできる。   In addition, the object movement means may be configured such that the smaller the angle formed between the direction corresponding to the instruction input from the movement input means and the direction from the position of the first object toward the position of the second object, One object can be moved at high speed.

これらの場合において、上記第1の観点にかかる画像生成装置は、前記オブジェクト動作手段により前記第1のオブジェクトが前記仮想空間を移動するのに追随して、前記第2のオブジェクトを前記仮想空間において移動させる第2オブジェクト移動手段を備えるものとすることができる。例えば、第1のオブジェクトが第2のオブジェクトを随伴して移動させるキャラクタのようなものである場合には、第2のオブジェクトが進行方向に対してどのような位置にあるかに応じて第1のオブジェクトの移動させる際の容易さも変わるはずである。ここでは、第2のオブジェクトが進行方向に対してどのような位置にあるかに応じて第1のオブジェクトを自然な速度で移動させることができるようになる。   In these cases, the image generating apparatus according to the first aspect follows the movement of the first object in the virtual space by the object operation unit, and moves the second object in the virtual space. Second object moving means for moving can be provided. For example, when the first object is like a character that moves the second object along with the first object, the first object depends on the position of the second object relative to the traveling direction. The ease of moving the objects should also change. Here, the first object can be moved at a natural speed according to the position of the second object in the traveling direction.

上記第1の観点にかかる画像生成装置において、前記動作入力手段は、前記第1オブジェクトの位置を現時点の位置から予め定められた複数の方向のうちのいずれかの方向に向かって移動させるための指示を入力する移動入力手段を含むものとしてもよく、また、前記位置関係判断手段は、前記第1オブジェクトと前記第2オブジェクトとの位置関係として、該第1オブジェクトの位置から該第2オブジェクトの位置に向けた方向との関係を判断してもよい。この場合において、前記オブジェクト動作手段は、前記移動入力手段から移動の指示が入力されたときに、該入力された指示に対応した方向と前記位置関係判断手段の判断結果とに応じて異なる動作を前記第1オブジェクトに行わせるものとすることができる。   In the image generating apparatus according to the first aspect, the motion input unit is configured to move the position of the first object from a current position toward any one of a plurality of predetermined directions. The position relation determining means may include a movement input means for inputting an instruction, and the positional relationship determination means may determine the position of the second object from the position of the first object as the positional relationship between the first object and the second object. The relationship with the direction toward the position may be determined. In this case, when the movement instruction is input from the movement input unit, the object movement unit performs different operations depending on the direction corresponding to the input instruction and the determination result of the positional relationship determination unit. The first object may be performed.

ここでは、第1のオブジェクトは、移動入力手段から入力された指示に対応した方向に応じた動作(該方向への方向転換など)をすることとなるが、その動作は、第1のオブジェクトから第2のオブジェクトに向けた方向に応じたものとなる。このため、第2のオブジェクトの存在に関わらずに第1のオブジェクトが不自然な方向に移動したりすることを防ぐことができる。   In this case, the first object performs an action corresponding to the direction corresponding to the instruction input from the movement input means (such as a change of direction in the direction). Depending on the direction toward the second object. For this reason, it is possible to prevent the first object from moving in an unnatural direction regardless of the presence of the second object.

上記第1の観点にかかる画像生成装置において、前記動作入力手段は、前記第1オブジェクトの位置を現時点の位置から予め定められた複数の方向のうちのいずれかの方向に向かって移動させるための指示を入力する移動入力手段を含むものとしてもよく、また、上記第1の観点にかかる画像生成装置は、前記移動入力手段から移動の指示が入力されたときに、前記第1オブジェクトが前記仮想空間において向いている方向を検出する第1オブジェクト方向検出手段をさらに備えるものとしてもよい。この場合において、前記オブジェクト動作手段は、前記位置関係判断手段の判断結果、前記第1オブジェクト方向検出手段により検出された方向、及び前記移動入力手段から移動の指示が入力された指示に対応した方向に応じた動作を前記第1オブジェクトに行わせるものとすることができる。   In the image generating apparatus according to the first aspect, the motion input unit is configured to move the position of the first object from a current position toward any one of a plurality of predetermined directions. The image generation apparatus according to the first aspect may include a movement input unit that inputs an instruction. When the movement instruction is input from the movement input unit, the first object is the virtual object. First object direction detection means for detecting a direction facing in the space may be further provided. In this case, the object movement means is responsive to the determination result of the positional relationship determination means, the direction detected by the first object direction detection means, and the direction corresponding to the instruction in which a movement instruction is input from the movement input means. It is possible to cause the first object to perform an action according to the above.

この場合において、前記オブジェクト動作手段は、前記位置関係判断手段の判断結果、前記第1オブジェクト方向検出手段により検出された方向、及び前記移動入力手段から移動の指示が入力された指示に対応した方向に応じて、前記第1オブジェクトの方向を前記移動入力手段から入力された指示に対応した方向に変化させるものとしてもよい。   In this case, the object movement means is responsive to the determination result of the positional relationship determination means, the direction detected by the first object direction detection means, and the direction corresponding to the instruction in which a movement instruction is input from the movement input means. Accordingly, the direction of the first object may be changed to a direction corresponding to the instruction input from the movement input unit.

ここでは、第1のオブジェクトは、移動入力手段から入力された指示に対応した方向に応じた動作(該方向への方向転換など)をすることとなるが、その動作は、第2のオブジェクトとの位置関係や第1のオブジェクト自体が向いている方向にも応じたものとなる。このため、第2のオブジェクトの存在に関わらずに第1のオブジェクトが不自然な方向に移動したり、不自然な方向を向いてしまったりすることを防ぐことができる。   In this case, the first object performs an action corresponding to the direction corresponding to the instruction input from the movement input means (such as a direction change in the direction). The action is the same as that of the second object. And the direction in which the first object itself is facing. Therefore, it is possible to prevent the first object from moving in an unnatural direction or facing in an unnatural direction regardless of the presence of the second object.

ここで、上記第1の観点にかかる画像生成装置は、前記移動入力手段から入力された指示に対応した方向が、前記位置関係判断手段により判断された方向に対して第2特定範囲内にあるかどうかを判定する第1検出方向判定手段と、前記移動入力手段から入力された指示に対応した方向が前記第1オブジェクト方向検出手段の検出した方向に対して第3特定範囲外にあるかどうかを判定する第2検出方向判定手段とをさらに備えていてもよい。この場合において、前記オブジェクト動作手段は、前記第2検出方向判定手段により前記第3特定範囲外にあると判定されたときにおいて、前記第1検出方向判定手段により前記第2特定範囲内にあると判定されたときには該第2特定範囲外にあると判定されたときよりも高速で、前記第1オブジェクトの方向を前記移動入力手段から入力された指示に対応した方向に変化させることができる。   Here, in the image generating apparatus according to the first aspect, the direction corresponding to the instruction input from the movement input unit is within the second specific range with respect to the direction determined by the positional relationship determination unit. First detection direction determination means for determining whether or not the direction corresponding to the instruction input from the movement input means is outside the third specific range with respect to the direction detected by the first object direction detection means And a second detection direction determining means for determining In this case, when the object movement means is determined to be outside the third specific range by the second detection direction determination means, the object movement means is within the second specific range by the first detection direction determination means. When determined, the direction of the first object can be changed to a direction corresponding to the instruction input from the movement input means at a higher speed than when determined to be outside the second specific range.

また、前記オブジェクト動作手段は、前記第2検出方向判定手段により前記第3特定範囲外にあると判定されたときにおいて、前記第1検出方向判定手段により前記第2特定範囲内にあると判定されたときに、前記第1オブジェクトの前記仮想空間における位置を移動させることなく、前記第1オブジェクトの方向を前記移動入力手段から入力された指示に対応した方向に変化させるものであってもよい。   The object movement means is determined to be within the second specific range by the first detection direction determination means when the second detection direction determination means determines that the object movement means is outside the third specific range. The direction of the first object may be changed to the direction corresponding to the instruction input from the movement input means without moving the position of the first object in the virtual space.

これらの場合において、例えば、第1のオブジェクトが第2のオブジェクトを動きを操作するキャラクタのようなものである場合には、最終的に同じ方向(ここでは、移動入力手段から入力された指示に応じた方向)を向くことになっても、第2のオブジェクトがあるときと当該方向に最初からあるときと全く異なる方向にあるときとでは、第1のオブジェクトを当該方向に方向転換させる際の容易さも変わるはずである。ここでは、第2のオブジェクトが第1のオブジェクトが向こうとする方向に対してどのような方向の範囲にあるかに応じて自然な速度で第1のオブジェクトを方向転換させることができるようになる。   In these cases, for example, when the first object is like a character that manipulates the second object, it is finally the same direction (here, the instruction input from the movement input means) When the second object is present and when it is in a completely different direction from the beginning, the direction when the first object is turned in that direction. The ease should also change. Here, the direction of the first object can be changed at a natural speed depending on the range of the direction of the second object relative to the direction in which the first object is going. .

なお、前記第1検出方向判定手段は、前記移動入力手段から入力された指示に対応した方向が前記位置関係判断手段により判断された方向に対して実質的に同一方向にあるときに、前記第2特定範囲内にあると判定し、前記第2検出方向判定手段は、前記移動入力手段から入力された指示に対応した方向が前記第1オブジェクト方向検出手段の検出した方向に対して実質的に同一方向にあるときに、前記第3特定範囲内にあると判定することができる。   The first detection direction determination unit is configured to detect the first detection direction when the direction corresponding to the instruction input from the movement input unit is substantially in the same direction as the direction determined by the positional relationship determination unit. The second detection direction determination means determines that the direction corresponding to the instruction input from the movement input means is substantially relative to the direction detected by the first object direction detection means. When in the same direction, it can be determined to be within the third specific range.

前記移動入力手段が、隣接する方向同士がなす角度が等分された複数の方向に対して、それぞれ前記第1オブジェクトを移動させるための指示を入力するものである場合には、前記第1検出方向判定手段及び前記第2検出方向判定手段は、該等分された角度の範囲毎に実質的に同一方向であるかどうかを判断することができる。   When the movement input means inputs an instruction for moving the first object in a plurality of directions in which the angles formed by adjacent directions are equally divided, the first detection The direction determination means and the second detection direction determination means can determine whether or not they are substantially in the same direction for each of the equally divided angle ranges.

このように移動入力手段から入力された指示に対応した方向と実質的に同一方向であるかどうかで第2特定範囲内及び第3特定範囲内にあるかどうかを判定することで、第1検出方向判定手段及び第2検出方向判定手段の判定を容易に行うことができるようになる。   As described above, the first detection is performed by determining whether the direction is substantially the same as the direction corresponding to the instruction input from the movement input means, and whether the direction is within the second specific range and the third specific range. The determination by the direction determination unit and the second detection direction determination unit can be easily performed.

上記第1の観点にかかる画像生成装置は、前記第1オブジェクトの動作を規定する複数のモーションデータを記憶したモーションデータ記憶手段をさらに備えていてもよい。この場合において、前記オブジェクト動作手段は、前記モーションデータ記憶手段に記憶された複数のモーションデータのうちで前記第1オブジェクトに行わせるべき動作に対応したモーションデータを用いて、該第1オブジェクトを動作させることができる。   The image generation apparatus according to the first aspect may further include a motion data storage unit that stores a plurality of motion data defining the operation of the first object. In this case, the object motion means operates the first object using motion data corresponding to an action to be performed by the first object among a plurality of motion data stored in the motion data storage means. Can be made.

ここで、前記オブジェクト動作手段は、前記モーションデータ記憶手段に記憶された複数のモーションデータを、前記第1オブジェクトに行わせるべき動作に応じたブレンド率でブレンドし、該ブレンドしたモーションデータを用いて、該第1オブジェクトを動作させるものとすることができる。   Here, the object motion means blends the plurality of motion data stored in the motion data storage means at a blend rate according to the motion to be performed by the first object, and uses the blended motion data. The first object can be operated.

上記第2の目的を達成するため、本発明の第2の観点にかかる画像生成装置は、仮想空間に存在する第1オブジェクトと第2オブジェクトのうち少なくとも第1オブジェクトを動作させた画像を生成する画像生成装置であって、操作者の操作に応じて前記第1オブジェクトの位置を現時点の位置から予め定められた複数の方向のうちのいずれかの方向に向かって移動させるための指示を入力する移動入力手段と、前記移動入力手段から移動の指示が入力されたときに、前記仮想空間において該入力された指示に対応した方向に前記第1オブジェクトを移動させる移動制御手段と、操作者の操作に応じて2次元平面上の任意の座標位置を入力する座標位置入力手段と、前記座標位置入力手段から入力された座標位置に基づいて、前記第1オブジェクトと前記第2オブジェクトとの位置関係を設定する位置関係設定手段と、前記移動制御手段により移動された前記第1オブジェクトの前記仮想空間における位置に対して前記位置関係設定手段により設定された位置関係に応じた前記仮想空間内の位置に、前記第2オブジェクトを配置する第2オブジェクト配置手段と、前記移動制御手段により移動させられている前記第1オブジェクトと、前記第2オブジェクト配置手段により配置された前記第2オブジェクトとを含む画像を生成する画像生成手段と、前記画像生成手段の生成した画像を表示手段に表示させる表示制御手段とを備えることを特徴とする。   In order to achieve the second object, an image generation apparatus according to a second aspect of the present invention generates an image in which at least a first object is operated among a first object and a second object existing in a virtual space. An image generation device that inputs an instruction to move the position of the first object from a current position toward any one of a plurality of predetermined directions according to an operation by an operator A movement input means; a movement control means for moving the first object in a direction corresponding to the inputted instruction in the virtual space when a movement instruction is inputted from the movement input means; In accordance with the coordinate position input means for inputting an arbitrary coordinate position on the two-dimensional plane, and the first object based on the coordinate position input from the coordinate position input means. A positional relationship setting means for setting a positional relationship between the object and the second object, and a position set by the positional relationship setting means with respect to a position in the virtual space of the first object moved by the movement control means Second object placement means for placing the second object at a position in the virtual space corresponding to the relationship, the first object moved by the movement control means, and the second object placement means An image generation unit that generates an image including the second object, and a display control unit that causes the display unit to display the image generated by the image generation unit.

上記第2の観点にかかる画像生成装置では、操作者により移動入力手段から入力された指示に応じて第1のオブジェクトが仮想空間において移動するものとなる。第1のオブジェクトが移動している間に、操作者により座標位置入力手段から座標位置の入力があると、該入力された座標位置に応じて第1のオブジェクトと第2のオブジェクトとの位置関係が設定され、これにより仮想空間を移動中の第1のオブジェクトの位置に対して第2のオブジェクトが配置されることとなる。このように仮想空間を移動する第1のオブジェクトに対して操作者が第2のオブジェクトを所望の位置に配置させようとする際には、座標位置入力手段から座標位置を入力するだけでよいので、直感的な入力操作が可能となり、操作が複雑なものとならない。   In the image generation apparatus according to the second aspect, the first object moves in the virtual space in accordance with an instruction input from the movement input means by the operator. If the operator inputs a coordinate position from the coordinate position input means while the first object is moving, the positional relationship between the first object and the second object according to the input coordinate position. Thus, the second object is arranged with respect to the position of the first object moving in the virtual space. In this way, when the operator tries to place the second object at a desired position with respect to the first object moving in the virtual space, it is only necessary to input the coordinate position from the coordinate position input means. Intuitive input operation is possible and the operation is not complicated.

上記第2の観点にかかる画像生成装置は、前記位置関係設定手段により設定された位置関係に応じて、前記第1オブジェクトの動作を規定するモーションデータを決定するモーションデータ決定手段をさらに備えていてもよい。この場合において、前記移動制御手段は、前記モーションデータ決定手段によって決定されたモーションデータを用いて、前記第1オブジェクトを移動させるものとすることができる。   The image generation apparatus according to the second aspect further includes a motion data determination unit that determines motion data that defines an operation of the first object according to the positional relationship set by the positional relationship setting unit. Also good. In this case, the movement control means can move the first object using the motion data determined by the motion data determination means.

この場合、第1のオブジェクトと第2のオブジェクトとの位置関係に応じて第1のオブジェクトの動作を規定するモーションデータが決定されるため、仮想空間を移動する際の第2のオブジェクトの存在に関わらずに第1オブジェクトが不自然な動作をすることがない。   In this case, since the motion data that defines the operation of the first object is determined according to the positional relationship between the first object and the second object, the presence of the second object when moving in the virtual space is determined. Regardless, the first object does not move unnaturally.

上記第2の観点にかかる画像生成装置において、前記位置関係設定手段は、前記座標位置入力手段から入力された座標位置と前記2次元平面上に予め設定された特定座標位置との位置関係に基づいて、前記第1オブジェクトと前記第2オブジェクトとの位置関係を設定することができる。   In the image generating apparatus according to the second aspect, the positional relationship setting unit is based on a positional relationship between a coordinate position input from the coordinate position input unit and a specific coordinate position set in advance on the two-dimensional plane. Thus, the positional relationship between the first object and the second object can be set.

この場合、第1のオブジェクトと第2のオブジェクトとの位置関係を、座標位置入力手段から入力する座標位置との特定座標位置との位置関係により容易に設定することができるようになる。   In this case, the positional relationship between the first object and the second object can be easily set by the positional relationship between the specific coordinate position and the coordinate position input from the coordinate position input means.

上記第1の目的を達成するため、本発明の第3の観点にかかる画像生成方法は、第1オブジェクトを仮想空間において動作させるための指示を入力する動作入力装置と、データを記憶する記憶装置と、画像を表示する表示装置とを備えるコンピュータ装置によって実行され、前記第1オブジェクトと該第1オブジェクトとは別に前記仮想空間に存在する第2オブジェクトを含む画像を生成するため画像生成方法であって、前記動作入力装置から動作の指示が入力されたときに、前記記憶装置に記憶され、少なくとも前記第1オブジェクトと前記第2オブジェクトの前記仮想空間における位置をデータとして含む動作データに従って、該第1オブジェクトと該第2オブジェクトとの位置関係を判断し、前記第1オブジェクトと第2オブジェクトとの位置関係の判断結果に応じて異なる動作となるように、前記動作入力装置から入力された指示に対応した動作を少なくとも前記第1オブジェクトに行わせ、該行わせた動作に応じて前記記憶装置に記憶されている動作データを更新し、前記記憶装置に記憶されている動作データに基づいて前記第1オブジェクトと前記第2オブジェクトとを含む画像を生成し、前記生成した画像を前記表示装置に表示させることを特徴とする。   In order to achieve the first object, an image generation method according to a third aspect of the present invention includes a motion input device that inputs an instruction for operating a first object in a virtual space, and a storage device that stores data. And an image generation method for generating an image including a second object existing in the virtual space separately from the first object and the first object. When a motion instruction is input from the motion input device, the data is stored in the storage device, and the first object and the second object are stored in the virtual space according to motion data as data. A positional relationship between one object and the second object is determined, and the first object and the second object The at least one first object is caused to perform an action corresponding to an instruction input from the action input device so that the action varies depending on the determination result of the positional relationship between the storage device and the storage device according to the performed action. The motion data stored in the storage device is updated, an image including the first object and the second object is generated based on the motion data stored in the storage device, and the generated image is stored in the display device. It is characterized by being displayed.

上記第1の目的を達成するため、本発明の第4の観点にかかるプログラムは、第1オブジェクトを仮想空間において動作させるための指示を入力する動作入力装置と、画像を表示する表示装置とを備えるコンピュータ装置によって実行され、前記第1オブジェクトと該第1オブジェクトとは別に前記仮想空間に存在する第2オブジェクトを含む画像を生成するためのプログラムであって、前記動作入力装置から動作の指示が入力されたときに、前記第1オブジェクトと前記第2オブジェクトとの位置関係を判断する位置関係判断手段、前記位置関係判断手段の判断結果に応じて異なる動作となるように、前記動作入力装置から入力された指示に対応した動作を少なくとも前記第1オブジェクトに行わせるオブジェクト動作手段、前記オブジェクト動作手段により動作させられている第1オブジェクトと、前記第2オブジェクトとを含む画像を生成する画像生成手段、及び、前記画像生成手段の生成した画像を前記表示装置に表示させる表示制御手段として前記コンピュータ装置を機能させることを特徴とする。   In order to achieve the first object, a program according to a fourth aspect of the present invention includes a motion input device that inputs an instruction for operating a first object in a virtual space, and a display device that displays an image. A program for generating an image including a second object existing in the virtual space separately from the first object and the first object, wherein the operation instruction is given from the action input device. From the motion input device, the positional relationship determination means for determining the positional relationship between the first object and the second object when the input is performed, and different motions depending on the determination result of the positional relationship determination means. An object action means for causing the first object to perform an action corresponding to the input instruction; Image generation means for generating an image including the first object and the second object operated by the image movement means, and display control means for displaying the image generated by the image generation means on the display device The computer apparatus is made to function.

上記第1の目的を達成するため、本発明の第5の観点にかかるコンピュータ読み取り可能な記録媒体は、第1オブジェクトを仮想空間において動作させるための指示を入力する動作入力装置と、画像を表示する表示装置とを備えるコンピュータ装置によって実行され、前記第1オブジェクトと該第1オブジェクトとは別に前記仮想空間に存在する第2オブジェクトを含む画像を生成するためのプログラムを記録した記録媒体であって、前記プログラムは、前記動作入力装置から動作の指示が入力されたときに、前記第1オブジェクトと前記第2オブジェクトとの位置関係を判断する位置関係判断手段、前記位置関係判断手段の判断結果に応じて異なる動作となるように、前記動作入力装置から入力された指示に対応した動作を少なくとも前記第1オブジェクトに行わせるオブジェクト動作手段、前記オブジェクト動作手段により動作させられている第1オブジェクトと、前記第2オブジェクトとを含む画像を生成する画像生成手段、及び、前記画像生成手段の生成した画像を前記表示装置に表示させる表示制御手段として前記コンピュータ装置を機能させることを特徴とする。   In order to achieve the first object, a computer-readable recording medium according to a fifth aspect of the present invention includes an operation input device that inputs an instruction for operating a first object in a virtual space, and an image. A recording medium that is executed by a computer device including a display device that records a program for generating an image that includes the first object and a second object that exists in the virtual space separately from the first object. The program stores a positional relationship determination unit that determines a positional relationship between the first object and the second object when an operation instruction is input from the motion input device. The operation corresponding to the instruction input from the operation input device is at least the operation so as to be different depending on the operation. Object action means for causing one object to perform, image generation means for generating an image including the first object operated by the object action means, and the second object, and an image generated by the image generation means The computer device is caused to function as display control means for displaying on the display device.

上記第2の目的を達成するため、本発明の第6の観点にかかる画像生成方法は、第1オブジェクトを仮想空間において移動させるための指示を入力する移動入力装置と、2次元平面上の任意の座標位置を入力する座標位置入力装置と、データを記憶する記憶装置と、画像を表示する表示装置とを備えるコンピュータ装置によって実行され、前記第1オブジェクトと該第1オブジェクトとは別に前記仮想空間に存在する第2オブジェクトを含む画像を生成するため画像生成方法であって、前記移動入力装置から移動の指示が入力されたときに、前記仮想空間において該入力された指示に対応した方向に前記第1オブジェクトを移動させ、該移動後の位置を前記記憶装置に記憶させ、前記座標位置入力装置から入力された座標位置に基づいて、前記第1オブジェクトと前記第2オブジェクトとの位置関係を設定し、前記記憶装置に記憶された前記第1オブジェクトの前記仮想空間における位置に対して前記設定された位置関係に応じた前記仮想空間内の位置を、前記第2オブジェクトの位置として前記記憶装置に記憶させ、前記記憶装置にそれぞれ記憶されている位置に基づいて前記第1オブジェクトと前記第2オブジェクトとを含む画像を生成し、前記生成した画像を前記表示装置に表示させることを特徴とする。   In order to achieve the second object, an image generation method according to a sixth aspect of the present invention includes a moving input device that inputs an instruction for moving a first object in a virtual space, and an arbitrary two-dimensional plane. The virtual space is executed by a computer device that includes a coordinate position input device that inputs a coordinate position, a storage device that stores data, and a display device that displays an image, separately from the first object and the first object. An image generation method for generating an image including a second object existing in the object, wherein when a movement instruction is input from the movement input device, the virtual space has a direction corresponding to the input instruction. The first object is moved, the position after the movement is stored in the storage device, and based on the coordinate position input from the coordinate position input device, A positional relationship between the first object and the second object is set, and the position in the virtual space corresponding to the set positional relationship with respect to the position in the virtual space of the first object stored in the storage device is set. The position is stored in the storage device as the position of the second object, and an image including the first object and the second object is generated based on the position stored in the storage device. An image is displayed on the display device.

上記第2の目的を達成するため、本発明の第7の観点にかかるプログラムは、第1オブジェクトを仮想空間において移動させるための指示を入力する移動入力装置と、2次元平面上の任意の座標位置を入力する座標位置入力装置と、画像を表示する表示装置とを備えるコンピュータ装置によって実行され、前記第1オブジェクトと該第1オブジェクトとは別に前記仮想空間に存在する第2オブジェクトを含む画像を生成するためのプログラムであって、前記移動入力装置から移動の指示が入力されたときに、前記仮想空間において該入力された指示に対応した方向に前記第1オブジェクトを移動させる移動制御手段、前記座標位置入力装置から入力された座標位置に基づいて、前記第1オブジェクトと前記第2オブジェクトとの位置関係を設定する位置関係設定手段、前記移動制御手段により移動された前記第1オブジェクトの前記仮想空間における位置に対して前記位置関係設定手段により設定された位置関係に応じた前記仮想空間内の位置に、前記第2オブジェクトを配置する第2オブジェクト配置手段、前記移動制御手段により移動させられている前記第1オブジェクトと、前記第2オブジェクト配置手段により配置された前記第2オブジェクトとを含む画像を生成する画像生成手段、及び、前記画像生成手段の生成した画像を前記表示装置に表示させる表示制御手段として前記コンピュータ装置を機能させることを特徴とする。   In order to achieve the second object, a program according to a seventh aspect of the present invention includes a moving input device that inputs an instruction for moving a first object in a virtual space, and arbitrary coordinates on a two-dimensional plane. An image including a second object existing in the virtual space, which is executed by a computer device including a coordinate position input device for inputting a position and a display device for displaying an image, separately from the first object and the first object. A movement control means for moving the first object in a direction corresponding to the inputted instruction in the virtual space when a movement instruction is inputted from the movement input device; Based on the coordinate position input from the coordinate position input device, the positional relationship between the first object and the second object is set. The positional relationship setting means, the position in the virtual space according to the positional relationship set by the positional relationship setting means with respect to the position in the virtual space of the first object moved by the movement control means, An image for generating an image including second object placement means for placing a second object, the first object moved by the movement control means, and the second object placed by the second object placement means The computer apparatus is caused to function as generation means and display control means for displaying an image generated by the image generation means on the display device.

上記第2の目的を達成するため、本発明の第8の観点にかかるコンピュータ読み取り可能な記録媒体は、第1オブジェクトを仮想空間において移動させるための指示を入力する移動入力装置と、2次元平面上の任意の座標位置を入力する座標位置入力装置と、画像を表示する表示装置とを備えるコンピュータ装置によって実行され、前記第1オブジェクトと該第1オブジェクトとは別に前記仮想空間に存在する第2オブジェクトを含む画像を生成するためのプログラムを記録した記録媒体であって、前記プログラムは、前記移動入力装置から移動の指示が入力されたときに、前記仮想空間において該入力された指示に対応した方向に前記第1オブジェクトを移動させる移動制御手段、前記座標位置入力装置から入力された座標位置に基づいて、前記第1オブジェクトと前記第2オブジェクトとの位置関係を設定する位置関係設定手段、前記移動制御手段により移動された前記第1オブジェクトの前記仮想空間における位置に対して前記位置関係設定手段により設定された位置関係に応じた前記仮想空間内の位置に、前記第2オブジェクトを配置する第2オブジェクト配置手段、前記移動制御手段により移動させられている前記第1オブジェクトと、前記第2オブジェクト配置手段により配置された前記第2オブジェクトとを含む画像を生成する画像生成手段、及び、前記画像生成手段の生成した画像を前記表示装置に表示させる表示制御手段として前記コンピュータ装置を機能させることを特徴とする。   In order to achieve the second object, a computer-readable recording medium according to an eighth aspect of the present invention includes a movement input device that inputs an instruction for moving a first object in a virtual space, and a two-dimensional plane. A second computer that is executed by a computer device that includes a coordinate position input device that inputs an arbitrary coordinate position above and a display device that displays an image, and that exists in the virtual space separately from the first object and the first object. A recording medium recording a program for generating an image including an object, wherein the program corresponds to the input instruction in the virtual space when an instruction for movement is input from the mobile input device Movement control means for moving the first object in the direction, based on the coordinate position input from the coordinate position input device Position relation setting means for setting the positional relation between the first object and the second object, and the position relation setting means for the position of the first object moved by the movement control means in the virtual space. A second object placement means for placing the second object at a position in the virtual space according to the positional relationship, the first object moved by the movement control means, and the second object placement means. The computer device is caused to function as image generation means for generating an image including the second object arranged, and display control means for displaying the image generated by the image generation means on the display device. .

本発明の実施の形態に適用されるゲーム装置の構成を示す外観図である。It is an external view which shows the structure of the game device applied to embodiment of this invention. 本発明の実施の形態に適用されるゲーム装置の回路構成を示すブロック図である。It is a block diagram which shows the circuit structure of the game device applied to embodiment of this invention. 本発明の実施の形態にかかるバスケットボールゲームにおける表示画面の例を示す図である。It is a figure which shows the example of the display screen in the basketball game concerning embodiment of this invention. プレイヤキャラクタがコート上の任意の位置に停止してドリブルを行う場合におけるモーションブレンドの説明図である。It is explanatory drawing of the motion blend in case a player character stops at the arbitrary positions on a court and performs dribbling. ボールをドリブルする手の切り替えについての説明図である。It is explanatory drawing about switching of the hand which dribbling a ball | bowl. つなぎモーションについての説明図である。It is explanatory drawing about a connection motion. ボールをドリブルする位置とプレイヤキャラクタの移動速度との関係を示す説明図である。It is explanatory drawing which shows the relationship between the position which dribbles a ball | bowl, and the moving speed of a player character. 通常ターンとクイックターンの説明図である。It is explanatory drawing of a normal turn and a quick turn. 本発明の実施の形態にかかるバスケットボールゲームにおいて、プレイヤチームがオフェンス側のときにプレイヤキャラクタを動作させるための処理を示すフローチャートである。In the basketball game concerning an embodiment of the invention, it is a flow chart which shows processing for operating a player character when a player team is an offense side. 図9のタッチ時処理を詳細に示すフローチャートである。It is a flowchart which shows the process at the time of a touch of FIG. 9 in detail. 図9の方向入力時処理を詳細に示すフローチャートである。10 is a flowchart showing in detail the direction input processing of FIG. 9.

以下、添付図面を参照して、本発明の実施の形態について説明する。   Embodiments of the present invention will be described below with reference to the accompanying drawings.

図1は、この実施の形態に適用されるゲーム装置1の構成を示す外観図である。ここでは、ゲーム装置1の一例として、携帯ゲーム装置を示す。図1において、ゲーム装置1は、2つの液晶表示器(LCD)11および12を所定の配置位置となるように、ハウジング18に収納して構成される。   FIG. 1 is an external view showing a configuration of a game apparatus 1 applied to this embodiment. Here, a portable game device is shown as an example of the game device 1. In FIG. 1, the game apparatus 1 is configured by housing two liquid crystal displays (LCDs) 11 and 12 in a housing 18 so as to be in a predetermined arrangement position.

第1液晶表示器(以下、「LCD」という)11および第2LCD12を互いに上下に配置して収納する場合は、ハウジング18が下部ハウジング18aおよび上部ハウジング18bから構成され、上部ハウジング18bが下部ハウジング18aの上辺の一部で回動自在に支持される。上部ハウジング18bは、第1LCD11の平面形状よりも少し大きな平面形状を有し、一方主面から第1LCD11の表示画面を露出するように開口部が形成される。下部ハウジング18aは、その平面形状が上部ハウジング18bよりも横長に選ばれ、横方向の略中央部に第2LCD12の表示画面を露出する開口部が形成され、第2LCD12を挟む何れか一方にスピーカ15の音抜き孔が形成されるとともに、第2LCD12を挟む左右に操作スイッチ部14が装着される。   In the case where the first liquid crystal display (hereinafter referred to as “LCD”) 11 and the second LCD 12 are accommodated one above the other, the housing 18 includes a lower housing 18a and an upper housing 18b, and the upper housing 18b is the lower housing 18a. It is supported rotatably at a part of the upper side. The upper housing 18b has a planar shape slightly larger than the planar shape of the first LCD 11, and an opening is formed so as to expose the display screen of the first LCD 11 from one main surface. The lower housing 18a has a planar shape that is longer than that of the upper housing 18b, an opening that exposes the display screen of the second LCD 12 is formed in a substantially central portion in the horizontal direction, and the speaker 15 is sandwiched between either of the two LCDs 12. The sound switch hole 14 is formed, and the operation switch unit 14 is mounted on the left and right sides of the second LCD 12.

操作スイッチ部14は、第2LCD12の右横における下部ハウジング18aの一方主面に装着される動作スイッチ(Aボタン)14aおよび動作スイッチ(Bボタン)14bと、第2LCD12の左横における下部ハウジング18aの一方主面に装着される方向指示スイッチ(十字キー)14cと、スタートスイッチ14dと、セレクトスイッチ14eと、側面スイッチ14fおよび14gとを含む。   The operation switch unit 14 includes an operation switch (A button) 14a and an operation switch (B button) 14b mounted on one main surface of the lower housing 18a on the right side of the second LCD 12, and a lower housing 18a on the left side of the second LCD 12. On the other hand, it includes a direction indicating switch (cross key) 14c mounted on the main surface, a start switch 14d, a select switch 14e, and side switches 14f and 14g.

動作スイッチ14aおよび14bは、例えば、この実施の形態で適用されるバスケットボールゲームにおいてはパスやシュートを行う等の指示の入力に使用される。方向指示スイッチ14cは、プレイヤによって操作スイッチ部14を用いて操作可能なプレイヤオブジェクト(この実施の形態では、プレイヤキャラクタ)の移動方向を指示したり、カーソルの移動方向を指示したりする等のゲーム画面における方向指示に用いられる。側面スイッチ(Lボタン)14fおよび側面スイッチ(Rボタン)14gは、下部ハウジング18aにおける上部面(上部側面)の左右に設けられる。方向指示スイッチ14cは、十字キーにより構成されているが、十字の互いに隣接する2つのキー(上と右、右と下、下と左、左と上)は、同時操作可能であり、単独のキーの操作による上、下、左及び右の入力と、隣接するキーの同時操作による右上、右下、左上、左下の合計8方向の入力を行うことができる。   For example, in the basketball game applied in this embodiment, the motion switches 14a and 14b are used for inputting instructions such as passing or shooting. The direction instruction switch 14c is a game for instructing the moving direction of a player object (in this embodiment, a player character) that can be operated by the player using the operation switch unit 14, or instructing the moving direction of the cursor. Used for direction indication on the screen. The side switch (L button) 14f and the side switch (R button) 14g are provided on the left and right of the upper surface (upper side surface) of the lower housing 18a. The direction indicating switch 14c is configured by a cross key, but two adjacent keys of the cross (up and right, right and down, down and left, and left and up) can be operated simultaneously, and are independent. Up, down, left, and right inputs can be performed by operating keys, and input can be performed in a total of eight directions, including upper right, lower right, upper left, and lower left by simultaneous operation of adjacent keys.

第2LCD12の上面には、タッチパネル13(図1における破線領域)が装着される。タッチパネル13は、例えば、抵抗膜方式、光学式(赤外線方式)、静電容量結合式の何れの種類でもよく、その上面をスティック16(または指でも可)で押圧操作、移動操作、または撫でる操作をしたとき、スティック16の座標位置を検出して出力するものである。この実施の形態で適用されるバスケットボールゲームでは、タッチパネル13は、プレイヤキャラクタがボールをドリブルしているときに、そのドリブルする位置を入力するために使用される。   On the upper surface of the second LCD 12, a touch panel 13 (broken line area in FIG. 1) is attached. The touch panel 13 may be, for example, any of a resistive film type, an optical type (infrared type), and a capacitive coupling type, and an operation of pressing, moving, or stroking the upper surface with a stick 16 (or a finger). In this case, the coordinate position of the stick 16 is detected and output. In the basketball game applied in this embodiment, the touch panel 13 is used to input a dribbling position when the player character is dribbling the ball.

上部ハウジング18bの側面近傍には、必要に応じてタッチパネル13を操作するスティック16を収納するための収納孔(図1における二点破線領域)が形成される。この収納孔には、スティック16が収納される。下部ハウジング18aの側面の一部には、ゲームプログラムを記憶したメモリ(例えば、ROM)を内蔵したゲームカートリッジ17(以下、単にカートリッジ17と記載する)を着脱自在に装着するためのカートリッジ挿入部(図1における一点破線領域)が形成される。カートリッジ17は、ゲームプログラムを記憶する情報記憶媒体であり、例えば、ROMまたはフラッシュメモリのような不揮発性半導体メモリが用いられる。カートリッジ挿入部の内部には、カートリッジ17と電気的に接続するためのコネクタ(図2参照)が内蔵される。さらに、下部ハウジング18a(または上部ハウジング18bでも可)には、CPU等の各種電子部品を実装した電子回路基板が収納される。   In the vicinity of the side surface of the upper housing 18b, a storage hole (a two-dot broken line region in FIG. 1) for storing the stick 16 for operating the touch panel 13 as necessary is formed. The stick 16 is stored in the storage hole. In a part of the side surface of the lower housing 18a, a cartridge insertion portion (for inserting a game cartridge 17 (hereinafter simply referred to as a cartridge 17) having a built-in memory (for example, ROM) storing a game program in a detachable manner. A one-dot broken line region in FIG. 1) is formed. The cartridge 17 is an information storage medium for storing a game program, and for example, a nonvolatile semiconductor memory such as a ROM or a flash memory is used. A connector (see FIG. 2) for electrical connection with the cartridge 17 is built in the cartridge insertion portion. Furthermore, an electronic circuit board on which various electronic components such as a CPU are mounted is accommodated in the lower housing 18a (or the upper housing 18b).

次に、ゲーム装置1の回路構成について説明する。図2は、ゲーム装置1の回路構成を示すブロック図である。図2において、ハウジング18に収納される電子回路基板には、CPUコア21が実装される。CPUコア21には、所定のバスを介して、カートリッジ17と接続するためのコネクタ28が接続されるとともに、入出力インターフェース(I/F)回路27、第1のグラフィック処理ユニット(第1GPU)24、第2のグラフィック処理ユニット(第2GPU)26、およびワーキングRAM(WRAM)22が接続される。   Next, the circuit configuration of the game apparatus 1 will be described. FIG. 2 is a block diagram showing a circuit configuration of the game apparatus 1. In FIG. 2, a CPU core 21 is mounted on the electronic circuit board housed in the housing 18. A connector 28 for connecting to the cartridge 17 is connected to the CPU core 21 via a predetermined bus, an input / output interface (I / F) circuit 27, and a first graphic processing unit (first GPU) 24. A second graphics processing unit (second GPU) 26 and a working RAM (WRAM) 22 are connected.

コネクタ28には、カートリッジ17が着脱自在に接続される。カートリッジ17は、上述したようにゲームプログラムを格納するための記憶媒体であり、具体的には、ゲームプログラムを記憶するROM171とバックアップデータを書き換え可能に記憶するRAM172とを搭載する。カートリッジ17のROM171に記憶されたゲームプログラムは、WRAM22にロードされ、当該WRAM22にロードされたゲームプログラムがCPUコア21によって実行される。CPUコア21がゲームプログラムを実行して得られる一時的なデータや画像を生成するためのデータがWRAM22に記憶される。ROM171には、ゲーム装置1のコンピュータ、特にCPUコア21によって実行可能な形式の命令群及びデータ群であるゲームプログラムが記録される。そして、このゲームプログラムは、WRAM22に適宜読み込まれ実行される。   The cartridge 17 is detachably connected to the connector 28. The cartridge 17 is a storage medium for storing the game program as described above. Specifically, the cartridge 17 includes a ROM 171 for storing the game program and a RAM 172 for storing backup data in a rewritable manner. The game program stored in the ROM 171 of the cartridge 17 is loaded into the WRAM 22, and the game program loaded into the WRAM 22 is executed by the CPU core 21. Temporary data obtained by the CPU core 21 executing the game program and data for generating an image are stored in the WRAM 22. The ROM 171 stores a game program that is a group of instructions and a group of data that can be executed by the computer of the game apparatus 1, particularly the CPU core 21. The game program is read into the WRAM 22 as appropriate and executed.

第1GPU24には、第1ビデオRAM(以下「VRAM」)23が接続され、第2GPU26には、第2のビデオRAM(以下「VRAM」)25が接続される。第1GPU24は、CPUコア21からの指示に応じて、WRAM22に記憶される画像を生成するためのデータに基づいて第1ゲーム画像を生成し、第1VRAM23に描画する。第2GPU26は、CPUコア21からの指示に応じて、WRAM22に記憶される画像を生成するためのデータに基づいて第2ゲーム画像を生成し、第2VRAM25に描画する。   A first video RAM (hereinafter “VRAM”) 23 is connected to the first GPU 24, and a second video RAM (hereinafter “VRAM”) 25 is connected to the second GPU 26. In response to an instruction from the CPU core 21, the first GPU 24 generates a first game image based on data for generating an image stored in the WRAM 22 and draws it in the first VRAM 23. In response to an instruction from the CPU core 21, the second GPU 26 generates a second game image based on data for generating an image stored in the WRAM 22 and draws it in the second VRAM 25.

第1GPU24が第1LCD11に接続され、第2GPU26が第2LCD12に接続される。第1GPU24は、CPUコア21からの指示に応じて第1VRAM23に描画された第1ゲーム画像を第1LCD11に出力する。そして、第1LCD11は、第1GPU24から出力された第1ゲーム画像を表示する。第2GPU26は、CPUコア21からの指示に応じて第2VRAM25に描画された第2ゲーム画像を第2LCD12に出力する。そして、第2LCD12は、第2GPU26から出力された第2ゲーム画像を表示する。   The first GPU 24 is connected to the first LCD 11, and the second GPU 26 is connected to the second LCD 12. The first GPU 24 outputs the first game image drawn in the first VRAM 23 in response to an instruction from the CPU core 21 to the first LCD 11. Then, the first LCD 11 displays the first game image output from the first GPU 24. The second GPU 26 outputs the second game image drawn in the second VRAM 25 in response to an instruction from the CPU core 21 to the second LCD 12. Then, the second LCD 12 displays the second game image output from the second GPU 26.

I/F回路27には、タッチパネル13、操作スイッチ部14、およびスピーカ15が接続される。I/F回路27は、タッチパネル13、操作スイッチ部14、およびスピーカ15等の外部入出力装置とCPUコア21との間のデータの受け渡しを行う回路である。スピーカ15は、上述した音抜き孔の内側位置に配置され、実行中のゲームに応じて生成される音声を出力する。   The touch panel 13, the operation switch unit 14, and the speaker 15 are connected to the I / F circuit 27. The I / F circuit 27 is a circuit that exchanges data between the CPU core 21 and an external input / output device such as the touch panel 13, the operation switch unit 14, and the speaker 15. The speaker 15 is disposed at an inner position of the above-described sound release hole, and outputs a sound generated according to the game being executed.

タッチパネル13(タッチパネル用のデバイスドライバを含む)は、第2VRAM25の座標系に対応する座標系を有し、スティック16等によって入力(指示)された位置に対応する座標データをWRAM22に設けられる所定のレジスタに出力するものである。例えば、第2LCD12の表示画面の解像度は256dot×192dotであり、タッチパネル13の検出精度も表示画面に対応した256dot×192dotである。なお、タッチパネル13の検出精度は、第2LCD12の表示画面の解像度よりも低いものであってもよいし、高いものであってもよい。   The touch panel 13 (including a device driver for the touch panel) has a coordinate system corresponding to the coordinate system of the second VRAM 25, and coordinate data corresponding to a position input (instructed) by the stick 16 or the like is provided in the WRAM 22 It is output to the register. For example, the resolution of the display screen of the second LCD 12 is 256 dots × 192 dots, and the detection accuracy of the touch panel 13 is also 256 dots × 192 dots corresponding to the display screen. The detection accuracy of the touch panel 13 may be lower or higher than the resolution of the display screen of the second LCD 12.

以下、この実施の形態において、図1、図2に示したゲーム装置1で実行されるゲームについて説明する。この実施の形態にかかるゲームは、プレイヤチームのキャラクタと、相手チームのキャラクタとがバスケットボールの試合を行うバスケットボールゲームである。プレイヤチームがオフェンス側にあるときには、通常は、プレイヤチームのキャラクタのうちで実際にボールを所持しているキャラクタがプレイヤからの指示に応じて動作するプレイヤキャラクタとなる。すなわち、プレイヤキャラクタは、ゲームの進行状況に応じて変わることがある。   Hereinafter, in this embodiment, a game executed by the game apparatus 1 shown in FIGS. 1 and 2 will be described. The game according to this embodiment is a basketball game in which a player team character and an opponent team character play a basketball game. When the player team is on the offense side, the character that actually owns the ball among the characters of the player team is usually a player character that moves in response to an instruction from the player. That is, the player character may change depending on the progress of the game.

プレイヤキャラクタを含むプレイヤチームの各キャラクタ、相手チームの各キャラクタは、仮想3次元空間に形成されたバスケットボールコート(以下、単に「コート」という)上に存在しており、ゲームの進行状況に応じてコート上で動作する。仮想3次元空間に形成されたコート上には、ボールも存在し、それぞれのキャラクタの動作によってコート上でボールを運んで、敵チーム(プレイヤチームにとっては相手チーム)のゴールにボールを入れることで得点となる。   Each character of the player team including the player character and each character of the opponent team exist on a basketball court (hereinafter simply referred to as “court”) formed in a virtual three-dimensional space, and depending on the progress of the game Works on the court. Balls also exist on the court formed in the virtual three-dimensional space, and the ball is carried on the court by the action of each character, and put into the goal of the enemy team (the opponent team for the player team). Score.

プレイヤチームの他のキャラクタの動作は、ボールやプレイヤキャラクタの動きに応じてゲーム装置1のCPUコア21により制御される。相手チームのキャラクタの動作は、全てゲーム装置1のCPUコア21により制御される。なお、プレイヤチームがディフェンス側にあるとき、或いはルーズボールとなっているときには、ボールの位置や相手チームのキャラクタの位置などによってプレイヤキャラクタが決定され、プレイヤからの指示により動作させられることとなるが、これについては本発明と直接的に関わりがないので説明を省略する。   The movement of other characters of the player team is controlled by the CPU core 21 of the game apparatus 1 in accordance with the movement of the ball or the player character. The actions of the characters of the opponent team are all controlled by the CPU core 21 of the game apparatus 1. When the player team is on the defense side or is a loose ball, the player character is determined based on the position of the ball, the position of the character of the opponent team, etc., and is operated according to an instruction from the player. Since this is not directly related to the present invention, the description thereof is omitted.

図3は、この実施の形態にかかるバスケットボールゲームにおいて、プレイヤチームがオフェンス側にあるときの表示画面の例を示す図である。図3(a)に示すように、第1LCD11には、ボール110を所持している(ここでは、ドリブルしている)プレイヤキャラクタ100を参照点とし、所定の位置に視点の設定された仮想カメラによりコートを含む仮想3次元空間を透視変換した画像が表示される。プレイヤキャラクタ100以外のプレイヤチームのキャラクタ101〜104、及び相手チームのキャラクタ121〜125は、プレイヤキャラクタ100を基準とした透視変換される範囲に存在すれば、第1LCD11に表示される。   FIG. 3 is a diagram showing an example of a display screen when the player team is on the offense side in the basketball game according to this embodiment. As shown in FIG. 3A, the first LCD 11 has a virtual camera with a viewpoint set at a predetermined position with the player character 100 carrying the ball 110 (here, dribbling) as a reference point. Thus, an image obtained by perspective-transforming the virtual three-dimensional space including the coat is displayed. Characters 101 to 104 of the player team other than the player character 100 and characters 121 to 125 of the opponent team are displayed on the first LCD 11 if they exist in the range subject to the perspective transformation with the player character 100 as a reference.

仮想カメラの視点の位置は、プレイヤキャラクタ100がコート上での位置の移動を停止したとき、或いはパスなどを受けることにより新たなプレイヤキャラクタ100が設定されたときに、プレイヤキャラクタ100の背面側の方向(プレイヤキャラクタ100の基準方向であるルート100Rの方向と反対側の方向)の所定距離の位置に設定される(但し、視点とプレイヤキャラクタ100との間に障害物がない場合)。   The position of the viewpoint of the virtual camera is determined on the back side of the player character 100 when the player character 100 stops moving on the court or when a new player character 100 is set by receiving a pass or the like. The position is set at a predetermined distance in the direction (the direction opposite to the direction of the route 100R, which is the reference direction of the player character 100) (provided that there is no obstacle between the viewpoint and the player character 100).

プレイヤキャラクタ100は、後述するようにタッチパネル13のタッチによりボール110をドリブルする位置を変えることで、その向き(すなわち、ルート100Rの向き)を変えることがある。但し、ボール110をドリブルする位置の変化よりも向きの変化は小さい。後述するクイックターンの場合を除いて、プレイヤキャラクタ100のコート上の位置が変わらなければ、視点の位置が変わることはない。方向指示スイッチ14cの操作によりプレイヤキャラクタ100がコート上で移動すれば、その移動に追随して視点の位置が移動する。後述するクイックターンの際も、ターン後のプレイヤキャラクタ100の背面側の方向に視点の位置が移動する。   The player character 100 may change its direction (that is, the direction of the route 100R) by changing the position where the ball 110 is dribbling by touching the touch panel 13 as described later. However, the direction change is smaller than the change in the position where the ball 110 is dribbling. Unless the position of the player character 100 on the court does not change except in the case of a quick turn described later, the viewpoint position does not change. If the player character 100 moves on the court by operating the direction indicating switch 14c, the viewpoint position moves following the movement. Also in the case of a quick turn described later, the position of the viewpoint moves in the direction of the back side of the player character 100 after the turn.

また、図3(b)に示すように、第2LCD12には、プレイヤキャラクタ100の位置を中心として、仮想3次元空間のx−z平面(y方向、すなわち高さ方向に垂直な平面)の画像が表示される。表示される範囲は、プレイヤキャラクタ100が中心となり、第1LCD11に画像を表示するための仮想カメラの視点の方向が下方向となる範囲に設定される。図3(a)の例では、ここでは、視点とプレイヤキャラクタ100とを結ぶ直線がコートの縦方向と一致しているため、第2LCD12の表示範囲は、図3(b)に示すようなものとなる。この表示範囲に存在するキャラクタのうちでプレイチームのキャラクタ(プレイヤキャラクタ100を含む)100〜104は白丸で、相手チームのキャラクタ121〜125は黒丸で、コート上における位置が示される。   As shown in FIG. 3B, the second LCD 12 has an image of an xz plane (y direction, ie, a plane perpendicular to the height direction) of the virtual three-dimensional space with the position of the player character 100 as the center. Is displayed. The displayed range is set such that the player character 100 is the center and the viewpoint of the virtual camera for displaying the image on the first LCD 11 is in the downward direction. In the example of FIG. 3A, since the straight line connecting the viewpoint and the player character 100 matches the vertical direction of the court, the display range of the second LCD 12 is as shown in FIG. It becomes. Of the characters existing in this display range, the characters 100 to 104 of the play team (including the player character 100) are white circles, and the characters 121 to 125 of the opponent team are black circles, indicating the positions on the court.

第2LCD12の表示範囲の縦横方向は、必ずしもコートの縦横方向と一致しない。すなわち、参照点となるプレイヤキャラクタ100と仮想カメラの視点を結ぶ直線の方向に応じて表示範囲の縦横方向は、コートの縦横方向に対して傾くものとなる。方向指示スイッチ14cの入力方向(8方向)は、第2LCD12の表示方向に対応するものであり、方向指示スイッチ14cを操作したときのプレイヤキャラクタ100のコート上における移動方向は、表示範囲とコートとの傾き角に応じて決められるものとなる。   The vertical and horizontal directions of the display range of the second LCD 12 do not necessarily coincide with the vertical and horizontal directions of the coat. That is, the vertical and horizontal directions of the display range are inclined with respect to the vertical and horizontal directions of the court in accordance with the direction of a straight line connecting the player character 100 serving as the reference point and the viewpoint of the virtual camera. The input direction (eight directions) of the direction indicating switch 14c corresponds to the display direction of the second LCD 12, and the movement direction of the player character 100 on the court when the direction indicating switch 14c is operated includes the display range, the court, and the court. It is determined according to the inclination angle of.

次に、この実施の形態にかかるバスケットボールゲームにおいて、プレイヤチームがオフェンス側にあるときのプレイヤキャラクタ100の動作について説明する。この場合のプレイヤキャラクタ100の動作としては、コート上の任意の位置で停止してのボールのドリブル、ボール110をドリブルしながらのコート上の移動、プレイヤチームの他のキャラクタへのボールのパス(この場合、パスを受けたキャラクタが新たなプレイヤキャラクタ100となる)、シュートなどの動作がある。   Next, in the basketball game according to this embodiment, the operation of the player character 100 when the player team is on the offense side will be described. The actions of the player character 100 in this case include dribbling the ball stopped at an arbitrary position on the court, moving on the court while dribbling the ball 110, and passing the ball to another character on the player team ( In this case, the character that has received the pass becomes a new player character 100), and there are actions such as shooting.

プレイヤキャラクタ100がコート上の任意の位置で停止してボールをドリブルする場合について説明する。プレイヤキャラクタ100は、コート上の任意の位置に停止しているとき、モーションデータに従ってボール110をドリブルし続けている。プレイヤキャラクタ100の位置に対するボール110の位置は、タッチパネル13をタッチする位置に応じてプレイヤキャラクタ100の手が届く範囲において任意に切り替えられる。また、タッチパネル13をタッチする位置に応じてボール110をドリブルする手も切り替えられる。もっとも、ボール110の位置及びドリブルする手が変わるのは、タッチパネル13のタッチによりプレイヤキャラクタ100にドリブル動作するためのモーションデータが変わることによるものである。   A case where the player character 100 stops at an arbitrary position on the court and dribbles the ball will be described. When the player character 100 is stopped at an arbitrary position on the court, the player character 100 continues to dribble the ball 110 according to the motion data. The position of the ball 110 with respect to the position of the player character 100 is arbitrarily switched within the reach of the player character 100 according to the position where the touch panel 13 is touched. Further, the hand for dribbling the ball 110 can be switched according to the position where the touch panel 13 is touched. However, the change of the position of the ball 110 and the dribbling hand is due to the change of motion data for dribbling the player character 100 by touching the touch panel 13.

このようにタッチパネル13をタッチした位置に応じて任意の位置でボール110をドリブルできるため、タッチパネル13の位置毎にプレイヤキャラクタ100がボール110をドリブルする際のモーションデータを用意しておいたのでは、モーションデータのデータ量が膨大なものとなってしまう。そこで、この実施の形態にかかるバスケットボールゲームでは、タッチパネル13上の特定の座標位置(以下、特定座標)にのみ対応づけてモーションデータをROM171に書き込んでおき、これ以外の位置がタッチされたときには、タッチされた位置の座標に応じてROM171に記憶されたモーションデータをブレンドして、プレイヤキャラクタ100にドリブル動作させるためのモーションデータを生成するものとしている。   Since the ball 110 can be dribble at an arbitrary position according to the position touched on the touch panel 13 as described above, the motion data when the player character 100 dribbles the ball 110 is prepared for each position of the touch panel 13. The amount of motion data will be enormous. Therefore, in the basketball game according to this embodiment, motion data is written in the ROM 171 in association with only specific coordinate positions (hereinafter referred to as specific coordinates) on the touch panel 13, and when other positions are touched, Motion data stored in the ROM 171 is blended according to the coordinates of the touched position, and motion data for causing the player character 100 to perform a dribbling motion is generated.

図4は、プレイヤキャラクタ100がコート上の任意の位置に停止してドリブルを行う場合におけるモーションブレンドの説明図である。プレイヤキャラクタ100は右手でも左手でもボール110をドリブルすることができるが、図4は、右手でドリブルを行う場合のモーションブレンドを説明するものである。左手でドリブルを行う場合は、図4の左右を反転したパターンとして考えればよいこととなる。   FIG. 4 is an explanatory view of motion blending when the player character 100 stops at an arbitrary position on the court and performs dribbling. Although the player character 100 can dribble the ball 110 with either the right hand or the left hand, FIG. 4 illustrates motion blending when dribbling with the right hand. When dribbling with the left hand, it can be considered as an inverted pattern in FIG.

図4(a)に示すように、タッチパネル13上の領域は、(1)〜(9)の3行3列の9つのエリアに等間隔で区切られている。プレイヤキャラクタ100が右手でドリブルを行っている場合には、図中斜線を付して示すように、真ん中の列(縦方向)にある3つのエリア(2)、(5)、(8)と、右側の列にある3つのエリア(3)、(6)、(9)がドリブルする手を変えないエリアとして設定されている。また、これらの6つのエリアで形成される長方形の4つの頂点の位置と、縦方向の2つの辺の中点の位置に、全部で6つの特定座標201〜206が設定されている。   As shown in FIG. 4A, the area on the touch panel 13 is divided into nine areas of 3 rows and 3 columns (1) to (9) at equal intervals. When the player character 100 is dribbling with the right hand, as shown by hatching in the figure, three areas (2), (5), (8) in the middle row (vertical direction) The three areas (3), (6), and (9) in the right column are set as areas that do not change the dribbling hand. In addition, six specific coordinates 201 to 206 are set in total at the positions of the four vertices of the rectangle formed by these six areas and the positions of the midpoints of the two vertical sides.

特定座標201〜206には、それぞれの位置に対応したモーションデータが対応づけられている。プレイヤキャラクタ100が右手でドリブルしているときにタッチパネル13上のタッチされた位置の座標が特定座標201〜206のいずれかであれば、タッチされた位置に対応する特定座標に対応づけられたモーションデータがWRAM22にロードされてプレイヤキャラクタ100にドリブル動作させるためのモーションデータとしてそのまま用いられる。パスを受けるなどして新たなプレイヤキャラクタ100が設定された場合には、デフォルトとして特定座標201に対応したモーションデータがWRAM22にロードされて用いられる。これは、プレイヤキャラクタ100の正面(すなわち、ルート100Rの方向)でボール110をドリブルするためのモーションデータである。   The specific coordinates 201 to 206 are associated with motion data corresponding to each position. If the coordinate of the touched position on the touch panel 13 when the player character 100 is dribbling with the right hand is one of the specific coordinates 201 to 206, the motion associated with the specific coordinate corresponding to the touched position The data is loaded into the WRAM 22 and used as it is as motion data for causing the player character 100 to dribble. When a new player character 100 is set by receiving a pass or the like, motion data corresponding to the specific coordinates 201 is loaded into the WRAM 22 and used as a default. This is motion data for dribbling the ball 110 in front of the player character 100 (that is, in the direction of the route 100R).

タッチパネル13上のエリア(2)、(3)、(5)、(6)、(8)、(9)の範囲内で特定座標201〜206以外の位置がタッチされた場合には、まず、そのタッチされた位置の座標がWRAM22に保存される。タッチパネル13上のタッチされた位置の座標は、少なくとも最新の2回分が保存される。新たなプレイヤキャラクタ100が設定された場合には、それまでにWRAM22に保存されていた座標は全て消去され、デフォルトとして用いられるモーションデータに対応した特定座標201が最新のタッチされた位置の座標としてWRAM22に保存される。この位置の座標に従って、特定位置201〜206に対応したモーションデータがブレンドされて、モーションデータが生成される。   When a position other than the specific coordinates 201 to 206 is touched within the range of areas (2), (3), (5), (6), (8), and (9) on the touch panel 13, The coordinates of the touched position are stored in the WRAM 22. As the coordinates of the touched position on the touch panel 13, at least the latest two times are stored. When a new player character 100 is set, all the coordinates previously stored in the WRAM 22 are deleted, and the specific coordinates 201 corresponding to the motion data used as a default are used as the coordinates of the latest touched position. Stored in the WRAM 22. According to the coordinates of this position, motion data corresponding to the specific positions 201 to 206 is blended to generate motion data.

例えば、図4(b)に示すように、エリア(3)内の位置T(x1,y1)がタッチされたものとする。位置Tのy座標y1は、上辺の頂点201、204のy座標0よりも大きく、中点の特定座標202、205のy座標95よりも小さいため、4つの特定座標201、202、204、205がモーションデータのブレンド対象となる特定座標として選定される。頂点201〜206とx座標またはy座標の一方が同じ位置がタッチされた場合は、特定座標は2つだけ選定されることとなる。   For example, as shown in FIG. 4B, it is assumed that the position T (x1, y1) in the area (3) is touched. Since the y coordinate y1 of the position T is larger than the y coordinate 0 of the vertices 201 and 204 on the upper side and smaller than the y coordinate 95 of the specific coordinates 202 and 205 of the middle point, the four specific coordinates 201, 202, 204, and 205 are present. Are selected as specific coordinates to be blended with motion data. When the vertex 201 to 206 and one of the x coordinate and the y coordinate are touched at the same position, only two specific coordinates are selected.

次に、選定された特定座標201、202、204、205で囲まれる長方形の上辺(特定座標201、204を結ぶ辺)、底辺(特定座標202、205を結ぶ辺)、左辺(特定座標201、202を結ぶ辺)、右辺(特定座標204、205を結ぶ辺)と、位置Tを通り、これらの辺に平行な直線の交点の位置をTh、Tu、Tl、Trとしたとき、位置Tと位置Thの間の長さと位置Tと位置Tuの間の長さの比がH:U、位置Tと位置Tlの間の長さ、位置Tと位置Trの間の長さの比がL:Rとなったものとする。   Next, the upper side (side connecting the specific coordinates 201, 204), the bottom side (side connecting the specific coordinates 202, 205), the left side (specific coordinates 201, 205) surrounded by the selected specific coordinates 201, 202, 204, 205 202), the right side (side connecting the specific coordinates 204, 205), and the position T when the positions of intersections of straight lines passing through the position T and parallel to these sides are Th, Tu, Tl, Tr. The ratio of the length between the position Th and the length between the position T and the position Tu is H: U, the length between the position T and the position Tl, and the ratio of the length between the position T and the position Tr is L: Suppose that it became R.

この場合、特定座標201、202、204、205に対応したモーションデータのブレンド率B(201)、B(202)、B(204)、B(205)は、それぞれ図4(c)に示す数式で求められる。これらの数式から分かるように、タッチパネル13上のタッチされた位置Tに近い位置にある特定座標に対応したモーションデータほど、ブレンド率が高くなっている。特定座標201、202、204、205に対応したモーションデータは、求められたブレンド率B(201)、B(202)、B(204)、B(205)でブレンドされて、プレイヤキャラクタ100がボール110をドリブルするためのモーションデータが生成されて、WRAM22に保存される。   In this case, the blend ratios B (201), B (202), B (204), and B (205) of the motion data corresponding to the specific coordinates 201, 202, 204, and 205 are the equations shown in FIG. Is required. As can be seen from these mathematical expressions, the blend rate is higher as the motion data corresponds to the specific coordinate located near the touched position T on the touch panel 13. The motion data corresponding to the specific coordinates 201, 202, 204, and 205 are blended at the obtained blend rates B (201), B (202), B (204), and B (205), and the player character 100 plays the ball. Motion data for dribbling 110 is generated and stored in the WRAM 22.

こうして新たなタッチ位置に応じたモーションデータがブレンドされ、WRAM22に記憶されると、タッチパネル13をタッチする前のモーションデータから新たにタッチした位置に応じたモーションデータに移行されて(但し、移行の際のフレーム補間がある)、プレイヤキャラクタ100が動作されるものとなる。もっとも、前回のタッチ位置と今回のタッチ位置との関係によっては、タッチする前のモーションデータから、一旦つなぎモーションのモーションデータに移行してプレイヤキャラクタ100を動作させた後、新たにタッチした位置に応じたモーションデータに移行してプレイヤキャラクタ100を動作させるものとなる。   When the motion data corresponding to the new touch position is blended and stored in the WRAM 22, the motion data before touching the touch panel 13 is transferred to the motion data corresponding to the newly touched position (however, The player character 100 is moved. However, depending on the relationship between the previous touch position and the current touch position, the motion data before touching is temporarily shifted to the motion data of the joint motion, and the player character 100 is moved to the newly touched position. The player character 100 is moved by moving to the corresponding motion data.

一方、プレイヤキャラクタ100が右手でドリブルを行っている場合に、タッチパネル13の左側の3つのエリア(1)、(4)、(7)の範囲内の位置がタッチされた場合には、ボール110をドリブルする手が左手に切り替えられる。図5は、プレイヤキャラクタ100がボール110をドリブルする手を右手から左手に切り替える場合についての説明図である。ボール110をドリブルする手を左手から右手に切り替える場合は、図5の左右を反転したパターンで考えればよいこととなる。   On the other hand, when the player character 100 is dribbling with the right hand, if the position within the three areas (1), (4), (7) on the left side of the touch panel 13 is touched, the ball 110 The dribbling hand is switched to the left hand. FIG. 5 is an explanatory diagram of the case where the player character 100 switches the hand that dribbles the ball 110 from the right hand to the left hand. When the hand for dribbling the ball 110 is switched from the left hand to the right hand, the pattern in which the left and right in FIG. 5 are reversed may be considered.

例えば、図5(a)に示すように、プレイヤキャラクタ100が右手でボール110をドリブルしている状態でタッチパネル13上のエリア(1)の範囲内に含まれる位置tがタッチされたものとする。この位置は、右手のままドリブルできる位置に対応していないので、図5(b)に示すように左手でのドリブルに対応した特定座標のうちから、タッチされた位置tに対応する特定座標221〜224がモーションデータのブレンド対象となる特定座標として選定されるものとなる。ここで、モーションデータの生成は、図4(b)、(c)に示したのと同様の手法で行えばよい。   For example, as shown in FIG. 5A, it is assumed that the position t included in the area (1) on the touch panel 13 is touched while the player character 100 is dribbling the ball 110 with the right hand. . Since this position does not correspond to a position where the right hand can be dribble, the specific coordinates 221 corresponding to the touched position t among the specific coordinates corresponding to the dribbling with the left hand as shown in FIG. 5B. ˜224 are selected as specific coordinates to be blended with motion data. Here, the generation of motion data may be performed by a method similar to that shown in FIGS.

プレイヤキャラクタ100がボール110をドリブルする手を切り替える場合には、タッチパネル13をタッチする前のモーションデータから、新たにタッチした位置に応じたモーションデータにそのまま移行される訳ではない。タッチする前のモーションデータから、一旦つなぎモーションのモーションデータに移行してプレイヤキャラクタ100を動作させた後、新たにタッチした位置に応じたモーションデータに移行してプレイヤキャラクタ100を動作させるものとなる。   When the player character 100 switches the hand that dribbles the ball 110, the motion data before touching the touch panel 13 is not directly transferred to the motion data corresponding to the newly touched position. After moving from the motion data before touching to the motion data of the joint motion once to move the player character 100, the player character 100 is moved to the motion data corresponding to the newly touched position. .

次に、つなぎモーションについて説明する。図6は、つなぎモーションの説明図である。つなぎモーションは、前述したようにプレイヤキャラクタ100が右手から左手にボール110を持ち替えてドリブルする場合には、必ず挿入される。プレイヤキャラクタ100がボールを持ち替えないときでも、前回タッチパネル13がタッチされた位置がエリア(1)〜(3)の範囲内に含まれるときであって今回タッチされた位置がエリア(7)〜(9)の範囲内に含まれるとき、または前回タッチされた位置がエリア(7)〜(9)の範囲内に含まれるときであって今回タッチされた位置がエリア(1)〜(3)の範囲内に含まれるときにも、つなぎモーションが挿入されることとなる。   Next, the connection motion will be described. FIG. 6 is an explanatory diagram of a connection motion. As described above, the linkage motion is always inserted when the player character 100 dribbles by moving the ball 110 from the right hand to the left hand. Even when the player character 100 does not change the ball, the position touched last time is included in the range of the areas (1) to (3), and the positions touched this time are the areas (7) to (7). 9) or when the position touched last time is included in the area (7) to (9) and the position touched this time is in the area (1) to (3). Even when included in the range, a linkage motion is inserted.

つなぎモーションも、モーションデータの再生によりプレイヤキャラクタ100を動作させるものであるが、前回タッチパネル13がタッチされた位置が含まれるエリアと、今回タッチされた位置が含まれるエリアとの違いに応じて異なるモーションデータが用意されており、ROM171に予め記憶されている。新たなタッチパネル13のタッチの前にプレイヤキャラクタ100が右手でボール110をドリブルしていた場合のつなぎモーションとして、図6(a)に示す26種類のつなぎモーションが用意されている。   The joint motion is also for causing the player character 100 to move by reproducing the motion data, but differs depending on the difference between the area where the previous touch panel 13 is touched and the area where the touched position is included this time. Motion data is prepared and stored in the ROM 171 in advance. As connection motions when the player character 100 dribbles the ball 110 with the right hand before touching the new touch panel 13, 26 types of connection motions shown in FIG. 6A are prepared.

ここで、例えば、R(3)とは、エリア(3)に含まれる位置のタッチに基づいて右手でボール110をドリブルすることを示すものである。L(4)とは、エリア(4)に含まれる位置のタッチに基づいて左手でボール110をドリブルすることを示すものである。新たなタッチパネル13のタッチの前にプレイヤキャラクタ100が右手でボール110をドリブルしていた場合のつなぎモーションとしても、図6(a)に示すパターンの左右を反転させた26種類のつなぎモーションが用意されている。   Here, for example, R (3) indicates that the ball 110 is dribbling with the right hand based on the touch of the position included in the area (3). L (4) indicates dribbling the ball 110 with the left hand based on the touch of the position included in the area (4). As a connection motion when the player character 100 dribbles the ball 110 with the right hand before touching the new touch panel 13, 26 types of connection motions in which the pattern shown in FIG. Has been.

つなぎモーションの態様として、例えば、R(2)→L(1)のつなぎモーションでは、プレイヤキャラクタ100がボール110をドリブルする手を右手から左手に入れ替える動作が含まれている。また、R(2)→R(8)のつなぎモーションでは、プレイヤキャラクタ100がエリア(2)に対応した位置でドリブルする動作からエリア(8)に対応した位置でドリブルする動作に動作を変化させる間に、中間位置で一旦ドリブルする動作が含まれている。   As an example of the connecting motion, for example, the connecting motion of R (2) → L (1) includes an operation in which the player character 100 switches the dribbling hand of the ball 110 from the right hand to the left hand. In the connecting motion of R (2) → R (8), the motion is changed from a motion in which the player character 100 dribbles at a position corresponding to the area (2) to a motion to dribble at a position corresponding to the area (8). In the middle, an operation of once dribbling at an intermediate position is included.

つなぎモーションが挿入される場合、前回タッチパネル13がタッチされた位置に基づいて生成されたモーションデータから、つなぎモーションのモーションデータを経て、今回タッチパネル13がタッチされた位置に基づいて生成されたモーションデータでプレイヤキャラクタ100を動作させる。ここで、図6(b)に示すように、前回タッチパネル13がタッチされた位置に基づいて生成されたモーションデータからつなぎモーションのモーションデータに移行する間に、所定フレーム数だけフレーム補間(スタート補間)がされる。また、つなぎモーションのモーションデータから今回タッチパネル13がタッチされた位置に基づいて生成されたモーションデータに移行する間にも、所定フレーム数だけフレーム補間(エンド補間)がされる。   When a connection motion is inserted, the motion data generated based on the position touched on the touch panel 13 this time through the motion data of the connection motion from the motion data generated based on the position touched on the touch panel 13 last time. Then, the player character 100 is moved. Here, as shown in FIG. 6B, during the transition from the motion data generated based on the position touched on the touch panel 13 last time to the motion data of the joint motion, frame interpolation (start interpolation) is performed for a predetermined number of frames. ) Is done. Also, frame interpolation (end interpolation) is performed for a predetermined number of frames during the transition from the motion data of the joint motion to the motion data generated based on the position where the touch panel 13 is touched this time.

次に、プレイヤキャラクタ100がドリブルしながらコート上を移動する場合について説明する。プレイヤキャラクタ100がコート上を移動するための指示は、プレイヤによる方向指示スイッチ14cの操作に応じて入力される。プレイヤキャラクタ100は、方向指示スイッチ14cから入力された方向にボール110をドリブルしながら移動するものとなる。プレイヤキャラクタ100が移動するモーションについてもモーションデータが予め用意されてROM117に記憶されており、ドリブルのモーションデータとブレンドされて再生されることとなる。   Next, a case where the player character 100 moves on the court while dribbling will be described. An instruction for the player character 100 to move on the court is input in response to an operation of the direction instruction switch 14c by the player. The player character 100 moves while dribbling the ball 110 in the direction input from the direction indicating switch 14c. Motion data for the motion of the player character 100 is also prepared in advance and stored in the ROM 117, and is reproduced by being blended with dribble motion data.

この実施の形態にかかるバスケットボールゲームでは、ボール110をドリブルする位置に応じてプレイヤキャラクタ100が移動する速度が変わるものとなる。図7は、ボール110をドリブルする位置とプレイヤキャラクタ100の移動速度との関係を示す説明図である。ここでは、プレイヤキャラクタ100のルート100Rの方向は、方向指示スイッチ14cから入力された方向を既に向いているものとし、プレイヤキャラクタ100は、入力された方向(移動方向100D)に移動するものとする。   In the basketball game according to this embodiment, the speed at which the player character 100 moves changes according to the position where the ball 110 is dribbling. FIG. 7 is an explanatory diagram showing the relationship between the position where the ball 110 is dribbling and the moving speed of the player character 100. Here, it is assumed that the direction of the route 100R of the player character 100 is already facing the direction input from the direction indicating switch 14c, and the player character 100 moves in the input direction (movement direction 100D). .

図7(a)に示すように、プレイヤキャラクタ100の移動方向100D上にボール110があるとき、すなわちプレイヤキャラクタ100からボール110に向けた方向が移動方向100Dと一致するときには、プレイヤキャラクタ100は、速度Vでコート上を移動するものとなる。この場合は、移動のためのモーションデータを通常の速度で再生しながらプレイヤキャラクタ100を移動させればよいものとなる。   As shown in FIG. 7A, when the ball 110 is in the moving direction 100D of the player character 100, that is, when the direction from the player character 100 toward the ball 110 coincides with the moving direction 100D, the player character 100 It moves on the court at a speed V. In this case, it is only necessary to move the player character 100 while reproducing the motion data for movement at a normal speed.

図7(b)に示すように、プレイヤキャラクタ100からボール110に向けた方向と移動方向100Dとがなす角度がθ1であるときには、プレイヤキャラクタ100は、速度Vcos(θ1/2)で移動することとなり、移動方向100D上にボール110があるときの速度Vよりも遅くなる。さらに、図7(c)に示すように、プレイヤキャラクタ100からボール110に向けた方向と移動方向100Dとがなす角度がθ1よりも大きいθ2であるときには、プレイヤキャラクタ100は、速度Vcos(θ2/2)で移動することとなり、その角度がθ1のときの速度Vcos(θ1/2)よりも遅くなる。これらの場合、プレイヤキャラクタ100の移動速度が制御されるだけではなく、これに合わせてモーションデータの再生速度も、通常のcos(θ1/2)倍、cos(θ2/2)倍となり、速度Vでプレイヤキャラクタが移動するときよりも遅くなる。   As shown in FIG. 7B, when the angle formed by the direction from the player character 100 toward the ball 110 and the moving direction 100D is θ1, the player character 100 moves at a speed Vcos (θ1 / 2). Thus, the speed becomes slower than the speed V when the ball 110 is in the moving direction 100D. Further, as shown in FIG. 7 (c), when the angle formed by the direction from the player character 100 toward the ball 110 and the moving direction 100D is θ2, which is larger than θ1, the player character 100 determines that the velocity Vcos (θ2 / 2), which is slower than the speed Vcos (θ1 / 2) when the angle is θ1. In these cases, not only the moving speed of the player character 100 is controlled, but the playback speed of the motion data is also increased to the normal cos (θ1 / 2) times and cos (θ2 / 2) times, and the speed V This is slower than when the player character moves.

また、プレイヤキャラクタ100がコート上を移動する際には、その向きであるルート100Rが進行方向を向いていなければならず、方向指示スイッチ14cから入力された方向がルート100Rの方向と一致していなかったときには、まず、ルート100Rの方向が変えられてから、プレイヤキャラクタ100がコート上で移動することとなる。ルート100Rの方向を変える場合、方向指示スイッチ14cから入力された方向から所定範囲内にボール110が予め存在するときには、クイックターンという手法によりプレイヤキャラクタ100のルート100Rの方向が変えられる。   Further, when the player character 100 moves on the court, the direction of the route 100R must be in the traveling direction, and the direction input from the direction indicating switch 14c matches the direction of the route 100R. If not, first, the direction of the route 100R is changed, and then the player character 100 moves on the court. When changing the direction of the route 100R, when the ball 110 is present in advance within a predetermined range from the direction input from the direction indicating switch 14c, the direction of the route 100R of the player character 100 is changed by a technique called quick turn.

図8は、方向指示スイッチ14cから入力された方向から所定範囲内にボール110が存在しないときの通常ターンと、方向指示スイッチ14cから入力された方向から所定範囲内にボール110が予め存在するときのクイックターンの説明図である。ここでは、プレイヤキャラクタ100のルート100Rが右方向を向いている状態で方向指示スイッチ14cから上方向の入力があった場合を例として説明している。   FIG. 8 shows a normal turn when the ball 110 does not exist within a predetermined range from the direction input from the direction indicating switch 14c, and when the ball 110 exists within a predetermined range from the direction input from the direction indicating switch 14c. It is explanatory drawing of no quick turn. Here, the case where there is an upward input from the direction indicating switch 14c in a state where the route 100R of the player character 100 is directed rightward is described as an example.

図8(a)に示すように、プレイヤキャラクタ100のルート100Rが右方向を向いている状態で方向指示スイッチ14cから上方向の入力があったときにおいて移動方向100Dから±θ3の範囲外にボール110が存在したものとする。この場合、図8(b)に示すように、プレイヤキャラクタ100は、ボール110をドリブルしながらルート100Rの方向が移動方向100Dに一致するまで方向転換をする。ROM117には方向転換用のモーションデータも予め記憶されており、ドリブルのモーションデータとブレンドされて再生されることとなる。ボール110が元々存在していた位置にもよるが、ルート100Rが移動方向100Dを向くまでに、少なくとも十数フレーム程度の期間は要するものとなる。   As shown in FIG. 8 (a), when the player character 100 has a route 100R facing rightward and there is an upward input from the direction indicating switch 14c, the ball is outside the range of ± θ3 from the moving direction 100D. 110 is present. In this case, as shown in FIG. 8B, the player character 100 changes direction until the direction of the route 100R coincides with the moving direction 100D while dribbling the ball 110. The ROM 117 also stores direction change motion data in advance and is reproduced by blending with dribble motion data. Although it depends on the position where the ball 110 originally existed, it takes at least about a dozen frames before the route 100R faces the moving direction 100D.

一方、図8(c)に示すように、プレイヤキャラクタ100のルート100Rが右方向を向いている状態で方向指示スイッチ14cから上方向の入力があったときにおいて移動方向100Dから±θ3の範囲内にボール110が存在したものとする。この場合、図8(d)に示すように、プレイヤキャラクタ100は、即座にルート100Rの方向を移動方向100Dに向けるものとなる。但し、方向転換の際に数フレームのフレーム補間を行うものとしてもよい。   On the other hand, as shown in FIG. 8C, when there is an upward input from the direction indicating switch 14c with the route 100R of the player character 100 facing the right direction, it is within the range of ± θ3 from the moving direction 100D. It is assumed that the ball 110 exists. In this case, as shown in FIG. 8D, the player character 100 immediately turns the direction of the route 100R in the moving direction 100D. However, frame interpolation of several frames may be performed when the direction is changed.

なお、方向指示スイッチ14cの操作によってプレイヤキャラクタ100がボール110をドリブルしながらコート上を移動する間に、タッチパネル13をタッチすることによってボール110をドリブルする手や位置を変えたりすることもできる。この場合の動作は、上記の動作の処理を組み合わせることによって実現できる(但し、つなぎモーションとして、停止してドリブルするときとは異なるモーションデータが用いられる場合がある)。また、パスやシュートの動作については、本発明と直接的に関わりがないので、説明を省略する。   In addition, while the player character 100 moves on the court while dribbling the ball 110 by operating the direction instruction switch 14c, the hand and position where the ball 110 is dribble can be changed by touching the touch panel 13. The operation in this case can be realized by combining the processing of the above-described operations (however, motion data different from that used when stopping and dribbling may be used as a linkage motion). Further, since the operation of the pass and the chute is not directly related to the present invention, the description thereof is omitted.

以下、図1、図2に示したゲーム装置1において、この実施の形態にかかるバスケットボールゲームを行うための処理について説明する。ゲームの進行の流れでは、相手チームのキャラクタがボールを所持していたり、プレイヤチームのキャラクタのうちでボールを実際に所持するキャラクタが変わることでプレイヤキャラクタの切り替えなどの処理も行われる。もっとも、ここでは、本発明に関わる処理のみ、すなわちボールを実際に所持しているプレイヤキャラクタを動作させる処理のみについて説明するものとする。   Hereinafter, processing for playing the basketball game according to this embodiment in the game apparatus 1 shown in FIGS. 1 and 2 will be described. In the progress of the game, processing such as switching of the player character is also performed when the character of the opponent team possesses the ball or the character that actually possesses the ball among the characters of the player team changes. However, here, only the process related to the present invention, that is, only the process of moving the player character who actually owns the ball will be described.

図9は、バスケットボールゲームにおいて、プレイヤチームがオフェンス側のときにプレイヤキャラクタ100を動作させるための処理を示すフローチャートである。このフローチャートの処理は、CPUコア21がカートリッジ17のROM171からWRAM22にロードされたゲームプログラムを実行する処理である。この処理が最初に開始されるときには、右手でボール110をドリブルする場合の特定座標がデフォルトとして設定されている。   FIG. 9 is a flowchart showing a process for moving the player character 100 when the player team is on the offense side in the basketball game. The process of this flowchart is a process in which the CPU core 21 executes a game program loaded from the ROM 171 of the cartridge 17 to the WRAM 22. When this process is started for the first time, the specific coordinates for dribbling the ball 110 with the right hand are set as defaults.

まず、CPUコア21は、タッチパネル13がタッチされ、そのいずれかの座標位置が入力されたかどうかを判定する(ステップS101)。タッチパネル13から座標位置が入力されていれば、CPUコア21は、詳細を後述するタッチ時処理を行う(ステップS102)。その後、再びステップS101の処理に戻る。タッチパネル13から座標位置が入力されていなければ、CPUコア21は、方向指示スイッチ14cから8方向のうちのいずれかの方向が入力されたかどうかを判定する(ステップS103)。方向指示スイッチ14cからいずれかの方向が入力されていれば、詳細を後述する方向入力時処理を行う(ステップS104)。その後、再びステップS101の処理に戻る。   First, the CPU core 21 determines whether the touch panel 13 is touched and any coordinate position is input (step S101). If the coordinate position is input from the touch panel 13, the CPU core 21 performs a touch-time process whose details will be described later (step S102). Then, it returns to the process of step S101 again. If the coordinate position is not input from the touch panel 13, the CPU core 21 determines whether any one of the eight directions is input from the direction instruction switch 14c (step S103). If any direction is input from the direction indicating switch 14c, a direction input process, which will be described later in detail, is performed (step S104). Then, it returns to the process of step S101 again.

方向指示スイッチ14cからいずれの方向も入力されていなければ、CPUコア21は、操作スイッチ部14から他の入力があったかどうかを判定する(ステップS105)。操作スイッチ部14から他の入力があった場合には、CPUコア21は、当該入力に応じた処理(例えば、プレイヤキャラクタ100にシュートさせる、他のキャラクタにパスさせるなど)を行う(ステップS106)。その後、再びステップS101の処理に戻る。他の入力もなかった場合には、CPUコア21は、WRAM22に記憶されている最新のモーションデータに従って、プレイヤキャラクタ100を動作させる(ステップS107)。そして、ステップS101の処理に戻る。   If no direction is input from the direction indicating switch 14c, the CPU core 21 determines whether there is another input from the operation switch unit 14 (step S105). When there is another input from the operation switch unit 14, the CPU core 21 performs processing corresponding to the input (for example, causing the player character 100 to shoot or pass another character) (step S106). . Then, it returns to the process of step S101 again. If there is no other input, the CPU core 21 moves the player character 100 in accordance with the latest motion data stored in the WRAM 22 (step S107). Then, the process returns to step S101.

図10は、ステップS102のタッチ時処理を詳細に示すフローチャートである。タッチ時処理においては、CPUコア21は、タッチパネル13から入力されたタッチされた位置の座標をWRAM22に保存する(ステップS201)。次に、CPUコア21は、現時点でプレイヤキャラクタ100が左手でボール110をドリブルしており、且つタッチパネル13上でタッチされた位置がエリア(3)、(6)、(9)のいずれかの範囲内に含まれるかどうかを判定する(ステップS202)。   FIG. 10 is a flowchart showing in detail the touch processing in step S102. In the touch processing, the CPU core 21 stores the coordinates of the touched position input from the touch panel 13 in the WRAM 22 (step S201). Next, the CPU core 21 is currently dribbling the ball 110 with the left hand of the player character 100 and the touched position on the touch panel 13 is one of the areas (3), (6), and (9). It is determined whether it falls within the range (step S202).

プレイヤキャラクタ100が右手でボール110をドリブルしているか、タッチされた位置がエリア(3)、(6)、(9)の範囲外であった場合には、CPUコア21は、さらにプレイヤキャラクタ100が右手でボール110をドリブルしており、且つタッチパネル13上でタッチされた位置がエリア(1)、(4)、(7)のいずれかの範囲内に含まれるかどうかを判定する(ステップS203)。   If the player character 100 is dribbling the ball 110 with the right hand or the touched position is outside the range of the areas (3), (6), and (9), the CPU core 21 further determines the player character 100. Is dribbling the ball 110 with the right hand and determines whether the position touched on the touch panel 13 is included in any one of the areas (1), (4), and (7) (step S203). ).

プレイヤキャラクタ100が左手でボール110をドリブルしているか、タッチされた位置がエリア(1)、(4)、(7)の範囲外であった場合には、CPUコア21は、さらにWRAM22に前回記憶されたタッチパネル13のタッチされた位置(デフォルトで記憶された位置を含む)がエリア(1)〜(3)のいずれかの範囲内であって今回タッチされた位置がエリア(7)〜(9)のいずれかの範囲内であるか、或いはWRAM22に前回記憶されたタッチパネル13のタッチされた位置がエリア(7)〜(9)のいずれかの範囲内であって今回タッチされた位置がエリア(1)〜(3)のいずれかの範囲内であるかを判定する(ステップS204)。   If the player character 100 dribbles the ball 110 with the left hand or the touched position is outside the range of the areas (1), (4), and (7), the CPU core 21 further stores the previous time in the WRAM 22. The touched position (including the position stored by default) of the touch panel 13 is within the range of any of the areas (1) to (3), and the touched position is the area (7) to (7) 9), or the touched position of the touch panel 13 previously stored in the WRAM 22 is within the range of any of the areas (7) to (9) and the position touched this time is It is determined whether it is within any one of the areas (1) to (3) (step S204).

WRAM22に前回記憶されたタッチの位置または今回タッチされた位置が(4)〜(6)のいずれかの範囲内であるか、WRAM22に前回記憶されたタッチパネル13のタッチされた位置がエリア(7)〜(9)のいずれかの範囲内であって今回タッチされた位置がエリア(7)〜(9)のいずれかの範囲内であるか、WRAM22に前回記憶されたタッチパネル13のタッチされた位置がエリア(1)〜(3)のいずれかの範囲内であって今回タッチされた位置がエリア(1)〜(3)のいずれかの範囲内であった場合には、CPUコア21は、設定されている特定座標のうちからモーションデータのブレンド対象となる特定座標を今回タッチパネル13がタッチされた位置に応じて選定する(ステップS205)。   The position of the touch previously stored in the WRAM 22 or the position touched this time is in any of the ranges (4) to (6), or the touched position of the touch panel 13 previously stored in the WRAM 22 is the area (7 ) To (9) and the touched position is within any of the areas (7) to (9) or the touch panel 13 previously stored in the WRAM 22 is touched. When the position is within any of the areas (1) to (3) and the position touched this time is within any of the areas (1) to (3), the CPU core 21 The specific coordinates to be blended with the motion data are selected from the set specific coordinates according to the position where the touch panel 13 is touched this time (step S205).

CPUコア21は、選定した特定座標に対応したモーションデータのブレンド率を、各々の特定座標と今回タッチされた位置の座標に応じてそれぞれ算出する(ステップS206)。CPUコア21は、選定した特定座標に対応したモーションデータをそれぞれに算出したブレンド率でブレンドして、プレイヤキャラクタ100にボール110をドリブルさせるためのモーションデータを生成し、WRAM22に保存する(ステップS207)。   The CPU core 21 calculates the blend ratio of the motion data corresponding to the selected specific coordinates according to the specific coordinates and the coordinates of the position touched this time (step S206). The CPU core 21 blends the motion data corresponding to the selected specific coordinates with the calculated blend ratio, generates motion data for causing the player character 100 to dribble the ball 110, and stores the motion data in the WRAM 22 (step S207). ).

CPUコア21は、今回タッチパネル13がタッチされる前に適用されていたモーションデータから、タッチパネル13の新たなタッチ位置に従って生成されたモーションデータに移行させるまでの所定フレーム数のフレーム補間を行う(ステップS208)。そして、タッチ時処理を終了して、図9のフローチャートに復帰する。図9のフローチャートに復帰し、そのまま何の入力もなければ、ステップS207において生成されたモーションデータに従ってプレイヤキャラクタ100が動作させられるものとなる。   The CPU core 21 performs frame interpolation for a predetermined number of frames until the motion data applied before the touch panel 13 is touched this time to the motion data generated according to the new touch position on the touch panel 13 (step). S208). Then, the touch-time process is terminated, and the process returns to the flowchart of FIG. Returning to the flowchart of FIG. 9, if there is no input as it is, the player character 100 is moved according to the motion data generated in step S207.

また、ステップS202でプレイヤキャラクタ100が左手でボール110をドリブルしており、且つタッチパネル13上でタッチされた位置がエリア(3)、(6)、(9)のいずれかの範囲内に含まれていた場合には、CPUコア21は、プレイヤキャラクタ100が右手でボール110をドリブルする場合の特定データを設定し、WRAM22に記憶させる。さらに、CPUコア21は、WRAM22に前回記憶されたタッチされた位置を含むエリアと、今回タッチされた位置を含むエリアに応じたつなぎモーションのモーションデータを選択する(ステップS209)。そして、ステップS212の処理に進む。   In addition, the position where the player character 100 dribbles the ball 110 with the left hand and touched on the touch panel 13 in step S202 is included in any one of the areas (3), (6), and (9). If so, the CPU core 21 sets specific data when the player character 100 dribbles the ball 110 with the right hand and stores it in the WRAM 22. Further, the CPU core 21 selects the motion data of the joint motion corresponding to the area including the touched position previously stored in the WRAM 22 and the area including the currently touched position (step S209). Then, the process proceeds to step S212.

また、ステップS203でプレイヤキャラクタ100が右手でボール110をドリブルしており、且つタッチパネル13上でタッチされた位置がエリア(1)、(4)、(7)のいずれかの範囲内に含まれていた場合には、CPUコア21は、プレイヤキャラクタ100が左手でボール110をドリブルする場合の特定データを設定し、WRAM22に記憶させる。さらに、CPUコア21は、WRAM22に前回記憶されたタッチされた位置を含むエリアと、今回タッチされた位置を含むエリアに応じたつなぎモーションのモーションデータを選択する(ステップS210)。そして、ステップS212の処理に進む。   In addition, the position where the player character 100 dribbles the ball 110 with the right hand in step S203 and is touched on the touch panel 13 is included in any one of the areas (1), (4), and (7). If so, the CPU core 21 sets specific data when the player character 100 dribbles the ball 110 with the left hand and stores the specific data in the WRAM 22. Further, the CPU core 21 selects the motion data of the joint motion corresponding to the area including the touched position previously stored in the WRAM 22 and the area including the currently touched position (step S210). Then, the process proceeds to step S212.

さらに、ステップS204でWRAM22に前回記憶されたタッチパネル13のタッチされた位置がエリア(1)〜(3)のいずれかの範囲内であって今回タッチされた位置がエリア(7)〜(9)のいずれかの範囲内であるか、或いはWRAM22に前回記憶されたタッチパネル13のタッチされた位置がエリア(7)〜(9)のいずれかの範囲内であって今回タッチされた位置がエリア(1)〜(3)のいずれかの範囲内であった場合には、CPUコア21は、WRAM22に前回記憶されたタッチされた位置を含むエリアと、今回タッチされた位置を含むエリアに応じたつなぎモーションのモーションデータを選択する(ステップS211)。そして、ステップS212の処理に進む。   Further, the touched position of the touch panel 13 previously stored in the WRAM 22 in step S204 is within any one of the areas (1) to (3), and the touched position is the area (7) to (9). Or the touched position of the touch panel 13 previously stored in the WRAM 22 is within any of the areas (7) to (9) and the touched position is the area ( When it is within the range of any one of 1) to (3), the CPU core 21 responds to the area including the touched position previously stored in the WRAM 22 and the area including the currently touched position. The motion data of the joint motion is selected (step S211). Then, the process proceeds to step S212.

ステップS212〜S214の処理は、ステップS205〜S207の処理と同じである。ステップS214を終了すると、CPUコア21は、今回タッチパネル13がタッチされる前に適用されていたモーションデータから、ステップS209〜S211で選択されたつなぎモーションのモーションデータに移行させるまでの所定フレーム数のフレーム補間を行う(ステップS215)。その後、CPUコア21は、ステップS209〜211で選択されたつなぎモーションのモーションデータに従って、プレイヤキャラクタ100を動作させる(ステップS216)。   The processing in steps S212 to S214 is the same as the processing in steps S205 to S207. When step S214 is completed, the CPU core 21 has a predetermined number of frames from the motion data applied before the touch panel 13 is touched this time to the transition motion data selected in steps S209 to S211. Frame interpolation is performed (step S215). Thereafter, the CPU core 21 moves the player character 100 in accordance with the motion data of the linkage motion selected in Steps S209 to 211 (Step S216).

さらに、CPUコア21は、つなぎモーションのモーションデータから、タッチパネル13の新たなタッチ位置に従って生成されたモーションデータに移行させるまでの所定フレーム数のフレーム補間を行う(ステップS217)。そして、タッチ時処理を終了して、図9のフローチャートに復帰する。図9のフローチャートに復帰し、そのまま何の入力もなければ、ステップS214において生成されたモーションデータに従ってプレイヤキャラクタ100が動作させられるものとなる。   Further, the CPU core 21 performs frame interpolation for a predetermined number of frames until the motion data of the joint motion is shifted to the motion data generated according to the new touch position on the touch panel 13 (step S217). Then, the touch-time process is terminated, and the process returns to the flowchart of FIG. Returning to the flowchart of FIG. 9, if there is no input as it is, the player character 100 is operated according to the motion data generated in step S214.

図11は、ステップS104の方向入力時処理を詳細に示すフローチャートである。このフローチャートの処理においては、プレイヤキャラクタ100とボール110との方向やルート100Rの方向と、方向指示スイッチ14cから入力された方向とを扱っているが、前者の方向を後者の方向と比較するときには、仮想カメラの視点から参照点となるプレイヤキャラクタ100に向けた方向に応じて方向指示スイッチ14cから入力された方向を変換しており、以下の説明における入力方向は、変換された後の方向を指すものとする。   FIG. 11 is a flowchart showing in detail the direction input processing in step S104. In the processing of this flowchart, the direction of the player character 100 and the ball 110, the direction of the route 100R, and the direction input from the direction instruction switch 14c are handled. When comparing the former direction with the latter direction, The direction input from the direction indicating switch 14c is converted in accordance with the direction from the viewpoint of the virtual camera toward the player character 100 serving as a reference point, and the input direction in the following description is the converted direction. Shall point to.

方向入力時処理においては、まず、CPUコア21は、コート上におけるプレイヤキャラクタ100の位置からボール110の位置に向けた方向を判断する(ステップS301)。次に、CPUコア21は、方向指示スイッチ14cから入力された方向がプレイヤキャラクタ100のルート100Rの方向と一致するかどうかを判定する(ステップS302)。入力方向がルート100Rの方向と一致していれば、そのままプレイヤキャラクタ100をコート上で移動させることができるようになるため、ステップS311の処理に進む。   In the direction input processing, first, the CPU core 21 determines a direction from the position of the player character 100 on the court toward the position of the ball 110 (step S301). Next, the CPU core 21 determines whether or not the direction input from the direction indicating switch 14c matches the direction of the route 100R of the player character 100 (step S302). If the input direction matches the direction of the route 100R, the player character 100 can be moved on the court as it is, and the process proceeds to step S311.

入力方向がルート100Rの方向と一致しない場合には、まず、ルート100Rの方向を入力方向と一致させてから、プレイヤキャラクタ100を移動させる必要がある。ここでは、CPUコア21は、方向指示スイッチ14cから入力された方向から±θ3の範囲内の領域にボール110が存在しているかどうかを判定する(ステップS303)。   If the input direction does not match the direction of the route 100R, it is necessary to first move the player character 100 after making the direction of the route 100R match the input direction. Here, the CPU core 21 determines whether or not the ball 110 is present in an area within a range of ± θ3 from the direction input from the direction indicating switch 14c (step S303).

±θ3の範囲内の領域にボール110が存在しなければ、プレイヤキャラクタ100をクイックターンにより方向転換させることはできない。この場合において、CPUコア21は、プレイヤキャラクタ100がボール110をドリブルする動作のモーションデータ(WRAM22に現時点で記憶されているものとしても、この場合の専用のものとしてもよい)をROM117に記憶されている方向転換用のモーションデータとブレンドし、ここでの方向転換のためのモーションデータを生成する(ステップS304)。   If the ball 110 does not exist in the region within the range of ± θ3, the player character 100 cannot be turned by a quick turn. In this case, the CPU core 21 stores, in the ROM 117, motion data (motion data stored in the WRAM 22 at this time or dedicated data in this case) that causes the player character 100 to dribble the ball 110. The motion data for the direction change is generated by blending with the direction change motion data that is being changed (step S304).

CPUコア21は、ステップS304で生成されたモーションデータを用いて、プレイヤキャラクタ100にボール110をドリブルさせながら、方向指示スイッチ14cから入力された方向に向けてルート100Rの向きを所定角度ずつ方向転換させる(ステップS305)。その後、CPUコア21は、方向指示スイッチ14cからの方向の入力が解除されたかどうかを判定する(ステップS306)。方向の入力が解除されていた場合には、これで方向入力時処理を終了して、図9のフローチャートに復帰する。   The CPU core 21 changes the direction of the route 100R by a predetermined angle toward the direction input from the direction indicating switch 14c while causing the player character 100 to dribble the ball 110 using the motion data generated in step S304. (Step S305). Thereafter, the CPU core 21 determines whether or not the direction input from the direction indicating switch 14c has been canceled (step S306). If the direction input has been cancelled, the direction input process is terminated and the process returns to the flowchart of FIG.

方向の入力が解除されていなかった場合には、CPUコア21は、プレイヤキャラクタ100のルート100Rの方向が方向指示スイッチ14cから入力された方向に一致したかどうかを判定する(ステップS307)。ルート100Rの方向が入力方向に未だ一致していなければ、ステップS305に戻り、プレイヤキャラクタ100の方向転換を継続する。ルート100Rの方向が入力方向に一致した場合には、プレイヤキャラクタ100をコート上で移動させることができるようになるため、ステップS310の処理に進む。   If the direction input has not been canceled, the CPU core 21 determines whether or not the direction of the route 100R of the player character 100 matches the direction input from the direction indicating switch 14c (step S307). If the direction of the route 100R does not yet match the input direction, the process returns to step S305, and the direction change of the player character 100 is continued. If the direction of the route 100R coincides with the input direction, the player character 100 can be moved on the court, so the process proceeds to step S310.

ステップS303において入力方向から±θ3の範囲内の領域にボール110が存在していれば、CPUコア21は、そのままプレイヤキャラクタ100のルート100Rの方向を方向指示スイッチ14cから入力された方向に即座に転換させる(ステップS308)。その後、CPUコア21は、方向指示スイッチ14cからの方向の入力が解除されたかどうかを判定する(ステップS309)。方向の入力が解除されていた場合には、これで方向入力時処理を終了して、図9のフローチャートに復帰する。方向の入力が解除されていなかった場合には、ステップS308のクイックターンによりルート100Rの方向が入力方向に一致し、プレイヤキャラクタ100をコート上で移動させることができるようになるため、ステップS310の処理に進む。   If the ball 110 is present in the region within the range of ± θ3 from the input direction in step S303, the CPU core 21 immediately changes the direction of the route 100R of the player character 100 to the direction input from the direction indicating switch 14c. Conversion is performed (step S308). Thereafter, the CPU core 21 determines whether or not the direction input from the direction indicating switch 14c has been canceled (step S309). If the direction input has been cancelled, the direction input process is terminated and the process returns to the flowchart of FIG. If the direction input has not been canceled, the direction of the route 100R matches the input direction by the quick turn in step S308, and the player character 100 can be moved on the court. Proceed to processing.

ステップS310では、プレイヤキャラクタ100がボール110をドリブルしながらルート100Rの方向を転換させた場合には、プレイヤキャラクタ100の位置からボール110の位置に向けた方向が変わってしまっているので、CPUコア21は、ここで再びコート上におけるプレイヤキャラクタ100の位置からボール110の位置に向けた方向を判断する。そして、ステップS311の処理に進む。   In step S310, if the player character 100 changes the direction of the route 100R while dribbling the ball 110, the direction from the position of the player character 100 to the position of the ball 110 has changed, so the CPU core 21 again determines the direction from the position of the player character 100 on the court toward the position of the ball 110. Then, the process proceeds to step S311.

ステップS311では、CPUコア21は、ステップS301またはS310で判断したプレイヤキャラクタ100の位置からボール110の位置に向けた方向が方向指示スイッチ14cから入力された方向となす角度θを算出する。さらに、CPUコア21は、プレイヤキャラクタ100がボール110をドリブルする動作のモーションデータをROM117に記憶されている移動用のモーションデータとブレンドし、コート上での移動のためのモーションデータを生成する(ステップS312)。   In step S311, the CPU core 21 calculates an angle θ between the direction from the position of the player character 100 determined in step S301 or S310 toward the position of the ball 110 and the direction input from the direction indicating switch 14c. Further, the CPU core 21 blends the motion data of the motion of the player character 100 dribbling the ball 110 with the motion data for movement stored in the ROM 117 to generate motion data for movement on the court ( Step S312).

CPUコア21は、ステップS312で生成したモーションデータを通常のcos(θ/2)の速度で再生するとともに、Vcos(θ/2)の移動速度でプレイヤキャラクタ100をコート上で方向指示スイッチ14cから入力された方向に移動させる(ステップS313)。   The CPU core 21 reproduces the motion data generated in step S312 at a normal cos (θ / 2) speed and moves the player character 100 on the court from the direction indicating switch 14c at a moving speed of Vcos (θ / 2). Move in the input direction (step S313).

その後、CPUコア21は、方向指示スイッチ14cからの方向の入力が解除されたかどうかを判定する(ステップS314)。方向の入力が解除されていなかった場合には、ステップS313の処理に戻り、さらにプレイヤキャラクタ100を入力方向に移動させる。一方、方向の入力が解除されていた場合には、これで方向入力時処理を終了して、図9のフローチャートに復帰する。   Thereafter, the CPU core 21 determines whether or not the direction input from the direction indicating switch 14c has been canceled (step S314). If the direction input has not been canceled, the process returns to step S313, and the player character 100 is further moved in the input direction. On the other hand, if the direction input has been cancelled, the direction input processing is terminated and the process returns to the flowchart of FIG.

以上のような処理により、プレイヤキャラクタ100は、仮想3次元空間に形成されたコート上で動作するものとなる。また、プレイヤキャラクタ100以外の他のキャラクタ101〜104、121〜125も、CPUコア21の制御により仮想3次元空間に形成されたコート上で動作するものとなる。プレイヤキャラクタ100及び他のキャラクタ101〜104、121〜125の動作に従って、ボール110も仮想3次元空間に形成されたコート上で動作するものとなる。これらの動作によって、この実施の形態にかかるバスケットボールゲームが進行していく。   Through the processing described above, the player character 100 moves on the court formed in the virtual three-dimensional space. In addition, other characters 101 to 104 and 121 to 125 other than the player character 100 also operate on the court formed in the virtual three-dimensional space under the control of the CPU core 21. In accordance with the movements of the player character 100 and the other characters 101 to 104 and 121 to 125, the ball 110 also moves on the court formed in the virtual three-dimensional space. With these operations, the basketball game according to this embodiment proceeds.

こうしてゲームが進行する様子は、第1LCD11及び第2LCD12に画像として表示されるが、第1LCD11及び第2LCD12に表示する画像の生成は、次のようにして行われる。   The progress of the game in this way is displayed as an image on the first LCD 11 and the second LCD 12, but the image displayed on the first LCD 11 and the second LCD 12 is generated as follows.

第1LCD11に表示させる画像を生成するために、CPUコア21は、プレイヤキャラクタ100の動作や、新たなプレイヤキャラクタ100への切り替えに応じて、仮想カメラの視点の位置を設定する。CPUコア21は、1フレーム期間(例えば、1/30秒)毎に、仮想カメラの参照点をプレイヤキャラクタ100の位置に設定し、仮想3次元空間において透視変換される範囲に含まれるオブジェクト(プレイヤキャラクタ100、他のキャラクタ101〜104、121〜125、ボール110を含む)を構成するポリゴンの各頂点を視点座標系の座標に変換する。   In order to generate an image to be displayed on the first LCD 11, the CPU core 21 sets the position of the viewpoint of the virtual camera according to the action of the player character 100 or switching to the new player character 100. The CPU core 21 sets the reference point of the virtual camera at the position of the player character 100 every frame period (for example, 1/30 second), and the object (player) that is included in the range to be perspective-transformed in the virtual three-dimensional space. Each vertex of polygons constituting the character 100, the other characters 101 to 104, 121 to 125, and the ball 110) is converted into coordinates of the viewpoint coordinate system.

CPUコア21は、視点座標系に変換した各頂点の座標を第1GPU24に送るとともに、第1GPU24に描画命令を出力する。描画命令を受け取った第1GPU24は、CPUコア21から送られてきた視点座標系の座標に基づいて、視点から近い位置にあるポリゴンが最終的に描画されるように第1VRAM23に画像データを展開していく。ここで、画像データの展開の際には、陰面消去処理、シェーディング、テクスチャマッピングなどの処理も行われている。   The CPU core 21 sends the coordinates of each vertex converted to the viewpoint coordinate system to the first GPU 24 and outputs a drawing command to the first GPU 24. The first GPU 24 that has received the drawing command expands the image data in the first VRAM 23 so that the polygon at a position close to the viewpoint is finally drawn based on the coordinates of the viewpoint coordinate system sent from the CPU core 21. To go. Here, when developing the image data, processes such as hidden surface removal processing, shading, and texture mapping are also performed.

第1GPU24は、第1VRAM23に展開された画像データを順次読み出し、同期信号を付加してビデオ信号を生成し、第1LCD11に出力する。第1LCD11は、第1GPU24から出力されたビデオ信号に対応した画像を表示する。こうして1フレーム期間毎に第1LCD11に表示される画像が切り替えられていくことで、プレイヤは、プレイヤキャラクタ100や他のキャラクタ101〜104、121〜125が仮想3次元空間に形成されたコート上でバスケットボールの試合を行う様子の画像を3次元表示で見ることができるようになる。   The first GPU 24 sequentially reads the image data developed in the first VRAM 23, adds a synchronization signal to generate a video signal, and outputs the video signal to the first LCD 11. The first LCD 11 displays an image corresponding to the video signal output from the first GPU 24. By switching the image displayed on the first LCD 11 every frame period in this way, the player can play the player character 100 and other characters 101 to 104, 121 to 125 on the court formed in the virtual three-dimensional space. An image of a basketball game can be viewed in a three-dimensional display.

一方、第2LCD12に表示させる画像を生成するために、CPUコア21は、1フレーム期間毎にプレイヤキャラクタ100の位置を第2LCD12の中心位置の座標に設定し、他のキャラクタ101〜104、121〜125の仮想3次元空間におけるx−z平面の座標をプレイヤキャラクタ100から仮想カメラの視点の方向をy軸方向に設定した座標系の座標に変換する。   On the other hand, in order to generate an image to be displayed on the second LCD 12, the CPU core 21 sets the position of the player character 100 to the coordinates of the center position of the second LCD 12 for each frame period, and sets the other characters 101 to 104, 1211. The coordinates on the xz plane in 125 virtual three-dimensional spaces are converted from the player character 100 to coordinates in the coordinate system in which the direction of the viewpoint of the virtual camera is set in the y-axis direction.

CPUコア21は、変換したプレイヤキャラクタ100及び他のキャラクタ101〜104、121〜125の座標を第2GPU26に送るとともに、第2GPU26に描画命令を出力する。描画命令を受け取った第2GPU26は、キャラクタ100〜104、121〜125の種類に応じたアイコンを、それぞれのキャラクタ100〜104、121〜125の座標位置に応じて第2VRAM25に展開する。   The CPU core 21 sends the converted coordinates of the player character 100 and the other characters 101 to 104 and 121 to 125 to the second GPU 26 and outputs a drawing command to the second GPU 26. Receiving the drawing command, the second GPU 26 develops icons corresponding to the types of the characters 100 to 104 and 121 to 125 in the second VRAM 25 according to the coordinate positions of the characters 100 to 104 and 121 to 125.

第2GPU26は、第2VRAM25に展開された画像データを順次読み出し、同期信号を付加してビデオ信号を生成し、第2LCD12に出力する。第2LCD12は、第2GPU26から出力されたビデオ信号に対応した画像を表示する。こうして1フレーム期間毎に第2LCD12に表示される画像が切り替えられていくことで、プレイヤは、プレイヤキャラクタ100を中心にしてコート上のどの位置に各キャラクタ101〜104、121〜125が存在するかを示す2次元画像を見ることができるようになる。   The second GPU 26 sequentially reads the image data developed in the second VRAM 25, adds a synchronization signal to generate a video signal, and outputs the video signal to the second LCD 12. The second LCD 12 displays an image corresponding to the video signal output from the second GPU 26. By switching the image displayed on the second LCD 12 every frame period in this way, the player can determine at which position on the court the characters 101 to 104 and 121 to 125 are centered on the player character 100. A two-dimensional image showing can be seen.

以上説明したように、この実施の形態にかかるバスケットボールゲームでは、プレイヤチームがオフェンス側で操作スイッチ部14から入力がない場合、プレイヤキャラクタ100は、仮想3次元空間に形成されたコート上で位置を移動せずにボール110をドリブルし続けることとなる。このドリブル動作は、モーションデータを用いて再生され、第1LCD11に画像が表示されるものである。ここで、プレイヤキャラクタ100がボール110をドリブルする位置は、タッチパネル13の任意の位置をタッチすることで変えることができるが、ボールをドリブルする位置が変われば、プレイヤキャラクタ100の動作の再生に必要となるモーションデータも異なることとなる。   As described above, in the basketball game according to this embodiment, when the player team does not input from the operation switch unit 14 on the offense side, the player character 100 positions on the court formed in the virtual three-dimensional space. The ball 110 will continue to be dribbling without moving. This dribbling operation is reproduced using motion data, and an image is displayed on the first LCD 11. Here, the position where the player character 100 dribbles the ball 110 can be changed by touching an arbitrary position on the touch panel 13, but if the position where the ball dribbling is changed, it is necessary to reproduce the motion of the player character 100. The motion data will be different.

プレイヤキャラクタ100がボール110をドリブルするためのモーションデータは、タッチパネル13上に設定される特定座標201〜206、221〜224に対してのみ予め用意されている。ここで、プレイヤがタッチパネル13の特定座標201〜206、221〜224以外の位置をタッチしたときには、タッチした位置の座標と特定座標201〜206、221〜224との位置関係に応じて、特定座標201〜206、221〜224にそれぞれ対応したモーションデータのブレンド率が算出され、該ブレンド率でモーションデータをブレンドしてプレイヤキャラクタ100のドリブル動作の再生のために用いるものとしている。   Motion data for the player character 100 to dribble the ball 110 is prepared in advance only for the specific coordinates 201 to 206 and 221 to 224 set on the touch panel 13. Here, when the player touches a position other than the specific coordinates 201 to 206 and 221 to 224 on the touch panel 13, the specific coordinates are determined according to the positional relationship between the coordinates of the touched position and the specific coordinates 201 to 206 and 221 to 224. The blend ratios of the motion data corresponding to 201 to 206 and 221 to 224 are calculated, and the motion data is blended at the blend ratios and used for reproducing the dribbling motion of the player character 100.

このように特定座標201〜206、221〜224のそれぞれに対応したモーションデータは、タッチパネル13のタッチされた位置に応じて異なるブレンド率でブレンドすることができるので、タッチされた位置によりモーションデータも異なるものとなる。これにより、タッチパネル13のタッチする位置の差に応じてプレイヤキャラクタ100のドリブル動作として微妙な違いも表現できるようになり、現実世界のバスケットボール選手の動作と同様なプレイヤキャラクタ100の動作を再現することができるようになる。   As described above, the motion data corresponding to each of the specific coordinates 201 to 206 and 221 to 224 can be blended at different blend ratios depending on the touched position of the touch panel 13, so that the motion data is also changed depending on the touched position. It will be different. Thereby, a subtle difference can be expressed as a dribbling motion of the player character 100 according to the difference in the touch position of the touch panel 13, and the motion of the player character 100 similar to the motion of the real-world basketball player is reproduced. Will be able to.

また、タッチパネル13のタッチする位置の違いにより異なるモーションデータを用いてプレイヤキャラクタ100が動作させられることから、プレイヤの観点で考えると、タッチパネル13のタッチする位置を変えるだけでプレイヤキャラクタ100がボール110をドリブルする位置を自在に変えることができるようになる。また、プレイヤキャラクタ100にどのような位置でボール110をドリブルさせるかという指示を、タッチパネル13のタッチする座標位置をどうするかという直感的な判断で入力することができるようになる。   In addition, since the player character 100 is operated using different motion data depending on the touch position of the touch panel 13, from the viewpoint of the player, the player character 100 can change the ball 110 by simply changing the touch position of the touch panel 13. The position to dribble can be changed freely. Further, an instruction as to where the player character 100 should dribble the ball 110 can be input by intuitive determination as to what coordinate position the touch panel 13 touches.

さらに、方向指示スイッチ14cからの入力によりプレイヤキャラクタ100をコート上で移動させている間にタッチパネル13をタッチすると、プレイヤキャラクタ100が移動するモーションデータと、タッチされた位置に応じて生成されたドリブルのモーションデータとがブレンドされて再生されるものとなっている。つまり、プレイヤキャラクタ100がコート上を移動する間も、タッチパネル13をタッチする位置によってプレイヤキャラクタ100がボール110をドリブルする位置を設定することができる。このため、プレイヤキャラクタ100がコート上を移動しているときも、直感的な判断による入力でボール110をドリブルする位置を変えることができるようになる。   Further, when the touch panel 13 is touched while the player character 100 is moved on the court by an input from the direction indicating switch 14c, the dribbling generated according to the motion data of the player character 100 and the touched position. The motion data is blended and played back. That is, while the player character 100 moves on the court, the position where the player character 100 dribbles the ball 110 can be set by the position where the touch panel 13 is touched. For this reason, even when the player character 100 is moving on the court, the position where the ball 110 is dribbling can be changed by an input based on intuitive judgment.

また、タッチパネル13のタッチされた位置の違いによって最終的にプレイヤキャラクタ100のドリブル動作に用いられるモーションデータが全て異なるものになるとしても、ゲームカートリッジ17のROM171に予め記憶させておかなければならないモーションデータは、特定座標201〜206、221〜224に対応したものだけでもよい。このため、モーションデータを予め記憶しておくために必要なROM171の記憶容量を比較的小さな量に抑えることができる。   Further, even if all the motion data used for the dribbling motion of the player character 100 is ultimately different depending on the touched position of the touch panel 13, the motion that must be stored in the ROM 171 of the game cartridge 17 in advance. Only the data corresponding to the specific coordinates 201 to 206 and 221 to 224 may be used. For this reason, the storage capacity of the ROM 171 necessary for storing motion data in advance can be suppressed to a relatively small amount.

ここで、ROM171に予め記憶されたモーションデータのうちでブレンドの対象となるものは、タッチパネル13のタッチされた位置との関連性が深い特定座標に対応した2つまたは4つだけが選択されるものとなっている。例えば、図4(b)に示した位置Tがタッチされた場合には、特定座標201、202、204、205以外の特定座標はタッチされた位置Tからも遠く、また、それらに対応するモーションデータも、タッチされた位置に応じた動作とは相反するような動作となるものとなるからである。このようにROM117に記憶されたモーションデータは、プレイヤキャラクタ100の片手に対して6種類、全体で12種類あるものの、ブレンドの対象となるモーションデータは、2つまたは4つだけで済むため、ブレンド率の算出やモーションデータのブレンドの処理に要する処理量が大きくなりすぎないで済む。   Here, among the motion data stored in advance in the ROM 171, only two or four corresponding to specific coordinates that are deeply related to the touched position of the touch panel 13 are selected. It has become a thing. For example, when the position T shown in FIG. 4B is touched, the specific coordinates other than the specific coordinates 201, 202, 204, and 205 are far from the touched position T, and motions corresponding to them are also detected. This is because the data also becomes an operation that is contrary to the operation according to the touched position. Although there are six types of motion data stored in the ROM 117 for one hand of the player character 100 in this way and 12 types in total, only two or four pieces of motion data need to be blended. The amount of processing required to calculate the rate and blend the motion data does not have to be too large.

選択された2または4の特定座標に対応したモーションデータのブレンド率は、タッチパネル13上のタッチされた位置に近い特定座標に対応したモーションデータほど高く値が算出される。このため、タッチパネル13のどの位置をタッチすれば、プレイヤキャラクタ100がどのように動作するかをプレイヤが予測しやすくなり、ゲームが複雑にならない。しかも、タッチパネル13の下側にある第2LCD12に表示される画像は、プレイヤキャラクタ100が中央に位置し、他のキャラクタ101〜104、121〜125の位置も表示されるものとなっているので、プレイヤは、ゲームの進行状況に応じてタッチパネル13のどの位置をタッチすればよいかを判断しやすくなる。   The blend rate of the motion data corresponding to the selected 2 or 4 specific coordinates is calculated to be higher as the motion data corresponding to the specific coordinates closer to the touched position on the touch panel 13. For this reason, it becomes easy for the player to predict how the player character 100 moves by touching which position on the touch panel 13, and the game is not complicated. Moreover, the image displayed on the second LCD 12 below the touch panel 13 is such that the player character 100 is located in the center and the positions of the other characters 101 to 104 and 121 to 125 are also displayed. It becomes easier for the player to determine which position on the touch panel 13 should be touched according to the progress of the game.

また、選択された2または4の特定座標に対応したモーションデータのブレンド率は、それぞれタッチされた位置の座標と特定座標のx座標とy座標毎に距離の割合を求め、それぞれに求めた割合を互いに乗算して算出されるものとなる。このため、加減乗除という比較的容易な演算のみで各特定座標に対応したモーションデータのブレンド率を算出することができ、ブレンド率の算出のためにCPUコア21にかかる処理負荷が大きくなりすぎない。   Also, the blend ratio of the motion data corresponding to the selected 2 or 4 specific coordinates is obtained by calculating the ratio of the distance for each coordinate of the touched position, the x coordinate and the y coordinate of the specific coordinates, and the ratio obtained for each. Are calculated by multiplying each other. For this reason, it is possible to calculate the blend rate of motion data corresponding to each specific coordinate only by relatively easy calculation such as addition / subtraction / division / division, and the processing load on the CPU core 21 for calculating the blend rate does not become excessive. .

また、タッチパネル13のタッチされた位置の座標が、たまたま特定座標201〜206、221〜224と一致するような場合もあるが、このような場合には、タッチされた位置に一致する特定座標に対応したモーションデータをそのまま用いて、プレイヤキャラクタ100にドリブル動作をさせればよい。従って、プレイヤキャラクタ100を動作させるために用いるモーションデータを得るために余分な処理を行う必要がなくなり、CPUコア21の処理負荷を小さくすることができる。   In addition, there are cases where the coordinates of the touched position on the touch panel 13 coincide with the specific coordinates 201 to 206 and 221 to 224. In such a case, the specific coordinates corresponding to the touched position are changed. What is necessary is just to make the player character 100 perform a dribbling motion using the corresponding motion data as it is. Therefore, it is not necessary to perform extra processing to obtain motion data used to move the player character 100, and the processing load on the CPU core 21 can be reduced.

この実施の形態のゲームはバスケットボールゲームであるので、プレイヤキャラクタ100は、コート上で位置を移動する場合と移動しない場合とがあり得る。オフェンス側のチームとディフェンス側のチームが変わったり、キャラクタ間でボール110をパスしたりすることにより、これまでとは異なるキャラクタが新たにボール110をドリブルするプレイヤキャラクタ100となることがある。プレイヤキャラクタ100がコート上で移動を止めたり、これまでと異なるキャラクタが新たなプレイヤキャラクタ100となった場合にも、プレイヤキャラクタ100は、特定座標201に対応したモーションデータを用いてドリブル動作させることができる。このデフォルトで適用されるモーションデータは、モーションブレンドの必要がないので、CPUコア21に余分な処理負荷がかかることがない。   Since the game of this embodiment is a basketball game, the player character 100 may or may not move on the court. When the offense team and the defense team change, or when the ball 110 is passed between characters, a character different from the past may become the player character 100 that newly dribbles the ball 110. Even when the player character 100 stops moving on the court or when a different character becomes a new player character 100, the player character 100 causes the dribbling operation using the motion data corresponding to the specific coordinates 201. Can do. Since the motion data applied by default does not require motion blending, no extra processing load is applied to the CPU core 21.

ところで、プレイヤキャラクタ100によるボール110のドリブル動作としては、右手でドリブルする動作と左手でドリブルする動作とがある。ここで、例えば、プレイヤキャラクタ100が右手でボール110をドリブルしているときにタッチパネル13のエリア(2)、(3)、(5)、(6)、(8)、(9)の範囲内がタッチされれば、新たに生成されるモーションデータでも右手でドリブルを続けることとなる。左手に持ち替えるのは、エリア(1)、(4)、(7)の範囲内がタッチされたときだけである。左手でボール110をドリブルしているときにおけるタッチパネル13のタッチでは、左右を反転したパターンとなる。   Incidentally, the dribbling motion of the ball 110 by the player character 100 includes a dribbling motion with the right hand and a dribbling motion with the left hand. Here, for example, when the player character 100 is dribbling the ball 110 with the right hand, the touch panel 13 is within the area (2), (3), (5), (6), (8), (9). If is touched, dribbling with the right hand will continue even with newly generated motion data. Only when the area (1), (4), or (7) is touched, it is changed to the left hand. When touching the touch panel 13 when the ball 110 is dribbling with the left hand, the pattern is reversed right and left.

すなわち、タッチパネル13で真ん中の列に当たるエリア(2)、(5)、(8)がタッチされたときは、タッチされた時点で右手でドリブルしていればタッチ後も右手でドリブルを続けるように、タッチされた時点で左手でドリブルしていればタッチ後も左手でドリブルを続けるように、モーションデータのブレンド対象となる特定座標が選ばれることとなる。このため、プレイヤキャラクタ100がボール110をドリブルする手の入れ替えが頻繁になりすぎたり、不自然な手の入れ替えが生じたりしないようにすることができ、プレイヤに違和感を感じさせるのを防ぐことができる。   That is, when the area (2), (5), or (8) corresponding to the middle row on the touch panel 13 is touched, if you dribble with the right hand when touched, continue dribbling with the right hand after touching. If dribbling with the left hand when touched, the specific coordinates to be blended with the motion data are selected so that dribbling with the left hand continues even after touching. For this reason, it is possible to prevent the player character 100 from excessively changing the hand that dribbles the ball 110 or causing an unnatural replacement of the hand, thereby preventing the player from feeling uncomfortable. it can.

さらに、タッチパネル13が新たにタッチされたときにプレイヤキャラクタ100がボール110を右手でドリブルしているか左手でドリブルしているかは、タッチされた時点でのプレイヤキャラクタ100の動作状態そのものを調べるのではなく、前回にタッチパネル13がタッチされた位置を含むエリアと今回タッチされた位置を含むエリアの関係で判断している。このため、プレイヤキャラクタ100がボール110をドリブルする手を替えるべきかどうかの判断も比較的少ない計算量で行うことができる。   Further, whether the player character 100 is dribbling the ball 110 with the right hand or the left hand when the touch panel 13 is newly touched is determined by examining the motion state of the player character 100 at the time of the touch. Instead, the determination is based on the relationship between the area including the position where the touch panel 13 was previously touched and the area including the position touched this time. For this reason, whether or not the player character 100 should change the hand that dribbles the ball 110 can also be determined with a relatively small amount of calculation.

また、プレイヤキャラクタ100がボール110をドリブルする手を右手から左手、或いは左手から右手に切り替えるときには、タッチパネル13をタッチする前のモーションデータから、タッチパネル13をタッチした後のモーションデータにそのまま移行させるのではない。タッチパネル13をタッチする前のモーションデータから一旦つなぎモーションのモーションデータに移行し、さらにつなぎモーションのモーションデータからタッチパネル13をタッチした後のモーションデータに移行させるものとしている。   Further, when the player character 100 switches the hand dribbling the ball 110 from the right hand to the left hand, or from the left hand to the right hand, the motion data before touching the touch panel 13 is directly transferred to the motion data after touching the touch panel 13. is not. It is assumed that the motion data before touching the touch panel 13 is shifted to the motion data of the connection motion, and the motion data of the connection motion is further transferred to the motion data after the touch panel 13 is touched.

つなぎモーションは、前回のタッチした位置を含むエリアが(1)〜(3)で今回のタッチした位置を含むエリアが(7)〜(9)であるとき、或いは前回のタッチした位置を含むエリアが(7)〜(9)で今回のタッチした位置を含むエリアが(1)〜(3)であるときにも挿入される。ドリブルする手の入れ替えも含めて、つなぎモーションを挿入するかどうかも、前回にタッチパネル13がタッチされた位置を含むエリアと今回タッチされた位置を含むエリアの関係で判断しているので、つなぎモーションの挿入の判断も比較的少ない計算量で行うことができる。   When the area including the position touched last time is (1) to (3) and the area including the position touched this time is (7) to (9), or the area including the position touched last time. Are inserted even when the areas including the position touched this time are (1) to (3) in (7) to (9). Whether to insert a joint motion, including the replacement of dribbling hands, is determined by the relationship between the area that includes the position where the touch panel 13 was previously touched and the area that includes the position that was touched this time. Can be determined with a relatively small amount of calculation.

そして、このようにタッチパネル13がタッチされた前後で適用されるモーションデータの差が大きい場合には、いきなり両者間でモーションデータを移行させるのではなく、一旦つなぎモーションのモーションデータを用いてプレイヤキャラクタ100を動作させているため、タッチパネル13がタッチされる前後でプレイヤに違和感が生じさせないように、プレイヤキャラクタ100を動作させることができるようになる。   And when the difference of the motion data applied before and after the touch panel 13 is touched is large in this way, the motion data of the connection motion is temporarily used instead of moving the motion data between the two, and the player character is temporarily used. Since 100 is operated, the player character 100 can be operated so that the player does not feel uncomfortable before and after the touch panel 13 is touched.

ところで、この実施の形態で適用されているゲームは、バスケットボールゲームであるが、ボール110のドリブル以外のプレイヤキャラクタ100の動作は、操作スイッチ部14からの入力によって指示することができる。プレイヤキャラクタ100は、例えば、方向指示スイッチ14cからの入力により仮想3次元空間に形成されたコート上を移動したり、方向転換したりする。このようにタッチパネル13以外の入力手段からの入力によって、ゲームの進行のためにプレイヤキャラクタ100にボール110をドリブルする以外の様々な動作をさせることができるようになる。   By the way, although the game applied in this embodiment is a basketball game, the actions of the player character 100 other than the dribbling of the ball 110 can be instructed by an input from the operation switch unit 14. For example, the player character 100 moves or changes direction on the court formed in the virtual three-dimensional space by an input from the direction instruction switch 14c. As described above, the input from the input means other than the touch panel 13 allows the player character 100 to perform various actions other than dribbling the ball 110 for the progress of the game.

方向指示スイッチ14cからの入力があった場合、プレイヤキャラクタ100は、ボール110をドリブルしながらコート上で該入力された方向に移動するものとなる。ここで現実の世界におけるバスケットボール選手の動きを考えると、ボール110の扱いは、体の正面にあるときの方が容易になる。この実施の形態にかかるバスケットボールゲームでは、プレイヤキャラクタ100からボール110に向けた方向とプレイヤキャラクタ100の進行方向(すなわち、方向指示スイッチ14cから入力された方向)とがなす角度に応じた速度でプレイヤキャラクタ100の移動速度を変えているので、ボール110をドリブルする位置に応じて自然な速度でプレイヤキャラクタ100を移動させることができる。   When there is an input from the direction indicating switch 14c, the player character 100 moves in the input direction on the court while dribbling the ball 110. Considering the movement of the basketball player in the real world, the handling of the ball 110 is easier when it is in front of the body. In the basketball game according to this embodiment, the player at a speed corresponding to the angle formed by the direction from the player character 100 toward the ball 110 and the traveling direction of the player character 100 (that is, the direction input from the direction instruction switch 14c). Since the moving speed of the character 100 is changed, the player character 100 can be moved at a natural speed according to the position where the ball 110 is dribbling.

また、この実施の形態にかかるバスケットボールゲームでは、方向指示スイッチ14cからの入力があった場合、プレイヤキャラクタ100が向いている方向(ルート100Rの方向)が進行方向からずれてプレイヤに違和感を感じさせることがないよう、まず、プレイヤキャラクタ100のルート100Rの向きを転換させるものとしている。ここでも現実の世界におけるバスケットボール選手の動きを考えると、ボールが予め進行方向にあれば、体を反転させるだけでボールを正面でさばきつつ進行方向を向くことができるが、ボール110が予め進行方向になければ、ボールを正面でさばくには体を反転させるだけでは済まない。   Further, in the basketball game according to this embodiment, when there is an input from the direction instruction switch 14c, the direction in which the player character 100 is facing (the direction of the route 100R) is shifted from the traveling direction, causing the player to feel uncomfortable. First, the direction of the route 100R of the player character 100 is changed so as not to occur. Here again, considering the movement of the basketball player in the real world, if the ball is in the direction of advance, the ball 110 can be directed in the direction of advance while just moving the body upside down, If it is not, it is not necessary to flip the body to judge the ball in front.

方向指示スイッチ14cから入力された方向がプレイヤキャラクタ100のルート100Rの方向と異なるときにおいて、入力された方向から±θ3の範囲内にボールがあることを条件として、ボール110の位置をそのままにしてプレイヤキャラクタ100のルート100Rの方向を転換するクイックターンを行うものとしている。これにより、方向指示スイッチ14cからの入力に応じた方向へプレイヤキャラクタ100を方向転換させる場合にも、その方向転換を自然な速度で行うことができるようになる。   When the direction input from the direction indicating switch 14c is different from the direction of the route 100R of the player character 100, the position of the ball 110 is left as it is, provided that the ball is within a range of ± θ3 from the input direction. A quick turn for changing the direction of the route 100R of the player character 100 is performed. Thus, even when the player character 100 is turned in a direction corresponding to the input from the direction indicating switch 14c, the direction can be changed at a natural speed.

以上のようにプレイヤキャラクタ100の動作は、ボール110をドリブルする位置の違いに応じて自動的に変わるものとなる。つまり、プレイヤが行うこととなる入力操作の種類が少なくても、プレイヤキャラクタ100は、ボール110をドリブルする位置に応じて自然な動作をすることができるようになる。また、プレイヤキャラクタ100に自然な動作をさせるためにゲームが複雑になりすぎることもない。   As described above, the action of the player character 100 automatically changes according to the difference in the position where the ball 110 is dribbling. That is, even if there are few types of input operations that the player will perform, the player character 100 can perform natural actions according to the position where the ball 110 is dribbling. Further, the game does not become too complicated in order to make the player character 100 perform natural actions.

本発明は、上記の実施の形態に限られず、種々の変形、応用が可能である。以下、本発明に適用可能な上記の実施の形態の変形態様について説明する。   The present invention is not limited to the above-described embodiment, and various modifications and applications are possible. Hereinafter, modifications of the above-described embodiment applicable to the present invention will be described.

上記の実施の形態では、特定座標201〜206に対応したモーションデータのブレンド率を、タッチパネル13のタッチされた位置の座標と特定座標201〜206との間のx座標、y座標毎の距離に基づいて算出するものとしていた。しかしながら、特定座標201〜206に対応したモーションデータのブレンド率の算出方法はこれに限るものではなく、タッチパネル13のタッチされた位置の座標と特定座標201〜206との間の直線距離に基づいて算出したり、直線距離の自乗に基づいて算出するものとしてもよい。   In the above embodiment, the blend ratio of the motion data corresponding to the specific coordinates 201 to 206 is set to the distance between the coordinate of the touched position on the touch panel 13 and the specific coordinates 201 to 206 for each of the x coordinate and y coordinate. It was supposed to be calculated based on. However, the calculation method of the blend ratio of the motion data corresponding to the specific coordinates 201 to 206 is not limited to this, and is based on the linear distance between the coordinates of the touched position on the touch panel 13 and the specific coordinates 201 to 206. It may be calculated or calculated based on the square of the straight line distance.

上記の実施の形態では、タッチパネル13のタッチされた位置の座標と特定座標201〜206との間のx座標、y座標毎の距離に基づいてモーションデータのブレンド率を算出し、該算出したブレンド率でブレンドしたモーションデータを用いて、プレイヤキャラクタ100を動作させるものとしていた。これに対して、プレイヤキャラクタ100を動作させるためのモーションデータは、タッチパネル13のタッチされた位置に最も近い特定座標201〜206に対応したモーションデータをそのまま用いるものとし、モーションデータのブレンドを行わないものとしてもよい。   In the above embodiment, the blend ratio of the motion data is calculated based on the distance between the coordinates of the touched position on the touch panel 13 and the x-coordinate and the y-coordinate between the specific coordinates 201 to 206, and the calculated blend The player character 100 is operated using the motion data blended at a rate. On the other hand, as the motion data for operating the player character 100, the motion data corresponding to the specific coordinates 201 to 206 closest to the touched position on the touch panel 13 is used as it is, and the motion data is not blended. It may be a thing.

ここで、特定座標201〜206に対応したモーションデータをそのまま用いるのは、タッチパネル13上の特定座標201〜206から所定範囲(例えば、x座標及びy座標ともに±10の範囲)内にある位置がタッチされた場合だけとしてもよい。所定範囲外の位置がタッチされた場合には、上記の実施の形態で示したようにタッチされた位置に応じてモーションデータをブレンドし、該ブレンドしたモーションデータを用いてプレイヤキャラクタ100を動作させるものとしてもよい。   Here, the motion data corresponding to the specific coordinates 201 to 206 is used as it is because a position within a predetermined range (for example, a range of ± 10 for both the x coordinate and the y coordinate) from the specific coordinates 201 to 206 on the touch panel 13 is used. It may be only when it is touched. When a position outside the predetermined range is touched, the motion data is blended according to the touched position as shown in the above embodiment, and the player character 100 is operated using the blended motion data. It may be a thing.

上記の実施の形態では、プレイヤキャラクタ100の動作を規定するモーションデータは、タッチパネル13上の特定座標201〜206に対応づけて用意されていた。これに対して、タッチパネル13上の領域に設定されたエリア(1)〜(9)にそれぞれ対応づけてモーションデータを用意するものとしてもよい。この場合において、例えば、タッチパネル13においてエリア(1)の範囲内のいずれかの位置がタッチされたときには、当該エリア(1)に対応づけてROM171に記憶されているモーションデータを選択し、該モーションデータを用いてプレイヤキャラクタ100を動作させるものとしてもよい。   In the above embodiment, the motion data that defines the movement of the player character 100 is prepared in association with the specific coordinates 201 to 206 on the touch panel 13. On the other hand, motion data may be prepared in association with the areas (1) to (9) set in the area on the touch panel 13. In this case, for example, when any position within the area (1) is touched on the touch panel 13, the motion data stored in the ROM 171 in association with the area (1) is selected and the motion is selected. The player character 100 may be moved using data.

また、例えば、タッチパネル13上の領域が5行5列のエリアに区切られているものとした場合、第2行及び第4行、並びに第2列及び第4列に含まれないエリアについてのみモーションデータを用意しておくものとしてもよい。ここで、第m行第n列のエリアをエリア(m,n)と表すものとすると、タッチパネル13においてエリア(1,1)、(1,3)、(1,5)、(3,1)、(3,3)、(3,5)、(5,1)、(5,3)、(5,5)の範囲内のいずれかの位置がタッチされたときには、タッチされたエリアに対応づけられたモーションデータをそのまま用いてプレイヤキャラクタ100を動作させるものとしてもよい。   Also, for example, if the area on the touch panel 13 is divided into areas of 5 rows and 5 columns, motion is performed only for the areas that are not included in the second and fourth rows, and the second and fourth columns. Data may be prepared. Here, if the area of the m-th row and the n-th column is expressed as an area (m, n), the areas (1, 1), (1, 3), (1, 5), (3, 1) ), (3, 3), (3, 5), (5, 1), (5, 3), and (5, 5), when touched, the touched area It is good also as what moves the player character 100 using the matched motion data as it is.

一方、これ以外のエリアの範囲内のいずれかの位置がタッチされたときには、ブレンドしたモーションデータを用いてプレイヤキャラクタ100を動作させるものとすればよい。例えば、エリア(1,2)の範囲内の位置がタッチされた場合には、エリア(1,1)に対応したモーションデータとエリア(1,3)に対応したモーションデータとをブレンドすればよい。この場合のブレンド率は、それぞれ50%とすることができる。また、エリア(2,2)の範囲内の位置がタッチされた場合には、エリア(1,1)に対応したモーションデータ、エリア(1,3)に対応したモーションデータ、及びエリア(3,1)に対応したモーションデータ、エリア(3,3)に対応したモーションデータをブレンドすればよい。この場合のブレンド率は、それぞれ25%とすることができる。   On the other hand, when any position within the area other than this area is touched, the player character 100 may be moved using the blended motion data. For example, when a position in the range of the area (1, 2) is touched, the motion data corresponding to the area (1, 1) and the motion data corresponding to the area (1, 3) may be blended. . In this case, the blend ratio can be set to 50%. When a position within the range of the area (2, 2) is touched, the motion data corresponding to the area (1, 1), the motion data corresponding to the area (1, 3), and the area (3, 3) The motion data corresponding to 1) and the motion data corresponding to area (3, 3) may be blended. In this case, the blend ratio can be set to 25%.

上記の実施の形態では、プレイヤキャラクタ100がコート上を移動する際に該移動のモーションデータとブレンドされるドリブルのモーションデータも、タッチパネル13のタッチされた位置の座標のみに応じて生成されるものとなっていた。しかしながら、プレイヤキャラクタ100の移動する方向によっては、タッチパネル13のタッチされた位置のみに応じて生成されたドリブルのモーションデータでは、移動の方向とドリブルの動作とに違和感を生じさせてしまう虞もある。   In the above embodiment, when the player character 100 moves on the court, dribble motion data that is blended with the motion data of the movement is also generated according to only the coordinates of the touched position on the touch panel 13. It was. However, depending on the moving direction of the player character 100, the dribble motion data generated only in accordance with the touched position of the touch panel 13 may cause a sense of incongruity between the moving direction and the dribbling action. .

そこで、プレイヤキャラクタ100がコート上を移動する際に該移動のモーションデータとブレンドされるドリブルのモーションデータは、タッチパネル13のタッチされた位置の座標に加えてプレイヤキャラクタ100の移動方向(方向指示スイッチ14cから入力された方向)に応じて生成するものとしてもよい。このための手法として、例えば、タッチパネル13のタッチされた位置の座標をプレイヤキャラクタ100の移動方向に応じた演算式で変換し、該演算式により変換した座標と特定座標201〜206との位置関係に応じてドリブルのモーションデータを生成するものとすることができる。つなぎモーションを挿入するかどうかも、返還後の座標と特定座標201〜206との位置関係に応じて決めることができる。   Therefore, the dribble motion data blended with the motion data of the movement of the player character 100 on the court, in addition to the coordinates of the touched position on the touch panel 13, The direction may be generated in accordance with the direction input from 14c. As a technique for this, for example, the coordinates of the touched position of the touch panel 13 are converted by an arithmetic expression corresponding to the moving direction of the player character 100, and the positional relationship between the coordinates converted by the arithmetic expression and the specific coordinates 201 to 206 is calculated. The dribble motion data can be generated according to the above. Whether to insert a linkage motion can also be determined according to the positional relationship between the coordinates after the return and the specific coordinates 201-206.

これにより、プレイヤキャラクタ100がコート上を移動する際には、プレイヤキャラクタ100は、その移動動作に対して違和感の感じられない状態でボール110をドリブルすることができるようになる。また、プレイヤキャラクタ100がボール110をドリブルする位置もタッチパネル13のタッチする位置による直感的な入力で変化させることができるようになる。   As a result, when the player character 100 moves on the court, the player character 100 can dribble the ball 110 without feeling uncomfortable with the moving motion. Also, the position where the player character 100 dribbles the ball 110 can be changed by intuitive input based on the position touched by the touch panel 13.

上記の実施の形態では、プレイヤキャラクタ100にボール110をドリブルする手を入れ替えさせるか、つなぎモーションを挿入するかといった点についてのみ、前回と今回のタッチパネル13がタッチされた位置同士の関係で判断されていた。もっとも、プレイヤキャラクタ100のルート100Rの方向と方向指示スイッチ14cから入力された方向の相違の判断や、プレイヤキャラクタ100からボール110へ向けた方向の判断も、前回と今回のタッチパネル13がタッチされた位置同士の関係で判断してもよい。   In the above-described embodiment, only whether the player character 100 switches the dribbling hand of the ball 110 or inserts a joint motion is determined based on the relationship between the positions where the previous touch panel 13 and the current touch panel 13 are touched. It was. Of course, the touch panel 13 of the previous time and this time is also touched to determine the difference between the direction of the route 100R of the player character 100 and the direction input from the direction indicating switch 14c and the direction of the player character 100 toward the ball 110. You may judge by the relationship between positions.

方向指示スイッチ14cから入力可能な方向は8方向であり、タッチパネル13上でも中心にあるエリア(5)から8方向に他のエリアがあるため、全ての方向性の判断を、これら8方向を単位として行えばよい。例えば、プレイヤキャラクタ100からボール110に向けた方向を、仮想カメラの視点からプレイヤキャラクタ100に向けた方向に応じて8等分した角度範囲のいずれの角度範囲に含まれるかで判断するものとしてもよい。これにより、異なる対象の方向同士を比較する処理が容易なものとなる。   There are eight directions that can be input from the direction indicating switch 14c, and there are other areas in the eight directions from the area (5) in the center on the touch panel 13. Therefore, all the directions are determined in units of these eight directions. It can be done as For example, it may be determined whether the direction from the player character 100 toward the ball 110 is included in one of the angle ranges obtained by dividing the direction from the viewpoint of the virtual camera into eight according to the direction toward the player character 100. Good. This facilitates the process of comparing the directions of different objects.

上記の実施の形態では、方向指示スイッチ14cからの入力があったときに、プレイヤキャラクタ100は、プレイヤキャラクタ100からボール110に向けた方向と入力された方向とがなす角度をθとするとき、Vcos(θ/2)の速度で入力された方向に移動するものとなっていた。つまり、プレイヤキャラクタ100の移動速度は、θの大きさに応じて連続的に変化するものとなっていた。これに対して、プレイヤキャラクタ100からボール110の方向と入力された方向とがなす角度θを予め定められた閾値(複数あってもよい)と比較し、θがこの閾値以下であるときにはプレイヤキャラクタ100を所定の速度V1で移動させ、θがこの閾値より大きいときにはプレイヤキャラクタ100をV1よりも遅い速度V2で移動させるものとしてもよい。つまり、プレイヤキャラクタ100の移動速度は、θが閾値よりも大きいかどうかにより段階的に変化するものとしてもよい。   In the above embodiment, when there is an input from the direction indicating switch 14c, the player character 100 sets the angle between the direction from the player character 100 toward the ball 110 and the input direction as θ, It moves in the input direction at a speed of Vcos (θ / 2). That is, the moving speed of the player character 100 changes continuously according to the magnitude of θ. On the other hand, the angle θ formed by the direction of the ball 110 from the player character 100 and the input direction is compared with a predetermined threshold value (a plurality may be present). 100 may be moved at a predetermined speed V1, and when θ is greater than this threshold, the player character 100 may be moved at a speed V2 slower than V1. That is, the moving speed of the player character 100 may be changed stepwise depending on whether θ is larger than a threshold value.

上記の実施の形態では、プレイヤキャラクタ100のルート100Rの方向が方向指示スイッチ14cから入力された方向と一致しないときに、ボール110が入力された方向から±θ3の範囲内にあれば、プレイヤキャラクタ100をその場でクイックターンさせるものとしていた。もっとも、方向指示スイッチ14cからの入力時にタッチパネル13が現にタッチされていなければ、ボール110の位置に関わらずにプレイヤキャラクタ100をクイックターンさせることはないが、方向指示スイッチ14cからの入力があったときにタッチパネル13が現にタッチされていれば(但し、入力された方向から±θ3の範囲内の位置が)、プレイヤキャラクタ100をクイックターンさせるものとしてもよい。   In the above embodiment, when the direction of the route 100R of the player character 100 does not coincide with the direction input from the direction indicating switch 14c, if the player character 100 is within ± θ3 from the input direction, the player character 100 It was supposed to make 100 a quick turn on the spot. However, if the touch panel 13 is not actually touched at the time of input from the direction indicating switch 14c, the player character 100 is not quick-turned regardless of the position of the ball 110, but there is input from the direction indicating switch 14c. Sometimes, if the touch panel 13 is actually touched (however, a position within a range of ± θ3 from the input direction), the player character 100 may be turned quickly.

上記の実施の形態では、タッチパネル13上の領域が9つのエリアに分割されており、つなぎモーションの挿入対象となるかどうかは、先にタッチされた位置が含まれるエリアと後にタッチされた位置が含まれるエリアとの関係に応じて判断されるものとなっていた。先にタッチされた位置そのものと後にタッチされた位置そのものとの関係を判定して、つなぎモーションを挿入するかどうかを判断するものとしてもよい。特定座標201〜206のうちで先にタッチされた位置に最も近い特定座標と後にタッチされた位置に最も近い特定座標との関係を判定して、つなぎモーションを挿入するかどうかを判断するものとしてもよい。   In the above-described embodiment, the area on the touch panel 13 is divided into nine areas, and whether or not the connection motion is to be inserted depends on the area including the position touched first and the position touched later. It was determined according to the relationship with the included area. It is also possible to determine whether to insert a joint motion by determining the relationship between the position touched first and the position touched later. Among the specific coordinates 201 to 206, the relationship between the specific coordinates closest to the position touched first and the specific coordinates closest to the position touched later is determined to determine whether to insert a joint motion. Also good.

上記の実施の形態では、プレイヤキャラクタ100からボール110に向けた方向により両者の位置関係が判断されるものとなっていたが、さらにプレイヤキャラクタ100とボール110との間の距離によっても両者の位置関係を判断するものとしてもよい。また、プレイヤキャラクタ100に対して位置関係の判断対象となるオブジェクトはボール110だけであったが、2つ以上あってもよい。   In the above embodiment, the positional relationship between the player character 100 and the ball 110 is determined based on the direction from the player character 100 toward the ball 110. The relationship may be judged. Further, although the ball 110 is the only object whose positional relationship is determined with respect to the player character 100, there may be two or more objects.

上記の実施の形態では、本発明をバスケットボールゲームにおいてボール110をドリブルするプレイヤキャラクタ100に適用していたが、サッカーゲームなどの他のゲームのプレイヤキャラクタに適用するものとしてもよい。プレイヤキャラクタの動作に影響を与えるオブジェクトは、ボール以外のものであってもよく、プレイヤキャラクタの動作とは全く独立して仮想3次元空間において移動可能なものとしてもよい。図6、図10にて示したモーションブレンドの手法は、ボールのようなオブジェクトを扱わないプレイヤキャラクタに対しても適用することができる。図7、図8、図11にて示したようなプレイヤキャラクタの移動や方向転換の手法は、2次元ビデオゲームにも適用することができる。   In the above embodiment, the present invention is applied to the player character 100 dribbling the ball 110 in the basketball game, but may be applied to a player character of another game such as a soccer game. The object that affects the movement of the player character may be other than the ball, and may be movable in the virtual three-dimensional space completely independent of the movement of the player character. The motion blending method shown in FIGS. 6 and 10 can also be applied to a player character that does not handle an object such as a ball. The player character movement and direction change methods shown in FIGS. 7, 8, and 11 can be applied to a two-dimensional video game.

上記の実施の形態では、第2LCD12の前面側に配設されたタッチパネル13から座標位置の入力を行うものとしていた。もっとも、タッチパネル13は、第2LCD12のような表示装置の前面側に配設されるものでなくてもよい。また、座標位置を入力するデバイスは、タッチパネル13に限るものではなく、表示装置上に表示されたカーソルの位置により座標入力を行うマウスなど、他のポインティングデバイスを用いるものとしてもよい。   In the above embodiment, the coordinate position is input from the touch panel 13 provided on the front side of the second LCD 12. However, the touch panel 13 may not be disposed on the front side of the display device such as the second LCD 12. The device for inputting the coordinate position is not limited to the touch panel 13, and other pointing devices such as a mouse for inputting coordinates according to the position of the cursor displayed on the display device may be used.

上記の実施の形態では、第1LCD11と第2LCD12という2つの表示装置、及びタッチパネル13というポインティングデバイスを備えるゲーム装置1において、本発明を適用したバスケットボールゲームを実行するものとした場合を例として説明した。しかしながら、少なくともゲームの画像を表示する表示装置と、プレイヤが所望の座標位置を入力することのできるポインティングデバイスを備えるものであれば、ゲーム装置1以外のコンピュータ装置において、本発明を適用したゲームを実行するものとしてもよい。本発明を適用したゲームを実行するコンピュータ装置は、ゲーム専用機でもパーソナルコンピュータのような汎用機であってもよく、携帯型であるか据え置き型であるかを問わない。また、発明を適用したゲームを実行するコンピュータ装置として、携帯電話機を適用することもできる。   In the above embodiment, the case where the basketball game to which the present invention is applied is executed in the game apparatus 1 including the two display devices of the first LCD 11 and the second LCD 12 and the pointing device of the touch panel 13 has been described as an example. . However, a game device to which the present invention is applied is applied to a computer device other than the game device 1 as long as the game device has at least a display device that displays a game image and a pointing device that allows the player to input a desired coordinate position. It may be executed. A computer device that executes a game to which the present invention is applied may be a game-only machine or a general-purpose machine such as a personal computer, regardless of whether it is a portable type or a stationary type. A mobile phone can also be applied as a computer device that executes a game to which the invention is applied.

上記の実施の形態では、ゲーム装置1のプログラム及びデータは、ゲームカートリッジ17のROM171に格納されて配布されるものとしていた。もっとも、これらのプログラム及びデータを格納する記録媒体は、このようなものに限るものではなく、プラットフォームとなるコンピュータ装置の形態に応じて、光and/or磁気ディスク装置(フレキシブルディスク、CD−ROM、DVD−ROMなど)を適用することもできる。固定ディスク装置を備えるコンピュータ装置をプラットフォームとする場合には、これらのプログラム及びデータは、固定ディスク装置に予め格納して配布してもよい。   In the above embodiment, the program and data of the game apparatus 1 are stored in the ROM 171 of the game cartridge 17 and distributed. However, the recording medium for storing these programs and data is not limited to this, and depending on the form of the computer device as the platform, an optical and / or magnetic disk device (flexible disk, CD-ROM, A DVD-ROM or the like can also be applied. When a computer device having a fixed disk device is used as a platform, these programs and data may be stored and distributed in the fixed disk device in advance.

さらに、ネットワークを介して他のコンピュータ装置と通信可能なコンピュータ装置をプラットフォームとして適用する場合には、これらのプログラム及びデータは、ネットワーク上に存在するサーバ装置が有する固定ディスク装置に格納しておき、ネットワークを介して配信するものとしてもよい。   Furthermore, when a computer device that can communicate with other computer devices via a network is applied as a platform, these programs and data are stored in a fixed disk device of a server device existing on the network, It may be distributed via a network.

1 ゲーム装置
11 第1LCD
12 第2LCD
13 タッチパネル
14 操作スイッチ部
14c 方向指示スイッチ
17 ゲームカートリッジ
171 ROM
21 CPUコア
22 WRAM
24 第1GPU
26 第2GPU
100 プレイヤキャラクタ
110 ボール
201〜206、221〜224 特定座標
1 game device 11 first LCD
12 Second LCD
13 Touch Panel 14 Operation Switch 14c Directional Switch 17 Game Cartridge 171 ROM
21 CPU core 22 WRAM
24 1st GPU
26 Second GPU
100 player characters 110 balls 201-206, 221-224 specific coordinates

Claims (6)

仮想空間に存在する第1オブジェクトと第2オブジェクトのうち少なくとも第1オブジェクトを動作させた画像を生成する画像生成装置であって、
操作者の操作に応じて前記第1オブジェクトの位置を現時点の位置から予め定められた複数の方向のうちのいずれかの方向に向かって移動させるための指示を入力する移動入力手段と、
前記移動入力手段から移動の指示が入力されたときに、前記仮想空間において該入力された指示に対応した方向に前記第1オブジェクトを移動させる移動制御手段と、
操作者の操作に応じて2次元平面上の任意の座標位置を入力する座標位置入力手段と、
前記座標位置入力手段から入力された座標位置に基づいて、前記第1オブジェクトと前記第2オブジェクトとの位置関係を設定する位置関係設定手段と、
前記移動制御手段により移動された前記第1オブジェクトの前記仮想空間における位置に対して前記位置関係設定手段により設定された位置関係に応じた前記仮想空間内の位置に、前記第2オブジェクトを配置する第2オブジェクト配置手段と、
前記移動制御手段により移動させられている前記第1オブジェクトと、前記第2オブジェクト配置手段により配置された前記第2オブジェクトとを含む画像を生成する画像生成手段と、
前記画像生成手段の生成した画像を表示手段に表示させる表示制御手段と
を備えることを特徴とする画像生成装置。
An image generation device that generates an image in which at least a first object is moved among a first object and a second object existing in a virtual space,
A movement input means for inputting an instruction for moving the position of the first object from a current position toward any one of a plurality of predetermined directions in accordance with an operation by an operator;
Movement control means for moving the first object in a direction corresponding to the inputted instruction in the virtual space when a movement instruction is inputted from the movement input means;
Coordinate position input means for inputting an arbitrary coordinate position on the two-dimensional plane in accordance with an operation of the operator;
Positional relationship setting means for setting the positional relationship between the first object and the second object based on the coordinate position input from the coordinate position input means;
The second object is arranged at a position in the virtual space according to the positional relationship set by the positional relationship setting unit with respect to the position of the first object moved by the movement control unit in the virtual space. Second object placement means;
Image generating means for generating an image including the first object moved by the movement control means and the second object placed by the second object placing means;
An image generation apparatus comprising: a display control unit that causes a display unit to display an image generated by the image generation unit.
前記位置関係設定手段により設定された位置関係に応じて、前記第1オブジェクトの動作を規定するモーションデータを決定するモーションデータ決定手段をさらに備え、
前記移動制御手段は、前記モーションデータ決定手段によって決定されたモーションデータを用いて、前記第1オブジェクトを移動させる
ことを特徴とする請求項1に記載の画像生成装置。
According to the positional relationship set by the positional relationship setting means, further comprising motion data determining means for determining motion data defining the movement of the first object,
The image generation apparatus according to claim 1, wherein the movement control unit moves the first object using the motion data determined by the motion data determination unit.
前記位置関係設定手段は、前記座標位置入力手段から入力された座標位置と前記2次元平面上に予め設定された特定座標位置との位置関係に基づいて、前記第1オブジェクトと前記第2オブジェクトとの位置関係を設定する
ことを特徴とする請求項1または2に記載の画像生成装置。
The positional relationship setting unit is configured to determine whether the first object and the second object are based on a positional relationship between the coordinate position input from the coordinate position input unit and a specific coordinate position set in advance on the two-dimensional plane. The image generation apparatus according to claim 1, wherein the positional relationship is set.
第1オブジェクトを仮想空間において移動させるための指示を入力する移動入力装置と、2次元平面上の任意の座標位置を入力する座標位置入力装置と、データを記憶する記憶装置と、画像を表示する表示装置とを備えるコンピュータ装置によって実行され、前記第1オブジェクトと該第1オブジェクトとは別に前記仮想空間に存在する第2オブジェクトを含む画像を生成するため画像生成方法であって、
前記移動入力装置から移動の指示が入力されたときに、前記仮想空間において該入力された指示に対応した方向に前記第1オブジェクトを移動させ、該移動後の位置を前記記憶装置に記憶させ、
前記座標位置入力装置から入力された座標位置に基づいて、前記第1オブジェクトと前記第2オブジェクトとの位置関係を設定し、
前記記憶装置に記憶された前記第1オブジェクトの前記仮想空間における位置に対して前記設定された位置関係に応じた前記仮想空間内の位置を、前記第2オブジェクトの位置として前記記憶装置に記憶させ、
前記記憶装置にそれぞれ記憶されている位置に基づいて前記第1オブジェクトと前記第2オブジェクトとを含む画像を生成し、
前記生成した画像を前記表示装置に表示させる
ことを特徴とする画像生成方法。
A movement input device that inputs an instruction for moving the first object in the virtual space, a coordinate position input device that inputs an arbitrary coordinate position on a two-dimensional plane, a storage device that stores data, and an image are displayed An image generation method for generating an image including a second object existing in the virtual space separately from the first object and the first object, which is executed by a computer device including a display device,
When a movement instruction is input from the movement input device, the first object is moved in a direction corresponding to the input instruction in the virtual space, and the position after the movement is stored in the storage device,
Based on the coordinate position input from the coordinate position input device, the positional relationship between the first object and the second object is set,
The position in the virtual space according to the set positional relationship with respect to the position in the virtual space of the first object stored in the storage device is stored in the storage device as the position of the second object. ,
Generating an image including the first object and the second object based on a position stored in each of the storage devices;
The image generation method, comprising: displaying the generated image on the display device.
第1オブジェクトを仮想空間において移動させるための指示を入力する移動入力装置と、2次元平面上の任意の座標位置を入力する座標位置入力装置と、画像を表示する表示装置とを備えるコンピュータ装置によって実行され、前記第1オブジェクトと該第1オブジェクトとは別に前記仮想空間に存在する第2オブジェクトを含む画像を生成するためのプログラムであって、
前記移動入力装置から移動の指示が入力されたときに、前記仮想空間において該入力された指示に対応した方向に前記第1オブジェクトを移動させる移動制御手段、
前記座標位置入力装置から入力された座標位置に基づいて、前記第1オブジェクトと前記第2オブジェクトとの位置関係を設定する位置関係設定手段、
前記移動制御手段により移動された前記第1オブジェクトの前記仮想空間における位置に対して前記位置関係設定手段により設定された位置関係に応じた前記仮想空間内の位置に、前記第2オブジェクトを配置する第2オブジェクト配置手段、
前記移動制御手段により移動させられている前記第1オブジェクトと、前記第2オブジェクト配置手段により配置された前記第2オブジェクトとを含む画像を生成する画像生成手段、及び、
前記画像生成手段の生成した画像を前記表示装置に表示させる表示制御手段
として前記コンピュータ装置を機能させることを特徴とするプログラム。
By a computer apparatus comprising a movement input device for inputting an instruction for moving the first object in the virtual space, a coordinate position input device for inputting an arbitrary coordinate position on a two-dimensional plane, and a display device for displaying an image A program that is executed to generate an image including a second object that exists in the virtual space separately from the first object and the first object;
A movement control means for moving the first object in a direction corresponding to the inputted instruction in the virtual space when a movement instruction is inputted from the movement input device;
A positional relationship setting means for setting a positional relationship between the first object and the second object based on the coordinate position input from the coordinate position input device;
The second object is arranged at a position in the virtual space according to the positional relationship set by the positional relationship setting unit with respect to the position of the first object moved by the movement control unit in the virtual space. Second object placement means;
Image generating means for generating an image including the first object moved by the movement control means and the second object placed by the second object placing means; and
A program for causing the computer device to function as display control means for displaying an image generated by the image generation means on the display device.
第1オブジェクトを仮想空間において移動させるための指示を入力する移動入力装置と、2次元平面上の任意の座標位置を入力する座標位置入力装置と、画像を表示する表示装置とを備えるコンピュータ装置によって実行され、前記第1オブジェクトと該第1オブジェクトとは別に前記仮想空間に存在する第2オブジェクトを含む画像を生成するためのプログラムを記録した記録媒体であって、
前記プログラムは、
前記移動入力装置から移動の指示が入力されたときに、前記仮想空間において該入力された指示に対応した方向に前記第1オブジェクトを移動させる移動制御手段、
前記座標位置入力装置から入力された座標位置に基づいて、前記第1オブジェクトと前記第2オブジェクトとの位置関係を設定する位置関係設定手段、
前記移動制御手段により移動された前記第1オブジェクトの前記仮想空間における位置に対して前記位置関係設定手段により設定された位置関係に応じた前記仮想空間内の位置に、前記第2オブジェクトを配置する第2オブジェクト配置手段、
前記移動制御手段により移動させられている前記第1オブジェクトと、前記第2オブジェクト配置手段により配置された前記第2オブジェクトとを含む画像を生成する画像生成手段、及び、
前記画像生成手段の生成した画像を前記表示装置に表示させる表示制御手段
として前記コンピュータ装置を機能させることを特徴とするコンピュータ読み取り可能な記録媒体。
By a computer apparatus comprising a movement input device for inputting an instruction for moving the first object in the virtual space, a coordinate position input device for inputting an arbitrary coordinate position on a two-dimensional plane, and a display device for displaying an image A recording medium that is executed and records a program for generating an image that includes the first object and a second object that exists in the virtual space separately from the first object,
The program is
A movement control means for moving the first object in a direction corresponding to the inputted instruction in the virtual space when a movement instruction is inputted from the movement input device;
A positional relationship setting means for setting a positional relationship between the first object and the second object based on the coordinate position input from the coordinate position input device;
The second object is arranged at a position in the virtual space according to the positional relationship set by the positional relationship setting unit with respect to the position of the first object moved by the movement control unit in the virtual space. Second object placement means;
Image generating means for generating an image including the first object moved by the movement control means and the second object placed by the second object placing means; and
A computer-readable recording medium that causes the computer apparatus to function as display control means for displaying an image generated by the image generating means on the display device.
JP2009124291A 2009-05-22 2009-05-22 Image generation device and method, program, and recording medium Pending JP2009223903A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009124291A JP2009223903A (en) 2009-05-22 2009-05-22 Image generation device and method, program, and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009124291A JP2009223903A (en) 2009-05-22 2009-05-22 Image generation device and method, program, and recording medium

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2005291802A Division JP4445449B2 (en) 2005-10-04 2005-10-04 Image generation device

Publications (1)

Publication Number Publication Date
JP2009223903A true JP2009223903A (en) 2009-10-01

Family

ID=41240540

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009124291A Pending JP2009223903A (en) 2009-05-22 2009-05-22 Image generation device and method, program, and recording medium

Country Status (1)

Country Link
JP (1) JP2009223903A (en)

Similar Documents

Publication Publication Date Title
JP4388004B2 (en) Image generating apparatus and method, program, and recording medium
JP4445449B2 (en) Image generation device
US7884822B2 (en) Game apparatus, storage medium storing a game program, and game controlling method
US8574069B2 (en) Hand-held game apparatus and game program
US9354839B2 (en) Storage medium storing object movement controlling program and information processing apparatus
JP4172645B2 (en) A game program that changes the action of a game object in relation to the input position
US8172681B2 (en) Storage medium having stored therein game program and game device
JP5106825B2 (en) GAME PROGRAM, GAME DEVICE, GAME SYSTEM, AND GAME CONTROL METHOD
JP3833228B2 (en) GAME DEVICE AND GAME PROGRAM
JP2006122241A (en) Game device and game program
JP4864117B2 (en) Image generating apparatus and method, program, and recording medium
JP5210547B2 (en) Movement control program and movement control apparatus
US8926427B2 (en) Video game with screen flip and dual sets of collision data
JP2009223903A (en) Image generation device and method, program, and recording medium
JP2006102123A (en) Game apparatus and game program

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100521

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110526

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110607

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20111018