JP4864117B2 - Image generating apparatus and method, program, and recording medium - Google Patents

Image generating apparatus and method, program, and recording medium Download PDF

Info

Publication number
JP4864117B2
JP4864117B2 JP2009124292A JP2009124292A JP4864117B2 JP 4864117 B2 JP4864117 B2 JP 4864117B2 JP 2009124292 A JP2009124292 A JP 2009124292A JP 2009124292 A JP2009124292 A JP 2009124292A JP 4864117 B2 JP4864117 B2 JP 4864117B2
Authority
JP
Japan
Prior art keywords
motion data
coordinate position
input
motion
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2009124292A
Other languages
Japanese (ja)
Other versions
JP2009223904A (en
Inventor
慎 東
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nintendo Co Ltd
Square Enix Co Ltd
Original Assignee
Nintendo Co Ltd
Square Enix Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nintendo Co Ltd, Square Enix Co Ltd filed Critical Nintendo Co Ltd
Priority to JP2009124292A priority Critical patent/JP4864117B2/en
Publication of JP2009223904A publication Critical patent/JP2009223904A/en
Application granted granted Critical
Publication of JP4864117B2 publication Critical patent/JP4864117B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)

Description

本発明は、予め記憶されたモーションデータを用いて、仮想3次元空間に存在するオブジェクトを動作させた画像を生成する画像生成装置等に関する。   The present invention relates to an image generation apparatus that generates an image obtained by operating an object existing in a virtual three-dimensional space, using motion data stored in advance.

従来より、仮想3次元空間に存在するキャラクタなどのオブジェクトを動作させ、これらのオブジェクトが動作する様子を仮想カメラにより透視変換して生成する手法が、3次元ビデオゲームにおいて広く適用されている。ここで、キャラクタなどのオブジェクトの動作を忠実に再現するため、これらのオブジェクトを動作させる際に、予め記憶されているモーションデータを用いるものがある。   2. Description of the Related Art Conventionally, a method of generating an object such as a character existing in a virtual three-dimensional space by moving the object and performing a perspective transformation using a virtual camera has been widely applied to three-dimensional video games. Here, in order to faithfully reproduce the motion of an object such as a character, some motion data stored in advance is used when these objects are moved.

もっとも、キャラクタなどのオブジェクトの動作には多種多様なものが考えられ、考えられ得る動作毎にモーションデータを用意するとなると、そのデータ量が膨大なものとなってしまう。そこで、格闘ゲームにおいてキャラクタが移動しながら攻撃を行う場合を例にとると、移動用のモーションデータと攻撃用のモーションデータとをブレンドして、このような複合的な動作も少ないデータ量で再現できるようにしたものがあった(例えば、特許文献1、2参照)。   However, there are a wide variety of actions of objects such as characters, and if motion data is prepared for each possible action, the amount of data becomes enormous. So, for example, when a character moves in a fighting game and attacks, the motion data for movement and the motion data for attack are blended to reproduce such complex actions with a small amount of data. There was what was made possible (for example, refer to Patent Documents 1 and 2).

特開2003−62326号公報(段落0066〜0172)JP 2003-62326 A (paragraphs 0066 to 0172) 特開2003−67773号公報(段落0070〜0176)JP 2003-67773 A (paragraphs 0070 to 0176)

しかしながら、特許文献1、2においてモーションブレンドを適用しようと考えられている場合は、移動と攻撃といったキャラクタの異なるの動作を複合させる場合や、あるオブジェクトと他のオブジェクトとが衝突した場合に限られていた。特許文献1、2においても、本来的に同一種類であると認識できるオブジェクトの動作については、その動作形態に微妙な差異を再現することはできなかった。また、これらの従来技術では、プレイヤの操作によってオブジェクトの動作を自在に変化させることができなかった。   However, when it is considered to apply motion blending in Patent Documents 1 and 2, it is limited to the case where different actions of a character such as movement and attack are combined, or when an object collides with another object. It was. In Patent Documents 1 and 2, it is not possible to reproduce a subtle difference in the motion mode of the motion of an object that can be recognized as the same type. Further, in these conventional techniques, the movement of the object cannot be freely changed by the operation of the player.

本発明は、仮想3次元空間に存在するオブジェクトの動作の微妙な違いを比較的少ないデータ量で忠実に再現した画像を生成することのできる画像生成装置及び方法、並びにそのために用いられるプログラム及び記録媒体を提供することを第1の目的とする。   The present invention relates to an image generation apparatus and method capable of generating an image that faithfully reproduces a subtle difference in motion of an object existing in a virtual three-dimensional space with a relatively small amount of data, and a program and recording used therefor The first object is to provide a medium.

本発明は、また、操作者が任意の座標位置を入力することによりオブジェクトの動作を自在に変化させた画像を生成することのできる画像生成装置及び方法、並びにそのために用いられるプログラム及び記録媒体を提供することを第2の目的とする。   The present invention also provides an image generation apparatus and method capable of generating an image in which the operation of an object is freely changed by an operator inputting an arbitrary coordinate position, and a program and a recording medium used therefor The second purpose is to provide it.

上記目的を達成するため、本発明の第の観点にかかる画像生成装置は、仮想3次元空間に存在するオブジェクトを動作させた画像を生成する画像生成装置であって、操作者の操作に応じて2次元平面上の任意の座標位置を入力する座標位置入力手段と、前記オブジェクトの動作を規定する複数のモーションデータを記憶するモーションデータ記憶手段と、前記座標位置入力手段から入力された座標位置に基づいて、前記複数のモーションデータのうちから前記オブジェクトを動作させるためのモーションデータを決定するモーションデータ決定手段と、前記モーションデータ決定手段により決定されたモーションデータを用いて、前記オブジェクトを動作させるオブジェクト動作手段と、前記オブジェクト動作手段により動作させられているオブジェクトを前記仮想3次元空間の所定の位置に設定された仮想カメラにより透視変換することにより、該オブジェクトの動作する画像を生成する動作画像生成手段と、前記動作画像生成手段の生成した前記オブジェクトの動作する画像を表示手段に表示させる動作画像表示制御手段と、前記座標位置入力手段から座標位置が入力されたときまでの前記オブジェクトの動作と、該入力された座標位置に対応したモーションデータにより規定される動作の間に前記オブジェクトが行うつなぎ動作を規定するつなぎモーションデータを記憶するつなぎモーションデータ記憶手段と、前記座標位置入力手段から座標位置が入力されたときに、該座標位置が入力されたときまでの前記オブジェクトの動作と該入力された座標位置とが所定の関係を有するかどうかを判定する動作位置判定手段とを備え、前記オブジェクト動作手段は、前記動作位置判定手段により所定の関係を有すると判定されたときに、前記座標位置が入力されたときまでの前記オブジェクトの動作状態から移行して前記つなぎモーションデータ記憶手段に記憶されたつなぎモーションデータを用いて前記オブジェクトを動作させるつなぎ動作手段を含み、該つなぎ動作手段により前記オブジェクトを動作させた後に、該つなぎ動作手段による動作から移行して前記座標位置入力手段から入力された座標位置に対応したモーションデータを用いて前記オブジェクトを動作させることを特徴とする。
上記目的を達成するため、本発明の第2の観点にかかる画像生成装置は、仮想3次元空間に存在するオブジェクトを動作させた画像を生成する画像生成装置であって、操作者の操作に応じて2次元平面上の任意の座標位置を入力する座標位置入力手段と、前記オブジェクトの動作を規定する複数のモーションデータを記憶するモーションデータ記憶手段と、前記座標位置入力手段から入力された座標位置に基づいて、前記複数のモーションデータのうちから前記オブジェクトを動作させるためのモーションデータを決定するモーションデータ決定手段と、前記モーションデータ決定手段により決定されたモーションデータを用いて、前記オブジェクトを動作させるオブジェクト動作手段と、前記オブジェクト動作手段により動作させられているオブジェクトを前記仮想3次元空間の所定の位置に設定された仮想カメラにより透視変換することにより、該オブジェクトの動作する画像を生成する動作画像生成手段と、前記動作画像生成手段の生成した前記オブジェクトの動作する画像を表示手段に表示させる動作画像表示制御手段と、前記座標位置入力手段から先に入力された第1の座標位置に対応したモーションデータにより規定される動作と、前記第1の座標位置の次に入力された第2の座標位置に対応したモーションデータにより規定される動作との間に前記オブジェクトが行うつなぎ動作を規定するつなぎモーションデータを記憶するつなぎモーションデータ記憶手段と、前記第1の座標位置と前記第2の座標位置とが所定の関係を有するかどうかを判定する座標位置判定手段とを備え、前記オブジェクト動作手段は、前記座標位置判定手段により所定の関係を有すると判定されたときに、前記第1の座標位置に対応したモーションデータにより規定される前記オブジェクトの動作から移行して前記つなぎモーションデータ記憶手段に記憶されたつなぎモーションデータを用いて前記オブジェクトを動作させるつなぎ動作手段を含み、該つなぎ動作手段により前記オブジェクトを動作させた後に、該つなぎ動作手段による動作から移行して前記第2の座標位置に対応したモーションデータを用いて前記オブジェクトを動作させることを特徴とする。
In order to achieve the above object, an image generation apparatus according to a first aspect of the present invention is an image generation apparatus that generates an image in which an object existing in a virtual three-dimensional space is moved, and is responsive to an operation of an operator. A coordinate position input means for inputting an arbitrary coordinate position on the two-dimensional plane, a motion data storage means for storing a plurality of motion data defining the motion of the object, and a coordinate position input from the coordinate position input means A motion data determining means for determining motion data for operating the object from the plurality of motion data, and the motion data determined by the motion data determining means is used to operate the object. An object operating means and the object operating means By performing perspective transformation of the object with a virtual camera set at a predetermined position in the virtual three-dimensional space, a motion image generating means for generating an image in which the object operates, and the object generated by the motion image generating means Specified by an action image display control means for displaying a moving image on a display means, an action of the object until a coordinate position is inputted from the coordinate position input means, and motion data corresponding to the inputted coordinate position When the coordinate position is input from the connection motion data storage means for storing the connection motion data for defining the connection movement performed by the object during the movement performed, and the coordinate position input means, the coordinate position is input. The movement of the object up to the time and the input coordinate position have a predetermined relationship Motion position determination means for determining whether or not to perform the object movement means until the coordinate position is inputted when the motion position determination means determines that the movement position determination means has a predetermined relationship. A connection operation means for operating the object using the connection motion data stored in the connection motion data storage means after moving from the operation state, and after the object is operated by the connection operation means, the connection operation The object is operated by using motion data corresponding to the coordinate position input from the coordinate position input means after shifting from the operation by the means .
In order to achieve the above object, an image generation apparatus according to a second aspect of the present invention is an image generation apparatus that generates an image in which an object existing in a virtual three-dimensional space is moved, and is responsive to an operation of an operator. A coordinate position input means for inputting an arbitrary coordinate position on the two-dimensional plane, a motion data storage means for storing a plurality of motion data defining the motion of the object, and a coordinate position input from the coordinate position input means A motion data determining means for determining motion data for operating the object from the plurality of motion data, and the motion data determined by the motion data determining means is used to operate the object. An object operating means and the object operating means By performing perspective transformation of the object with a virtual camera set at a predetermined position in the virtual three-dimensional space, a motion image generating means for generating an image in which the object operates, and the object generated by the motion image generating means An action image display control means for displaying an action image on a display means, an action defined by motion data corresponding to the first coordinate position previously input from the coordinate position input means, and the first coordinate position A linkage motion data storage means for storing linkage motion data defining a linkage motion performed by the object between the motion defined by the motion data corresponding to the second coordinate position inputted next to the first coordinate position; A coordinate position determination hand for determining whether or not the coordinate position of the second coordinate position has a predetermined relationship And the object movement means shifts from the movement of the object defined by the motion data corresponding to the first coordinate position when the coordinate position determination means determines that the object has a predetermined relationship. A connection operation means for operating the object using the connection motion data stored in the connection motion data storage means, and after the object is operated by the connection operation means, the operation is shifted from the operation by the connection operation means. The object is operated using motion data corresponding to the second coordinate position.

上記第1、第2の観点にかかる画像生成装置において、前記モーションデータ決定手段は、前記座標位置入力手段から入力された座標位置に基づいて前記複数のモーションデータのうちのいずれか1つを選択し、該選択したモーションデータを前記オブジェクトの動作を規定するモーションデータとして決定することができる。また、前記モーションデータ記憶手段は、前記座標位置入力手段から入力された座標位置に基づいて前記複数のモーションデータのうちのいずれか2以上を選択し、該選択したモーションデータをブレンドしたモーションデータを前記オブジェクトの動作を規定するモーションデータとして決定することができる。前記座標位置入力手段から入力された座標位置によって、前者と後者とを使い分けるものとしてもよい。 In the image generating apparatus according to the first and second aspects, the motion data determining unit selects any one of the plurality of motion data based on the coordinate position input from the coordinate position input unit. The selected motion data can be determined as motion data that defines the motion of the object. The motion data storage means selects any two or more of the plurality of motion data based on the coordinate position input from the coordinate position input means, and obtains motion data obtained by blending the selected motion data. It can be determined as motion data that defines the motion of the object. The former and the latter may be selectively used depending on the coordinate position input from the coordinate position input means.

上記第1、第2の観点にかかる画像生成装置では、仮想3次元空間に存在するオブジェクトは、モーションデータを用いて動作させられる。オブジェクトを動作させるためのモーションデータは、記憶されている複数のモーションデータのうちから座標位置入力手段により入力した座標位置に基づいて決定される。つまり、入力した座標位置が異なれば、オブジェクトを動作させるものとなるモーションデータも異なることとなる。 In the image generation apparatus according to the first and second aspects, an object existing in the virtual three-dimensional space is operated using motion data. Motion data for operating the object is determined based on the coordinate position input by the coordinate position input means from among the plurality of stored motion data. That is, if the input coordinate position is different, the motion data that causes the object to move is also different.

このように座標位置入力手段からは2次元平面上の任意の座標位置を入力することができるが、入力する座標位置の違いによってオブジェクトを動作させるためのモーションデータを異ならせることで、オブジェクトの動作について微妙な違いも表現することができるようになる。さらに、座標位置入力手段から入力する座標位置を変えるだけでオブジェクトを動作させるためのモーションデータを異ならせるものとすることができ、操作者の操作に応じて自在にオブジェクトを動作させることができるようになる。
特に第1の観点にかかる画像生成装置では、オブジェクトを動作させるためのモーションデータは、座標位置入力手段から入力された座標位置に応じて生成されるが、それまでのオブジェクトの動作状態によっては、生成されたモーションデータに応じたオブジェクトの動作とその前の動作が急激に変わってしまって違和感を生じさせる虞がある。ここでは、座標位置入力手段から入力された座標位置と該座標位置が入力されたときのオブジェクトの動作状態が所定の関係を有する場合には、一旦つなぎモーションデータを用いてオブジェクトを動作させてから、入力された座標位置に応じて生成されたモーションデータを用いてオブジェクトを動作させるので、座標位置を入力する前後でオブジェクトの動作が急激に変わって違和感を生じさせるようなことがないようにすることができる。
また、第2の観点にかかる画像生成装置では、オブジェクトを動作させるためのモーションデータは、座標位置入力手段から入力された座標位置に応じて生成されるが、先に入力された第1の座標位置と後から入力された第2の座標位置によっては、それぞれの座標位置に応じて生成されたモーションデータが大きく異なるものとなることもあり、第2の座標位置を入力したときにオブジェクトの動作が急激に変わってしまって違和感を生じさせる虞がある。ここでは、先に入力された第1の座標位置と後から入力された第2の座標位置とが所定の関係を有する場合には、オブジェクトの動作として、第1の座標位置に応じて生成されたモーションデータを用いた動作と、第2の座標位置に応じて生成されたモーションデータを用いた動作との間に、つなぎモーションデータを用いた動作を挿入している。このため、第2の座標位置を入力した後のオブジェクトの動作が第1の座標位置を入力した後の動作から急激に変わって違和感を生じさせるようなことがないようにすることができる。
As described above, an arbitrary coordinate position on the two-dimensional plane can be input from the coordinate position input means, but the motion of the object can be changed by changing the motion data for operating the object depending on the input coordinate position. You will be able to express subtle differences about. Furthermore, the motion data for operating the object can be varied simply by changing the coordinate position input from the coordinate position input means, and the object can be operated freely according to the operation of the operator. become.
In particular, in the image generation apparatus according to the first aspect, motion data for operating an object is generated according to the coordinate position input from the coordinate position input means, but depending on the operation state of the object up to that point, There is a possibility that the motion of the object corresponding to the generated motion data and the previous motion may change suddenly and cause a sense of incongruity. Here, when the coordinate position input from the coordinate position input means and the operation state of the object when the coordinate position is input have a predetermined relationship, the object is moved once using the connection motion data. Since the object is moved using the motion data generated according to the input coordinate position, the movement of the object is not changed suddenly before and after the coordinate position is input, so that it does not cause a sense of incongruity. be able to.
In the image generating apparatus according to the second aspect, the motion data for operating the object is generated according to the coordinate position input from the coordinate position input means, but the first coordinate input earlier Depending on the position and the second coordinate position input later, the motion data generated in accordance with each coordinate position may differ greatly, and the movement of the object when the second coordinate position is input. May suddenly change and cause a sense of incongruity. Here, if the first coordinate position input earlier and the second coordinate position input later have a predetermined relationship, the motion of the object is generated according to the first coordinate position. The operation using the connection motion data is inserted between the operation using the motion data and the operation using the motion data generated according to the second coordinate position. For this reason, it is possible to prevent the movement of the object after inputting the second coordinate position from abruptly changing from the movement after inputting the first coordinate position to cause a sense of incongruity.

上記第1、第2の観点にかかる画像生成装置において、前記モーションデータ記憶手段は、前記複数のモーションデータを、前記2次元平面上に予め設定された複数の特定座標位置にそれぞれ対応づけて記憶していてもよい。この場合において、前記モーションデータ決定手段は、前記座標位置入力手段から入力された座標位置と前記2次元平面上に予め設定された特定座標位置との位置関係に基づいて、前記オブジェクトの動作を規定するモーションデータを決定することができる。 In the image generating apparatus according to the first and second aspects, the motion data storage unit stores the plurality of motion data in association with a plurality of specific coordinate positions set in advance on the two-dimensional plane. You may do it. In this case, the motion data determination means defines the movement of the object based on the positional relationship between the coordinate position input from the coordinate position input means and a specific coordinate position preset on the two-dimensional plane. Motion data to be determined can be determined.

この場合には、オブジェクトを動作させるためのモーションデータの生成のためにモーションデータ記憶手段に記憶させておくモーションデータは、座標位置入力手段から座標位置を入力可能な2次元平面上に設定された複数の特定座標位置に対応するものだけでよい。このため、モーションデータ記憶手段に予め記憶させておくモーションデータのデータ量を比較的少ない量に抑えることができるようになる。   In this case, the motion data stored in the motion data storage means for generating motion data for moving the object is set on a two-dimensional plane in which the coordinate position can be input from the coordinate position input means. Only one corresponding to a plurality of specific coordinate positions is sufficient. For this reason, the amount of motion data stored in advance in the motion data storage means can be suppressed to a relatively small amount.

上記第1、第2の観点にかかる画像生成装置は、操作者の操作に応じて前記オブジェクトの移動方向を入力する移動方向入力手段をさらに備えていてもよい。この場合において、前記モーションデータ決定手段は、さらに前記移動方向入力手段から入力された移動方向に応じて、前記オブジェクトの動作を規定するモーションデータを決定し、前記オブジェクト動作手段は、前記移動方向入力手段から入力された移動方向に応じて、前記オブジェクトを前記仮想3次元空間で移動させる移動制御手段を含むものとすることができる。 The image generation apparatus according to the first and second aspects may further include a moving direction input unit that inputs a moving direction of the object in accordance with an operation of the operator. In this case, the motion data determination means further determines motion data that defines the movement of the object according to the movement direction input from the movement direction input means, and the object movement means inputs the movement direction input. According to the moving direction input from the means, it is possible to include movement control means for moving the object in the virtual three-dimensional space.

この場合には、仮想3次元空間においてオブジェクトが移動する場合に、該移動方向に応じてモーションデータが決定されるため、その移動に応じて適切な動作をオブジェクトに行わせることができるようになる。   In this case, when the object moves in the virtual three-dimensional space, the motion data is determined according to the moving direction, so that it is possible to cause the object to perform an appropriate action according to the movement. .

上記第1の観点にかかる画像生成装置において、前記つなぎモーションデータ記憶手段は、前記座標位置入力手段から座標位置が入力されたときまでの前記オブジェクトの動作状態と該入力された座標位置との関係に応じて、複数のつなぎモーションデータを記憶していてもよい。この場合において、前記つなぎ動作手段は、前記つなぎモーションデータ記憶手段に記憶された複数のつなぎモーションデータのうちで前記座標位置入力手段から座標位置が入力されたときまでの前記オブジェクトの動作と該入力された座標位置との関係に応じたつなぎモーションデータを用いて前記オブジェクトを動作させることができる。 In the image generating apparatus according to the first aspect, the connection motion data storage unit is configured such that the motion state of the object until the coordinate position is input from the coordinate position input unit and the input coordinate position. In response to this, a plurality of linkage motion data may be stored. In this case, the connection operation means includes the object operation and the input until the coordinate position is input from the coordinate position input means among the plurality of connection motion data stored in the connection motion data storage means. The object can be operated by using connection motion data corresponding to the relationship with the coordinate position.

このように座標位置入力手段から入力された座標位置と該座標位置が入力されたときのオブジェクトの動作状態との関係に応じて複数のつなぎモーションデータを用意しておくことで、オブジェクトの動作状態や入力された座標位置が如何なるものであっても、座標位置が入力される前後のオブジェクトの動作を違和感なく移行させることができるようになる。 As described above, by preparing a plurality of connection motion data according to the relationship between the coordinate position input from the coordinate position input means and the operation state of the object when the coordinate position is input, the operation state of the object is prepared. Whatever the coordinate position is input, the movement of the object before and after the coordinate position is input can be shifted without a sense of incongruity.

上記第2の観点にかかる画像生成装置において、前記つなぎモーションデータ記憶手段は、前記第1、第2の座標位置の位置関係に応じて、複数のつなぎモーションデータを記憶していてもよい。この場合において、前記つなぎ動作手段は、前記つなぎモーションデータ記憶手段に記憶された複数のつなぎモーションデータのうちで前記第1、第2の座標位置の位置関係に応じたつなぎモーションデータを用いて前記オブジェクトを動作させることができる。 In the image generating apparatus according to the second aspect, the connection motion data storage unit may store a plurality of connection motion data according to a positional relationship between the first and second coordinate positions. In this case, the linkage operation means uses the linkage motion data corresponding to the positional relationship between the first and second coordinate positions among the plurality of linkage motion data stored in the linkage motion data storage means. You can move the object.

このように第1、第2の座標位置の位置関係に応じて複数のつなぎモーションデータを用意しておくことで、続けて入力された第1、第2の座標位置が如何なるものであっても、オブジェクトの動作を違和感なく移行させることができるようになる。 In this way, by preparing a plurality of joint motion data in accordance with the positional relationship between the first and second coordinate positions, whatever the first and second coordinate positions inputted subsequently are obtained. The movement of the object can be shifted without a sense of incongruity.

なお、前記座標位置判定手段は、前記2次元平面上に予め設定された複数の特定座標位置のうちで前記第1の座標位置に最も近い特定座標位置と前記第2の座標位置に最も近い特定座標位置とが所定の関係を有するかどうかを判定するものであってもよい。 The coordinate position determination means is a specific coordinate position closest to the first coordinate position and a specific position closest to the second coordinate position among a plurality of specific coordinate positions preset on the two-dimensional plane. It may be determined whether or not the coordinate position has a predetermined relationship.

また、前記座標位置入力手段が、前記2次元平面上に予め設定された複数の特定座標位置にそれぞれ対応づけられた複数の領域を有している場合には、前記座標位置判定手段は、前記複数の領域のうちで前記第1の座標位置が含まれる領域と前記第2の座標位置が含まれる領域とが所定の関係を有するかどうかを判定するものであってもよい。 When the coordinate position input means has a plurality of regions respectively associated with a plurality of specific coordinate positions set in advance on the two-dimensional plane , the coordinate position determination means It may be determined whether or not a region including the first coordinate position and a region including the second coordinate position have a predetermined relationship among a plurality of regions.

これらの場合には、第1の座標位置と第2の座標位置とが所定の関係を有するかどうかを比較的容易に判定することができるようになる。   In these cases, it can be relatively easily determined whether or not the first coordinate position and the second coordinate position have a predetermined relationship.

上記第1、第2の観点にかかる画像生成装置は、少なくとも前記オブジェクトの高さの範囲内で前記仮想3次元空間の高さ方向に垂直な平面に設定される仮想2次元空間の前記オブジェクトを含む所定範囲の画像を生成する平面画像生成手段と、前記平面画像生成手段の生成した前記仮想2次元空間の画像を、前記オブジェクトを中心として前記表示手段とは異なる第2表示手段に表示させる平面画像表示制御手段とをさらに備えていてもよい。この場合において、前記座標位置入力手段は、前記第2表示手段の前面に配設され、該第2表示手段に表示された画像を透過可能に示すタッチパネルとすることができる。   The image generation apparatus according to the first and second aspects includes the object in the virtual two-dimensional space set on a plane perpendicular to the height direction of the virtual three-dimensional space at least within the height of the object. A plane image generating unit that generates an image of a predetermined range including the plane, and a plane that displays the image in the virtual two-dimensional space generated by the plane image generating unit on a second display unit that is different from the display unit with the object as a center. An image display control unit may be further provided. In this case, the coordinate position input means may be a touch panel that is disposed in front of the second display means and shows an image displayed on the second display means so as to be transparent.

ここでは、操作者は、第2表示手段に表示されているオブジェクトの位置を基準として座標位置入力手段から座標位置を入力することができるようになるので、オブジェクトに所望の動作をさせるために入力すべき座標位置が操作者に分かり易いものとなる。   Here, the operator can input the coordinate position from the coordinate position input means with reference to the position of the object displayed on the second display means. The coordinate position to be made is easy for the operator to understand.

上記第1、第2の観点にかかる画像生成装置は、前記座標位置入力手段以外とは別に、操作者の操作に応じて前記オブジェクトの動作に関する指示を入力する動作入力手段をさらに備えていてもよい。この場合において、前記オブジェクト動作手段は、さらに前記動作入力手段から入力された指示に応じて前記オブジェクトを動作させることができる。   The image generating apparatus according to the first and second aspects may further include a motion input unit that inputs an instruction related to the motion of the object in accordance with an operation of the operator, in addition to the coordinate position input unit. Good. In this case, the object movement means can further move the object in accordance with an instruction input from the movement input means.

この場合には、座標位置入力手段からの座標位置の入力だけではく、動作入力手段からの入力によってオブジェクトを動作させることができるので、より豊富な動作態様でオブジェクトを動作させることができるようになる。   In this case, since the object can be operated not only by the input of the coordinate position from the coordinate position input means but also by the input from the motion input means, the object can be operated in a richer variety of motion modes. Become.

ここで、前記オブジェクト動作手段は、前記動作入力手段から操作者の指示が入力されたときに、前記座標位置入力手段から入力された座標位置に対応するモーションデータを用いた動作とは異なる態様で前記オブジェクトを動作させる手段を含むものとすることができ、前記オブジェクトが前記動作入力手段からの入力に基づく動作を停止したときに、前記モーションデータ記憶手段に記憶された複数のモーションデータのうちの特定のモーションデータを用いて、前記オブジェクトを動作させるものとすることができる。   Here, the object motion means is different from the motion using motion data corresponding to the coordinate position input from the coordinate position input means when an operator instruction is input from the motion input means. Means for moving the object, and when the object stops an action based on an input from the action input means, a specific one of the plurality of motion data stored in the motion data storage means The object can be moved using motion data.

この場合、オブジェクトが動作入力手段からの入力に基づく動作を停止したときに、そのままオブジェクトの動作を完全に停止させるのではなく、モーションデータを用いた動作をオブジェクトに行わせることができるものとなる。   In this case, when the object stops the motion based on the input from the motion input means, the motion of the object can be performed on the object instead of completely stopping the motion of the object as it is. .

上記第1、第2の観点にかかる画像生成装置は、前記仮想3次元空間に存在する複数のオブジェクトのうちで、モーションデータを用いて動作させるオブジェクトを切り替える動作オブジェクト切り替え手段をさらに備えていてもよい。この場合において、前記オブジェクト動作手段は、前記オブジェクト動作手段によりモーションデータを用いて動作させるオブジェクトが新たなオブジェクトに切り替えられたときに、前記モーションデータ記憶手段に記憶された複数のモーションデータのうちの特定のモーションデータを用いて、該新たに切り替えられたオブジェクトを動作させるものとすることができる。   The image generation apparatus according to the first and second aspects may further include an operation object switching unit that switches an object to be operated using motion data among a plurality of objects existing in the virtual three-dimensional space. Good. In this case, the object motion means may include a plurality of motion data stored in the motion data storage means when the object to be moved using the motion data is switched to a new object by the object motion means. The newly switched object can be operated using specific motion data.

この場合、モーションデータを用いて動作させるオブジェクトが切り替えられても、新たに切り替えられたオブジェクトを最初からモーションデータを用いて動作させることができるものとなる。   In this case, even if the object to be operated using the motion data is switched, the newly switched object can be operated using the motion data from the beginning.

上記目的を達成するため、本発明の第3の観点にかかる画像生成方法は、操作者の操作に応じて2次元平面上の任意の座標位置を入力する座標位置入力装置と、データを記憶する記憶装置と、画像を表示する表示装置とを備えるコンピュータ装置において実行され、仮想3次元空間に存在するオブジェクトを動作させた画像を生成する画像生成方法であって、前記オブジェクトの動作を規定する複数のモーションデータを、前記記憶装置に予め記憶させ、前記座標位置入力装置から座標位置が入力されたときまでの前記オブジェクトの動作と、該入力された座標位置に対応したモーションデータにより規定される動作の間に前記オブジェクトが行うつなぎ動作を規定するつなぎモーションデータを前記記憶装置に予め記憶させ、前記座標位置入力装置から入力された座標位置に基づいて、前記記憶装置に予め記憶された前記複数のモーションデータのうちから前記オブジェクトを動作させるためのモーションデータを決定し、該決定したモーションデータに関する決定情報を前記記憶装置に一時記憶させ、前記座標位置入力装置から座標位置が入力されたときに、該座標位置が入力されたときまでの前記オブジェクトの動作と該入力された座標位置とが所定の関係を有するかどうかを判定し、前記記憶装置に一時記憶された決定情報に対応したモーションデータを用いて、前記オブジェクトを動作させるステップとして、前記オブジェクトの動作と該入力された座標位置とが所定の関係を有すると判定されたときに、前記座標位置が入力されたときまでの前記オブジェクトの動作状態から移行して前記記憶装置に記憶されたつなぎモーションデータを用いて前記オブジェクトを動作させた後に、該つなぎモーションデータにより規定される動作から移行して前記座標位置入力装置から入力された座標位置に対応したモーションデータを用いて前記オブジェクトを動作させて、該動作に応じたオブジェクトの形態を順次前記記憶装置に一時記憶させ、前記記憶装置に一時記憶されている形態で前記オブジェクトを前記仮想3次元空間の所定の位置に設定された仮想カメラにより順次透視変換して、該オブジェクトの動作する画像を生成し、前記透視変換により生成した前記オブジェクトの動作する画像を前記表示装置に表示させることを特徴とする。 To achieve the above object, an image generation method according to a third aspect of the present invention stores a coordinate position input device that inputs an arbitrary coordinate position on a two-dimensional plane in accordance with an operation of an operator, and data. An image generation method for generating an image in which an object existing in a virtual three-dimensional space is operated, which is executed in a computer device including a storage device and a display device for displaying an image, and defines a plurality of operations of the object Motion data is stored in the storage device in advance, and the operation of the object until the coordinate position is input from the coordinate position input device, and the operation defined by the motion data corresponding to the input coordinate position The joint motion data defining the joint movement performed by the object during the period is stored in the storage device in advance, and the coordinate position Based on the coordinate position input from the force device, motion data for operating the object is determined from the plurality of motion data stored in advance in the storage device, and determination information regarding the determined motion data is determined. When the coordinate position is input from the coordinate position input device, the movement of the object until the coordinate position is input and the input coordinate position have a predetermined relationship. As a step of moving the object using motion data corresponding to the determination information temporarily stored in the storage device, the movement of the object and the input coordinate position have a predetermined relationship. The movement state of the object until the coordinate position is input After moving the object from the motion specified by the joint motion data, after moving the object using the joint motion data stored in the storage device and moving to the coordinate position input from the coordinate position input device. The object is operated using the corresponding motion data, and the forms of the objects corresponding to the movement are sequentially temporarily stored in the storage device, and the object is temporarily stored in the storage device in the virtual three-dimensional form. Perspective transformation is sequentially performed by a virtual camera set at a predetermined position in space to generate an image in which the object operates, and an image in which the object generated by the perspective conversion is displayed is displayed on the display device. And

上記目的を達成するため、本発明の第4の観点にかかるプログラムは、操作者の操作に応じて2次元平面上の任意の座標位置を入力する座標位置入力装置と、データを記憶する記憶装置と、画像を表示する表示装置とを備えるコンピュータ装置において実行され、該コンピュータ装置により仮想3次元空間に存在するオブジェクトを動作させた画像を生成するためのプログラムであって、前記記憶装置は、前記オブジェクトの動作を規定する複数のモーションデータを予め記憶し、前記プログラムは、前記座標位置入力装置から入力された座標位置に基づいて、前記複数のモーションデータのうちから前記オブジェクトを動作させるためのモーションデータを決定するモーションデータ決定手段、前記モーションデータ決定手段により決定されたモーションデータを用いて、前記オブジェクトを動作させるオブジェクト動作手段、前記オブジェクト動作手段により動作させられているオブジェクトを前記仮想3次元空間の所定の位置に設定された仮想カメラにより透視変換することにより、該オブジェクトの動作する画像を生成する動作画像生成手段、前記動作画像生成手段の生成した前記オブジェクトの動作する画像を表示手段に表示させる動作画像表示制御手段、前記座標位置入力装置から座標位置が入力されたときまでの前記オブジェクトの動作と、該入力された座標位置に対応したモーションデータにより規定される動作の間に前記オブジェクトが行うつなぎ動作を規定するつなぎモーションデータを前記記憶装置に記憶させるつなぎモーションデータ記憶手段、及び、前記座標位置入力装置から座標位置が入力されたときに、該座標位置が入力されたときまでの前記オブジェクトの動作と該入力された座標位置とが所定の関係を有するかどうかを判定する動作位置判定手段として前記コンピュータ装置を機能させ、前記オブジェクト動作手段は、前記動作位置判定手段により所定の関係を有すると判定されたときに、前記座標位置が入力されたときまでの前記オブジェクトの動作状態から移行して前記つなぎモーションデータ記憶手段により前記記憶装置に記憶されたつなぎモーションデータを用いて前記オブジェクトを動作させるつなぎ動作手段を含み、該つなぎ動作手段により前記オブジェクトを動作させた後に、該つなぎ動作手段による動作から移行して前記座標位置入力装置から入力された座標位置に対応したモーションデータを用いて前記オブジェクトを動作させることを特徴とする。 In order to achieve the above object, a program according to a fourth aspect of the present invention includes a coordinate position input device that inputs an arbitrary coordinate position on a two-dimensional plane in accordance with an operation by an operator, and a storage device that stores data. And a program for generating an image in which an object existing in a virtual three-dimensional space is operated by the computer device, the storage device comprising: A plurality of motion data for prescribing the motion of the object is stored in advance, and the program is a motion for operating the object from the plurality of motion data based on the coordinate position input from the coordinate position input device. Motion data determining means for determining data, determined by the motion data determining means By using the motion data, the object movement means for moving the object, the object operated by the object movement means is perspective-transformed by a virtual camera set at a predetermined position in the virtual three-dimensional space, A motion image generating means for generating an image in which the object moves, a motion image display control means for displaying on the display means a moving image of the object generated by the motion image generating means, and a coordinate position input from the coordinate position input device A linkage motion data that defines a linkage motion performed by the object between the motion of the object up to the time of the motion and the motion defined by the motion data corresponding to the input coordinate position is stored in the storage device. Motion data storage means and previous When the coordinate position is input from the coordinate position input device, it is determined whether or not the movement of the object until the coordinate position is input has a predetermined relationship with the input coordinate position. The computer apparatus functions as a means, and the object movement means shifts from the movement state of the object until the coordinate position is input when it is determined by the movement position determination means to have a predetermined relationship. And a connection operation means for operating the object using the connection motion data stored in the storage device by the connection motion data storage means, and after the object is operated by the connection operation means, the connection operation means. Transition from the operation by the coordinate position input from the coordinate position input device The object is moved using the corresponding motion data .

上記目的を達成するため、本発明の第5の観点にかかるコンピュータ読み取り可能な記録媒体は、操作者の操作に応じて2次元平面上の任意の座標位置を入力する座標位置入力装置と、データを記憶する記憶装置と、画像を表示する表示装置とを備えるコンピュータ装置において実行され、該コンピュータ装置により仮想3次元空間に存在するオブジェクトを動作させた画像を生成するためのプログラムを記録した記録媒体であって、前記記憶装置は、前記オブジェクトの動作を規定する複数のモーションデータを予め記憶し、前記プログラムは、前記座標位置入力装置から入力された座標位置に基づいて、前記複数のモーションデータのうちから前記オブジェクトを動作させるためのモーションデータを決定するモーションデータ決定手段、前記モーションデータ決定手段により決定されたモーションデータを用いて、前記オブジェクトを動作させるオブジェクト動作手段、前記オブジェクト動作手段により動作させられているオブジェクトを前記仮想3次元空間の所定の位置に設定された仮想カメラにより透視変換することにより、該オブジェクトの動作する画像を生成する動作画像生成手段、前記動作画像生成手段の生成した前記オブジェクトの動作する画像を表示手段に表示させる動作画像表示制御手段、前記座標位置入力装置から座標位置が入力されたときまでの前記オブジェクトの動作と、該入力された座標位置に対応したモーションデータにより規定される動作の間に前記オブジェクトが行うつなぎ動作を規定するつなぎモーションデータを前記記憶装置に記憶させるつなぎモーションデータ記憶手段、及び、前記座標位置入力装置から座標位置が入力されたときに、該座標位置が入力されたときまでの前記オブジェクトの動作と該入力された座標位置とが所定の関係を有するかどうかを判定する動作位置判定手段として前記コンピュータ装置を機能させ、前記オブジェクト動作手段は、前記動作位置判定手段により所定の関係を有すると判定されたときに、前記座標位置が入力されたときまでの前記オブジェクトの動作状態から移行して前記つなぎモーションデータ記憶手段により前記記憶装置に記憶されたつなぎモーションデータを用いて前記オブジェクトを動作させるつなぎ動作手段を含み、該つなぎ動作手段により前記オブジェクトを動作させた後に、該つなぎ動作手段による動作から移行して前記座標位置入力装置から入力された座標位置に対応したモーションデータを用いて前記オブジェクトを動作させることを特徴とする。 In order to achieve the above object, a computer-readable recording medium according to a fifth aspect of the present invention includes a coordinate position input device for inputting an arbitrary coordinate position on a two-dimensional plane in accordance with an operation by an operator, data A recording medium that stores a program for generating an image generated by operating an object that exists in a virtual three-dimensional space by a computer device that is executed in a computer device that includes a storage device that stores image data and a display device that displays an image The storage device stores in advance a plurality of motion data defining the motion of the object, and the program stores the plurality of motion data based on the coordinate position input from the coordinate position input device. Motion data determining means for determining motion data for operating the object from inside Using the motion data determined by the motion data determination means, an object operation means for operating the object, and a virtual object in which the object operated by the object operation means is set at a predetermined position in the virtual three-dimensional space Action image generation means for generating an image in which the object moves by performing perspective transformation with a camera, action image display control means for causing the display means to display an action image of the object generated by the action image generation means, the coordinates Joint motion data that defines a joint motion performed by the object between the motion of the object until the coordinate position is input from the position input device and the motion defined by the motion data corresponding to the input coordinate position. Is stored in the storage device. When a coordinate position is input from the link motion data storage means and the coordinate position input device, the movement of the object until the coordinate position is input and the input coordinate position have a predetermined relationship. When the coordinate position is input when the computer device functions as an operation position determination unit that determines whether or not the object operation unit determines that the object operation unit has a predetermined relationship by the operation position determination unit Transition operation means for moving the object using the connection motion data stored in the storage device by the connection motion data storage means after shifting from the operation state of the object up to and including the object by the connection operation means. After the operation, the operation is shifted from the operation by the connecting operation means. The object is operated using motion data corresponding to a coordinate position input from a coordinate position input device .

上記目的を達成するため、本発明の第6の観点にかかる画像生成方法は、操作者の操作に応じて2次元平面上の任意の座標位置を入力する座標位置入力装置と、データを記憶する記憶装置と、画像を表示する表示装置とを備えるコンピュータ装置において実行され、仮想3次元空間に存在するオブジェクトを動作させた画像を生成する画像生成方法であって、操作者の操作に応じて2次元平面上の任意の座標位置を入力する座標位置入力装置と、データを記憶する記憶装置と、画像を表示する表示装置とを備えるコンピュータ装置において実行され、仮想3次元空間に存在するオブジェクトを動作させた画像を生成する画像生成方法であって、前記オブジェクトの動作を規定する複数のモーションデータを、前記記憶装置に予め記憶させ、前記座標位置入力装置から先に入力された第1の座標位置に対応したモーションデータにより規定される動作と、前記第1の座標位置の次に入力された第2の座標位置に対応したモーションデータにより規定される動作との間に前記オブジェクトが行うつなぎ動作を規定するつなぎモーションデータを前記記憶装置に予め記憶させ、前記座標位置入力装置から入力された座標位置に基づいて、前記記憶装置に予め記憶された前記複数のモーションデータのうちから前記オブジェクトを動作させるためのモーションデータを決定し、該決定したモーションデータに関する決定情報を前記記憶装置に一時記憶させ、前記第1の座標位置と前記第2の座標位置とが所定の関係を有するかどうかを判定し、前記記憶装置に一時記憶された決定情報に対応したモーションデータを用いて、前記オブジェクトを動作させるステップとして、前記第1の座標位置と前記第2の座標位置とが所定の関係を有すると判定されたときには、前記第1の座標位置に対応したモーションデータにより規定される前記オブジェクトの動作から移行して前記記憶装置に記憶されたつなぎモーションデータを用いて前記オブジェクトを動作させた後に、該つなぎモーションデータにより規定される動作から移行して前記第2の座標位置に対応したモーションデータを用いて前記オブジェクトを動作させて、該動作に応じたオブジェクトの形態を順次前記記憶装置に一時記憶させ、前記記憶装置に一時記憶されている形態で前記オブジェクトを前記仮想3次元空間の所定の位置に設定された仮想カメラにより順次透視変換して、該オブジェクトの動作する画像を生成し、前記透視変換により生成した前記オブジェクトの動作する画像を前記表示装置に表示させることを特徴とする。 In order to achieve the above object, an image generation method according to a sixth aspect of the present invention stores a coordinate position input device that inputs an arbitrary coordinate position on a two-dimensional plane in accordance with an operation by an operator, and data. An image generation method that is executed in a computer device including a storage device and a display device that displays an image, and generates an image in which an object existing in a virtual three-dimensional space is operated. An object that is executed in a computer device including a coordinate position input device that inputs an arbitrary coordinate position on a three-dimensional plane, a storage device that stores data, and a display device that displays an image, operates in a virtual three-dimensional space. an image generation method for generating an image by a plurality of motion data defining the behavior of the object, advance were stored in the storage device, before According to the motion defined by the motion data corresponding to the first coordinate position previously input from the coordinate position input device and the motion data corresponding to the second coordinate position input next to the first coordinate position. Connection motion data that defines a joint motion performed by the object between the prescribed motions is stored in the storage device in advance, and stored in the storage device in advance based on the coordinate position input from the coordinate position input device. Motion data for operating the object is determined from the plurality of motion data, the determination information regarding the determined motion data is temporarily stored in the storage device, and the first coordinate position and the second coordinate data are stored in the storage device . and coordinate position determining whether a predetermined relationship, corresponding to the temporarily stored determined information in the storage device Motion data using, as a step of Ru to operate the object, corresponding to said first coordinate position when the second coordinate position and is determined to have a predetermined relationship, wherein the first coordinate positions After moving from the motion of the object defined by the motion data and operating the object using the joint motion data stored in the storage device, the transition from the motion defined by the joint motion data is performed. The object is operated using the motion data corresponding to the second coordinate position, and the form of the object corresponding to the movement is temporarily stored in the storage device sequentially, and the form is temporarily stored in the storage device. Sequential perspective transformation of objects by a virtual camera set at a predetermined position in the virtual three-dimensional space Then, the moving image of the object is generated, and the moving image of the object generated by the perspective transformation is displayed on the display device.

上記目的を達成するため、本発明の第7の観点にかかるプログラムは、操作者の操作に応じて2次元平面上の任意の座標位置を入力する座標位置入力装置と、データを記憶する記憶装置と、画像を表示する表示装置とを備えるコンピュータ装置において実行され、該コンピュータ装置により仮想3次元空間に存在するオブジェクトを動作させた画像を生成するためのプログラムであって、前記記憶装置は、前記オブジェクトの動作を規定する複数のモーションデータを予め記憶し、前記プログラムは、前記座標位置入力装置から入力された座標位置に基づいて、前記複数のモーションデータのうちから前記オブジェクトを動作させるためのモーションデータを決定するモーションデータ決定手段、前記モーションデータ決定手段により決定されたモーションデータを用いて、前記オブジェクトを動作させるオブジェクト動作手段、前記オブジェクト動作手段により動作させられているオブジェクトを前記仮想3次元空間の所定の位置に設定された仮想カメラにより透視変換することにより、該オブジェクトの動作する画像を生成する動作画像生成手段前記動作画像生成手段の生成した前記オブジェクトの動作する画像を表示手段に表示させる動作画像表示制御手段、前記座標位置入力装置から先に入力された第1の座標位置に対応したモーションデータにより規定される動作と、前記第1の座標位置の次に入力された第2の座標位置に対応したモーションデータにより規定される動作との間に前記オブジェクトが行うつなぎ動作を規定するつなぎモーションデータを前記記憶装置に記憶させるつなぎモーションデータ記憶手段、及び、前記第1の座標位置と前記第2の座標位置とが所定の関係を有するかどうかを判定する座標位置判定手段として前記コンピュータ装置を機能させ、前記オブジェクト動作手段は、前記座標位置判定手段により所定の関係を有すると判定されたときに、前記第1の座標位置に対応したモーションデータにより規定される前記オブジェクトの動作から移行して前記つなぎモーションデータ記憶手段により前記記憶装置に記憶されたつなぎモーションデータを用いて前記オブジェクトを動作させるつなぎ動作手段を含み、該つなぎ動作手段により前記オブジェクトを動作させた後に、該つなぎ動作手段による動作から移行して前記第2の座標位置に対応したモーションデータを用いて前記オブジェクトを動作させることを特徴とする。 In order to achieve the above object, a program according to a seventh aspect of the present invention includes a coordinate position input device that inputs an arbitrary coordinate position on a two-dimensional plane in accordance with an operation by an operator, and a storage device that stores data. And a program for generating an image in which an object existing in a virtual three-dimensional space is operated by the computer device, the storage device comprising: A plurality of motion data for prescribing the motion of the object is stored in advance, and the program is a motion for operating the object from the plurality of motion data based on the coordinate position input from the coordinate position input device. Motion data determining means for determining data, determined by the motion data determining means By using the motion data, the object movement means for moving the object, the object operated by the object movement means is perspective-transformed by a virtual camera set at a predetermined position in the virtual three-dimensional space, A motion image generating means for generating an image in which the object operates, a motion image display control means for displaying on the display means a moving image of the object generated by the motion image generating means , and input from the coordinate position input device first. Between the operation defined by the motion data corresponding to the first coordinate position and the operation defined by the motion data corresponding to the second coordinate position input next to the first coordinate position. The storage device stores connection motion data defining connection operations performed by an object. The computer apparatus functions as a linkage motion data storage means for storing, and a coordinate position determination means for determining whether or not the first coordinate position and the second coordinate position have a predetermined relationship, and the object operation The means shifts from the motion of the object defined by the motion data corresponding to the first coordinate position when the coordinate position determination means determines that the coordinate position determination means has a predetermined relationship, and the connection motion data storage means A connection operation means for operating the object using the connection motion data stored in the storage device, and after the object is operated by the connection operation means, the operation is shifted from the operation by the connection operation means. 2 using the motion data corresponding to the coordinate position of 2. It is characterized by operating the project .

上記目的を達成するため、本発明の第8の観点にかかるコンピュータ読み取り可能な記録媒体は、操作者の操作に応じて2次元平面上の任意の座標位置を入力する座標位置入力装置と、データを記憶する記憶装置と、画像を表示する表示装置とを備えるコンピュータ装置において実行され、該コンピュータ装置により仮想3次元空間に存在するオブジェクトを動作させた画像を生成するためのプログラムを記録した記録媒体であって、前記記憶装置は、前記オブジェクトの動作を規定する複数のモーションデータを予め記憶し、前記プログラムは、前記座標位置入力装置から入力された座標位置に基づいて、前記複数のモーションデータのうちから前記オブジェクトを動作させるためのモーションデータを決定するモーションデータ決定手段、前記モーションデータ決定手段により決定されたモーションデータを用いて、前記オブジェクトを動作させるオブジェクト動作手段、前記オブジェクト動作手段により動作させられているオブジェクトを前記仮想3次元空間の所定の位置に設定された仮想カメラにより透視変換することにより、該オブジェクトの動作する画像を生成する動作画像生成手段前記動作画像生成手段の生成した前記オブジェクトの動作する画像を表示手段に表示させる動作画像表示制御手段、前記座標位置入力装置から先に入力された第1の座標位置に対応したモーションデータにより規定される動作と、前記第1の座標位置の次に入力された第2の座標位置に対応したモーションデータにより規定される動作との間に前記オブジェクトが行うつなぎ動作を規定するつなぎモーションデータを前記記憶装置に記憶させるつなぎモーションデータ記憶手段、及び、前記第1の座標位置と前記第2の座標位置とが所定の関係を有するかどうかを判定する座標位置判定手段として前記コンピュータ装置を機能させ、前記オブジェクト動作手段は、前記座標位置判定手段により所定の関係を有すると判定されたときに、前記第1の座標位置に対応したモーションデータにより規定される前記オブジェクトの動作から移行して前記つなぎモーションデータ記憶手段により前記記憶装置に記憶されたつなぎモーションデータを用いて前記オブジェクトを動作させるつなぎ動作手段を含み、該つなぎ動作手段により前記オブジェクトを動作させた後に、該つなぎ動作手段による動作から移行して前記第2の座標位置に対応したモーションデータを用いて前記オブジェクトを動作させることを特徴とする。 In order to achieve the above object, a computer-readable recording medium according to an eighth aspect of the present invention includes a coordinate position input device for inputting an arbitrary coordinate position on a two-dimensional plane in accordance with an operation by an operator, data A recording medium that stores a program for generating an image generated by operating an object that exists in a virtual three-dimensional space by a computer device that is executed in a computer device that includes a storage device that stores image data and a display device that displays an image The storage device stores in advance a plurality of motion data defining the motion of the object, and the program stores the plurality of motion data based on the coordinate position input from the coordinate position input device . Motion data determining means for determining motion data for operating the object from inside Using the motion data determined by the motion data determination means, an object operation means for operating the object, and a virtual object in which the object operated by the object operation means is set at a predetermined position in the virtual three-dimensional space by perspective transformation by the camera, the operation image generating means for generating an image to be operation of the object, operation image display control means for displaying the operation image of the generated said object on a display unit of the operation image generating means, the coordinates Defined by motion data corresponding to the first coordinate position previously input from the position input device and motion data corresponding to the second coordinate position input next to the first coordinate position The joint action performed by the object between As connection motion data storage means for storing connection motion data in the storage device, and as coordinate position determination means for determining whether or not the first coordinate position and the second coordinate position have a predetermined relationship, When the computer apparatus is made to function and the object movement means determines that the coordinate position determination means has a predetermined relationship, the object movement means starts from the movement of the object specified by the motion data corresponding to the first coordinate position. A connection operation means for operating the object using the connection motion data stored in the storage device by the connection motion data storage means, and after the object is operated by the connection operation means, the connection operation Shift from the operation by the means to the second coordinate position. The object is operated using corresponding motion data .

本発明の実施の形態に適用されるゲーム装置の構成を示す外観図である。It is an external view which shows the structure of the game device applied to embodiment of this invention. 本発明の実施の形態に適用されるゲーム装置の回路構成を示すブロック図である。It is a block diagram which shows the circuit structure of the game device applied to embodiment of this invention. 本発明の実施の形態にかかるバスケットボールゲームにおける表示画面の例を示す図である。It is a figure which shows the example of the display screen in the basketball game concerning embodiment of this invention. プレイヤキャラクタがコート上の任意の位置に停止してドリブルを行う場合におけるモーションブレンドの説明図である。It is explanatory drawing of the motion blend in case a player character stops at the arbitrary positions on a court and performs dribbling. ボールをドリブルする手の切り替えについての説明図である。It is explanatory drawing about switching of the hand which dribbling a ball | bowl. つなぎモーションについての説明図である。It is explanatory drawing about a connection motion. ボールをドリブルする位置とプレイヤキャラクタの移動速度との関係を示す説明図である。It is explanatory drawing which shows the relationship between the position which dribbles a ball | bowl, and the moving speed of a player character. 通常ターンとクイックターンの説明図である。It is explanatory drawing of a normal turn and a quick turn. 本発明の実施の形態にかかるバスケットボールゲームにおいて、プレイヤチームがオフェンス側のときにプレイヤキャラクタを動作させるための処理を示すフローチャートである。In the basketball game concerning an embodiment of the invention, it is a flow chart which shows processing for operating a player character when a player team is an offense side. 図9のタッチ時処理を詳細に示すフローチャートである。It is a flowchart which shows the process at the time of a touch of FIG. 9 in detail. 図9の方向入力時処理を詳細に示すフローチャートである。10 is a flowchart showing in detail the direction input processing of FIG. 9.

以下、添付図面を参照して、本発明の実施の形態について説明する。   Embodiments of the present invention will be described below with reference to the accompanying drawings.

図1は、この実施の形態に適用されるゲーム装置1の構成を示す外観図である。ここでは、ゲーム装置1の一例として、携帯ゲーム装置を示す。図1において、ゲーム装置1は、2つの液晶表示器(LCD)11および12を所定の配置位置となるように、ハウジング18に収納して構成される。   FIG. 1 is an external view showing a configuration of a game apparatus 1 applied to this embodiment. Here, a portable game device is shown as an example of the game device 1. In FIG. 1, the game apparatus 1 is configured by housing two liquid crystal displays (LCDs) 11 and 12 in a housing 18 so as to be in a predetermined arrangement position.

第1液晶表示器(以下、「LCD」という)11および第2LCD12を互いに上下に配置して収納する場合は、ハウジング18が下部ハウジング18aおよび上部ハウジング18bから構成され、上部ハウジング18bが下部ハウジング18aの上辺の一部で回動自在に支持される。上部ハウジング18bは、第1LCD11の平面形状よりも少し大きな平面形状を有し、一方主面から第1LCD11の表示画面を露出するように開口部が形成される。下部ハウジング18aは、その平面形状が上部ハウジング18bよりも横長に選ばれ、横方向の略中央部に第2LCD12の表示画面を露出する開口部が形成され、第2LCD12を挟む何れか一方にスピーカ15の音抜き孔が形成されるとともに、第2LCD12を挟む左右に操作スイッチ部14が装着される。   In the case where the first liquid crystal display (hereinafter referred to as “LCD”) 11 and the second LCD 12 are accommodated one above the other, the housing 18 includes a lower housing 18a and an upper housing 18b, and the upper housing 18b is the lower housing 18a. It is supported rotatably at a part of the upper side. The upper housing 18b has a planar shape slightly larger than the planar shape of the first LCD 11, and an opening is formed so as to expose the display screen of the first LCD 11 from one main surface. The lower housing 18a has a planar shape that is longer than that of the upper housing 18b, an opening that exposes the display screen of the second LCD 12 is formed in a substantially central portion in the horizontal direction, and the speaker 15 is sandwiched between either of the two LCDs 12. The sound switch hole 14 is formed, and the operation switch unit 14 is mounted on the left and right sides of the second LCD 12.

操作スイッチ部14は、第2LCD12の右横における下部ハウジング18aの一方主面に装着される動作スイッチ(Aボタン)14aおよび動作スイッチ(Bボタン)14bと、第2LCD12の左横における下部ハウジング18aの一方主面に装着される方向指示スイッチ(十字キー)14cと、スタートスイッチ14dと、セレクトスイッチ14eと、側面スイッチ14fおよび14gとを含む。   The operation switch unit 14 includes an operation switch (A button) 14a and an operation switch (B button) 14b mounted on one main surface of the lower housing 18a on the right side of the second LCD 12, and a lower housing 18a on the left side of the second LCD 12. On the other hand, it includes a direction indicating switch (cross key) 14c mounted on the main surface, a start switch 14d, a select switch 14e, and side switches 14f and 14g.

動作スイッチ14aおよび14bは、例えば、この実施の形態で適用されるバスケットボールゲームにおいてはパスやシュートを行う等の指示の入力に使用される。方向指示スイッチ14cは、プレイヤによって操作スイッチ部14を用いて操作可能なプレイヤオブジェクト(この実施の形態では、プレイヤキャラクタ)の移動方向を指示したり、カーソルの移動方向を指示したりする等のゲーム画面における方向指示に用いられる。側面スイッチ(Lボタン)14fおよび側面スイッチ(Rボタン)14gは、下部ハウジング18aにおける上部面(上部側面)の左右に設けられる。方向指示スイッチ14cは、十字キーにより構成されているが、十字の互いに隣接する2つのキー(上と右、右と下、下と左、左と上)は、同時操作可能であり、単独のキーの操作による上、下、左及び右の入力と、隣接するキーの同時操作による右上、右下、左上、左下の合計8方向の入力を行うことができる。   For example, in the basketball game applied in this embodiment, the motion switches 14a and 14b are used for inputting instructions such as passing or shooting. The direction instruction switch 14c is a game for instructing the moving direction of a player object (in this embodiment, a player character) that can be operated by the player using the operation switch unit 14, or instructing the moving direction of the cursor. Used for direction indication on the screen. The side switch (L button) 14f and the side switch (R button) 14g are provided on the left and right of the upper surface (upper side surface) of the lower housing 18a. The direction indicating switch 14c is configured by a cross key, but two adjacent keys of the cross (up and right, right and down, down and left, and left and up) can be operated simultaneously, and are independent. Up, down, left, and right inputs can be performed by operating keys, and input can be performed in a total of eight directions, including upper right, lower right, upper left, and lower left by simultaneous operation of adjacent keys.

第2LCD12の上面には、タッチパネル13(図1における破線領域)が装着される。タッチパネル13は、例えば、抵抗膜方式、光学式(赤外線方式)、静電容量結合式の何れの種類でもよく、その上面をスティック16(または指でも可)で押圧操作、移動操作、または撫でる操作をしたとき、スティック16の座標位置を検出して出力するものである。この実施の形態で適用されるバスケットボールゲームでは、タッチパネル13は、プレイヤキャラクタがボールをドリブルしているときに、そのドリブルする位置を入力するために使用される。   On the upper surface of the second LCD 12, a touch panel 13 (broken line area in FIG. 1) is attached. The touch panel 13 may be, for example, any of a resistive film type, an optical type (infrared type), and a capacitive coupling type, and an operation of pressing, moving, or stroking the upper surface with a stick 16 (or a finger). In this case, the coordinate position of the stick 16 is detected and output. In the basketball game applied in this embodiment, the touch panel 13 is used to input a dribbling position when the player character is dribbling the ball.

上部ハウジング18bの側面近傍には、必要に応じてタッチパネル13を操作するスティック16を収納するための収納孔(図1における二点破線領域)が形成される。この収納孔には、スティック16が収納される。下部ハウジング18aの側面の一部には、ゲームプログラムを記憶したメモリ(例えば、ROM)を内蔵したゲームカートリッジ17(以下、単にカートリッジ17と記載する)を着脱自在に装着するためのカートリッジ挿入部(図1における一点破線領域)が形成される。カートリッジ17は、ゲームプログラムを記憶する情報記憶媒体であり、例えば、ROMまたはフラッシュメモリのような不揮発性半導体メモリが用いられる。カートリッジ挿入部の内部には、カートリッジ17と電気的に接続するためのコネクタ(図2参照)が内蔵される。さらに、下部ハウジング18a(または上部ハウジング18bでも可)には、CPU等の各種電子部品を実装した電子回路基板が収納される。   In the vicinity of the side surface of the upper housing 18b, a storage hole (a two-dot broken line region in FIG. 1) for storing the stick 16 for operating the touch panel 13 as necessary is formed. The stick 16 is stored in the storage hole. In a part of the side surface of the lower housing 18a, a cartridge insertion portion (for inserting a game cartridge 17 (hereinafter simply referred to as a cartridge 17) having a built-in memory (for example, ROM) storing a game program in a detachable manner. A one-dot broken line region in FIG. 1) is formed. The cartridge 17 is an information storage medium for storing a game program, and for example, a nonvolatile semiconductor memory such as a ROM or a flash memory is used. A connector (see FIG. 2) for electrical connection with the cartridge 17 is built in the cartridge insertion portion. Furthermore, an electronic circuit board on which various electronic components such as a CPU are mounted is accommodated in the lower housing 18a (or the upper housing 18b).

次に、ゲーム装置1の回路構成について説明する。図2は、ゲーム装置1の回路構成を示すブロック図である。図2において、ハウジング18に収納される電子回路基板には、CPUコア21が実装される。CPUコア21には、所定のバスを介して、カートリッジ17と接続するためのコネクタ28が接続されるとともに、入出力インターフェース(I/F)回路27、第1のグラフィック処理ユニット(第1GPU)24、第2のグラフィック処理ユニット(第2GPU)26、およびワーキングRAM(WRAM)22が接続される。   Next, the circuit configuration of the game apparatus 1 will be described. FIG. 2 is a block diagram showing a circuit configuration of the game apparatus 1. In FIG. 2, a CPU core 21 is mounted on the electronic circuit board housed in the housing 18. A connector 28 for connecting to the cartridge 17 is connected to the CPU core 21 via a predetermined bus, an input / output interface (I / F) circuit 27, and a first graphic processing unit (first GPU) 24. A second graphics processing unit (second GPU) 26 and a working RAM (WRAM) 22 are connected.

コネクタ28には、カートリッジ17が着脱自在に接続される。カートリッジ17は、上述したようにゲームプログラムを格納するための記憶媒体であり、具体的には、ゲームプログラムを記憶するROM171とバックアップデータを書き換え可能に記憶するRAM172とを搭載する。カートリッジ17のROM171に記憶されたゲームプログラムは、WRAM22にロードされ、当該WRAM22にロードされたゲームプログラムがCPUコア21によって実行される。CPUコア21がゲームプログラムを実行して得られる一時的なデータや画像を生成するためのデータがWRAM22に記憶される。ROM171には、ゲーム装置1のコンピュータ、特にCPUコア21によって実行可能な形式の命令群及びデータ群であるゲームプログラムが記録される。そして、このゲームプログラムは、WRAM22に適宜読み込まれ実行される。   The cartridge 17 is detachably connected to the connector 28. The cartridge 17 is a storage medium for storing the game program as described above. Specifically, the cartridge 17 includes a ROM 171 for storing the game program and a RAM 172 for storing backup data in a rewritable manner. The game program stored in the ROM 171 of the cartridge 17 is loaded into the WRAM 22, and the game program loaded into the WRAM 22 is executed by the CPU core 21. Temporary data obtained by the CPU core 21 executing the game program and data for generating an image are stored in the WRAM 22. The ROM 171 stores a game program that is a group of instructions and a group of data that can be executed by the computer of the game apparatus 1, particularly the CPU core 21. The game program is read into the WRAM 22 as appropriate and executed.

第1GPU24には、第1ビデオRAM(以下「VRAM」)23が接続され、第2GPU26には、第2のビデオRAM(以下「VRAM」)25が接続される。第1GPU24は、CPUコア21からの指示に応じて、WRAM22に記憶される画像を生成するためのデータに基づいて第1ゲーム画像を生成し、第1VRAM23に描画する。第2GPU26は、CPUコア21からの指示に応じて、WRAM22に記憶される画像を生成するためのデータに基づいて第2ゲーム画像を生成し、第2VRAM25に描画する。   A first video RAM (hereinafter “VRAM”) 23 is connected to the first GPU 24, and a second video RAM (hereinafter “VRAM”) 25 is connected to the second GPU 26. In response to an instruction from the CPU core 21, the first GPU 24 generates a first game image based on data for generating an image stored in the WRAM 22 and draws it in the first VRAM 23. In response to an instruction from the CPU core 21, the second GPU 26 generates a second game image based on data for generating an image stored in the WRAM 22 and draws it in the second VRAM 25.

第1GPU24が第1LCD11に接続され、第2GPU26が第2LCD12に接続される。第1GPU24は、CPUコア21からの指示に応じて第1VRAM23に描画された第1ゲーム画像を第1LCD11に出力する。そして、第1LCD11は、第1GPU24から出力された第1ゲーム画像を表示する。第2GPU26は、CPUコア21からの指示に応じて第2VRAM25に描画された第2ゲーム画像を第2LCD12に出力する。そして、第2LCD12は、第2GPU26から出力された第2ゲーム画像を表示する。   The first GPU 24 is connected to the first LCD 11, and the second GPU 26 is connected to the second LCD 12. The first GPU 24 outputs the first game image drawn in the first VRAM 23 in response to an instruction from the CPU core 21 to the first LCD 11. Then, the first LCD 11 displays the first game image output from the first GPU 24. The second GPU 26 outputs the second game image drawn in the second VRAM 25 in response to an instruction from the CPU core 21 to the second LCD 12. Then, the second LCD 12 displays the second game image output from the second GPU 26.

I/F回路27には、タッチパネル13、操作スイッチ部14、およびスピーカ15が接続される。I/F回路27は、タッチパネル13、操作スイッチ部14、およびスピーカ15等の外部入出力装置とCPUコア21との間のデータの受け渡しを行う回路である。スピーカ15は、上述した音抜き孔の内側位置に配置され、実行中のゲームに応じて生成される音声を出力する。   The touch panel 13, the operation switch unit 14, and the speaker 15 are connected to the I / F circuit 27. The I / F circuit 27 is a circuit that exchanges data between the CPU core 21 and an external input / output device such as the touch panel 13, the operation switch unit 14, and the speaker 15. The speaker 15 is disposed at an inner position of the above-described sound release hole, and outputs a sound generated according to the game being executed.

タッチパネル13(タッチパネル用のデバイスドライバを含む)は、第2VRAM25の座標系に対応する座標系を有し、スティック16等によって入力(指示)された位置に対応する座標データをWRAM22に設けられる所定のレジスタに出力するものである。例えば、第2LCD12の表示画面の解像度は256dot×192dotであり、タッチパネル13の検出精度も表示画面に対応した256dot×192dotである。なお、タッチパネル13の検出精度は、第2LCD12の表示画面の解像度よりも低いものであってもよいし、高いものであってもよい。   The touch panel 13 (including a device driver for the touch panel) has a coordinate system corresponding to the coordinate system of the second VRAM 25, and coordinate data corresponding to a position input (instructed) by the stick 16 or the like is provided in the WRAM 22 It is output to the register. For example, the resolution of the display screen of the second LCD 12 is 256 dots × 192 dots, and the detection accuracy of the touch panel 13 is also 256 dots × 192 dots corresponding to the display screen. The detection accuracy of the touch panel 13 may be lower or higher than the resolution of the display screen of the second LCD 12.

以下、この実施の形態において、図1、図2に示したゲーム装置1で実行されるゲームについて説明する。この実施の形態にかかるゲームは、プレイヤチームのキャラクタと、相手チームのキャラクタとがバスケットボールの試合を行うバスケットボールゲームである。プレイヤチームがオフェンス側にあるときには、通常は、プレイヤチームのキャラクタのうちで実際にボールを所持しているキャラクタがプレイヤからの指示に応じて動作するプレイヤキャラクタとなる。すなわち、プレイヤキャラクタは、ゲームの進行状況に応じて変わることがある。   Hereinafter, in this embodiment, a game executed by the game apparatus 1 shown in FIGS. 1 and 2 will be described. The game according to this embodiment is a basketball game in which a player team character and an opponent team character play a basketball game. When the player team is on the offense side, the character that actually owns the ball among the characters of the player team is usually a player character that moves in response to an instruction from the player. That is, the player character may change depending on the progress of the game.

プレイヤキャラクタを含むプレイヤチームの各キャラクタ、相手チームの各キャラクタは、仮想3次元空間に形成されたバスケットボールコート(以下、単に「コート」という)上に存在しており、ゲームの進行状況に応じてコート上で動作する。仮想3次元空間に形成されたコート上には、ボールも存在し、それぞれのキャラクタの動作によってコート上でボールを運んで、敵チーム(プレイヤチームにとっては相手チーム)のゴールにボールを入れることで得点となる。   Each character of the player team including the player character and each character of the opponent team exist on a basketball court (hereinafter simply referred to as “court”) formed in a virtual three-dimensional space, and depending on the progress of the game Works on the court. Balls also exist on the court formed in the virtual three-dimensional space, and the ball is carried on the court by the action of each character, and put into the goal of the enemy team (the opponent team for the player team). Score.

プレイヤチームの他のキャラクタの動作は、ボールやプレイヤキャラクタの動きに応じてゲーム装置1のCPUコア21により制御される。相手チームのキャラクタの動作は、全てゲーム装置1のCPUコア21により制御される。なお、プレイヤチームがディフェンス側にあるとき、或いはルーズボールとなっているときには、ボールの位置や相手チームのキャラクタの位置などによってプレイヤキャラクタが決定され、プレイヤからの指示により動作させられることとなるが、これについては本発明と直接的に関わりがないので説明を省略する。   The movement of other characters of the player team is controlled by the CPU core 21 of the game apparatus 1 in accordance with the movement of the ball or the player character. The actions of the characters of the opponent team are all controlled by the CPU core 21 of the game apparatus 1. When the player team is on the defense side or is a loose ball, the player character is determined based on the position of the ball, the position of the character of the opponent team, etc., and is operated according to an instruction from the player. Since this is not directly related to the present invention, the description thereof is omitted.

図3は、この実施の形態にかかるバスケットボールゲームにおいて、プレイヤチームがオフェンス側にあるときの表示画面の例を示す図である。図3(a)に示すように、第1LCD11には、ボール110を所持している(ここでは、ドリブルしている)プレイヤキャラクタ100を参照点とし、所定の位置に視点の設定された仮想カメラによりコートを含む仮想3次元空間を透視変換した画像が表示される。プレイヤキャラクタ100以外のプレイヤチームのキャラクタ101〜104、及び相手チームのキャラクタ121〜125は、プレイヤキャラクタ100を基準とした透視変換される範囲に存在すれば、第1LCD11に表示される。   FIG. 3 is a diagram showing an example of a display screen when the player team is on the offense side in the basketball game according to this embodiment. As shown in FIG. 3A, the first LCD 11 has a virtual camera with a viewpoint set at a predetermined position with the player character 100 carrying the ball 110 (here, dribbling) as a reference point. Thus, an image obtained by perspective-transforming the virtual three-dimensional space including the coat is displayed. Characters 101 to 104 of the player team other than the player character 100 and characters 121 to 125 of the opponent team are displayed on the first LCD 11 if they exist in the range subject to the perspective transformation with the player character 100 as a reference.

仮想カメラの視点の位置は、プレイヤキャラクタ100がコート上での位置の移動を停止したとき、或いはパスなどを受けることにより新たなプレイヤキャラクタ100が設定されたときに、プレイヤキャラクタ100の背面側の方向(プレイヤキャラクタ100の基準方向であるルート100Rの方向と反対側の方向)の所定距離の位置に設定される(但し、視点とプレイヤキャラクタ100との間に障害物がない場合)。   The position of the viewpoint of the virtual camera is determined on the back side of the player character 100 when the player character 100 stops moving on the court or when a new player character 100 is set by receiving a pass or the like. The position is set at a predetermined distance in the direction (the direction opposite to the direction of the route 100R, which is the reference direction of the player character 100) (provided that there is no obstacle between the viewpoint and the player character 100).

プレイヤキャラクタ100は、後述するようにタッチパネル13のタッチによりボール110をドリブルする位置を変えることで、その向き(すなわち、ルート100Rの向き)を変えることがある。但し、ボール110をドリブルする位置の変化よりも向きの変化は小さい。後述するクイックターンの場合を除いて、プレイヤキャラクタ100のコート上の位置が変わらなければ、視点の位置が変わることはない。方向指示スイッチ14cの操作によりプレイヤキャラクタ100がコート上で移動すれば、その移動に追随して視点の位置が移動する。後述するクイックターンの際も、ターン後のプレイヤキャラクタ100の背面側の方向に視点の位置が移動する。   The player character 100 may change its direction (that is, the direction of the route 100R) by changing the position where the ball 110 is dribbling by touching the touch panel 13 as described later. However, the direction change is smaller than the change in the position where the ball 110 is dribbling. Unless the position of the player character 100 on the court does not change except in the case of a quick turn described later, the viewpoint position does not change. If the player character 100 moves on the court by operating the direction indicating switch 14c, the viewpoint position moves following the movement. Also in the case of a quick turn described later, the position of the viewpoint moves in the direction of the back side of the player character 100 after the turn.

また、図3(b)に示すように、第2LCD12には、プレイヤキャラクタ100の位置を中心として、仮想3次元空間のx−z平面(y方向、すなわち高さ方向に垂直な平面)の画像が表示される。表示される範囲は、プレイヤキャラクタ100が中心となり、第1LCD11に画像を表示するための仮想カメラの視点の方向が下方向となる範囲に設定される。図3(a)の例では、ここでは、視点とプレイヤキャラクタ100とを結ぶ直線がコートの縦方向と一致しているため、第2LCD12の表示範囲は、図3(b)に示すようなものとなる。この表示範囲に存在するキャラクタのうちでプレイチームのキャラクタ(プレイヤキャラクタ100を含む)100〜104は白丸で、相手チームのキャラクタ121〜125は黒丸で、コート上における位置が示される。   As shown in FIG. 3B, the second LCD 12 has an image of an xz plane (y direction, ie, a plane perpendicular to the height direction) of the virtual three-dimensional space with the position of the player character 100 as the center. Is displayed. The displayed range is set such that the player character 100 is the center and the viewpoint of the virtual camera for displaying the image on the first LCD 11 is in the downward direction. In the example of FIG. 3A, since the straight line connecting the viewpoint and the player character 100 matches the vertical direction of the court, the display range of the second LCD 12 is as shown in FIG. It becomes. Of the characters existing in this display range, the characters 100 to 104 of the play team (including the player character 100) are white circles, and the characters 121 to 125 of the opponent team are black circles, indicating the positions on the court.

第2LCD12の表示範囲の縦横方向は、必ずしもコートの縦横方向と一致しない。すなわち、参照点となるプレイヤキャラクタ100と仮想カメラの視点を結ぶ直線の方向に応じて表示範囲の縦横方向は、コートの縦横方向に対して傾くものとなる。方向指示スイッチ14cの入力方向(8方向)は、第2LCD12の表示方向に対応するものであり、方向指示スイッチ14cを操作したときのプレイヤキャラクタ100のコート上における移動方向は、表示範囲とコートとの傾き角に応じて決められるものとなる。   The vertical and horizontal directions of the display range of the second LCD 12 do not necessarily coincide with the vertical and horizontal directions of the coat. That is, the vertical and horizontal directions of the display range are inclined with respect to the vertical and horizontal directions of the court in accordance with the direction of a straight line connecting the player character 100 serving as the reference point and the viewpoint of the virtual camera. The input direction (eight directions) of the direction indicating switch 14c corresponds to the display direction of the second LCD 12, and the movement direction of the player character 100 on the court when the direction indicating switch 14c is operated includes the display range, the court, and the court. It is determined according to the inclination angle of.

次に、この実施の形態にかかるバスケットボールゲームにおいて、プレイヤチームがオフェンス側にあるときのプレイヤキャラクタ100の動作について説明する。この場合のプレイヤキャラクタ100の動作としては、コート上の任意の位置で停止してのボールのドリブル、ボール110をドリブルしながらのコート上の移動、プレイヤチームの他のキャラクタへのボールのパス(この場合、パスを受けたキャラクタが新たなプレイヤキャラクタ100となる)、シュートなどの動作がある。   Next, in the basketball game according to this embodiment, the operation of the player character 100 when the player team is on the offense side will be described. The actions of the player character 100 in this case include dribbling the ball stopped at an arbitrary position on the court, moving on the court while dribbling the ball 110, and passing the ball to another character on the player team ( In this case, the character that has received the pass becomes a new player character 100), and there are actions such as shooting.

プレイヤキャラクタ100がコート上の任意の位置で停止してボールをドリブルする場合について説明する。プレイヤキャラクタ100は、コート上の任意の位置に停止しているとき、モーションデータに従ってボール110をドリブルし続けている。プレイヤキャラクタ100の位置に対するボール110の位置は、タッチパネル13をタッチする位置に応じてプレイヤキャラクタ100の手が届く範囲において任意に切り替えられる。また、タッチパネル13をタッチする位置に応じてボール110をドリブルする手も切り替えられる。もっとも、ボール110の位置及びドリブルする手が変わるのは、タッチパネル13のタッチによりプレイヤキャラクタ100にドリブル動作するためのモーションデータが変わることによるものである。   A case where the player character 100 stops at an arbitrary position on the court and dribbles the ball will be described. When the player character 100 is stopped at an arbitrary position on the court, the player character 100 continues to dribble the ball 110 according to the motion data. The position of the ball 110 with respect to the position of the player character 100 is arbitrarily switched within the reach of the player character 100 according to the position where the touch panel 13 is touched. Further, the hand for dribbling the ball 110 can be switched according to the position where the touch panel 13 is touched. However, the change of the position of the ball 110 and the dribbling hand is due to the change of motion data for dribbling the player character 100 by touching the touch panel 13.

このようにタッチパネル13をタッチした位置に応じて任意の位置でボール110をドリブルできるため、タッチパネル13の位置毎にプレイヤキャラクタ100がボール110をドリブルする際のモーションデータを用意しておいたのでは、モーションデータのデータ量が膨大なものとなってしまう。そこで、この実施の形態にかかるバスケットボールゲームでは、タッチパネル13上の特定の座標位置(以下、特定座標)にのみ対応づけてモーションデータをROM171に書き込んでおき、これ以外の位置がタッチされたときには、タッチされた位置の座標に応じてROM171に記憶されたモーションデータをブレンドして、プレイヤキャラクタ100にドリブル動作させるためのモーションデータを生成するものとしている。   Since the ball 110 can be dribble at an arbitrary position according to the position touched on the touch panel 13 as described above, the motion data when the player character 100 dribbles the ball 110 is prepared for each position of the touch panel 13. The amount of motion data will be enormous. Therefore, in the basketball game according to this embodiment, motion data is written in the ROM 171 in association with only specific coordinate positions (hereinafter referred to as specific coordinates) on the touch panel 13, and when other positions are touched, Motion data stored in the ROM 171 is blended according to the coordinates of the touched position, and motion data for causing the player character 100 to perform a dribbling motion is generated.

図4は、プレイヤキャラクタ100がコート上の任意の位置に停止してドリブルを行う場合におけるモーションブレンドの説明図である。プレイヤキャラクタ100は右手でも左手でもボール110をドリブルすることができるが、図4は、右手でドリブルを行う場合のモーションブレンドを説明するものである。左手でドリブルを行う場合は、図4の左右を反転したパターンとして考えればよいこととなる。   FIG. 4 is an explanatory view of motion blending when the player character 100 stops at an arbitrary position on the court and performs dribbling. Although the player character 100 can dribble the ball 110 with either the right hand or the left hand, FIG. 4 illustrates motion blending when dribbling with the right hand. When dribbling with the left hand, it can be considered as an inverted pattern in FIG.

図4(a)に示すように、タッチパネル13上の領域は、(1)〜(9)の3行3列の9つのエリアに等間隔で区切られている。プレイヤキャラクタ100が右手でドリブルを行っている場合には、図中斜線を付して示すように、真ん中の列(縦方向)にある3つのエリア(2)、(5)、(8)と、右側の列にある3つのエリア(3)、(6)、(9)がドリブルする手を変えないエリアとして設定されている。また、これらの6つのエリアで形成される長方形の4つの頂点の位置と、縦方向の2つの辺の中点の位置に、全部で6つの特定座標201〜206が設定されている。   As shown in FIG. 4A, the area on the touch panel 13 is divided into nine areas of 3 rows and 3 columns (1) to (9) at equal intervals. When the player character 100 is dribbling with the right hand, as shown by hatching in the figure, three areas (2), (5), (8) in the middle row (vertical direction) The three areas (3), (6), and (9) in the right column are set as areas that do not change the dribbling hand. In addition, six specific coordinates 201 to 206 are set in total at the positions of the four vertices of the rectangle formed by these six areas and the positions of the midpoints of the two vertical sides.

特定座標201〜206には、それぞれの位置に対応したモーションデータが対応づけられている。プレイヤキャラクタ100が右手でドリブルしているときにタッチパネル13上のタッチされた位置の座標が特定座標201〜206のいずれかであれば、タッチされた位置に対応する特定座標に対応づけられたモーションデータがWRAM22にロードされてプレイヤキャラクタ100にドリブル動作させるためのモーションデータとしてそのまま用いられる。パスを受けるなどして新たなプレイヤキャラクタ100が設定された場合には、デフォルトとして特定座標201に対応したモーションデータがWRAM22にロードされて用いられる。これは、プレイヤキャラクタ100の正面(すなわち、ルート100Rの方向)でボール110をドリブルするためのモーションデータである。   The specific coordinates 201 to 206 are associated with motion data corresponding to each position. If the coordinate of the touched position on the touch panel 13 when the player character 100 is dribbling with the right hand is one of the specific coordinates 201 to 206, the motion associated with the specific coordinate corresponding to the touched position The data is loaded into the WRAM 22 and used as it is as motion data for causing the player character 100 to dribble. When a new player character 100 is set by receiving a pass or the like, motion data corresponding to the specific coordinates 201 is loaded into the WRAM 22 and used as a default. This is motion data for dribbling the ball 110 in front of the player character 100 (that is, in the direction of the route 100R).

タッチパネル13上のエリア(2)、(3)、(5)、(6)、(8)、(9)の範囲内で特定座標201〜206以外の位置がタッチされた場合には、まず、そのタッチされた位置の座標がWRAM22に保存される。タッチパネル13上のタッチされた位置の座標は、少なくとも最新の2回分が保存される。新たなプレイヤキャラクタ100が設定された場合には、それまでにWRAM22に保存されていた座標は全て消去され、デフォルトとして用いられるモーションデータに対応した特定座標201が最新のタッチされた位置の座標としてWRAM22に保存される。この位置の座標に従って、特定位置201〜206に対応したモーションデータがブレンドされて、モーションデータが生成される。   When a position other than the specific coordinates 201 to 206 is touched within the range of areas (2), (3), (5), (6), (8), and (9) on the touch panel 13, The coordinates of the touched position are stored in the WRAM 22. As the coordinates of the touched position on the touch panel 13, at least the latest two times are stored. When a new player character 100 is set, all the coordinates previously stored in the WRAM 22 are deleted, and the specific coordinates 201 corresponding to the motion data used as a default are used as the coordinates of the latest touched position. Stored in the WRAM 22. According to the coordinates of this position, motion data corresponding to the specific positions 201 to 206 is blended to generate motion data.

例えば、図4(b)に示すように、エリア(3)内の位置T(x1,y1)がタッチされたものとする。位置Tのy座標y1は、上辺の頂点201、204のy座標0よりも大きく、中点の特定座標202、205のy座標95よりも小さいため、4つの特定座標201、202、204、205がモーションデータのブレンド対象となる特定座標として選定される。頂点201〜206とx座標またはy座標の一方が同じ位置がタッチされた場合は、特定座標は2つだけ選定されることとなる。   For example, as shown in FIG. 4B, it is assumed that the position T (x1, y1) in the area (3) is touched. Since the y coordinate y1 of the position T is larger than the y coordinate 0 of the vertices 201 and 204 on the upper side and smaller than the y coordinate 95 of the specific coordinates 202 and 205 of the middle point, the four specific coordinates 201, 202, 204, and 205 are present. Are selected as specific coordinates to be blended with motion data. When the vertex 201 to 206 and one of the x coordinate and the y coordinate are touched at the same position, only two specific coordinates are selected.

次に、選定された特定座標201、202、204、205で囲まれる長方形の上辺(特定座標201、204を結ぶ辺)、底辺(特定座標202、205を結ぶ辺)、左辺(特定座標201、202を結ぶ辺)、右辺(特定座標204、205を結ぶ辺)と、位置Tを通り、これらの辺に平行な直線の交点の位置をTh、Tu、Tl、Trとしたとき、位置Tと位置Thの間の長さと位置Tと位置Tuの間の長さの比がH:U、位置Tと位置Tlの間の長さ、位置Tと位置Trの間の長さの比がL:Rとなったものとする。   Next, the upper side (side connecting the specific coordinates 201, 204), the bottom side (side connecting the specific coordinates 202, 205), the left side (specific coordinates 201, 205) surrounded by the selected specific coordinates 201, 202, 204, 205 202), the right side (side connecting the specific coordinates 204, 205), and the position T when the positions of intersections of straight lines passing through the position T and parallel to these sides are Th, Tu, Tl, Tr. The ratio of the length between the position Th and the length between the position T and the position Tu is H: U, the length between the position T and the position Tl, and the ratio of the length between the position T and the position Tr is L: Suppose that it became R.

この場合、特定座標201、202、204、205に対応したモーションデータのブレンド率B(201)、B(202)、B(204)、B(205)は、それぞれ図4(c)に示す数式で求められる。これらの数式から分かるように、タッチパネル13上のタッチされた位置Tに近い位置にある特定座標に対応したモーションデータほど、ブレンド率が高くなっている。特定座標201、202、204、205に対応したモーションデータは、求められたブレンド率B(201)、B(202)、B(204)、B(205)でブレンドされて、プレイヤキャラクタ100がボール110をドリブルするためのモーションデータが生成されて、WRAM22に保存される。   In this case, the blend ratios B (201), B (202), B (204), and B (205) of the motion data corresponding to the specific coordinates 201, 202, 204, and 205 are the equations shown in FIG. Is required. As can be seen from these mathematical expressions, the blend rate is higher as the motion data corresponds to the specific coordinate located near the touched position T on the touch panel 13. The motion data corresponding to the specific coordinates 201, 202, 204, and 205 are blended at the obtained blend rates B (201), B (202), B (204), and B (205), and the player character 100 plays the ball. Motion data for dribbling 110 is generated and stored in the WRAM 22.

こうして新たなタッチ位置に応じたモーションデータがブレンドされ、WRAM22に記憶されると、タッチパネル13をタッチする前のモーションデータから新たにタッチした位置に応じたモーションデータに移行されて(但し、移行の際のフレーム補間がある)、プレイヤキャラクタ100が動作されるものとなる。もっとも、前回のタッチ位置と今回のタッチ位置との関係によっては、タッチする前のモーションデータから、一旦つなぎモーションのモーションデータに移行してプレイヤキャラクタ100を動作させた後、新たにタッチした位置に応じたモーションデータに移行してプレイヤキャラクタ100を動作させるものとなる。   When the motion data corresponding to the new touch position is blended and stored in the WRAM 22, the motion data before touching the touch panel 13 is transferred to the motion data corresponding to the newly touched position (however, The player character 100 is moved. However, depending on the relationship between the previous touch position and the current touch position, the motion data before touching is temporarily shifted to the motion data of the joint motion, and the player character 100 is moved to the newly touched position. The player character 100 is moved by moving to the corresponding motion data.

一方、プレイヤキャラクタ100が右手でドリブルを行っている場合に、タッチパネル13の左側の3つのエリア(1)、(4)、(7)の範囲内の位置がタッチされた場合には、ボール110をドリブルする手が左手に切り替えられる。図5は、プレイヤキャラクタ100がボール110をドリブルする手を右手から左手に切り替える場合についての説明図である。ボール110をドリブルする手を左手から右手に切り替える場合は、図5の左右を反転したパターンで考えればよいこととなる。   On the other hand, when the player character 100 is dribbling with the right hand, if the position within the three areas (1), (4), (7) on the left side of the touch panel 13 is touched, the ball 110 The dribbling hand is switched to the left hand. FIG. 5 is an explanatory diagram of the case where the player character 100 switches the hand that dribbles the ball 110 from the right hand to the left hand. When the hand for dribbling the ball 110 is switched from the left hand to the right hand, the pattern in which the left and right in FIG. 5 are reversed may be considered.

例えば、図5(a)に示すように、プレイヤキャラクタ100が右手でボール110をドリブルしている状態でタッチパネル13上のエリア(1)の範囲内に含まれる位置tがタッチされたものとする。この位置は、右手のままドリブルできる位置に対応していないので、図5(b)に示すように左手でのドリブルに対応した特定座標のうちから、タッチされた位置tに対応する特定座標221〜224がモーションデータのブレンド対象となる特定座標として選定されるものとなる。ここで、モーションデータの生成は、図4(b)、(c)に示したのと同様の手法で行えばよい。   For example, as shown in FIG. 5A, it is assumed that the position t included in the area (1) on the touch panel 13 is touched while the player character 100 is dribbling the ball 110 with the right hand. . Since this position does not correspond to a position where the right hand can be dribble, the specific coordinates 221 corresponding to the touched position t among the specific coordinates corresponding to the dribbling with the left hand as shown in FIG. 5B. ˜224 are selected as specific coordinates to be blended with motion data. Here, the generation of motion data may be performed by a method similar to that shown in FIGS.

プレイヤキャラクタ100がボール110をドリブルする手を切り替える場合には、タッチパネル13をタッチする前のモーションデータから、新たにタッチした位置に応じたモーションデータにそのまま移行される訳ではない。タッチする前のモーションデータから、一旦つなぎモーションのモーションデータに移行してプレイヤキャラクタ100を動作させた後、新たにタッチした位置に応じたモーションデータに移行してプレイヤキャラクタ100を動作させるものとなる。   When the player character 100 switches the hand that dribbles the ball 110, the motion data before touching the touch panel 13 is not directly transferred to the motion data corresponding to the newly touched position. After moving from the motion data before touching to the motion data of the joint motion once to move the player character 100, the player character 100 is moved to the motion data corresponding to the newly touched position. .

次に、つなぎモーションについて説明する。図6は、つなぎモーションの説明図である。つなぎモーションは、前述したようにプレイヤキャラクタ100が右手から左手にボール110を持ち替えてドリブルする場合には、必ず挿入される。プレイヤキャラクタ100がボールを持ち替えないときでも、前回タッチパネル13がタッチされた位置がエリア(1)〜(3)の範囲内に含まれるときであって今回タッチされた位置がエリア(7)〜(9)の範囲内に含まれるとき、または前回タッチされた位置がエリア(7)〜(9)の範囲内に含まれるときであって今回タッチされた位置がエリア(1)〜(3)の範囲内に含まれるときにも、つなぎモーションが挿入されることとなる。   Next, the connection motion will be described. FIG. 6 is an explanatory diagram of a connection motion. As described above, the linkage motion is always inserted when the player character 100 dribbles by moving the ball 110 from the right hand to the left hand. Even when the player character 100 does not change the ball, the position touched last time is included in the range of the areas (1) to (3), and the positions touched this time are the areas (7) to (7). 9) or when the position touched last time is included in the area (7) to (9) and the position touched this time is in the area (1) to (3). Even when included in the range, a linkage motion is inserted.

つなぎモーションも、モーションデータの再生によりプレイヤキャラクタ100を動作させるものであるが、前回タッチパネル13がタッチされた位置が含まれるエリアと、今回タッチされた位置が含まれるエリアとの違いに応じて異なるモーションデータが用意されており、ROM171に予め記憶されている。新たなタッチパネル13のタッチの前にプレイヤキャラクタ100が右手でボール110をドリブルしていた場合のつなぎモーションとして、図6(a)に示す26種類のつなぎモーションが用意されている。   The joint motion is also for causing the player character 100 to move by reproducing the motion data, but differs depending on the difference between the area where the previous touch panel 13 is touched and the area where the touched position is included this time. Motion data is prepared and stored in the ROM 171 in advance. As connection motions when the player character 100 dribbles the ball 110 with the right hand before touching the new touch panel 13, 26 types of connection motions shown in FIG. 6A are prepared.

ここで、例えば、R(3)とは、エリア(3)に含まれる位置のタッチに基づいて右手でボール110をドリブルすることを示すものである。L(4)とは、エリア(4)に含まれる位置のタッチに基づいて左手でボール110をドリブルすることを示すものである。新たなタッチパネル13のタッチの前にプレイヤキャラクタ100が右手でボール110をドリブルしていた場合のつなぎモーションとしても、図6(a)に示すパターンの左右を反転させた26種類のつなぎモーションが用意されている。   Here, for example, R (3) indicates that the ball 110 is dribbling with the right hand based on the touch of the position included in the area (3). L (4) indicates dribbling the ball 110 with the left hand based on the touch of the position included in the area (4). As a connection motion when the player character 100 dribbles the ball 110 with the right hand before touching the new touch panel 13, 26 types of connection motions in which the pattern shown in FIG. Has been.

つなぎモーションの態様として、例えば、R(2)→L(1)のつなぎモーションでは、プレイヤキャラクタ100がボール110をドリブルする手を右手から左手に入れ替える動作が含まれている。また、R(2)→R(8)のつなぎモーションでは、プレイヤキャラクタ100がエリア(2)に対応した位置でドリブルする動作からエリア(8)に対応した位置でドリブルする動作に動作を変化させる間に、中間位置で一旦ドリブルする動作が含まれている。   As an example of the connecting motion, for example, the connecting motion of R (2) → L (1) includes an operation in which the player character 100 switches the dribbling hand of the ball 110 from the right hand to the left hand. In the connecting motion of R (2) → R (8), the motion is changed from a motion in which the player character 100 dribbles at a position corresponding to the area (2) to a motion to dribble at a position corresponding to the area (8). In the middle, an operation of once dribbling at an intermediate position is included.

つなぎモーションが挿入される場合、前回タッチパネル13がタッチされた位置に基づいて生成されたモーションデータから、つなぎモーションのモーションデータを経て、今回タッチパネル13がタッチされた位置に基づいて生成されたモーションデータでプレイヤキャラクタ100を動作させる。ここで、図6(b)に示すように、前回タッチパネル13がタッチされた位置に基づいて生成されたモーションデータからつなぎモーションのモーションデータに移行する間に、所定フレーム数だけフレーム補間(スタート補間)がされる。また、つなぎモーションのモーションデータから今回タッチパネル13がタッチされた位置に基づいて生成されたモーションデータに移行する間にも、所定フレーム数だけフレーム補間(エンド補間)がされる。   When a connection motion is inserted, the motion data generated based on the position touched on the touch panel 13 this time through the motion data of the connection motion from the motion data generated based on the position touched on the touch panel 13 last time. Then, the player character 100 is moved. Here, as shown in FIG. 6B, during the transition from the motion data generated based on the position touched on the touch panel 13 last time to the motion data of the joint motion, frame interpolation (start interpolation) is performed for a predetermined number of frames. ) Is done. Also, frame interpolation (end interpolation) is performed for a predetermined number of frames during the transition from the motion data of the joint motion to the motion data generated based on the position where the touch panel 13 is touched this time.

次に、プレイヤキャラクタ100がドリブルしながらコート上を移動する場合について説明する。プレイヤキャラクタ100がコート上を移動するための指示は、プレイヤによる方向指示スイッチ14cの操作に応じて入力される。プレイヤキャラクタ100は、方向指示スイッチ14cから入力された方向にボール110をドリブルしながら移動するものとなる。プレイヤキャラクタ100が移動するモーションについてもモーションデータが予め用意されてROM117に記憶されており、ドリブルのモーションデータとブレンドされて再生されることとなる。   Next, a case where the player character 100 moves on the court while dribbling will be described. An instruction for the player character 100 to move on the court is input in response to an operation of the direction instruction switch 14c by the player. The player character 100 moves while dribbling the ball 110 in the direction input from the direction indicating switch 14c. Motion data for the motion of the player character 100 is also prepared in advance and stored in the ROM 117, and is reproduced by being blended with dribble motion data.

この実施の形態にかかるバスケットボールゲームでは、ボール110をドリブルする位置に応じてプレイヤキャラクタ100が移動する速度が変わるものとなる。図7は、ボール110をドリブルする位置とプレイヤキャラクタ100の移動速度との関係を示す説明図である。ここでは、プレイヤキャラクタ100のルート100Rの方向は、方向指示スイッチ14cから入力された方向を既に向いているものとし、プレイヤキャラクタ100は、入力された方向(移動方向100D)に移動するものとする。   In the basketball game according to this embodiment, the speed at which the player character 100 moves changes according to the position where the ball 110 is dribbling. FIG. 7 is an explanatory diagram showing the relationship between the position where the ball 110 is dribbling and the moving speed of the player character 100. Here, it is assumed that the direction of the route 100R of the player character 100 is already facing the direction input from the direction indicating switch 14c, and the player character 100 moves in the input direction (movement direction 100D). .

図7(a)に示すように、プレイヤキャラクタ100の移動方向100D上にボール110があるとき、すなわちプレイヤキャラクタ100からボール110に向けた方向が移動方向100Dと一致するときには、プレイヤキャラクタ100は、速度Vでコート上を移動するものとなる。この場合は、移動のためのモーションデータを通常の速度で再生しながらプレイヤキャラクタ100を移動させればよいものとなる。   As shown in FIG. 7A, when the ball 110 is in the moving direction 100D of the player character 100, that is, when the direction from the player character 100 toward the ball 110 coincides with the moving direction 100D, the player character 100 It moves on the court at a speed V. In this case, it is only necessary to move the player character 100 while reproducing the motion data for movement at a normal speed.

図7(b)に示すように、プレイヤキャラクタ100からボール110に向けた方向と移動方向100Dとがなす角度がθ1であるときには、プレイヤキャラクタ100は、速度Vcos(θ1/2)で移動することとなり、移動方向100D上にボール110があるときの速度Vよりも遅くなる。さらに、図7(c)に示すように、プレイヤキャラクタ100からボール110に向けた方向と移動方向100Dとがなす角度がθ1よりも大きいθ2であるときには、プレイヤキャラクタ100は、速度Vcos(θ2/2)で移動することとなり、その角度がθ1のときの速度Vcos(θ1/2)よりも遅くなる。これらの場合、プレイヤキャラクタ100の移動速度が制御されるだけではなく、これに合わせてモーションデータの再生速度も、通常のcos(θ1/2)倍、cos(θ2/2)倍となり、速度Vでプレイヤキャラクタが移動するときよりも遅くなる。   As shown in FIG. 7B, when the angle formed by the direction from the player character 100 toward the ball 110 and the moving direction 100D is θ1, the player character 100 moves at a speed Vcos (θ1 / 2). Thus, the speed becomes slower than the speed V when the ball 110 is in the moving direction 100D. Further, as shown in FIG. 7 (c), when the angle formed by the direction from the player character 100 toward the ball 110 and the moving direction 100D is θ2, which is larger than θ1, the player character 100 determines that the velocity Vcos (θ2 / 2), which is slower than the speed Vcos (θ1 / 2) when the angle is θ1. In these cases, not only the moving speed of the player character 100 is controlled, but the playback speed of the motion data is also increased to the normal cos (θ1 / 2) times and cos (θ2 / 2) times, and the speed V This is slower than when the player character moves.

また、プレイヤキャラクタ100がコート上を移動する際には、その向きであるルート100Rが進行方向を向いていなければならず、方向指示スイッチ14cから入力された方向がルート100Rの方向と一致していなかったときには、まず、ルート100Rの方向が変えられてから、プレイヤキャラクタ100がコート上で移動することとなる。ルート100Rの方向を変える場合、方向指示スイッチ14cから入力された方向から所定範囲内にボール110が予め存在するときには、クイックターンという手法によりプレイヤキャラクタ100のルート100Rの方向が変えられる。   Further, when the player character 100 moves on the court, the direction of the route 100R must be in the traveling direction, and the direction input from the direction indicating switch 14c matches the direction of the route 100R. If not, first, the direction of the route 100R is changed, and then the player character 100 moves on the court. When changing the direction of the route 100R, when the ball 110 is present in advance within a predetermined range from the direction input from the direction indicating switch 14c, the direction of the route 100R of the player character 100 is changed by a technique called quick turn.

図8は、方向指示スイッチ14cから入力された方向から所定範囲内にボール110が存在しないときの通常ターンと、方向指示スイッチ14cから入力された方向から所定範囲内にボール110が予め存在するときのクイックターンの説明図である。ここでは、プレイヤキャラクタ100のルート100Rが右方向を向いている状態で方向指示スイッチ14cから上方向の入力があった場合を例として説明している。   FIG. 8 shows a normal turn when the ball 110 does not exist within a predetermined range from the direction input from the direction indicating switch 14c, and when the ball 110 exists within a predetermined range from the direction input from the direction indicating switch 14c. It is explanatory drawing of no quick turn. Here, the case where there is an upward input from the direction indicating switch 14c in a state where the route 100R of the player character 100 is directed rightward is described as an example.

図8(a)に示すように、プレイヤキャラクタ100のルート100Rが右方向を向いている状態で方向指示スイッチ14cから上方向の入力があったときにおいて移動方向100Dから±θ3の範囲外にボール110が存在したものとする。この場合、図8(b)に示すように、プレイヤキャラクタ100は、ボール110をドリブルしながらルート100Rの方向が移動方向100Dに一致するまで方向転換をする。ROM117には方向転換用のモーションデータも予め記憶されており、ドリブルのモーションデータとブレンドされて再生されることとなる。ボール110が元々存在していた位置にもよるが、ルート100Rが移動方向100Dを向くまでに、少なくとも十数フレーム程度の期間は要するものとなる。   As shown in FIG. 8 (a), when the player character 100 has a route 100R facing rightward and there is an upward input from the direction indicating switch 14c, the ball is outside the range of ± θ3 from the moving direction 100D. 110 is present. In this case, as shown in FIG. 8B, the player character 100 changes direction until the direction of the route 100R coincides with the moving direction 100D while dribbling the ball 110. The ROM 117 also stores direction change motion data in advance and is reproduced by blending with dribble motion data. Although it depends on the position where the ball 110 originally existed, it takes at least about a dozen frames before the route 100R faces the moving direction 100D.

一方、図8(c)に示すように、プレイヤキャラクタ100のルート100Rが右方向を向いている状態で方向指示スイッチ14cから上方向の入力があったときにおいて移動方向100Dから±θ3の範囲内にボール110が存在したものとする。この場合、図8(d)に示すように、プレイヤキャラクタ100は、即座にルート100Rの方向を移動方向100Dに向けるものとなる。但し、方向転換の際に数フレームのフレーム補間を行うものとしてもよい。   On the other hand, as shown in FIG. 8C, when there is an upward input from the direction indicating switch 14c with the route 100R of the player character 100 facing the right direction, it is within the range of ± θ3 from the moving direction 100D. It is assumed that the ball 110 exists. In this case, as shown in FIG. 8D, the player character 100 immediately turns the direction of the route 100R in the moving direction 100D. However, frame interpolation of several frames may be performed when the direction is changed.

なお、方向指示スイッチ14cの操作によってプレイヤキャラクタ100がボール110をドリブルしながらコート上を移動する間に、タッチパネル13をタッチすることによってボール110をドリブルする手や位置を変えたりすることもできる。この場合の動作は、上記の動作の処理を組み合わせることによって実現できる(但し、つなぎモーションとして、停止してドリブルするときとは異なるモーションデータが用いられる場合がある)。また、パスやシュートの動作については、本発明と直接的に関わりがないので、説明を省略する。   In addition, while the player character 100 moves on the court while dribbling the ball 110 by operating the direction instruction switch 14c, the hand and position where the ball 110 is dribble can be changed by touching the touch panel 13. The operation in this case can be realized by combining the processing of the above-described operations (however, motion data different from that used when stopping and dribbling may be used as a linkage motion). Further, since the operation of the pass and the chute is not directly related to the present invention, the description thereof is omitted.

以下、図1、図2に示したゲーム装置1において、この実施の形態にかかるバスケットボールゲームを行うための処理について説明する。ゲームの進行の流れでは、相手チームのキャラクタがボールを所持していたり、プレイヤチームのキャラクタのうちでボールを実際に所持するキャラクタが変わることでプレイヤキャラクタの切り替えなどの処理も行われる。もっとも、ここでは、本発明に関わる処理のみ、すなわちボールを実際に所持しているプレイヤキャラクタを動作させる処理のみについて説明するものとする。   Hereinafter, processing for playing the basketball game according to this embodiment in the game apparatus 1 shown in FIGS. 1 and 2 will be described. In the progress of the game, processing such as switching of the player character is also performed when the character of the opponent team possesses the ball or the character that actually possesses the ball among the characters of the player team changes. However, here, only the process related to the present invention, that is, only the process of moving the player character who actually owns the ball will be described.

図9は、バスケットボールゲームにおいて、プレイヤチームがオフェンス側のときにプレイヤキャラクタ100を動作させるための処理を示すフローチャートである。このフローチャートの処理は、CPUコア21がカートリッジ17のROM171からWRAM22にロードされたゲームプログラムを実行する処理である。この処理が最初に開始されるときには、右手でボール110をドリブルする場合の特定座標がデフォルトとして設定されている。   FIG. 9 is a flowchart showing a process for moving the player character 100 when the player team is on the offense side in the basketball game. The process of this flowchart is a process in which the CPU core 21 executes a game program loaded from the ROM 171 of the cartridge 17 to the WRAM 22. When this process is started for the first time, the specific coordinates for dribbling the ball 110 with the right hand are set as defaults.

まず、CPUコア21は、タッチパネル13がタッチされ、そのいずれかの座標位置が入力されたかどうかを判定する(ステップS101)。タッチパネル13から座標位置が入力されていれば、CPUコア21は、詳細を後述するタッチ時処理を行う(ステップS102)。その後、再びステップS101の処理に戻る。タッチパネル13から座標位置が入力されていなければ、CPUコア21は、方向指示スイッチ14cから8方向のうちのいずれかの方向が入力されたかどうかを判定する(ステップS103)。方向指示スイッチ14cからいずれかの方向が入力されていれば、詳細を後述する方向入力時処理を行う(ステップS104)。その後、再びステップS101の処理に戻る。   First, the CPU core 21 determines whether the touch panel 13 is touched and any coordinate position is input (step S101). If the coordinate position is input from the touch panel 13, the CPU core 21 performs a touch-time process whose details will be described later (step S102). Then, it returns to the process of step S101 again. If the coordinate position is not input from the touch panel 13, the CPU core 21 determines whether any one of the eight directions is input from the direction instruction switch 14c (step S103). If any direction is input from the direction indicating switch 14c, a direction input process, which will be described later in detail, is performed (step S104). Then, it returns to the process of step S101 again.

方向指示スイッチ14cからいずれの方向も入力されていなければ、CPUコア21は、操作スイッチ部14から他の入力があったかどうかを判定する(ステップS105)。操作スイッチ部14から他の入力があった場合には、CPUコア21は、当該入力に応じた処理(例えば、プレイヤキャラクタ100にシュートさせる、他のキャラクタにパスさせるなど)を行う(ステップS106)。その後、再びステップS101の処理に戻る。他の入力もなかった場合には、CPUコア21は、WRAM22に記憶されている最新のモーションデータに従って、プレイヤキャラクタ100を動作させる(ステップS107)。そして、ステップS101の処理に戻る。   If no direction is input from the direction indicating switch 14c, the CPU core 21 determines whether there is another input from the operation switch unit 14 (step S105). When there is another input from the operation switch unit 14, the CPU core 21 performs processing corresponding to the input (for example, causing the player character 100 to shoot or pass another character) (step S106). . Then, it returns to the process of step S101 again. If there is no other input, the CPU core 21 moves the player character 100 in accordance with the latest motion data stored in the WRAM 22 (step S107). Then, the process returns to step S101.

図10は、ステップS102のタッチ時処理を詳細に示すフローチャートである。タッチ時処理においては、CPUコア21は、タッチパネル13から入力されたタッチされた位置の座標をWRAM22に保存する(ステップS201)。次に、CPUコア21は、現時点でプレイヤキャラクタ100が左手でボール110をドリブルしており、且つタッチパネル13上でタッチされた位置がエリア(3)、(6)、(9)のいずれかの範囲内に含まれるかどうかを判定する(ステップS202)。   FIG. 10 is a flowchart showing in detail the touch processing in step S102. In the touch processing, the CPU core 21 stores the coordinates of the touched position input from the touch panel 13 in the WRAM 22 (step S201). Next, the CPU core 21 is currently dribbling the ball 110 with the left hand of the player character 100 and the touched position on the touch panel 13 is one of the areas (3), (6), and (9). It is determined whether it falls within the range (step S202).

プレイヤキャラクタ100が右手でボール110をドリブルしているか、タッチされた位置がエリア(3)、(6)、(9)の範囲外であった場合には、CPUコア21は、さらにプレイヤキャラクタ100が右手でボール110をドリブルしており、且つタッチパネル13上でタッチされた位置がエリア(1)、(4)、(7)のいずれかの範囲内に含まれるかどうかを判定する(ステップS203)。   If the player character 100 is dribbling the ball 110 with the right hand or the touched position is outside the range of the areas (3), (6), and (9), the CPU core 21 further determines the player character 100. Is dribbling the ball 110 with the right hand and determines whether the position touched on the touch panel 13 is included in any one of the areas (1), (4), and (7) (step S203). ).

プレイヤキャラクタ100が左手でボール110をドリブルしているか、タッチされた位置がエリア(1)、(4)、(7)の範囲外であった場合には、CPUコア21は、さらにWRAM22に前回記憶されたタッチパネル13のタッチされた位置(デフォルトで記憶された位置を含む)がエリア(1)〜(3)のいずれかの範囲内であって今回タッチされた位置がエリア(7)〜(9)のいずれかの範囲内であるか、或いはWRAM22に前回記憶されたタッチパネル13のタッチされた位置がエリア(7)〜(9)のいずれかの範囲内であって今回タッチされた位置がエリア(1)〜(3)のいずれかの範囲内であるかを判定する(ステップS204)。   If the player character 100 dribbles the ball 110 with the left hand or the touched position is outside the range of the areas (1), (4), and (7), the CPU core 21 further stores the previous time in the WRAM 22. The touched position (including the position stored by default) of the touch panel 13 is within the range of any of the areas (1) to (3), and the touched position is the area (7) to (7) 9), or the touched position of the touch panel 13 previously stored in the WRAM 22 is within the range of any of the areas (7) to (9) and the position touched this time is It is determined whether it is within any one of the areas (1) to (3) (step S204).

WRAM22に前回記憶されたタッチの位置または今回タッチされた位置が(4)〜(6)のいずれかの範囲内であるか、WRAM22に前回記憶されたタッチパネル13のタッチされた位置がエリア(7)〜(9)のいずれかの範囲内であって今回タッチされた位置がエリア(7)〜(9)のいずれかの範囲内であるか、WRAM22に前回記憶されたタッチパネル13のタッチされた位置がエリア(1)〜(3)のいずれかの範囲内であって今回タッチされた位置がエリア(1)〜(3)のいずれかの範囲内であった場合には、CPUコア21は、設定されている特定座標のうちからモーションデータのブレンド対象となる特定座標を今回タッチパネル13がタッチされた位置に応じて選定する(ステップS205)。   The position of the touch previously stored in the WRAM 22 or the position touched this time is in any of the ranges (4) to (6), or the touched position of the touch panel 13 previously stored in the WRAM 22 is the area (7 ) To (9) and the touched position is within any of the areas (7) to (9) or the touch panel 13 previously stored in the WRAM 22 is touched. When the position is within any of the areas (1) to (3) and the position touched this time is within any of the areas (1) to (3), the CPU core 21 The specific coordinates to be blended with the motion data are selected from the set specific coordinates according to the position where the touch panel 13 is touched this time (step S205).

CPUコア21は、選定した特定座標に対応したモーションデータのブレンド率を、各々の特定座標と今回タッチされた位置の座標に応じてそれぞれ算出する(ステップS206)。CPUコア21は、選定した特定座標に対応したモーションデータをそれぞれに算出したブレンド率でブレンドして、プレイヤキャラクタ100にボール110をドリブルさせるためのモーションデータを生成し、WRAM22に保存する(ステップS207)。   The CPU core 21 calculates the blend ratio of the motion data corresponding to the selected specific coordinates according to the specific coordinates and the coordinates of the position touched this time (step S206). The CPU core 21 blends the motion data corresponding to the selected specific coordinates with the calculated blend ratio, generates motion data for causing the player character 100 to dribble the ball 110, and stores the motion data in the WRAM 22 (step S207). ).

CPUコア21は、今回タッチパネル13がタッチされる前に適用されていたモーションデータから、タッチパネル13の新たなタッチ位置に従って生成されたモーションデータに移行させるまでの所定フレーム数のフレーム補間を行う(ステップS208)。そして、タッチ時処理を終了して、図9のフローチャートに復帰する。図9のフローチャートに復帰し、そのまま何の入力もなければ、ステップS207において生成されたモーションデータに従ってプレイヤキャラクタ100が動作させられるものとなる。   The CPU core 21 performs frame interpolation for a predetermined number of frames until the motion data applied before the touch panel 13 is touched this time to the motion data generated according to the new touch position on the touch panel 13 (step). S208). Then, the touch-time process is terminated, and the process returns to the flowchart of FIG. Returning to the flowchart of FIG. 9, if there is no input as it is, the player character 100 is moved according to the motion data generated in step S207.

また、ステップS202でプレイヤキャラクタ100が左手でボール110をドリブルしており、且つタッチパネル13上でタッチされた位置がエリア(3)、(6)、(9)のいずれかの範囲内に含まれていた場合には、CPUコア21は、プレイヤキャラクタ100が右手でボール110をドリブルする場合の特定データを設定し、WRAM22に記憶させる。さらに、CPUコア21は、WRAM22に前回記憶されたタッチされた位置を含むエリアと、今回タッチされた位置を含むエリアに応じたつなぎモーションのモーションデータを選択する(ステップS209)。そして、ステップS212の処理に進む。   In addition, the position where the player character 100 dribbles the ball 110 with the left hand and touched on the touch panel 13 in step S202 is included in any one of the areas (3), (6), and (9). If so, the CPU core 21 sets specific data when the player character 100 dribbles the ball 110 with the right hand and stores it in the WRAM 22. Further, the CPU core 21 selects the motion data of the joint motion corresponding to the area including the touched position previously stored in the WRAM 22 and the area including the currently touched position (step S209). Then, the process proceeds to step S212.

また、ステップS203でプレイヤキャラクタ100が右手でボール110をドリブルしており、且つタッチパネル13上でタッチされた位置がエリア(1)、(4)、(7)のいずれかの範囲内に含まれていた場合には、CPUコア21は、プレイヤキャラクタ100が左手でボール110をドリブルする場合の特定データを設定し、WRAM22に記憶させる。さらに、CPUコア21は、WRAM22に前回記憶されたタッチされた位置を含むエリアと、今回タッチされた位置を含むエリアに応じたつなぎモーションのモーションデータを選択する(ステップS210)。そして、ステップS212の処理に進む。   In addition, the position where the player character 100 dribbles the ball 110 with the right hand in step S203 and is touched on the touch panel 13 is included in any one of the areas (1), (4), and (7). If so, the CPU core 21 sets specific data when the player character 100 dribbles the ball 110 with the left hand and stores the specific data in the WRAM 22. Further, the CPU core 21 selects the motion data of the joint motion corresponding to the area including the touched position previously stored in the WRAM 22 and the area including the currently touched position (step S210). Then, the process proceeds to step S212.

さらに、ステップS204でWRAM22に前回記憶されたタッチパネル13のタッチされた位置がエリア(1)〜(3)のいずれかの範囲内であって今回タッチされた位置がエリア(7)〜(9)のいずれかの範囲内であるか、或いはWRAM22に前回記憶されたタッチパネル13のタッチされた位置がエリア(7)〜(9)のいずれかの範囲内であって今回タッチされた位置がエリア(1)〜(3)のいずれかの範囲内であった場合には、CPUコア21は、WRAM22に前回記憶されたタッチされた位置を含むエリアと、今回タッチされた位置を含むエリアに応じたつなぎモーションのモーションデータを選択する(ステップS211)。そして、ステップS212の処理に進む。   Further, the touched position of the touch panel 13 previously stored in the WRAM 22 in step S204 is within any one of the areas (1) to (3), and the touched position is the area (7) to (9). Or the touched position of the touch panel 13 previously stored in the WRAM 22 is within any of the areas (7) to (9) and the touched position is the area ( When it is within the range of any one of 1) to (3), the CPU core 21 responds to the area including the touched position previously stored in the WRAM 22 and the area including the currently touched position. The motion data of the joint motion is selected (step S211). Then, the process proceeds to step S212.

ステップS212〜S214の処理は、ステップS205〜S207の処理と同じである。ステップS214を終了すると、CPUコア21は、今回タッチパネル13がタッチされる前に適用されていたモーションデータから、ステップS209〜S211で選択されたつなぎモーションのモーションデータに移行させるまでの所定フレーム数のフレーム補間を行う(ステップS215)。その後、CPUコア21は、ステップS209〜211で選択されたつなぎモーションのモーションデータに従って、プレイヤキャラクタ100を動作させる(ステップS216)。   The processing in steps S212 to S214 is the same as the processing in steps S205 to S207. When step S214 is completed, the CPU core 21 has a predetermined number of frames from the motion data applied before the touch panel 13 is touched this time to the transition motion data selected in steps S209 to S211. Frame interpolation is performed (step S215). Thereafter, the CPU core 21 moves the player character 100 in accordance with the motion data of the linkage motion selected in Steps S209 to 211 (Step S216).

さらに、CPUコア21は、つなぎモーションのモーションデータから、タッチパネル13の新たなタッチ位置に従って生成されたモーションデータに移行させるまでの所定フレーム数のフレーム補間を行う(ステップS217)。そして、タッチ時処理を終了して、図9のフローチャートに復帰する。図9のフローチャートに復帰し、そのまま何の入力もなければ、ステップS214において生成されたモーションデータに従ってプレイヤキャラクタ100が動作させられるものとなる。   Further, the CPU core 21 performs frame interpolation for a predetermined number of frames until the motion data of the joint motion is shifted to the motion data generated according to the new touch position on the touch panel 13 (step S217). Then, the touch-time process is terminated, and the process returns to the flowchart of FIG. Returning to the flowchart of FIG. 9, if there is no input as it is, the player character 100 is operated according to the motion data generated in step S214.

図11は、ステップS104の方向入力時処理を詳細に示すフローチャートである。このフローチャートの処理においては、プレイヤキャラクタ100とボール110との方向やルート100Rの方向と、方向指示スイッチ14cから入力された方向とを扱っているが、前者の方向を後者の方向と比較するときには、仮想カメラの視点から参照点となるプレイヤキャラクタ100に向けた方向に応じて方向指示スイッチ14cから入力された方向を変換しており、以下の説明における入力方向は、変換された後の方向を指すものとする。   FIG. 11 is a flowchart showing in detail the direction input processing in step S104. In the processing of this flowchart, the direction of the player character 100 and the ball 110, the direction of the route 100R, and the direction input from the direction instruction switch 14c are handled. When comparing the former direction with the latter direction, The direction input from the direction indicating switch 14c is converted in accordance with the direction from the viewpoint of the virtual camera toward the player character 100 serving as a reference point, and the input direction in the following description is the converted direction. Shall point to.

方向入力時処理においては、まず、CPUコア21は、コート上におけるプレイヤキャラクタ100の位置からボール110の位置に向けた方向を判断する(ステップS301)。次に、CPUコア21は、方向指示スイッチ14cから入力された方向がプレイヤキャラクタ100のルート100Rの方向と一致するかどうかを判定する(ステップS302)。入力方向がルート100Rの方向と一致していれば、そのままプレイヤキャラクタ100をコート上で移動させることができるようになるため、ステップS311の処理に進む。   In the direction input processing, first, the CPU core 21 determines a direction from the position of the player character 100 on the court toward the position of the ball 110 (step S301). Next, the CPU core 21 determines whether or not the direction input from the direction indicating switch 14c matches the direction of the route 100R of the player character 100 (step S302). If the input direction matches the direction of the route 100R, the player character 100 can be moved on the court as it is, and the process proceeds to step S311.

入力方向がルート100Rの方向と一致しない場合には、まず、ルート100Rの方向を入力方向と一致させてから、プレイヤキャラクタ100を移動させる必要がある。ここでは、CPUコア21は、方向指示スイッチ14cから入力された方向から±θ3の範囲内の領域にボール110が存在しているかどうかを判定する(ステップS303)。   If the input direction does not match the direction of the route 100R, it is necessary to first move the player character 100 after making the direction of the route 100R match the input direction. Here, the CPU core 21 determines whether or not the ball 110 is present in an area within a range of ± θ3 from the direction input from the direction indicating switch 14c (step S303).

±θ3の範囲内の領域にボール110が存在しなければ、プレイヤキャラクタ100をクイックターンにより方向転換させることはできない。この場合において、CPUコア21は、プレイヤキャラクタ100がボール110をドリブルする動作のモーションデータ(WRAM22に現時点で記憶されているものとしても、この場合の専用のものとしてもよい)をROM117に記憶されている方向転換用のモーションデータとブレンドし、ここでの方向転換のためのモーションデータを生成する(ステップS304)。   If the ball 110 does not exist in the region within the range of ± θ3, the player character 100 cannot be turned by a quick turn. In this case, the CPU core 21 stores, in the ROM 117, motion data (motion data stored in the WRAM 22 at this time or dedicated data in this case) that causes the player character 100 to dribble the ball 110. The motion data for the direction change is generated by blending with the direction change motion data that is being changed (step S304).

CPUコア21は、ステップS304で生成されたモーションデータを用いて、プレイヤキャラクタ100にボール110をドリブルさせながら、方向指示スイッチ14cから入力された方向に向けてルート100Rの向きを所定角度ずつ方向転換させる(ステップS305)。その後、CPUコア21は、方向指示スイッチ14cからの方向の入力が解除されたかどうかを判定する(ステップS306)。方向の入力が解除されていた場合には、これで方向入力時処理を終了して、図9のフローチャートに復帰する。   The CPU core 21 changes the direction of the route 100R by a predetermined angle toward the direction input from the direction indicating switch 14c while causing the player character 100 to dribble the ball 110 using the motion data generated in step S304. (Step S305). Thereafter, the CPU core 21 determines whether or not the direction input from the direction indicating switch 14c has been canceled (step S306). If the direction input has been cancelled, the direction input process is terminated and the process returns to the flowchart of FIG.

方向の入力が解除されていなかった場合には、CPUコア21は、プレイヤキャラクタ100のルート100Rの方向が方向指示スイッチ14cから入力された方向に一致したかどうかを判定する(ステップS307)。ルート100Rの方向が入力方向に未だ一致していなければ、ステップS305に戻り、プレイヤキャラクタ100の方向転換を継続する。ルート100Rの方向が入力方向に一致した場合には、プレイヤキャラクタ100をコート上で移動させることができるようになるため、ステップS310の処理に進む。   If the direction input has not been canceled, the CPU core 21 determines whether or not the direction of the route 100R of the player character 100 matches the direction input from the direction indicating switch 14c (step S307). If the direction of the route 100R does not yet match the input direction, the process returns to step S305, and the direction change of the player character 100 is continued. If the direction of the route 100R coincides with the input direction, the player character 100 can be moved on the court, so the process proceeds to step S310.

ステップS303において入力方向から±θ3の範囲内の領域にボール110が存在していれば、CPUコア21は、そのままプレイヤキャラクタ100のルート100Rの方向を方向指示スイッチ14cから入力された方向に即座に転換させる(ステップS308)。その後、CPUコア21は、方向指示スイッチ14cからの方向の入力が解除されたかどうかを判定する(ステップS309)。方向の入力が解除されていた場合には、これで方向入力時処理を終了して、図9のフローチャートに復帰する。方向の入力が解除されていなかった場合には、ステップS308のクイックターンによりルート100Rの方向が入力方向に一致し、プレイヤキャラクタ100をコート上で移動させることができるようになるため、ステップS310の処理に進む。   If the ball 110 is present in the region within the range of ± θ3 from the input direction in step S303, the CPU core 21 immediately changes the direction of the route 100R of the player character 100 to the direction input from the direction indicating switch 14c. Conversion is performed (step S308). Thereafter, the CPU core 21 determines whether or not the direction input from the direction indicating switch 14c has been canceled (step S309). If the direction input has been cancelled, the direction input process is terminated and the process returns to the flowchart of FIG. If the direction input has not been canceled, the direction of the route 100R matches the input direction by the quick turn in step S308, and the player character 100 can be moved on the court. Proceed to processing.

ステップS310では、プレイヤキャラクタ100がボール110をドリブルしながらルート100Rの方向を転換させた場合には、プレイヤキャラクタ100の位置からボール110の位置に向けた方向が変わってしまっているので、CPUコア21は、ここで再びコート上におけるプレイヤキャラクタ100の位置からボール110の位置に向けた方向を判断する。そして、ステップS311の処理に進む。   In step S310, if the player character 100 changes the direction of the route 100R while dribbling the ball 110, the direction from the position of the player character 100 to the position of the ball 110 has changed, so the CPU core 21 again determines the direction from the position of the player character 100 on the court toward the position of the ball 110. Then, the process proceeds to step S311.

ステップS311では、CPUコア21は、ステップS301またはS310で判断したプレイヤキャラクタ100の位置からボール110の位置に向けた方向が方向指示スイッチ14cから入力された方向となす角度θを算出する。さらに、CPUコア21は、プレイヤキャラクタ100がボール110をドリブルする動作のモーションデータをROM117に記憶されている移動用のモーションデータとブレンドし、コート上での移動のためのモーションデータを生成する(ステップS312)。   In step S311, the CPU core 21 calculates an angle θ between the direction from the position of the player character 100 determined in step S301 or S310 toward the position of the ball 110 and the direction input from the direction indicating switch 14c. Further, the CPU core 21 blends the motion data of the motion of the player character 100 dribbling the ball 110 with the motion data for movement stored in the ROM 117 to generate motion data for movement on the court ( Step S312).

CPUコア21は、ステップS312で生成したモーションデータを通常のcos(θ/2)の速度で再生するとともに、Vcos(θ/2)の移動速度でプレイヤキャラクタ100をコート上で方向指示スイッチ14cから入力された方向に移動させる(ステップS313)。   The CPU core 21 reproduces the motion data generated in step S312 at a normal cos (θ / 2) speed and moves the player character 100 on the court from the direction indicating switch 14c at a moving speed of Vcos (θ / 2). Move in the input direction (step S313).

その後、CPUコア21は、方向指示スイッチ14cからの方向の入力が解除されたかどうかを判定する(ステップS314)。方向の入力が解除されていなかった場合には、ステップS313の処理に戻り、さらにプレイヤキャラクタ100を入力方向に移動させる。一方、方向の入力が解除されていた場合には、これで方向入力時処理を終了して、図9のフローチャートに復帰する。   Thereafter, the CPU core 21 determines whether or not the direction input from the direction indicating switch 14c has been canceled (step S314). If the direction input has not been canceled, the process returns to step S313, and the player character 100 is further moved in the input direction. On the other hand, if the direction input has been cancelled, the direction input processing is terminated and the process returns to the flowchart of FIG.

以上のような処理により、プレイヤキャラクタ100は、仮想3次元空間に形成されたコート上で動作するものとなる。また、プレイヤキャラクタ100以外の他のキャラクタ101〜104、121〜125も、CPUコア21の制御により仮想3次元空間に形成されたコート上で動作するものとなる。プレイヤキャラクタ100及び他のキャラクタ101〜104、121〜125の動作に従って、ボール110も仮想3次元空間に形成されたコート上で動作するものとなる。これらの動作によって、この実施の形態にかかるバスケットボールゲームが進行していく。   Through the processing described above, the player character 100 moves on the court formed in the virtual three-dimensional space. In addition, other characters 101 to 104 and 121 to 125 other than the player character 100 also operate on the court formed in the virtual three-dimensional space under the control of the CPU core 21. In accordance with the movements of the player character 100 and the other characters 101 to 104 and 121 to 125, the ball 110 also moves on the court formed in the virtual three-dimensional space. With these operations, the basketball game according to this embodiment proceeds.

こうしてゲームが進行する様子は、第1LCD11及び第2LCD12に画像として表示されるが、第1LCD11及び第2LCD12に表示する画像の生成は、次のようにして行われる。   The progress of the game in this way is displayed as an image on the first LCD 11 and the second LCD 12, but the image displayed on the first LCD 11 and the second LCD 12 is generated as follows.

第1LCD11に表示させる画像を生成するために、CPUコア21は、プレイヤキャラクタ100の動作や、新たなプレイヤキャラクタ100への切り替えに応じて、仮想カメラの視点の位置を設定する。CPUコア21は、1フレーム期間(例えば、1/30秒)毎に、仮想カメラの参照点をプレイヤキャラクタ100の位置に設定し、仮想3次元空間において透視変換される範囲に含まれるオブジェクト(プレイヤキャラクタ100、他のキャラクタ101〜104、121〜125、ボール110を含む)を構成するポリゴンの各頂点を視点座標系の座標に変換する。   In order to generate an image to be displayed on the first LCD 11, the CPU core 21 sets the position of the viewpoint of the virtual camera according to the action of the player character 100 or switching to the new player character 100. The CPU core 21 sets the reference point of the virtual camera at the position of the player character 100 every frame period (for example, 1/30 second), and the object (player) that is included in the range to be perspective-transformed in the virtual three-dimensional space. Each vertex of polygons constituting the character 100, the other characters 101 to 104, 121 to 125, and the ball 110) is converted into coordinates of the viewpoint coordinate system.

CPUコア21は、視点座標系に変換した各頂点の座標を第1GPU24に送るとともに、第1GPU24に描画命令を出力する。描画命令を受け取った第1GPU24は、CPUコア21から送られてきた視点座標系の座標に基づいて、視点から近い位置にあるポリゴンが最終的に描画されるように第1VRAM23に画像データを展開していく。ここで、画像データの展開の際には、陰面消去処理、シェーディング、テクスチャマッピングなどの処理も行われている。   The CPU core 21 sends the coordinates of each vertex converted to the viewpoint coordinate system to the first GPU 24 and outputs a drawing command to the first GPU 24. The first GPU 24 that has received the drawing command expands the image data in the first VRAM 23 so that the polygon at a position close to the viewpoint is finally drawn based on the coordinates of the viewpoint coordinate system sent from the CPU core 21. To go. Here, when developing the image data, processes such as hidden surface removal processing, shading, and texture mapping are also performed.

第1GPU24は、第1VRAM23に展開された画像データを順次読み出し、同期信号を付加してビデオ信号を生成し、第1LCD11に出力する。第1LCD11は、第1GPU24から出力されたビデオ信号に対応した画像を表示する。こうして1フレーム期間毎に第1LCD11に表示される画像が切り替えられていくことで、プレイヤは、プレイヤキャラクタ100や他のキャラクタ101〜104、121〜125が仮想3次元空間に形成されたコート上でバスケットボールの試合を行う様子の画像を3次元表示で見ることができるようになる。   The first GPU 24 sequentially reads the image data developed in the first VRAM 23, adds a synchronization signal to generate a video signal, and outputs the video signal to the first LCD 11. The first LCD 11 displays an image corresponding to the video signal output from the first GPU 24. By switching the image displayed on the first LCD 11 every frame period in this way, the player can play the player character 100 and other characters 101 to 104, 121 to 125 on the court formed in the virtual three-dimensional space. An image of a basketball game can be viewed in a three-dimensional display.

一方、第2LCD12に表示させる画像を生成するために、CPUコア21は、1フレーム期間毎にプレイヤキャラクタ100の位置を第2LCD12の中心位置の座標に設定し、他のキャラクタ101〜104、121〜125の仮想3次元空間におけるx−z平面の座標をプレイヤキャラクタ100から仮想カメラの視点の方向をy軸方向に設定した座標系の座標に変換する。   On the other hand, in order to generate an image to be displayed on the second LCD 12, the CPU core 21 sets the position of the player character 100 to the coordinates of the center position of the second LCD 12 for each frame period, and sets the other characters 101 to 104, 1211. The coordinates on the xz plane in 125 virtual three-dimensional spaces are converted from the player character 100 to coordinates in the coordinate system in which the direction of the viewpoint of the virtual camera is set in the y-axis direction.

CPUコア21は、変換したプレイヤキャラクタ100及び他のキャラクタ101〜104、121〜125の座標を第2GPU26に送るとともに、第2GPU26に描画命令を出力する。描画命令を受け取った第2GPU26は、キャラクタ100〜104、121〜125の種類に応じたアイコンを、それぞれのキャラクタ100〜104、121〜125の座標位置に応じて第2VRAM25に展開する。   The CPU core 21 sends the converted coordinates of the player character 100 and the other characters 101 to 104 and 121 to 125 to the second GPU 26 and outputs a drawing command to the second GPU 26. Receiving the drawing command, the second GPU 26 develops icons corresponding to the types of the characters 100 to 104 and 121 to 125 in the second VRAM 25 according to the coordinate positions of the characters 100 to 104 and 121 to 125.

第2GPU26は、第2VRAM25に展開された画像データを順次読み出し、同期信号を付加してビデオ信号を生成し、第2LCD12に出力する。第2LCD12は、第2GPU26から出力されたビデオ信号に対応した画像を表示する。こうして1フレーム期間毎に第2LCD12に表示される画像が切り替えられていくことで、プレイヤは、プレイヤキャラクタ100を中心にしてコート上のどの位置に各キャラクタ101〜104、121〜125が存在するかを示す2次元画像を見ることができるようになる。   The second GPU 26 sequentially reads the image data developed in the second VRAM 25, adds a synchronization signal to generate a video signal, and outputs the video signal to the second LCD 12. The second LCD 12 displays an image corresponding to the video signal output from the second GPU 26. By switching the image displayed on the second LCD 12 every frame period in this way, the player can determine at which position on the court the characters 101 to 104 and 121 to 125 are centered on the player character 100. A two-dimensional image showing can be seen.

以上説明したように、この実施の形態にかかるバスケットボールゲームでは、プレイヤチームがオフェンス側で操作スイッチ部14から入力がない場合、プレイヤキャラクタ100は、仮想3次元空間に形成されたコート上で位置を移動せずにボール110をドリブルし続けることとなる。このドリブル動作は、モーションデータを用いて再生され、第1LCD11に画像が表示されるものである。ここで、プレイヤキャラクタ100がボール110をドリブルする位置は、タッチパネル13の任意の位置をタッチすることで変えることができるが、ボールをドリブルする位置が変われば、プレイヤキャラクタ100の動作の再生に必要となるモーションデータも異なることとなる。   As described above, in the basketball game according to this embodiment, when the player team does not input from the operation switch unit 14 on the offense side, the player character 100 positions on the court formed in the virtual three-dimensional space. The ball 110 will continue to be dribbling without moving. This dribbling operation is reproduced using motion data, and an image is displayed on the first LCD 11. Here, the position where the player character 100 dribbles the ball 110 can be changed by touching an arbitrary position on the touch panel 13, but if the position where the ball dribbling is changed, it is necessary to reproduce the motion of the player character 100. The motion data will be different.

プレイヤキャラクタ100がボール110をドリブルするためのモーションデータは、タッチパネル13上に設定される特定座標201〜206、221〜224に対してのみ予め用意されている。ここで、プレイヤがタッチパネル13の特定座標201〜206、221〜224以外の位置をタッチしたときには、タッチした位置の座標と特定座標201〜206、221〜224との位置関係に応じて、特定座標201〜206、221〜224にそれぞれ対応したモーションデータのブレンド率が算出され、該ブレンド率でモーションデータをブレンドしてプレイヤキャラクタ100のドリブル動作の再生のために用いるものとしている。   Motion data for the player character 100 to dribble the ball 110 is prepared in advance only for the specific coordinates 201 to 206 and 221 to 224 set on the touch panel 13. Here, when the player touches a position other than the specific coordinates 201 to 206 and 221 to 224 on the touch panel 13, the specific coordinates are determined according to the positional relationship between the coordinates of the touched position and the specific coordinates 201 to 206 and 221 to 224. The blend ratios of the motion data corresponding to 201 to 206 and 221 to 224 are calculated, and the motion data is blended at the blend ratios and used for reproducing the dribbling motion of the player character 100.

このように特定座標201〜206、221〜224のそれぞれに対応したモーションデータは、タッチパネル13のタッチされた位置に応じて異なるブレンド率でブレンドすることができるので、タッチされた位置によりモーションデータも異なるものとなる。これにより、タッチパネル13のタッチする位置の差に応じてプレイヤキャラクタ100のドリブル動作として微妙な違いも表現できるようになり、現実世界のバスケットボール選手の動作と同様なプレイヤキャラクタ100の動作を再現することができるようになる。   As described above, the motion data corresponding to each of the specific coordinates 201 to 206 and 221 to 224 can be blended at different blend ratios depending on the touched position of the touch panel 13, so that the motion data is also changed depending on the touched position. It will be different. Thereby, a subtle difference can be expressed as a dribbling motion of the player character 100 according to the difference in the touch position of the touch panel 13, and the motion of the player character 100 similar to the motion of the real-world basketball player is reproduced. Will be able to.

また、タッチパネル13のタッチする位置の違いにより異なるモーションデータを用いてプレイヤキャラクタ100が動作させられることから、プレイヤの観点で考えると、タッチパネル13のタッチする位置を変えるだけでプレイヤキャラクタ100がボール110をドリブルする位置を自在に変えることができるようになる。また、プレイヤキャラクタ100にどのような位置でボール110をドリブルさせるかという指示を、タッチパネル13のタッチする座標位置をどうするかという直感的な判断で入力することができるようになる。   In addition, since the player character 100 is operated using different motion data depending on the touch position of the touch panel 13, from the viewpoint of the player, the player character 100 can change the ball 110 by simply changing the touch position of the touch panel 13. The position to dribble can be changed freely. Further, an instruction as to where the player character 100 should dribble the ball 110 can be input by intuitive determination as to what coordinate position the touch panel 13 touches.

さらに、方向指示スイッチ14cからの入力によりプレイヤキャラクタ100をコート上で移動させている間にタッチパネル13をタッチすると、プレイヤキャラクタ100が移動するモーションデータと、タッチされた位置に応じて生成されたドリブルのモーションデータとがブレンドされて再生されるものとなっている。つまり、プレイヤキャラクタ100がコート上を移動する間も、タッチパネル13をタッチする位置によってプレイヤキャラクタ100がボール110をドリブルする位置を設定することができる。このため、プレイヤキャラクタ100がコート上を移動しているときも、直感的な判断による入力でボール110をドリブルする位置を変えることができるようになる。   Further, when the touch panel 13 is touched while the player character 100 is moved on the court by an input from the direction indicating switch 14c, motion data for the player character 100 to move and a dribbling generated according to the touched position. The motion data is blended and played back. That is, while the player character 100 moves on the court, the position where the player character 100 dribbles the ball 110 can be set by the position where the touch panel 13 is touched. For this reason, even when the player character 100 is moving on the court, the position where the ball 110 is dribbling can be changed by an input based on intuitive judgment.

また、タッチパネル13のタッチされた位置の違いによって最終的にプレイヤキャラクタ100のドリブル動作に用いられるモーションデータが全て異なるものになるとしても、ゲームカートリッジ17のROM171に予め記憶させておかなければならないモーションデータは、特定座標201〜206、221〜224に対応したものだけでもよい。このため、モーションデータを予め記憶しておくために必要なROM171の記憶容量を比較的小さな量に抑えることができる。   Further, even if all the motion data used for the dribbling motion of the player character 100 is ultimately different depending on the touched position of the touch panel 13, the motion that must be stored in the ROM 171 of the game cartridge 17 in advance. Only the data corresponding to the specific coordinates 201 to 206 and 221 to 224 may be used. For this reason, the storage capacity of the ROM 171 necessary for storing motion data in advance can be suppressed to a relatively small amount.

ここで、ROM171に予め記憶されたモーションデータのうちでブレンドの対象となるものは、タッチパネル13のタッチされた位置との関連性が深い特定座標に対応した2つまたは4つだけが選択されるものとなっている。例えば、図4(b)に示した位置Tがタッチされた場合には、特定座標201、202、204、205以外の特定座標はタッチされた位置Tからも遠く、また、それらに対応するモーションデータも、タッチされた位置に応じた動作とは相反するような動作となるものとなるからである。このようにROM117に記憶されたモーションデータは、プレイヤキャラクタ100の片手に対して6種類、全体で12種類あるものの、ブレンドの対象となるモーションデータは、2つまたは4つだけで済むため、ブレンド率の算出やモーションデータのブレンドの処理に要する処理量が大きくなりすぎないで済む。   Here, among the motion data stored in advance in the ROM 171, only two or four corresponding to specific coordinates that are deeply related to the touched position of the touch panel 13 are selected. It has become a thing. For example, when the position T shown in FIG. 4B is touched, the specific coordinates other than the specific coordinates 201, 202, 204, and 205 are far from the touched position T, and motions corresponding to them are also detected. This is because the data also becomes an operation that is contrary to the operation according to the touched position. Although there are six types of motion data stored in the ROM 117 for one hand of the player character 100 in this way and 12 types in total, only two or four pieces of motion data need to be blended. The amount of processing required to calculate the rate and blend the motion data does not have to be too large.

選択された2または4の特定座標に対応したモーションデータのブレンド率は、タッチパネル13上のタッチされた位置に近い特定座標に対応したモーションデータほど高く値が算出される。このため、タッチパネル13のどの位置をタッチすれば、プレイヤキャラクタ100がどのように動作するかをプレイヤが予測しやすくなり、ゲームが複雑にならない。しかも、タッチパネル13の下側にある第2LCD12に表示される画像は、プレイヤキャラクタ100が中央に位置し、他のキャラクタ101〜104、121〜125の位置も表示されるものとなっているので、プレイヤは、ゲームの進行状況に応じてタッチパネル13のどの位置をタッチすればよいかを判断しやすくなる。   The blend rate of the motion data corresponding to the selected 2 or 4 specific coordinates is calculated to be higher as the motion data corresponding to the specific coordinates closer to the touched position on the touch panel 13. For this reason, it becomes easy for the player to predict how the player character 100 moves by touching which position on the touch panel 13, and the game is not complicated. Moreover, the image displayed on the second LCD 12 below the touch panel 13 is such that the player character 100 is located in the center and the positions of the other characters 101 to 104 and 121 to 125 are also displayed. It becomes easier for the player to determine which position on the touch panel 13 should be touched according to the progress of the game.

また、選択された2または4の特定座標に対応したモーションデータのブレンド率は、それぞれタッチされた位置の座標と特定座標のx座標とy座標毎に距離の割合を求め、それぞれに求めた割合を互いに乗算して算出されるものとなる。このため、加減乗除という比較的容易な演算のみで各特定座標に対応したモーションデータのブレンド率を算出することができ、ブレンド率の算出のためにCPUコア21にかかる処理負荷が大きくなりすぎない。   Also, the blend ratio of the motion data corresponding to the selected 2 or 4 specific coordinates is obtained by calculating the ratio of the distance for each coordinate of the touched position, the x coordinate and the y coordinate of the specific coordinates, and the ratio obtained for each. Are calculated by multiplying each other. For this reason, it is possible to calculate the blend rate of motion data corresponding to each specific coordinate only by relatively easy calculation such as addition / subtraction / division / division, and the processing load on the CPU core 21 for calculating the blend rate does not become excessive. .

また、タッチパネル13のタッチされた位置の座標が、たまたま特定座標201〜206、221〜224と一致するような場合もあるが、このような場合には、タッチされた位置に一致する特定座標に対応したモーションデータをそのまま用いて、プレイヤキャラクタ100にドリブル動作をさせればよい。従って、プレイヤキャラクタ100を動作させるために用いるモーションデータを得るために余分な処理を行う必要がなくなり、CPUコア21の処理負荷を小さくすることができる。   In addition, there are cases where the coordinates of the touched position on the touch panel 13 coincide with the specific coordinates 201 to 206 and 221 to 224. In such a case, the specific coordinates corresponding to the touched position are changed. What is necessary is just to make the player character 100 perform a dribbling motion using the corresponding motion data as it is. Therefore, it is not necessary to perform extra processing to obtain motion data used to move the player character 100, and the processing load on the CPU core 21 can be reduced.

この実施の形態のゲームはバスケットボールゲームであるので、プレイヤキャラクタ100は、コート上で位置を移動する場合と移動しない場合とがあり得る。オフェンス側のチームとディフェンス側のチームが変わったり、キャラクタ間でボール110をパスしたりすることにより、これまでとは異なるキャラクタが新たにボール110をドリブルするプレイヤキャラクタ100となることがある。プレイヤキャラクタ100がコート上で移動を止めたり、これまでと異なるキャラクタが新たなプレイヤキャラクタ100となった場合にも、プレイヤキャラクタ100は、特定座標201に対応したモーションデータを用いてドリブル動作させることができる。このデフォルトで適用されるモーションデータは、モーションブレンドの必要がないので、CPUコア21に余分な処理負荷がかかることがない。   Since the game of this embodiment is a basketball game, the player character 100 may or may not move on the court. When the offense team and the defense team change, or when the ball 110 is passed between characters, a character different from the past may become the player character 100 that newly dribbles the ball 110. Even when the player character 100 stops moving on the court or when a different character becomes a new player character 100, the player character 100 causes the dribbling operation using the motion data corresponding to the specific coordinates 201. Can do. Since the motion data applied by default does not require motion blending, no extra processing load is applied to the CPU core 21.

ところで、プレイヤキャラクタ100によるボール110のドリブル動作としては、右手でドリブルする動作と左手でドリブルする動作とがある。ここで、例えば、プレイヤキャラクタ100が右手でボール110をドリブルしているときにタッチパネル13のエリア(2)、(3)、(5)、(6)、(8)、(9)の範囲内がタッチされれば、新たに生成されるモーションデータでも右手でドリブルを続けることとなる。左手に持ち替えるのは、エリア(1)、(4)、(7)の範囲内がタッチされたときだけである。左手でボール110をドリブルしているときにおけるタッチパネル13のタッチでは、左右を反転したパターンとなる。   Incidentally, the dribbling motion of the ball 110 by the player character 100 includes a dribbling motion with the right hand and a dribbling motion with the left hand. Here, for example, when the player character 100 is dribbling the ball 110 with the right hand, the touch panel 13 is within the area (2), (3), (5), (6), (8), (9). If is touched, dribbling with the right hand will continue even with newly generated motion data. Only when the area (1), (4), or (7) is touched, it is changed to the left hand. When touching the touch panel 13 when the ball 110 is dribbling with the left hand, the pattern is reversed right and left.

すなわち、タッチパネル13で真ん中の列に当たるエリア(2)、(5)、(8)がタッチされたときは、タッチされた時点で右手でドリブルしていればタッチ後も右手でドリブルを続けるように、タッチされた時点で左手でドリブルしていればタッチ後も左手でドリブルを続けるように、モーションデータのブレンド対象となる特定座標が選ばれることとなる。このため、プレイヤキャラクタ100がボール110をドリブルする手の入れ替えが頻繁になりすぎたり、不自然な手の入れ替えが生じたりしないようにすることができ、プレイヤに違和感を感じさせるのを防ぐことができる。   That is, when the area (2), (5), or (8) corresponding to the middle row on the touch panel 13 is touched, if you dribble with the right hand when touched, continue dribbling with the right hand after touching. If dribbling with the left hand when touched, the specific coordinates to be blended with the motion data are selected so that dribbling with the left hand continues even after touching. For this reason, it is possible to prevent the player character 100 from excessively changing the hand that dribbles the ball 110 or causing an unnatural replacement of the hand, thereby preventing the player from feeling uncomfortable. it can.

さらに、タッチパネル13が新たにタッチされたときにプレイヤキャラクタ100がボール110を右手でドリブルしているか左手でドリブルしているかは、タッチされた時点でのプレイヤキャラクタ100の動作状態そのものを調べるのではなく、前回にタッチパネル13がタッチされた位置を含むエリアと今回タッチされた位置を含むエリアの関係で判断している。このため、プレイヤキャラクタ100がボール110をドリブルする手を替えるべきかどうかの判断も比較的少ない計算量で行うことができる。   Further, whether the player character 100 is dribbling the ball 110 with the right hand or the left hand when the touch panel 13 is newly touched is determined by examining the motion state of the player character 100 at the time of the touch. Instead, the determination is based on the relationship between the area including the position where the touch panel 13 was previously touched and the area including the position touched this time. For this reason, whether or not the player character 100 should change the hand that dribbles the ball 110 can also be determined with a relatively small amount of calculation.

また、プレイヤキャラクタ100がボール110をドリブルする手を右手から左手、或いは左手から右手に切り替えるときには、タッチパネル13をタッチする前のモーションデータから、タッチパネル13をタッチした後のモーションデータにそのまま移行させるのではない。タッチパネル13をタッチする前のモーションデータから一旦つなぎモーションのモーションデータに移行し、さらにつなぎモーションのモーションデータからタッチパネル13をタッチした後のモーションデータに移行させるものとしている。   Further, when the player character 100 switches the hand dribbling the ball 110 from the right hand to the left hand, or from the left hand to the right hand, the motion data before touching the touch panel 13 is directly transferred to the motion data after touching the touch panel 13. is not. It is assumed that the motion data before touching the touch panel 13 is shifted to the motion data of the connection motion, and the motion data of the connection motion is further transferred to the motion data after the touch panel 13 is touched.

つなぎモーションは、前回のタッチした位置を含むエリアが(1)〜(3)で今回のタッチした位置を含むエリアが(7)〜(9)であるとき、或いは前回のタッチした位置を含むエリアが(7)〜(9)で今回のタッチした位置を含むエリアが(1)〜(3)であるときにも挿入される。ドリブルする手の入れ替えも含めて、つなぎモーションを挿入するかどうかも、前回にタッチパネル13がタッチされた位置を含むエリアと今回タッチされた位置を含むエリアの関係で判断しているので、つなぎモーションの挿入の判断も比較的少ない計算量で行うことができる。   When the area including the position touched last time is (1) to (3) and the area including the position touched this time is (7) to (9), or the area including the position touched last time. Are inserted even when the areas including the position touched this time are (1) to (3) in (7) to (9). Whether to insert a joint motion, including the replacement of dribbling hands, is determined by the relationship between the area that includes the position where the touch panel 13 was previously touched and the area that includes the position that was touched this time. Can be determined with a relatively small amount of calculation.

そして、このようにタッチパネル13がタッチされた前後で適用されるモーションデータの差が大きい場合には、いきなり両者間でモーションデータを移行させるのではなく、一旦つなぎモーションのモーションデータを用いてプレイヤキャラクタ100を動作させているため、タッチパネル13がタッチされる前後でプレイヤに違和感が生じさせないように、プレイヤキャラクタ100を動作させることができるようになる。   And when the difference of the motion data applied before and after the touch panel 13 is touched is large in this way, the motion data of the connection motion is temporarily used instead of moving the motion data between the two, and the player character is temporarily used. Since 100 is operated, the player character 100 can be operated so that the player does not feel uncomfortable before and after the touch panel 13 is touched.

ところで、この実施の形態で適用されているゲームは、バスケットボールゲームであるが、ボール110のドリブル以外のプレイヤキャラクタ100の動作は、操作スイッチ部14からの入力によって指示することができる。プレイヤキャラクタ100は、例えば、方向指示スイッチ14cからの入力により仮想3次元空間に形成されたコート上を移動したり、方向転換したりする。このようにタッチパネル13以外の入力手段からの入力によって、ゲームの進行のためにプレイヤキャラクタ100にボール110をドリブルする以外の様々な動作をさせることができるようになる。   By the way, although the game applied in this embodiment is a basketball game, the actions of the player character 100 other than the dribbling of the ball 110 can be instructed by an input from the operation switch unit 14. For example, the player character 100 moves or changes direction on the court formed in the virtual three-dimensional space by an input from the direction instruction switch 14c. As described above, the input from the input means other than the touch panel 13 allows the player character 100 to perform various actions other than dribbling the ball 110 for the progress of the game.

方向指示スイッチ14cからの入力があった場合、プレイヤキャラクタ100は、ボール110をドリブルしながらコート上で該入力された方向に移動するものとなる。ここで現実の世界におけるバスケットボール選手の動きを考えると、ボール110の扱いは、体の正面にあるときの方が容易になる。この実施の形態にかかるバスケットボールゲームでは、プレイヤキャラクタ100からボール110に向けた方向とプレイヤキャラクタ100の進行方向(すなわち、方向指示スイッチ14cから入力された方向)とがなす角度に応じた速度でプレイヤキャラクタ100の移動速度を変えているので、ボール110をドリブルする位置に応じて自然な速度でプレイヤキャラクタ100を移動させることができる。   When there is an input from the direction indicating switch 14c, the player character 100 moves in the input direction on the court while dribbling the ball 110. Considering the movement of the basketball player in the real world, the handling of the ball 110 is easier when it is in front of the body. In the basketball game according to this embodiment, the player at a speed corresponding to the angle formed by the direction from the player character 100 toward the ball 110 and the traveling direction of the player character 100 (that is, the direction input from the direction instruction switch 14c). Since the moving speed of the character 100 is changed, the player character 100 can be moved at a natural speed according to the position where the ball 110 is dribbling.

また、この実施の形態にかかるバスケットボールゲームでは、方向指示スイッチ14cからの入力があった場合、プレイヤキャラクタ100が向いている方向(ルート100Rの方向)が進行方向からずれてプレイヤに違和感を感じさせることがないよう、まず、プレイヤキャラクタ100のルート100Rの向きを転換させるものとしている。ここでも現実の世界におけるバスケットボール選手の動きを考えると、ボールが予め進行方向にあれば、体を反転させるだけでボールを正面でさばきつつ進行方向を向くことができるが、ボール110が予め進行方向になければ、ボールを正面でさばくには体を反転させるだけでは済まない。   In the basketball game according to this embodiment, when there is an input from the direction instruction switch 14c, the direction in which the player character 100 is facing (the direction of the route 100R) is shifted from the traveling direction, and the player feels uncomfortable. First, the direction of the route 100R of the player character 100 is changed so as not to occur. Here again, considering the movement of the basketball player in the real world, if the ball is in the direction of advance, the ball 110 can be directed in the direction of advance while just moving the body upside down, If it is not, it is not necessary to flip the body to judge the ball in front.

方向指示スイッチ14cから入力された方向がプレイヤキャラクタ100のルート100Rの方向と異なるときにおいて、入力された方向から±θ3の範囲内にボールがあることを条件として、ボール110の位置をそのままにしてプレイヤキャラクタ100のルート100Rの方向を転換するクイックターンを行うものとしている。これにより、方向指示スイッチ14cからの入力に応じた方向へプレイヤキャラクタ100を方向転換させる場合にも、その方向転換を自然な速度で行うことができるようになる。   When the direction input from the direction indicating switch 14c is different from the direction of the route 100R of the player character 100, the position of the ball 110 is left as it is, provided that the ball is within a range of ± θ3 from the input direction. A quick turn for changing the direction of the route 100R of the player character 100 is performed. Thus, even when the player character 100 is turned in a direction corresponding to the input from the direction indicating switch 14c, the direction can be changed at a natural speed.

以上のようにプレイヤキャラクタ100の動作は、ボール110をドリブルする位置の違いに応じて自動的に変わるものとなる。つまり、プレイヤが行うこととなる入力操作の種類が少なくても、プレイヤキャラクタ100は、ボール110をドリブルする位置に応じて自然な動作をすることができるようになる。また、プレイヤキャラクタ100に自然な動作をさせるためにゲームが複雑になりすぎることもない。   As described above, the action of the player character 100 automatically changes according to the difference in the position where the ball 110 is dribbling. That is, even if there are few types of input operations that the player will perform, the player character 100 can perform natural actions according to the position where the ball 110 is dribbling. Further, the game does not become too complicated in order to make the player character 100 perform natural actions.

本発明は、上記の実施の形態に限られず、種々の変形、応用が可能である。以下、本発明に適用可能な上記の実施の形態の変形態様について説明する。   The present invention is not limited to the above-described embodiment, and various modifications and applications are possible. Hereinafter, modifications of the above-described embodiment applicable to the present invention will be described.

上記の実施の形態では、特定座標201〜206に対応したモーションデータのブレンド率を、タッチパネル13のタッチされた位置の座標と特定座標201〜206との間のx座標、y座標毎の距離に基づいて算出するものとしていた。しかしながら、特定座標201〜206に対応したモーションデータのブレンド率の算出方法はこれに限るものではなく、タッチパネル13のタッチされた位置の座標と特定座標201〜206との間の直線距離に基づいて算出したり、直線距離の自乗に基づいて算出するものとしてもよい。   In the above embodiment, the blend ratio of the motion data corresponding to the specific coordinates 201 to 206 is set to the distance between the coordinate of the touched position on the touch panel 13 and the specific coordinates 201 to 206 for each of the x coordinate and y coordinate. It was supposed to be calculated based on. However, the calculation method of the blend ratio of the motion data corresponding to the specific coordinates 201 to 206 is not limited to this, and is based on the linear distance between the coordinates of the touched position on the touch panel 13 and the specific coordinates 201 to 206. It may be calculated or calculated based on the square of the straight line distance.

上記の実施の形態では、タッチパネル13のタッチされた位置の座標と特定座標201〜206との間のx座標、y座標毎の距離に基づいてモーションデータのブレンド率を算出し、該算出したブレンド率でブレンドしたモーションデータを用いて、プレイヤキャラクタ100を動作させるものとしていた。これに対して、プレイヤキャラクタ100を動作させるためのモーションデータは、タッチパネル13のタッチされた位置に最も近い特定座標201〜206に対応したモーションデータをそのまま用いるものとし、モーションデータのブレンドを行わないものとしてもよい。   In the above embodiment, the blend ratio of the motion data is calculated based on the distance between the coordinates of the touched position on the touch panel 13 and the x-coordinate and the y-coordinate between the specific coordinates 201 to 206, and the calculated blend The player character 100 is operated using the motion data blended at a rate. On the other hand, as the motion data for operating the player character 100, the motion data corresponding to the specific coordinates 201 to 206 closest to the touched position on the touch panel 13 is used as it is, and the motion data is not blended. It may be a thing.

ここで、特定座標201〜206に対応したモーションデータをそのまま用いるのは、タッチパネル13上の特定座標201〜206から所定範囲(例えば、x座標及びy座標ともに±10の範囲)内にある位置がタッチされた場合だけとしてもよい。所定範囲外の位置がタッチされた場合には、上記の実施の形態で示したようにタッチされた位置に応じてモーションデータをブレンドし、該ブレンドしたモーションデータを用いてプレイヤキャラクタ100を動作させるものとしてもよい。   Here, the motion data corresponding to the specific coordinates 201 to 206 is used as it is because a position within a predetermined range (for example, a range of ± 10 for both the x coordinate and the y coordinate) from the specific coordinates 201 to 206 on the touch panel 13 is used. It may be only when it is touched. When a position outside the predetermined range is touched, the motion data is blended according to the touched position as shown in the above embodiment, and the player character 100 is operated using the blended motion data. It may be a thing.

上記の実施の形態では、プレイヤキャラクタ100の動作を規定するモーションデータは、タッチパネル13上の特定座標201〜206に対応づけて用意されていた。これに対して、タッチパネル13上の領域に設定されたエリア(1)〜(9)にそれぞれ対応づけてモーションデータを用意するものとしてもよい。この場合において、例えば、タッチパネル13においてエリア(1)の範囲内のいずれかの位置がタッチされたときには、当該エリア(1)に対応づけてROM171に記憶されているモーションデータを選択し、該モーションデータを用いてプレイヤキャラクタ100を動作させるものとしてもよい。   In the above embodiment, the motion data that defines the movement of the player character 100 is prepared in association with the specific coordinates 201 to 206 on the touch panel 13. On the other hand, motion data may be prepared in association with the areas (1) to (9) set in the area on the touch panel 13. In this case, for example, when any position within the area (1) is touched on the touch panel 13, the motion data stored in the ROM 171 in association with the area (1) is selected and the motion is selected. The player character 100 may be moved using data.

また、例えば、タッチパネル13上の領域が5行5列のエリアに区切られているものとした場合、第2行及び第4行、並びに第2列及び第4列に含まれないエリアについてのみモーションデータを用意しておくものとしてもよい。ここで、第m行第n列のエリアをエリア(m,n)と表すものとすると、タッチパネル13においてエリア(1,1)、(1,3)、(1,5)、(3,1)、(3,3)、(3,5)、(5,1)、(5,3)、(5,5)の範囲内のいずれかの位置がタッチされたときには、タッチされたエリアに対応づけられたモーションデータをそのまま用いてプレイヤキャラクタ100を動作させるものとしてもよい。   Also, for example, if the area on the touch panel 13 is divided into areas of 5 rows and 5 columns, motion is performed only for the areas that are not included in the second and fourth rows, and the second and fourth columns. Data may be prepared. Here, if the area of the m-th row and the n-th column is expressed as an area (m, n), the areas (1, 1), (1, 3), (1, 5), (3, 1) ), (3, 3), (3, 5), (5, 1), (5, 3), and (5, 5), when touched, the touched area It is good also as what moves the player character 100 using the matched motion data as it is.

一方、これ以外のエリアの範囲内のいずれかの位置がタッチされたときには、ブレンドしたモーションデータを用いてプレイヤキャラクタ100を動作させるものとすればよい。例えば、エリア(1,2)の範囲内の位置がタッチされた場合には、エリア(1,1)に対応したモーションデータとエリア(1,3)に対応したモーションデータとをブレンドすればよい。この場合のブレンド率は、それぞれ50%とすることができる。また、エリア(2,2)の範囲内の位置がタッチされた場合には、エリア(1,1)に対応したモーションデータ、エリア(1,3)に対応したモーションデータ、及びエリア(3,1)に対応したモーションデータ、エリア(3,3)に対応したモーションデータをブレンドすればよい。この場合のブレンド率は、それぞれ25%とすることができる。   On the other hand, when any position within the area other than this area is touched, the player character 100 may be moved using the blended motion data. For example, when a position in the range of the area (1, 2) is touched, the motion data corresponding to the area (1, 1) and the motion data corresponding to the area (1, 3) may be blended. . In this case, the blend ratio can be set to 50%. When a position within the range of the area (2, 2) is touched, the motion data corresponding to the area (1, 1), the motion data corresponding to the area (1, 3), and the area (3, 3) The motion data corresponding to 1) and the motion data corresponding to area (3, 3) may be blended. In this case, the blend ratio can be set to 25%.

上記の実施の形態では、プレイヤキャラクタ100がコート上を移動する際に該移動のモーションデータとブレンドされるドリブルのモーションデータも、タッチパネル13のタッチされた位置の座標のみに応じて生成されるものとなっていた。しかしながら、プレイヤキャラクタ100の移動する方向によっては、タッチパネル13のタッチされた位置のみに応じて生成されたドリブルのモーションデータでは、移動の方向とドリブルの動作とに違和感を生じさせてしまう虞もある。   In the above embodiment, when the player character 100 moves on the court, dribble motion data that is blended with the motion data of the movement is also generated according to only the coordinates of the touched position on the touch panel 13. It was. However, depending on the moving direction of the player character 100, the dribble motion data generated only in accordance with the touched position of the touch panel 13 may cause a sense of incongruity between the moving direction and the dribbling action. .

そこで、プレイヤキャラクタ100がコート上を移動する際に該移動のモーションデータとブレンドされるドリブルのモーションデータは、タッチパネル13のタッチされた位置の座標に加えてプレイヤキャラクタ100の移動方向(方向指示スイッチ14cから入力された方向)に応じて生成するものとしてもよい。このための手法として、例えば、タッチパネル13のタッチされた位置の座標をプレイヤキャラクタ100の移動方向に応じた演算式で変換し、該演算式により変換した座標と特定座標201〜206との位置関係に応じてドリブルのモーションデータを生成するものとすることができる。つなぎモーションを挿入するかどうかも、返還後の座標と特定座標201〜206との位置関係に応じて決めることができる。   Therefore, the dribble motion data blended with the motion data of the movement of the player character 100 on the court, in addition to the coordinates of the touched position on the touch panel 13, The direction may be generated in accordance with the direction input from 14c. As a technique for this, for example, the coordinates of the touched position of the touch panel 13 are converted by an arithmetic expression corresponding to the moving direction of the player character 100, and the positional relationship between the coordinates converted by the arithmetic expression and the specific coordinates 201 to 206 is calculated. The dribble motion data can be generated according to the above. Whether to insert a linkage motion can also be determined according to the positional relationship between the coordinates after the return and the specific coordinates 201-206.

これにより、プレイヤキャラクタ100がコート上を移動する際には、プレイヤキャラクタ100は、その移動動作に対して違和感の感じられない状態でボール110をドリブルすることができるようになる。また、プレイヤキャラクタ100がボール110をドリブルする位置もタッチパネル13のタッチする位置による直感的な入力で変化させることができるようになる。   As a result, when the player character 100 moves on the court, the player character 100 can dribble the ball 110 without feeling uncomfortable with the moving motion. Also, the position where the player character 100 dribbles the ball 110 can be changed by intuitive input based on the position touched by the touch panel 13.

上記の実施の形態では、プレイヤキャラクタ100にボール110をドリブルする手を入れ替えさせるか、つなぎモーションを挿入するかといった点についてのみ、前回と今回のタッチパネル13がタッチされた位置同士の関係で判断されていた。もっとも、プレイヤキャラクタ100のルート100Rの方向と方向指示スイッチ14cから入力された方向の相違の判断や、プレイヤキャラクタ100からボール110へ向けた方向の判断も、前回と今回のタッチパネル13がタッチされた位置同士の関係で判断してもよい。   In the above-described embodiment, only whether the player character 100 switches the dribbling hand of the ball 110 or inserts a joint motion is determined based on the relationship between the positions where the previous touch panel 13 and the current touch panel 13 are touched. It was. Of course, the touch panel 13 of the previous time and this time is also touched to determine the difference between the direction of the route 100R of the player character 100 and the direction input from the direction indicating switch 14c and the direction of the player character 100 toward the ball 110. You may judge by the relationship between positions.

方向指示スイッチ14cから入力可能な方向は8方向であり、タッチパネル13上でも中心にあるエリア(5)から8方向に他のエリアがあるため、全ての方向性の判断を、これら8方向を単位として行えばよい。例えば、プレイヤキャラクタ100からボール110に向けた方向を、仮想カメラの視点からプレイヤキャラクタ100に向けた方向に応じて8等分した角度範囲のいずれの角度範囲に含まれるかで判断するものとしてもよい。これにより、異なる対象の方向同士を比較する処理が容易なものとなる。   There are eight directions that can be input from the direction indicating switch 14c, and there are other areas in the eight directions from the area (5) in the center on the touch panel 13. Therefore, all the directions are determined in units of these eight directions. It can be done as For example, it may be determined whether the direction from the player character 100 toward the ball 110 is included in one of the angle ranges obtained by dividing the direction from the viewpoint of the virtual camera into eight according to the direction toward the player character 100. Good. This facilitates the process of comparing the directions of different objects.

上記の実施の形態では、方向指示スイッチ14cからの入力があったときに、プレイヤキャラクタ100は、プレイヤキャラクタ100からボール110に向けた方向と入力された方向とがなす角度をθとするとき、Vcos(θ/2)の速度で入力された方向に移動するものとなっていた。つまり、プレイヤキャラクタ100の移動速度は、θの大きさに応じて連続的に変化するものとなっていた。これに対して、プレイヤキャラクタ100からボール110の方向と入力された方向とがなす角度θを予め定められた閾値(複数あってもよい)と比較し、θがこの閾値以下であるときにはプレイヤキャラクタ100を所定の速度V1で移動させ、θがこの閾値より大きいときにはプレイヤキャラクタ100をV1よりも遅い速度V2で移動させるものとしてもよい。つまり、プレイヤキャラクタ100の移動速度は、θが閾値よりも大きいかどうかにより段階的に変化するものとしてもよい。   In the above embodiment, when there is an input from the direction indicating switch 14c, the player character 100 sets the angle between the direction from the player character 100 toward the ball 110 and the input direction as θ, It moves in the input direction at a speed of Vcos (θ / 2). That is, the moving speed of the player character 100 changes continuously according to the magnitude of θ. On the other hand, the angle θ formed by the direction of the ball 110 from the player character 100 and the input direction is compared with a predetermined threshold value (a plurality may be present). 100 may be moved at a predetermined speed V1, and when θ is greater than this threshold, the player character 100 may be moved at a speed V2 slower than V1. That is, the moving speed of the player character 100 may be changed stepwise depending on whether θ is larger than a threshold value.

上記の実施の形態では、プレイヤキャラクタ100のルート100Rの方向が方向指示スイッチ14cから入力された方向と一致しないときに、ボール110が入力された方向から±θ3の範囲内にあれば、プレイヤキャラクタ100をその場でクイックターンさせるものとしていた。もっとも、方向指示スイッチ14cからの入力時にタッチパネル13が現にタッチされていなければ、ボール110の位置に関わらずにプレイヤキャラクタ100をクイックターンさせることはないが、方向指示スイッチ14cからの入力があったときにタッチパネル13が現にタッチされていれば(但し、入力された方向から±θ3の範囲内の位置が)、プレイヤキャラクタ100をクイックターンさせるものとしてもよい。   In the above embodiment, when the direction of the route 100R of the player character 100 does not coincide with the direction input from the direction indicating switch 14c, if the player character 100 is within ± θ3 from the input direction, the player character 100 It was supposed to make 100 a quick turn on the spot. However, if the touch panel 13 is not actually touched at the time of input from the direction indicating switch 14c, the player character 100 is not quick-turned regardless of the position of the ball 110, but there is input from the direction indicating switch 14c. Sometimes, if the touch panel 13 is actually touched (however, a position within a range of ± θ3 from the input direction), the player character 100 may be turned quickly.

上記の実施の形態では、タッチパネル13上の領域が9つのエリアに分割されており、つなぎモーションの挿入対象となるかどうかは、先にタッチされた位置が含まれるエリアと後にタッチされた位置が含まれるエリアとの関係に応じて判断されるものとなっていた。先にタッチされた位置そのものと後にタッチされた位置そのものとの関係を判定して、つなぎモーションを挿入するかどうかを判断するものとしてもよい。特定座標201〜206のうちで先にタッチされた位置に最も近い特定座標と後にタッチされた位置に最も近い特定座標との関係を判定して、つなぎモーションを挿入するかどうかを判断するものとしてもよい。   In the above-described embodiment, the area on the touch panel 13 is divided into nine areas, and whether or not the connection motion is to be inserted depends on the area including the position touched first and the position touched later. It was determined according to the relationship with the included area. It is also possible to determine whether to insert a joint motion by determining the relationship between the position touched first and the position touched later. Among the specific coordinates 201 to 206, the relationship between the specific coordinates closest to the position touched first and the specific coordinates closest to the position touched later is determined to determine whether to insert a joint motion. Also good.

上記の実施の形態では、プレイヤキャラクタ100からボール110に向けた方向により両者の位置関係が判断されるものとなっていたが、さらにプレイヤキャラクタ100とボール110との間の距離によっても両者の位置関係を判断するものとしてもよい。また、プレイヤキャラクタ100に対して位置関係の判断対象となるオブジェクトはボール110だけであったが、2つ以上あってもよい。   In the above embodiment, the positional relationship between the player character 100 and the ball 110 is determined based on the direction from the player character 100 toward the ball 110. The relationship may be judged. Further, although the ball 110 is the only object whose positional relationship is determined with respect to the player character 100, there may be two or more objects.

上記の実施の形態では、本発明をバスケットボールゲームにおいてボール110をドリブルするプレイヤキャラクタ100に適用していたが、サッカーゲームなどの他のゲームのプレイヤキャラクタに適用するものとしてもよい。プレイヤキャラクタの動作に影響を与えるオブジェクトは、ボール以外のものであってもよく、プレイヤキャラクタの動作とは全く独立して仮想3次元空間において移動可能なものとしてもよい。図6、図10にて示したモーションブレンドの手法は、ボールのようなオブジェクトを扱わないプレイヤキャラクタに対しても適用することができる。図7、図8、図11にて示したようなプレイヤキャラクタの移動や方向転換の手法は、2次元ビデオゲームにも適用することができる。   In the above embodiment, the present invention is applied to the player character 100 dribbling the ball 110 in the basketball game, but may be applied to a player character of another game such as a soccer game. The object that affects the movement of the player character may be other than the ball, and may be movable in the virtual three-dimensional space completely independent of the movement of the player character. The motion blending method shown in FIGS. 6 and 10 can also be applied to a player character that does not handle an object such as a ball. The player character movement and direction change methods shown in FIGS. 7, 8, and 11 can be applied to a two-dimensional video game.

上記の実施の形態では、第2LCD12の前面側に配設されたタッチパネル13から座標位置の入力を行うものとしていた。もっとも、タッチパネル13は、第2LCD12のような表示装置の前面側に配設されるものでなくてもよい。また、座標位置を入力するデバイスは、タッチパネル13に限るものではなく、表示装置上に表示されたカーソルの位置により座標入力を行うマウスなど、他のポインティングデバイスを用いるものとしてもよい。   In the above embodiment, the coordinate position is input from the touch panel 13 provided on the front side of the second LCD 12. However, the touch panel 13 may not be disposed on the front side of the display device such as the second LCD 12. The device for inputting the coordinate position is not limited to the touch panel 13, and other pointing devices such as a mouse for inputting coordinates according to the position of the cursor displayed on the display device may be used.

上記の実施の形態では、第1LCD11と第2LCD12という2つの表示装置、及びタッチパネル13というポインティングデバイスを備えるゲーム装置1において、本発明を適用したバスケットボールゲームを実行するものとした場合を例として説明した。しかしながら、少なくともゲームの画像を表示する表示装置と、プレイヤが所望の座標位置を入力することのできるポインティングデバイスを備えるものであれば、ゲーム装置1以外のコンピュータ装置において、本発明を適用したゲームを実行するものとしてもよい。本発明を適用したゲームを実行するコンピュータ装置は、ゲーム専用機でもパーソナルコンピュータのような汎用機であってもよく、携帯型であるか据え置き型であるかを問わない。また、発明を適用したゲームを実行するコンピュータ装置として、携帯電話機を適用することもできる。   In the above embodiment, the case where the basketball game to which the present invention is applied is executed in the game apparatus 1 including the two display devices of the first LCD 11 and the second LCD 12 and the pointing device of the touch panel 13 has been described as an example. . However, a game device to which the present invention is applied is applied to a computer device other than the game device 1 as long as the game device has at least a display device that displays a game image and a pointing device that allows the player to input a desired coordinate position. It may be executed. A computer device that executes a game to which the present invention is applied may be a game-only machine or a general-purpose machine such as a personal computer, regardless of whether it is a portable type or a stationary type. A mobile phone can also be applied as a computer device that executes a game to which the invention is applied.

上記の実施の形態では、ゲーム装置1のプログラム及びデータは、ゲームカートリッジ17のROM171に格納されて配布されるものとしていた。もっとも、これらのプログラム及びデータを格納する記録媒体は、このようなものに限るものではなく、プラットフォームとなるコンピュータ装置の形態に応じて、光and/or磁気ディスク装置(フレキシブルディスク、CD−ROM、DVD−ROMなど)を適用することもできる。固定ディスク装置を備えるコンピュータ装置をプラットフォームとする場合には、これらのプログラム及びデータは、固定ディスク装置に予め格納して配布してもよい。   In the above embodiment, the program and data of the game apparatus 1 are stored in the ROM 171 of the game cartridge 17 and distributed. However, the recording medium for storing these programs and data is not limited to this, and depending on the form of the computer device as the platform, an optical and / or magnetic disk device (flexible disk, CD-ROM, A DVD-ROM or the like can also be applied. When a computer device having a fixed disk device is used as a platform, these programs and data may be stored and distributed in the fixed disk device in advance.

さらに、ネットワークを介して他のコンピュータ装置と通信可能なコンピュータ装置をプラットフォームとして適用する場合には、これらのプログラム及びデータは、ネットワーク上に存在するサーバ装置が有する固定ディスク装置に格納しておき、ネットワークを介して配信するものとしてもよい。   Furthermore, when a computer device that can communicate with other computer devices via a network is applied as a platform, these programs and data are stored in a fixed disk device of a server device existing on the network, It may be distributed via a network.

1 ゲーム装置
11 第1LCD
12 第2LCD
13 タッチパネル
14 操作スイッチ部
14c 方向指示スイッチ
17 ゲームカートリッジ
171 ROM
21 CPUコア
22 WRAM
24 第1GPU
26 第2GPU
100 プレイヤキャラクタ
110 ボール
201〜206、221〜224 特定座標
1 game device 11 first LCD
12 Second LCD
13 Touch Panel 14 Operation Switch 14c Directional Switch 17 Game Cartridge 171 ROM
21 CPU core 22 WRAM
24 1st GPU
26 Second GPU
100 player characters 110 balls 201-206, 221-224 specific coordinates

Claims (17)

仮想3次元空間に存在するオブジェクトを動作させた画像を生成する画像生成装置であって、
操作者の操作に応じて2次元平面上の任意の座標位置を入力する座標位置入力手段と、
前記オブジェクトの動作を規定する複数のモーションデータを記憶するモーションデータ記憶手段と、
前記座標位置入力手段から入力された座標位置に基づいて、前記複数のモーションデータのうちから前記オブジェクトを動作させるためのモーションデータを決定するモーションデータ決定手段と、
前記モーションデータ決定手段により決定されたモーションデータを用いて、前記オブジェクトを動作させるオブジェクト動作手段と、
前記オブジェクト動作手段により動作させられているオブジェクトを前記仮想3次元空間の所定の位置に設定された仮想カメラにより透視変換することにより、該オブジェクトの動作する画像を生成する動作画像生成手段と、
前記動作画像生成手段の生成した前記オブジェクトの動作する画像を表示手段に表示させる動作画像表示制御手段と
前記座標位置入力手段から座標位置が入力されたときまでの前記オブジェクトの動作と、該入力された座標位置に対応したモーションデータにより規定される動作の間に前記オブジェクトが行うつなぎ動作を規定するつなぎモーションデータを記憶するつなぎモーションデータ記憶手段と、
前記座標位置入力手段から座標位置が入力されたときに、該座標位置が入力されたときまでの前記オブジェクトの動作と該入力された座標位置とが所定の関係を有するかどうかを判定する動作位置判定手段とを備え、
前記オブジェクト動作手段は、
前記動作位置判定手段により所定の関係を有すると判定されたときに、前記座標位置が入力されたときまでの前記オブジェクトの動作状態から移行して前記つなぎモーションデータ記憶手段に記憶されたつなぎモーションデータを用いて前記オブジェクトを動作させるつなぎ動作手段を含み、
該つなぎ動作手段により前記オブジェクトを動作させた後に、該つなぎ動作手段による動作から移行して前記座標位置入力手段から入力された座標位置に対応したモーションデータを用いて前記オブジェクトを動作させる
ことを特徴とする画像生成装置。
An image generation apparatus that generates an image in which an object existing in a virtual three-dimensional space is moved,
Coordinate position input means for inputting an arbitrary coordinate position on the two-dimensional plane in accordance with an operation of the operator;
Motion data storage means for storing a plurality of motion data defining the movement of the object;
Motion data determining means for determining motion data for operating the object from the plurality of motion data based on the coordinate position input from the coordinate position input means;
Object motion means for moving the object using the motion data determined by the motion data determination means;
Action image generation means for generating an image in which the object is operated by perspective-transforming the object operated by the object action means by a virtual camera set at a predetermined position in the virtual three-dimensional space;
Action image display control means for displaying an action image of the object generated by the action image generation means on a display means ;
A linkage that defines the linkage operation performed by the object between the movement of the object until the coordinate position is input from the coordinate position input means and the movement defined by the motion data corresponding to the input coordinate position. Linkage motion data storage means for storing motion data;
When a coordinate position is input from the coordinate position input means, an operation position for determining whether or not the movement of the object until the coordinate position is input and the input coordinate position have a predetermined relationship Determination means,
The object operating means is
The transition motion data stored in the transition motion data storage means after shifting from the motion state of the object until the coordinate position is input when it is determined by the movement position determination means to have a predetermined relationship. A connection operation means for operating the object using
After moving the object by the connection operation means, the operation is shifted from the operation by the connection operation means and the object is operated using motion data corresponding to the coordinate position input from the coordinate position input means.
An image generation apparatus characterized by that.
前記つなぎモーションデータ記憶手段は、前記座標位置入力手段から座標位置が入力されたときまでの前記オブジェクトの動作状態と該入力された座標位置との関係に応じて、複数のつなぎモーションデータを記憶し、
前記つなぎ動作手段は、前記つなぎモーションデータ記憶手段に記憶された複数のつなぎモーションデータのうちで前記座標位置入力手段から座標位置が入力されたときまでの前記オブジェクトの動作と該入力された座標位置との関係に応じたつなぎモーションデータを用いて前記オブジェクトを動作させる
ことを特徴とする請求項に記載の画像生成装置。
The connection motion data storage means stores a plurality of connection motion data according to the relationship between the movement state of the object and the input coordinate position until the coordinate position is input from the coordinate position input means. ,
The connection operation means includes the movement of the object and the input coordinate position until the coordinate position is input from the coordinate position input means among the plurality of connection motion data stored in the connection motion data storage means. The image generation apparatus according to claim 1 , wherein the object is operated using connection motion data corresponding to the relationship between the image generation apparatus and the image generation apparatus.
仮想3次元空間に存在するオブジェクトを動作させた画像を生成する画像生成装置であって、
操作者の操作に応じて2次元平面上の任意の座標位置を入力する座標位置入力手段と、
前記オブジェクトの動作を規定する複数のモーションデータを記憶するモーションデータ記憶手段と、
前記座標位置入力手段から入力された座標位置に基づいて、前記複数のモーションデータのうちから前記オブジェクトを動作させるためのモーションデータを決定するモーションデータ決定手段と、
前記モーションデータ決定手段により決定されたモーションデータを用いて、前記オブジェクトを動作させるオブジェクト動作手段と、
前記オブジェクト動作手段により動作させられているオブジェクトを前記仮想3次元空間の所定の位置に設定された仮想カメラにより透視変換することにより、該オブジェクトの動作する画像を生成する動作画像生成手段と、
前記動作画像生成手段の生成した前記オブジェクトの動作する画像を表示手段に表示させる動作画像表示制御手段と
前記座標位置入力手段から先に入力された第1の座標位置に対応したモーションデータにより規定される動作と、前記第1の座標位置の次に入力された第2の座標位置に対応したモーションデータにより規定される動作との間に前記オブジェクトが行うつなぎ動作を規定するつなぎモーションデータを記憶するつなぎモーションデータ記憶手段と、
前記第1の座標位置と前記第2の座標位置とが所定の関係を有するかどうかを判定する座標位置判定手段とを備え、
前記オブジェクト動作手段は、
前記座標位置判定手段により所定の関係を有すると判定されたときに、前記第1の座標位置に対応したモーションデータにより規定される前記オブジェクトの動作から移行して前記つなぎモーションデータ記憶手段に記憶されたつなぎモーションデータを用いて前記オブジェクトを動作させるつなぎ動作手段を含み、
該つなぎ動作手段により前記オブジェクトを動作させた後に、該つなぎ動作手段による動作から移行して前記第2の座標位置に対応したモーションデータを用いて前記オブジェクトを動作させる
ことを特徴とする画像生成装置。
An image generation apparatus that generates an image in which an object existing in a virtual three-dimensional space is moved,
Coordinate position input means for inputting an arbitrary coordinate position on the two-dimensional plane in accordance with an operation of the operator;
Motion data storage means for storing a plurality of motion data defining the movement of the object;
Motion data determining means for determining motion data for operating the object from the plurality of motion data based on the coordinate position input from the coordinate position input means;
Object motion means for moving the object using the motion data determined by the motion data determination means;
Action image generation means for generating an image in which the object is operated by perspective-transforming the object operated by the object action means by a virtual camera set at a predetermined position in the virtual three-dimensional space;
Action image display control means for displaying an action image of the object generated by the action image generation means on a display means ;
The operation defined by the motion data corresponding to the first coordinate position previously input from the coordinate position input means, and the motion data corresponding to the second coordinate position input next to the first coordinate position Connection motion data storage means for storing connection motion data defining a connection operation performed by the object between the operations defined by
Coordinate position determination means for determining whether or not the first coordinate position and the second coordinate position have a predetermined relationship;
The object operating means is
When it is determined by the coordinate position determination means that a predetermined relationship is established, the movement of the object defined by the motion data corresponding to the first coordinate position is shifted and stored in the connection motion data storage means. Including tethering motion means for actuating the object using tethering motion data;
After moving the object by the connection operation means, the operation is shifted from the operation by the connection operation means and the object is operated using motion data corresponding to the second coordinate position.
An image generation apparatus characterized by that.
前記つなぎモーションデータ記憶手段は、前記第1、第2の座標位置の位置関係に応じて、複数のつなぎモーションデータを記憶し、
前記つなぎ動作手段は、前記つなぎモーションデータ記憶手段に記憶された複数のつなぎモーションデータのうちで前記第1、第2の座標位置の位置関係に応じたつなぎモーションデータを用いて前記オブジェクトを動作させる
ことを特徴とする請求項に記載の画像生成装置。
The connection motion data storage means stores a plurality of connection motion data according to the positional relationship between the first and second coordinate positions,
The joining operation means operates the object using joining motion data corresponding to the positional relationship between the first and second coordinate positions among the plurality of joining motion data stored in the joining motion data storage means. The image generating apparatus according to claim 3 .
前記座標位置判定手段は、前記2次元平面上に予め設定された複数の特定座標位置のうちで前記第1の座標位置に最も近い特定座標位置と前記第2の座標位置に最も近い特定座標位置とが所定の関係を有するかどうかを判定する
ことを特徴とする請求項またはに記載の画像生成装置。
The coordinate position determination means includes a specific coordinate position closest to the first coordinate position and a specific coordinate position closest to the second coordinate position among a plurality of specific coordinate positions set in advance on the two-dimensional plane. preparative image generating apparatus according to claim 3 or 4, wherein the determining whether a predetermined relationship.
前記座標位置入力手段は、前記2次元平面上に予め設定された複数の特定座標位置にそれぞれ対応づけられた複数の領域を有しており、
前記座標位置判定手段は、前記複数の領域のうちで前記第1の座標位置が含まれる領域と前記第2の座標位置が含まれる領域とが所定の関係を有するかどうかを判定する
ことを特徴とする請求項またはに記載の画像生成装置。
The coordinate position input means has a plurality of areas respectively associated with a plurality of specific coordinate positions set in advance on the two-dimensional plane ,
The coordinate position determination means determines whether or not a region including the first coordinate position and a region including the second coordinate position have a predetermined relationship among the plurality of regions. The image generation apparatus according to claim 3 or 4 .
前記モーションデータ記憶手段は、前記複数のモーションデータを、前記2次元平面上に予め設定された複数の特定座標位置にそれぞれ対応づけて記憶し、
前記モーションデータ決定手段は、前記座標位置入力手段から入力された座標位置と前記2次元平面上に予め設定された特定座標位置との位置関係に基づいて、前記オブジェクトの動作を規定するモーションデータを決定する
ことを特徴とする請求項1乃至6のいずれか1項に記載の画像生成装置。
The motion data storage means stores the plurality of motion data in association with a plurality of specific coordinate positions set in advance on the two-dimensional plane,
The motion data determination unit is configured to obtain motion data that defines the operation of the object based on a positional relationship between the coordinate position input from the coordinate position input unit and a specific coordinate position set in advance on the two-dimensional plane. The image generation apparatus according to claim 1 , wherein the image generation apparatus is determined.
操作者の操作に応じて前記オブジェクトの移動方向を入力する移動方向入力手段をさらに備え、
前記モーションデータ決定手段は、さらに前記移動方向入力手段から入力された移動方向に応じて、前記オブジェクトの動作を規定するモーションデータを決定し、
前記オブジェクト動作手段は、前記移動方向入力手段から入力された移動方向に応じて、前記オブジェクトを前記仮想3次元空間で移動させる移動制御手段を含む
ことを特徴とする請求項1乃至7のいずれか1項に記載の画像生成装置。
A moving direction input means for inputting a moving direction of the object in accordance with an operation of an operator;
The motion data determination means further determines motion data defining the movement of the object according to the movement direction input from the movement direction input means.
The object operation means includes movement control means for moving the object in the virtual three-dimensional space in accordance with the movement direction input from the movement direction input means . The image generating apparatus according to item 1 .
少なくとも前記オブジェクトの高さの範囲内で前記仮想3次元空間の高さ方向に垂直な平面に設定される仮想2次元空間の前記オブジェクトを含む所定範囲の画像を生成する平面画像生成手段と、
前記平面画像生成手段の生成した前記仮想2次元空間の画像を、前記オブジェクトを中心として前記表示手段とは異なる第2表示手段に表示させる平面画像表示制御手段とをさらに備え、
前記座標位置入力手段は、前記第2表示手段の前面に配設され、該第2表示手段に表示された画像を透過可能に示すタッチパネルである
ことを特徴とする請求項1乃至のいずれか1項に記載の画像生成装置。
Plane image generation means for generating an image of a predetermined range including the object in a virtual two-dimensional space set at a plane perpendicular to the height direction of the virtual three-dimensional space at least within a range of the height of the object;
A plane image display control unit that displays the image of the virtual two-dimensional space generated by the plane image generation unit on a second display unit different from the display unit with the object as a center;
The coordinate position input means is arranged in front of the second display means, any one of claims 1 to 8, characterized in that a touch panel showing permeable to the image displayed on the second display means The image generating apparatus according to item 1.
前記座標位置入力手段以外とは別に、操作者の操作に応じて前記オブジェクトの動作に関する指示を入力する動作入力手段をさらに備え、
前記オブジェクト動作手段は、さらに前記動作入力手段から入力された指示に応じて前記オブジェクトを動作させる
ことを特徴とする請求項1乃至のいずれか1項に記載の画像生成装置。
Apart from the coordinate position input means, the apparatus further comprises an action input means for inputting an instruction related to the action of the object in accordance with an operation of the operator,
It said object operation unit further image generating apparatus according to any one of claims 1 to 9, characterized in that operating the object in response to the instruction inputted from the operation input means.
前記オブジェクト動作手段は、
前記動作入力手段から操作者の指示が入力されたときに、前記座標位置入力手段から入力された座標位置に対応するモーションデータを用いた動作とは異なる態様で前記オブジェクトを動作させる手段を含み、
前記オブジェクトが前記動作入力手段からの入力に基づく動作を停止したときに、前記モーションデータ記憶手段に記憶された複数のモーションデータのうちの特定のモーションデータを用いて、前記オブジェクトを動作させる
ことを特徴とする請求項10に記載の画像生成装置。
The object operating means is
Means for causing the object to move in a manner different from the motion using motion data corresponding to the coordinate position input from the coordinate position input means when an operator instruction is input from the motion input means;
When the object stops an operation based on an input from the operation input unit, the object is operated using specific motion data among a plurality of motion data stored in the motion data storage unit. The image generation apparatus according to claim 10 , wherein
操作者の操作に応じて2次元平面上の任意の座標位置を入力する座標位置入力装置と、データを記憶する記憶装置と、画像を表示する表示装置とを備えるコンピュータ装置において実行され、仮想3次元空間に存在するオブジェクトを動作させた画像を生成する画像生成方法であって、
前記オブジェクトの動作を規定する複数のモーションデータを、前記記憶装置に予め記憶させ、
前記座標位置入力装置から座標位置が入力されたときまでの前記オブジェクトの動作と、該入力された座標位置に対応したモーションデータにより規定される動作の間に前記オブジェクトが行うつなぎ動作を規定するつなぎモーションデータを前記記憶装置に予め記憶させ、
前記座標位置入力装置から入力された座標位置に基づいて、前記記憶装置に予め記憶された前記複数のモーションデータのうちから前記オブジェクトを動作させるためのモーションデータを決定し、該決定したモーションデータに関する決定情報を前記記憶装置に一時記憶させ、
前記座標位置入力装置から座標位置が入力されたときに、該座標位置が入力されたときまでの前記オブジェクトの動作と該入力された座標位置とが所定の関係を有するかどうかを判定し、
前記記憶装置に一時記憶された決定情報に対応したモーションデータを用いて、前記オブジェクトを動作させるステップとして、前記オブジェクトの動作と該入力された座標位置とが所定の関係を有すると判定されたときに、前記座標位置が入力されたときまでの前記オブジェクトの動作状態から移行して前記記憶装置に記憶されたつなぎモーションデータを用いて前記オブジェクトを動作させた後に、該つなぎモーションデータにより規定される動作から移行して前記座標位置入力装置から入力された座標位置に対応したモーションデータを用いて前記オブジェクトを動作させて、該動作に応じたオブジェクトの形態を順次前記記憶装置に一時記憶させ、
前記記憶装置に一時記憶されている形態で前記オブジェクトを前記仮想3次元空間の所定の位置に設定された仮想カメラにより順次透視変換して、該オブジェクトの動作する画像を生成し、
前記透視変換により生成した前記オブジェクトの動作する画像を前記表示装置に表示させる
ことを特徴とする画像生成方法。
This is executed in a computer device including a coordinate position input device that inputs an arbitrary coordinate position on a two-dimensional plane in accordance with an operation of an operator, a storage device that stores data, and a display device that displays an image. An image generation method for generating an image in which an object existing in a dimensional space is moved,
A plurality of motion data defining the movement of the object is stored in the storage device in advance,
A linkage that defines the linkage operation performed by the object between the movement of the object until the coordinate position is input from the coordinate position input device and the movement defined by the motion data corresponding to the input coordinate position. Store the motion data in the storage device in advance,
Based on the coordinate position input from the coordinate position input device, motion data for operating the object is determined from the plurality of motion data stored in advance in the storage device, and the determined motion data Temporarily storing the determination information in the storage device;
When a coordinate position is input from the coordinate position input device, it is determined whether the movement of the object until the coordinate position is input and the input coordinate position have a predetermined relationship;
Using the motion data corresponding to the storage device temporarily stored determined information, as the step of Ru to operate the object, the operation and the input coordinate position of the object is determined to have a predetermined relationship Sometimes, the transition from the motion state of the object until the coordinate position is input and the motion of the object using the motion motion data stored in the storage device is followed by the motion motion data. The motion of the object using motion data corresponding to the coordinate position input from the coordinate position input device, and temporarily storing the form of the object corresponding to the motion in the storage device sequentially,
The object is temporarily stored in the storage device, and the object is sequentially perspective-transformed by a virtual camera set at a predetermined position in the virtual three-dimensional space to generate an image in which the object operates,
An image generating method, comprising: displaying on the display device an image of the object generated by the perspective transformation.
操作者の操作に応じて2次元平面上の任意の座標位置を入力する座標位置入力装置と、データを記憶する記憶装置と、画像を表示する表示装置とを備えるコンピュータ装置において実行され、仮想3次元空間に存在するオブジェクトを動作させた画像を生成する画像生成方法であって、
前記オブジェクトの動作を規定する複数のモーションデータを、前記記憶装置に予め記憶させ、
前記座標位置入力装置から先に入力された第1の座標位置に対応したモーションデータにより規定される動作と、前記第1の座標位置の次に入力された第2の座標位置に対応したモーションデータにより規定される動作との間に前記オブジェクトが行うつなぎ動作を規定するつなぎモーションデータを前記記憶装置に予め記憶させ、
前記座標位置入力装置から入力された座標位置に基づいて、前記記憶装置に予め記憶された前記複数のモーションデータのうちから前記オブジェクトを動作させるためのモーションデータを決定し、該決定したモーションデータに関する決定情報を前記記憶装置に一時記憶させ、
前記第1の座標位置と前記第2の座標位置とが所定の関係を有するかどうかを判定し、
前記記憶装置に一時記憶された決定情報に対応したモーションデータを用いて、前記オブジェクトを動作させるステップとして、前記第1の座標位置と前記第2の座標位置とが所定の関係を有すると判定されたときには、前記第1の座標位置に対応したモーションデータにより規定される前記オブジェクトの動作から移行して前記記憶装置に記憶されたつなぎモーションデータを用いて前記オブジェクトを動作させた後に、該つなぎモーションデータにより規定される動作から移行して前記第2の座標位置に対応したモーションデータを用いて前記オブジェクトを動作させて、該動作に応じたオブジェクトの形態を順次前記記憶装置に一時記憶させ、
前記記憶装置に一時記憶されている形態で前記オブジェクトを前記仮想3次元空間の所定の位置に設定された仮想カメラにより順次透視変換して、該オブジェクトの動作する画像を生成し、
前記透視変換により生成した前記オブジェクトの動作する画像を前記表示装置に表示させる
ことを特徴とする画像生成方法。
This is executed in a computer device including a coordinate position input device that inputs an arbitrary coordinate position on a two-dimensional plane in accordance with an operation of an operator, a storage device that stores data, and a display device that displays an image. An image generation method for generating an image in which an object existing in a dimensional space is moved,
A plurality of motion data defining the movement of the object is stored in the storage device in advance,
An operation defined by motion data corresponding to the first coordinate position previously input from the coordinate position input device, and motion data corresponding to the second coordinate position input next to the first coordinate position. The storage device preliminarily stores connection motion data defining a connection operation performed by the object between the operations specified by
Based on the coordinate position input from the coordinate position input device, motion data for operating the object is determined from the plurality of motion data stored in advance in the storage device, and the determined motion data Temporarily storing the determination information in the storage device;
Determining whether the first coordinate position and the second coordinate position have a predetermined relationship;
Using the motion data corresponding to the storage device temporarily stored determined information determined as the step of Ru to operate the object, and said first coordinate position and the second coordinate position have a predetermined relation When the object is moved, the movement of the object defined by the motion data corresponding to the first coordinate position is shifted to move the object using the connection motion data stored in the storage device, and then the connection is performed. Shifting from the motion defined by the motion data, moving the object using the motion data corresponding to the second coordinate position, and sequentially storing the form of the object corresponding to the motion in the storage device sequentially,
The object is temporarily stored in the storage device, and the object is sequentially perspective-transformed by a virtual camera set at a predetermined position in the virtual three-dimensional space to generate an image in which the object operates,
An image generating method, comprising: displaying on the display device an image of the object generated by the perspective transformation.
操作者の操作に応じて2次元平面上の任意の座標位置を入力する座標位置入力装置と、データを記憶する記憶装置と、画像を表示する表示装置とを備えるコンピュータ装置において実行され、該コンピュータ装置により仮想3次元空間に存在するオブジェクトを動作させた画像を生成するためのプログラムであって、
前記記憶装置は、前記オブジェクトの動作を規定する複数のモーションデータを予め記憶し、
前記プログラムは、
前記座標位置入力装置から入力された座標位置に基づいて、前記複数のモーションデータのうちから前記オブジェクトを動作させるためのモーションデータを決定するモーションデータ決定手段、
前記モーションデータ決定手段により決定されたモーションデータを用いて、前記オブジェクトを動作させるオブジェクト動作手段、
前記オブジェクト動作手段により動作させられているオブジェクトを前記仮想3次元空間の所定の位置に設定された仮想カメラにより透視変換することにより、該オブジェクトの動作する画像を生成する動作画像生成手段
前記動作画像生成手段の生成した前記オブジェクトの動作する画像を表示手段に表示させる動作画像表示制御手段
前記座標位置入力装置から座標位置が入力されたときまでの前記オブジェクトの動作と、該入力された座標位置に対応したモーションデータにより規定される動作の間に前記オブジェクトが行うつなぎ動作を規定するつなぎモーションデータを前記記憶装置に記憶させるつなぎモーションデータ記憶手段、及び、
前記座標位置入力装置から座標位置が入力されたときに、該座標位置が入力されたときまでの前記オブジェクトの動作と該入力された座標位置とが所定の関係を有するかどうかを判定する動作位置判定手段として前記コンピュータ装置を機能させ、
前記オブジェクト動作手段は、
前記動作位置判定手段により所定の関係を有すると判定されたときに、前記座標位置が入力されたときまでの前記オブジェクトの動作状態から移行して前記つなぎモーションデータ記憶手段により前記記憶装置に記憶されたつなぎモーションデータを用いて前記オブジェクトを動作させるつなぎ動作手段を含み、
該つなぎ動作手段により前記オブジェクトを動作させた後に、該つなぎ動作手段による動作から移行して前記座標位置入力装置から入力された座標位置に対応したモーションデータを用いて前記オブジェクトを動作させる
ことを特徴とするプログラム。
The computer is executed in a computer device including a coordinate position input device that inputs an arbitrary coordinate position on a two-dimensional plane in accordance with an operation of an operator, a storage device that stores data, and a display device that displays an image. A program for generating an image in which an object existing in a virtual three-dimensional space is moved by a device,
The storage device stores in advance a plurality of motion data defining the movement of the object,
The program is
Motion data determination means for determining motion data for operating the object from the plurality of motion data based on the coordinate position input from the coordinate position input device ;
Object motion means for moving the object using the motion data determined by the motion data determination means;
Action image generation means for generating an image in which the object is moved by performing perspective transformation of the object operated by the object movement means by a virtual camera set at a predetermined position in the virtual three-dimensional space ;
Action image display control means for displaying on the display means a moving image of the object generated by the action image generating means ;
A linkage that defines the linkage operation performed by the object between the movement of the object until the coordinate position is input from the coordinate position input device and the movement defined by the motion data corresponding to the input coordinate position. Linked motion data storage means for storing motion data in the storage device, and
When a coordinate position is input from the coordinate position input device, an operation position for determining whether or not the movement of the object until the coordinate position is input and the input coordinate position have a predetermined relationship Causing the computer device to function as a determination unit;
The object operating means is
When it is determined by the motion position determination means that a predetermined relationship is established, the movement state of the object up to the time when the coordinate position is input is transferred and stored in the storage device by the connection motion data storage means. Including tethering motion means for actuating the object using tethering motion data;
After moving the object by the connection operation means, the operation is shifted from the operation by the connection operation means and the object is operated using motion data corresponding to the coordinate position input from the coordinate position input device.
A program characterized by that.
操作者の操作に応じて2次元平面上の任意の座標位置を入力する座標位置入力装置と、データを記憶する記憶装置と、画像を表示する表示装置とを備えるコンピュータ装置において実行され、該コンピュータ装置により仮想3次元空間に存在するオブジェクトを動作させた画像を生成するためのプログラムであって、
前記記憶装置は、前記オブジェクトの動作を規定する複数のモーションデータを予め記憶し、
前記プログラムは、
前記座標位置入力装置から入力された座標位置に基づいて、前記複数のモーションデータのうちから前記オブジェクトを動作させるためのモーションデータを決定するモーションデータ決定手段、
前記モーションデータ決定手段により決定されたモーションデータを用いて、前記オブジェクトを動作させるオブジェクト動作手段、
前記オブジェクト動作手段により動作させられているオブジェクトを前記仮想3次元空間の所定の位置に設定された仮想カメラにより透視変換することにより、該オブジェクトの動作する画像を生成する動作画像生成手段
前記動作画像生成手段の生成した前記オブジェクトの動作する画像を表示手段に表示させる動作画像表示制御手段
前記座標位置入力装置から先に入力された第1の座標位置に対応したモーションデータにより規定される動作と、前記第1の座標位置の次に入力された第2の座標位置に対応したモーションデータにより規定される動作との間に前記オブジェクトが行うつなぎ動作を規定するつなぎモーションデータを前記記憶装置に記憶させるつなぎモーションデータ記憶手段、及び、
前記第1の座標位置と前記第2の座標位置とが所定の関係を有するかどうかを判定する座標位置判定手段として前記コンピュータ装置を機能させ、
前記オブジェクト動作手段は、
前記座標位置判定手段により所定の関係を有すると判定されたときに、前記第1の座標位置に対応したモーションデータにより規定される前記オブジェクトの動作から移行して前記つなぎモーションデータ記憶手段により前記記憶装置に記憶されたつなぎモーションデータを用いて前記オブジェクトを動作させるつなぎ動作手段を含み、
該つなぎ動作手段により前記オブジェクトを動作させた後に、該つなぎ動作手段による動作から移行して前記第2の座標位置に対応したモーションデータを用いて前記オブジェクトを動作させる
ことを特徴とするプログラム。
The computer is executed in a computer device including a coordinate position input device that inputs an arbitrary coordinate position on a two-dimensional plane in accordance with an operation of an operator, a storage device that stores data, and a display device that displays an image. A program for generating an image in which an object existing in a virtual three-dimensional space is moved by a device,
The storage device stores in advance a plurality of motion data defining the movement of the object,
The program is
Motion data determination means for determining motion data for operating the object from the plurality of motion data based on the coordinate position input from the coordinate position input device ;
Object motion means for moving the object using the motion data determined by the motion data determination means;
Action image generation means for generating an image in which the object is moved by performing perspective transformation of the object operated by the object movement means by a virtual camera set at a predetermined position in the virtual three-dimensional space ;
Action image display control means for displaying on the display means a moving image of the object generated by the action image generating means ;
An operation defined by motion data corresponding to the first coordinate position previously input from the coordinate position input device, and motion data corresponding to the second coordinate position input next to the first coordinate position. Connection motion data storage means for storing connection motion data defining a connection operation performed by the object between the operations specified by the storage device in the storage device; and
Causing the computer apparatus to function as coordinate position determination means for determining whether or not the first coordinate position and the second coordinate position have a predetermined relationship;
The object operating means is
When it is determined by the coordinate position determination means that the predetermined relationship is established, the movement of the object defined by the motion data corresponding to the first coordinate position is shifted to the storage by the connection motion data storage means. A linkage operation means for operating the object using linkage motion data stored in the apparatus;
After moving the object by the connection operation means, the operation is shifted from the operation by the connection operation means and the object is operated using motion data corresponding to the second coordinate position.
A program characterized by that.
操作者の操作に応じて2次元平面上の任意の座標位置を入力する座標位置入力装置と、データを記憶する記憶装置と、画像を表示する表示装置とを備えるコンピュータ装置において実行され、該コンピュータ装置により仮想3次元空間に存在するオブジェクトを動作させた画像を生成するためのプログラムを記録した記録媒体であって、
前記記憶装置は、前記オブジェクトの動作を規定する複数のモーションデータを予め記憶し、
前記プログラムは、
前記座標位置入力装置から入力された座標位置に基づいて、前記複数のモーションデータのうちから前記オブジェクトを動作させるためのモーションデータを決定するモーションデータ決定手段、
前記モーションデータ決定手段により決定されたモーションデータを用いて、前記オブジェクトを動作させるオブジェクト動作手段、
前記オブジェクト動作手段により動作させられているオブジェクトを前記仮想3次元空間の所定の位置に設定された仮想カメラにより透視変換することにより、該オブジェクトの動作する画像を生成する動作画像生成手段
前記動作画像生成手段の生成した前記オブジェクトの動作する画像を表示手段に表示させる動作画像表示制御手段
前記座標位置入力装置から座標位置が入力されたときまでの前記オブジェクトの動作と、該入力された座標位置に対応したモーションデータにより規定される動作の間に前記オブジェクトが行うつなぎ動作を規定するつなぎモーションデータを前記記憶装置に記憶させるつなぎモーションデータ記憶手段、及び、
前記座標位置入力装置から座標位置が入力されたときに、該座標位置が入力されたときまでの前記オブジェクトの動作と該入力された座標位置とが所定の関係を有するかどうかを判定する動作位置判定手段として前記コンピュータ装置を機能させ、
前記オブジェクト動作手段は、
前記動作位置判定手段により所定の関係を有すると判定されたときに、前記座標位置が入力されたときまでの前記オブジェクトの動作状態から移行して前記つなぎモーションデータ記憶手段により前記記憶装置に記憶されたつなぎモーションデータを用いて前記オブジェクトを動作させるつなぎ動作手段を含み、
該つなぎ動作手段により前記オブジェクトを動作させた後に、該つなぎ動作手段による動作から移行して前記座標位置入力装置から入力された座標位置に対応したモーションデータを用いて前記オブジェクトを動作させる
ことを特徴とするコンピュータ読み取り可能な記録媒体。
The computer is executed in a computer device including a coordinate position input device that inputs an arbitrary coordinate position on a two-dimensional plane in accordance with an operation of an operator, a storage device that stores data, and a display device that displays an image. A recording medium storing a program for generating an image in which an object that exists in a virtual three-dimensional space is moved by an apparatus,
The storage device stores in advance a plurality of motion data defining the movement of the object,
The program is
Motion data determination means for determining motion data for operating the object from the plurality of motion data based on the coordinate position input from the coordinate position input device ;
Object motion means for moving the object using the motion data determined by the motion data determination means;
Action image generation means for generating an image in which the object is moved by performing perspective transformation of the object operated by the object movement means by a virtual camera set at a predetermined position in the virtual three-dimensional space ;
Action image display control means for displaying on the display means a moving image of the object generated by the action image generating means ;
A linkage that defines the linkage operation performed by the object between the movement of the object until the coordinate position is input from the coordinate position input device and the movement defined by the motion data corresponding to the input coordinate position. Linked motion data storage means for storing motion data in the storage device, and
When a coordinate position is input from the coordinate position input device, an operation position for determining whether or not the movement of the object until the coordinate position is input and the input coordinate position have a predetermined relationship Causing the computer device to function as a determination unit;
The object operating means is
When it is determined by the motion position determination means that a predetermined relationship is established, the movement state of the object up to the time when the coordinate position is input is transferred and stored in the storage device by the connection motion data storage means. Including tethering motion means for actuating the object using tethering motion data;
After moving the object by the connection operation means, the operation is shifted from the operation by the connection operation means and the object is operated using motion data corresponding to the coordinate position input from the coordinate position input device.
A computer-readable recording medium.
操作者の操作に応じて2次元平面上の任意の座標位置を入力する座標位置入力装置と、データを記憶する記憶装置と、画像を表示する表示装置とを備えるコンピュータ装置において実行され、該コンピュータ装置により仮想3次元空間に存在するオブジェクトを動作させた画像を生成するためのプログラムを記録した記録媒体であって、
前記記憶装置は、前記オブジェクトの動作を規定する複数のモーションデータを予め記憶し、
前記プログラムは、
前記座標位置入力装置から入力された座標位置に基づいて、前記複数のモーションデータのうちから前記オブジェクトを動作させるためのモーションデータを決定するモーションデータ決定手段、
前記モーションデータ決定手段により決定されたモーションデータを用いて、前記オブジェクトを動作させるオブジェクト動作手段、
前記オブジェクト動作手段により動作させられているオブジェクトを前記仮想3次元空間の所定の位置に設定された仮想カメラにより透視変換することにより、該オブジェクトの動作する画像を生成する動作画像生成手段
前記動作画像生成手段の生成した前記オブジェクトの動作する画像を表示手段に表示させる動作画像表示制御手段
前記座標位置入力装置から先に入力された第1の座標位置に対応したモーションデータにより規定される動作と、前記第1の座標位置の次に入力された第2の座標位置に対応したモーションデータにより規定される動作との間に前記オブジェクトが行うつなぎ動作を規定するつなぎモーションデータを前記記憶装置に記憶させるつなぎモーションデータ記憶手段、及び、
前記第1の座標位置と前記第2の座標位置とが所定の関係を有するかどうかを判定する座標位置判定手段として前記コンピュータ装置を機能させ、
前記オブジェクト動作手段は、
前記座標位置判定手段により所定の関係を有すると判定されたときに、前記第1の座標位置に対応したモーションデータにより規定される前記オブジェクトの動作から移行して前記つなぎモーションデータ記憶手段により前記記憶装置に記憶されたつなぎモーションデータを用いて前記オブジェクトを動作させるつなぎ動作手段を含み、
該つなぎ動作手段により前記オブジェクトを動作させた後に、該つなぎ動作手段による動作から移行して前記第2の座標位置に対応したモーションデータを用いて前記オブジェクトを動作させる
ことを特徴とするコンピュータ読み取り可能な記録媒体。
The computer is executed in a computer device including a coordinate position input device that inputs an arbitrary coordinate position on a two-dimensional plane in accordance with an operation of an operator, a storage device that stores data, and a display device that displays an image. A recording medium storing a program for generating an image in which an object that exists in a virtual three-dimensional space is moved by an apparatus,
The storage device stores in advance a plurality of motion data defining the movement of the object,
The program is
Motion data determination means for determining motion data for operating the object from the plurality of motion data based on the coordinate position input from the coordinate position input device ;
Object motion means for moving the object using the motion data determined by the motion data determination means;
Action image generation means for generating an image in which the object is moved by performing perspective transformation of the object operated by the object movement means by a virtual camera set at a predetermined position in the virtual three-dimensional space ;
Action image display control means for displaying on the display means a moving image of the object generated by the action image generating means ;
An operation defined by motion data corresponding to the first coordinate position previously input from the coordinate position input device, and motion data corresponding to the second coordinate position input next to the first coordinate position. Connection motion data storage means for storing connection motion data defining a connection operation performed by the object between the operations specified by the storage device in the storage device; and
Causing the computer apparatus to function as coordinate position determination means for determining whether or not the first coordinate position and the second coordinate position have a predetermined relationship;
The object operating means is
When it is determined by the coordinate position determination means that the predetermined relationship is established, the movement of the object defined by the motion data corresponding to the first coordinate position is shifted to the storage by the connection motion data storage means. A linkage operation means for operating the object using linkage motion data stored in the apparatus;
After moving the object by the connection operation means, the operation is shifted from the operation by the connection operation means and the object is operated using motion data corresponding to the second coordinate position.
A computer-readable recording medium.
JP2009124292A 2009-05-22 2009-05-22 Image generating apparatus and method, program, and recording medium Active JP4864117B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009124292A JP4864117B2 (en) 2009-05-22 2009-05-22 Image generating apparatus and method, program, and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009124292A JP4864117B2 (en) 2009-05-22 2009-05-22 Image generating apparatus and method, program, and recording medium

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2005291801A Division JP4388004B2 (en) 2005-10-04 2005-10-04 Image generating apparatus and method, program, and recording medium

Publications (2)

Publication Number Publication Date
JP2009223904A JP2009223904A (en) 2009-10-01
JP4864117B2 true JP4864117B2 (en) 2012-02-01

Family

ID=41240541

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009124292A Active JP4864117B2 (en) 2009-05-22 2009-05-22 Image generating apparatus and method, program, and recording medium

Country Status (1)

Country Link
JP (1) JP4864117B2 (en)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5898842B2 (en) * 2010-01-14 2016-04-06 任天堂株式会社 Portable information processing device, portable game device
EP2355526A3 (en) 2010-01-14 2012-10-31 Nintendo Co., Ltd. Computer-readable storage medium having stored therein display control program, display control apparatus, display control system, and display control method
JP5800501B2 (en) 2010-03-12 2015-10-28 任天堂株式会社 Display control program, display control apparatus, display control system, and display control method
JP6021296B2 (en) 2010-12-16 2016-11-09 任天堂株式会社 Display control program, display control device, display control system, and display control method
JP6111293B2 (en) * 2015-07-24 2017-04-05 株式会社スクウェア・エニックス Game program and game system
JP6441426B1 (en) * 2017-08-28 2018-12-19 株式会社エイビック Character video display system

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001204963A (en) * 2000-01-28 2001-07-31 Square Co Ltd Method of displaying motion, game apparatus and recording medium
JP4376650B2 (en) * 2004-02-09 2009-12-02 任天堂株式会社 GAME DEVICE AND GAME PROGRAM

Also Published As

Publication number Publication date
JP2009223904A (en) 2009-10-01

Similar Documents

Publication Publication Date Title
JP4388004B2 (en) Image generating apparatus and method, program, and recording medium
JP4445449B2 (en) Image generation device
US8075401B2 (en) Hand-held game apparatus and game program
US9354839B2 (en) Storage medium storing object movement controlling program and information processing apparatus
US7884822B2 (en) Game apparatus, storage medium storing a game program, and game controlling method
JP5106825B2 (en) GAME PROGRAM, GAME DEVICE, GAME SYSTEM, AND GAME CONTROL METHOD
JP3833228B2 (en) GAME DEVICE AND GAME PROGRAM
JP2006122241A (en) Game device and game program
JP4864117B2 (en) Image generating apparatus and method, program, and recording medium
JP5210547B2 (en) Movement control program and movement control apparatus
US8926427B2 (en) Video game with screen flip and dual sets of collision data
JP4287764B2 (en) Competitive game device and competitive game program
JP4307317B2 (en) GAME DEVICE AND GAME PROGRAM
JP2010068970A (en) Program and device for puzzle game
JP2006102123A (en) Game apparatus and game program
JP2009223903A (en) Image generation device and method, program, and recording medium
JP4782167B2 (en) Competitive game device and competitive game program

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100521

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110620

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110628

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110726

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20111011

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20111108

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20141118

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4864117

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20141118

Year of fee payment: 3

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20141118

Year of fee payment: 3

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250